[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE69329554T2 - Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken - Google Patents

Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken

Info

Publication number
DE69329554T2
DE69329554T2 DE69329554T DE69329554T DE69329554T2 DE 69329554 T2 DE69329554 T2 DE 69329554T2 DE 69329554 T DE69329554 T DE 69329554T DE 69329554 T DE69329554 T DE 69329554T DE 69329554 T2 DE69329554 T2 DE 69329554T2
Authority
DE
Germany
Prior art keywords
image
data
mask
objects
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69329554T
Other languages
English (en)
Other versions
DE69329554D1 (de
Inventor
James Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Neopath Inc
Original Assignee
Neopath Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neopath Inc filed Critical Neopath Inc
Application granted granted Critical
Publication of DE69329554D1 publication Critical patent/DE69329554D1/de
Publication of DE69329554T2 publication Critical patent/DE69329554T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N15/00Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
    • G01N15/10Investigating individual particles
    • G01N15/14Optical investigation techniques, e.g. flow cytometry
    • G01N15/1429Signal processing
    • G01N15/1433Signal processing using image recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Dispersion Chemistry (AREA)
  • Molecular Biology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

    Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Identifizierung von Objekten unter Verwendung von Datenverarbeitungstechniken und genauer auf ein Verfahren zur Verwendung in Kombination mit Bildanalysevorrichtungen zum Identifizieren von Objekten von Interesse innerhalb des Blickfeld eines Bildanalysemikroskops.
  • Hintergrund der Erfindung
  • Mit zunehmendem Fortschritt in der Datenverarbeitungstechnologie, sowohl bezüglich Hardware als auch bezüglich Software, werden biomedizinische Analysesysteme mehr und mehr vorherrschend. Bis in die Gegenwart sind Bildverbesserungssysteme zum Bereitstellen von Bildern von Körpersystemen entwickelt worden, wie beispielsweise Magnetresonanzabbildungseinrichtungen, Ultraschalldarstellung, Computertomographiedarstellung usw.. Bildverbesserungssysteme werden typischerweise zum Aufnehmen und Verarbeiten von Daten verwendet, die zu verwenden sind, um ein Bild eines funktionalen Systems eine Patienten, z. B. des Herzens des Patienten, der Lunge usw., bereitzustellen. Diese Systeme machen keinen Versuch, andere Daten, die die funktionalen Systeme des Patienten wiedergeben, zu sammeln oder zu analysieren.
  • Andere Bildanalysesysteme, die zum Analysieren von Bilddaten von Proben, welche einem Patienten entnommen wurden, verwendet werden, sind entwickelt worden. Beispielsweise sind Einrichtungen zum Analysieren von Bilddaten bereitgestellt worden, die Blutzellen, Knochenmarkzellen, Gehirnzellen usw. wiedergeben. Bildanalysesystene sind typischerweise vorgesehen, um Bilddaten aufzunehmen und zu verarbeiten, die verwendet werden, um Charakteristika von Proben, beispielsweise Blutzellenzahlen zu bestimmen. Diese Systeme versuchen, verschiedene Objekte innerhalb der Probe zu identifizieren, z. B. einzelne Zellen, so daß die Charakteristika des Objekts weiter analysiert werden können, um die Gesamtqualität oder den Zustand der Probe zu bestimmen. Bisherige Bildanalysesysteme sind jedoch daran gescheitert, wirksame Methoden und Vorrichtungen zum Identifizieren einzelner Objekte von Interesse innerhalb der Proben ohne spezielle Präparation der Proben bereitzustellen.
  • Zum Beispiel sind Bildanalysesysteme bereitgestellt worden, um Teile eines Pap-Zervikalabstrichs zu durchsuchen. Diese Systeme erfordern typischerweise eine spezielle Präparation der Pap- Zervikalabstrichprobe, bevor die Probe untersucht werden kann. Dies ist so, weil eine typische Pap-Zervikalabstrichprobe, die ohne die Hilfe eines Bildanalysesystems von einem Zytotechniker untersucht werden kann, Schichten und Klumpen von Zellen umfaßt, die durch Einsatz verfügbarer Bilddatenverarbeitungstechnologie nicht einfach identifiziert werden können. Die spezielle Präparation, die für diese Analysesysteme erforderlich ist, erfordert jedoch zusätzliche Schritte in der Präparation der Probe und erhöht deshalb den Gesamtaufwand und die Kompliziertheit der Analyse.
  • Es gibt verschiedene bekannte Ansätze, um Zellen in einer Probe zu identifizieren. Zum Beispiel sind in A. Rosenfeld et al.: "Digital Picture Processing", 1982, zweite Auflage, Band 2, Seiten 66 und 78 bis 79, Academic Press, Orlando, FL, USA, verschiedene mögliche Lösungen zum Schwellwertvergleich solcher Probenbilder beschrieben, einschließlich unter anderem der Verwendung von zwei Schwellwerten, dis unter Berücksichtigung des Graustufenhistogramms des Bilds festgelegt werden (Seite 66, dritter Absatz), aber auch der Verwendung lokaler Eigenschaftswerte der Bildpixel (Seite 78, letzter Absatz und Seite 79, die ersten beiden Absätze); es scheint jedoch so, daß lokale Eigenschaften (so wie die Graustufe der Pixel selbst oder die mittlere Graustufe berechnet über eine Pixelnachbarschaft) nur zum Festlegen eines besseren Schwellwerts berücksichtigt werden, wie er sowieso konventionell verwendet wird. Die EP-A-0 421 736 beschreibt ein Verfahren, bei dem, nachdem die Zellen provisorisch identifiziert worden sind, das Bild durch Berechnung des Hintergrundniveaus um die identifizierten Zellen herum lokal korrigiert wird.
  • Dementsprechend ist es wünschenswert, ein Verfahren zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops eines Bildanalysesystems bereitzustellen, das keine spezielle Präparation der Probe erfordert, die abgebildet werden. Weiterhin ist es wünschenswert, ein Verfahren zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops eines Bildanalysesystems bereitzustellen, das in der Lage ist, einzelne Objekte zu identifizieren, die nahe anderen Objekten angeordnet sein können. Spezieller ist es wünschenswert, ein Verfahren zur Verwendung mit Bildanalysesystemen zum Identifizieren von Zellen einer Pap-Zervikalabstrichprobe bereitzustellen.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung stellt ein Verfahren nach Anspruch 1 zum Erzeugen einer Maske zum Identifizieren von Objekten von Interesse bereit, wobei die Objekte von Interesse in einem Bild enthalten sind, das durch ein Array von Bilddaten wiedergegeben wird. Das Verfahren umfaßt die Schritte des Verarbeitens der Daten, die das Bild wiedergeben, um ein Schwellwertbild zu erzeugen, wobei das Schwellwertbild ein Array von Datenworten ist, wobei jedes Datenwort des Schwellwertbilds einem zugehörigen Datenwort des Bilds entspricht. Ein binäres Bild wird durch Vergleich jedes Datenworts des Schwellwertbilds mit dem zugehörigen Datenwort des Bilds erzeugt, wobei das binäre Bild ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort des Bilds entspricht und wobei jedes Datenwort des binären Bilds identifiziert, ob das zugehörige Datenwort des Bilds größer war als das zugehörige Datenwort des Schwellwertbilds. Löcher in dem binären Bild werden durch Invertieren des binären Bilds und Ausschließen von Daten, die ein Objekt von um einen vorgegebenen Betrag geringerer Größe als die erwartete Größe der Objekte von Interesse wiedergeben, wobei die identifizierten Objekte dann zurück zu dem binären Bild hinzugefügt werden, geschlossen, um eine vorläufige Maske zu erzeugen. Die Daten, die die vorläufige Maske wiedergeben, werden verarbeitet, um ihre dunklen Kanten zu detektieren, und sie werden mit der vorläufigen Maske kombiniert, um Daten zu erzeugen, die eine dunkle Kanten einschließende Maske wiedergeben. Die Daten, die die vorläufige Maske wiedergeben, werden auch verarbeitet, um ihre hellen Kanten zu detektieren, und sie werden mit der dunkle Kanten einschließenden Maske kombiniert, um Daten zu erzeugen, die eine die Objekte von Interesse identifizierende Maske wiedergeben.
  • Kurzbeschreibung der Zeichnungen
  • Fig. 1 ist ein Verfahrensflußdiagramm, das die Schritte der vorliegenden Erfindung im allgemeinen illustriert;
  • die Fig. 2A, 2B und 2C sind Darstellungen, die Objekte einer Probe auf einem Probenträger illustrieren;
  • Fig. 3 ist ein Verfahrensflußdiagramm, das Unterschritte zum Ausführen des Schritts 102 gemäß Fig. 1 illustriert;
  • Fig. 4A ist ein Graph, der eine Idealverteilung von Pixelhelligkeiten für einen Probenträger illustriert, der in Kombination mit der vorliegenden Erfindung verwendet wird;
  • Fig. 4B ist ein Graph eines verzerrten Histogramms, wobei die Peaks von den Tälern tatsächlich nicht unterscheidbar sind und wobei die Helligkeit, bei der die Peaks auftreten, unbestimmt ist.
  • Fig. 5 ist ein Verfahrensflußdiagramm, das die Schritte erläutert, die zum Bestimmen der Helligkeitsverteilung von Pixeln für ein bestimmtes Blickfeld verwendet werden;
  • Fig. 6 ist ein Verfahrensflußdiagramm, das die Schritte illustriert, die zum Erzeugen eines Schwellwertbilds gemäß der vorliegenden Erfindung verwendet werden;
  • Fig. 7A und 7B sind Zeichnungen, die einen Teil des Verfahrens zum Verfeinern der Objekte von Interesse gemäß der vorliegenden Erfindung illustrieren.
  • Fig. 8 ist ein Verfahrensflußdiagramm, das Schritte zum Verfeinern der Objekte von Interesse gemäß der vorliegenden Erfindung illustriert;
  • Fig. 9 ist ein Verfahrensflußdiagramm, das Schritte zum Verfeinern der Objekte von Interesse gemäß der vorliegenden Erfindung illustriert; und
  • die Fig. 10A, 10B und 10C sind Zeichnungen, die ein neues Verfahren zum Beseitigen von Löchern an den Objekten von Interesse gemäß der vorliegenden Erfindung illustrieren.
  • Detaillierte Beschreibung der Erfindung
  • Wie oben erwähnt, umfaßt die vorliegende Erfindung ein Verfahren zur Verwendung mit Bildanalysesystemen zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops des Bildanalysesystems. Das Verfahren der vorliegenden Erfindung ist besonders geeignet zur Verwendung mit Bildanalysesystemen, die zur Analyse von zytologischen Proben und spezieller zur Analyse der Charakteristika der Zellen der Probe ausgebildet sind. Die vorliegende Erfindung ist jedoch allgemein anwendbar auf jegliche Systeme zum Verarbeiten von Bilddaten und könnte deshalb in einfacher Weise zur Verwendung in vielen Bereichen der Bildanalyse adaptiert werden, wie beispielsweise der Maschinenüberwachung, der Halbleiterkontrolle usw. Dementsprechend wird der Fachmann, obwohl die vorliegende Erfindung hier unter Bezugnahme auf ein Bildanalysesystem, das zur Analyse von Pap-Zervikalabstrichen ausgebildet ist, beschrieben wird, erkennen, daß die Erfindung auf vielen Gebieten der Bildanalyse anwendbar ist.
  • Ein Bildanalysesystem umfaßt typischerweise ein Mikroskop, eine Kamera und Datenverarbeitungseinrichtungen zum Bereitstellen von Daten, die ein Blickfeld des Mikroskops wiedergeben. Die Blickfelddaten werden analysiert, um die Objekte von Interesse zu identifizieren und um die Objekte von Interesse zu charakterisieren, um zu bestimmen, ob die Probe auf dem Probenträger normal oder abnormal ist.
  • Es wird vom Fachmann vorausgesetzt werden, daß die vorliegende Erfindung ein Verfahren zum Durchführen eines notwendigen Schritts bei der Gesamtanalyse von Pap-Zervikalabstrichproben aufweist. Insbesondere ist die vorliegende Erfindung zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds des Mikroskops vorgesehen. Andere Verfahren müssen dann verwendet werden, um die Charakteristika der identifizierten Objekte von Interesse zu analysieren und den Gesamtzustand der Probe zu bestimmen.
  • Das vorliegende Verfahren zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops ist im allgemeinen in Fig. 1 illustriert. Dabei ist es der erste Schritt, die Blickfelddaten für die Analyse zu empfangen, Schritt 100. Die Blickfelddaten sind Daten von dem Mikroskop des Bildanalysesystems, die das Bild eines Blickfelds des Mikroskops wiedergeben. In einer derzeit bevorzugten Ausführungsform der Erfindung kann die Mikroskopabbildungsvorrichtung so viele wie 15 000 Blickfelder für eine Probe bereitstellen. Es wird jedoch dem Fachmann klar sein, daß viele Blickfelder keine Objekte von Interesse enthalten werden. Dementsprechend wird von den Daten, die in Schritt 100 empfangen werden, angenommen, daß sie als Blickfelddaten, die Objekte von Interesse enthalten, vorgescannt oder anderweitig vorsortiert wurden.
  • Die Blickfelddaten sind typischerweise ein Array von Datenworten, wobei jedes Datenwort ein Pixel (Bildelement) der Kamera des Bildanalysesystems wiedergibt. In der derzeit bevorzugten Ausführungsform der Erfindung, sind die Blickfelddaten Graustufenblickfelddaten, d. h., jedes Datenwort ist ein binäres Mehrbitwort, wobei der Wert des Datenworts den Transmissionsgrad des Bereichs der Probe anzeigt, der dem Pixel zugeordnet ist, das von dem Datenwort wiedergegeben wird. Teile der vorliegenden Erfindung sind aber gleichermaßen auf binäre Blickfelddaten anwendbar, d. h. auf Daten, bei denen jedes Datenwort entweder die Anwesenheit oder die Abwesenheit eines Objekts in dem Bereich der Probe anzeigt, der dem Pixel zugeordnet ist, das durch das Datenwort wiedergegeben wird.
  • Die Blickfelddaten, die ein Bild des Blickfelds der Mikroskopabbildungsvorrichtung wiedergeben, werden einzeln verarbeitet, um die Objekte von Interesse innerhalb des Blickfelds zu identifizieren. Das Ergebnis des vorliegenden Verfahrens zum Identifizieren von Objekten von Interesse, d. h. von Zellen im Fall eines Pap-Zervikalabstrichs, ist eine Maske, die die Größe, die Form und den Ort der Objekte von Interesse innerhalb des Blickfelds identifiziert und eine Maske, die einen eindeutigen Identifikationswert für jedes Objekt in dem Bild bereitstellt. Bezugnehmend auf Fig. 2A ist ein Blickfeld eines Mikroskops illustriert, das mehrere Objekte von Interesse umfaßt, die mit 200, 202, 204 und 206 bezeichnet sind. Fig. 2B illustriert die Maske, die entwickelt werden wird, um die Größe, die Form und den Ort der Objekte von Interesse zu identifizieren, die in Fig. 2A illustriert sind. Fig. 2C illustriert die Maske, die erzeugt werden wird, um den Identifikationswert für die Objekte von Interesse bereitzustellen, die in Fig. 2A illustriert sind. Es wird vom Fachmann vorausgesetzt werden, daß die vorliegende Erfindung, wenn sie zur Pap-Zervikalabstrichanalyse verwendet wird, zusätzlich zu anderer Zellanalyse die in den Fig. 2B und 2C illustrierten Masken sowohl für den Kern als auch das Zytoplasma jeder Zelle bereitstellen wird, die in dem Blickfeld des Mikroskops enthalten ist. Weiterhin wird es dem Fachmann klar sein, daß die in den Fig. 2B und 2C bereitgestellten Illustrationen Wiedergaben von Daten sind, die gemäß der vorliegenden Erfindung erzeugt werden und nicht notwendigerweise als Ausgabe des Verfahrens bereitgestellt werden. Die hier bereitgestellten Darstellungen sollen nur bei der Beschreibung der Erfindung helfen.
  • Um die Objekte von Interesse zu identifizieren und die in den Fig. 2B und 2C illustrierten Masken bereitzustellen, verbessert die vorliegende Erfindung zunächst den Kontrast zwischen den Objekten von Interesse und dem Hintergrund, Schritt 102. Diese Verbesserung wird vorgenommen, um die Differenz zwischen Daten, die die Kante eines Objekts wiedergeben und Daten, die den Hintergrund wiedergeben, zu vergrößern. Danach wird jedes Objekt in dem Blickfeld einem Schwellwerttest unterworfen, um zu bestimmen, ob die Helligkeit des Objekts innerhalb eines vorgegebenen Helligkeitsbereichs liegt, der für Objekte von Interesse erwartet wird. Da das Blickfeld zusätzlich zu Objekten von Interesse Artefakte enthalten kann, ist es wünschenswert, nicht nur die Größe, die Form und den Ort von Objekten von Interesse zu identifizieren, sondern auch jegliche Artefakte, wie beispielsweise Haar, Schmutz, Staub usw., die unbeabsichtigt in dem Blickfeld erscheinen können, von der weiteren Analyse auszuschließen. Zu diesem Zweck wird ein Bereich von vorgegebenen Werten für verschiedene Charakteristika der Objekte von Interesse bereitgestellt, wobei von den Objekten von Interesse erwartet wird, daß sie in dem Bereich der bereitgestellten Werte liegen. Die Charakteristika, die untersucht werden, sind Helligkeit, Größe und Form. Es wird dem Fachmann jedoch klar sein, daß andere Charakteristika ausgewählt werden können, um verschiedene andere Objekte von Interesse zu identifizieren, wenn die vorliegende Erfindung auf andere Typen von Bildanalysesystemen angewandt wird.
  • Nach dem Durchführen des Schwellwerttests von Schritt 104 sind die Objekte von Interesse identifiziert worden. Der nächste Schritt dient deshalb zum Verfeinern des Bilds der Objekte von Interesse und zum Erzeugen der Masken, die in den Fig. 2B und 2C illustriert sind, Schritt 106.
  • Ein detaillierteres Entscheidungsflußdiagramm, das das Verfahren zum Durchführen der Kontrastverbesserung von Schritt 102 illustriert, ist in Fig. 3 bereitgestellt. Der erste Schritt beim Verbessern des Bilds ist es, ausgewählte Parameter der Blickfelddaten zu bestimmen. In der Ausführungsform der Erfindung, die in Fig. 3 illustriert ist, sind die ausgewählten Parameter die Helligkeit des Kerns, des Zytoplasma und des Hintergrunds, Schritt 300. Der Fachmann wird voraussetzten, daß das Bildanalysesystem aus verschiedenen Gründen Variationen in der Helligkeit von Blickfeld zu Blickfeld aufweisen kann. Der offensichtlichste Beitrag zur Helligkeitsvariation ist die Helligkeit des Beleuchtungssystems bzw. das für den Probenträger bereitgestellte Licht vor dem Aufnehmen der Blickfeldbilddaten. Es können aber andere Faktoren zur Variation der Helligkeit von einem Blickfeld zum nächsten beitragen. Dementsprechend wird die Bestimmung des Schritts 300 durchgeführt, um die Helligkeit des vorliegenden Blickfelds wirksam zu skalieren.
  • Die Helligkeitsbestimmung von Schritt 300 kann unter Anwendung einer Histogrammfunktion durchgeführt werden, um zu bestimmen, wieviele Pixel innerhalb des Graustufenblickfelds eine bestimmte Helligkeit aufweisen. Die Resultate des Histogramms können graphisch dargestellt werden, wie in Fig. 4A illustriert ist. Idealerweise ist das Resultat des Histogramms eine Kurve mit drei Peaks, wobei der hellste Peak die Anzahl der Pixel anzeigt, die den Hintergrund des Blickfelds wiedergeben. Der mittelhelle Peak 402 zeigt die Anzahl der Pixel an, die das Zytoplasma der Zellen von Interesse wiedergeben, und der dunkelste Peak 400 gibt die Anzahl der Pixel wieder, die den Kern der Zelle wiedergeben.
  • Da jedoch das vorliegende Verfahren zur Verwendung ohne jegliche spezielle Präparation der Probe vorgesehen ist, können Zellen in überlappender Anordnung oder in Klumpen vorliegen. Diese Zellen werden dazu neigen, die Resultate des Histogramms zu verzerren, so daß sie das Histogramm von dem in Fig. 4A illustrierten Ideal abweichen lassen. Solch ein verzerrtes Histogramm ist in Fig. 4B illustriert, wobei die Peaks tatsächlich ununterscheidbar von den Tälern sind und wobei die Helligkeit, mit der die Peaks auftreten, unbestimmt ist. Um den Einfluß von sich überlappenden Zellen auf die Parameterbestimmung von Schritt 300 zu reduzieren, können morphologische Funktionen wie wiederholte Dilatation und Erosion durchgeführt werden, um sich überlappende Objekte aus dem Blickfeld zu entfernen. Die morphologischen Funktionen der Dilatation und Erosion sind dem Fachmann gut bekannt und müssen hier nicht im Detail diskutiert werden.
  • Bezugnehmend auf Fig. 5 ist ein Verfahren zum Bestimmten der Helligkeit von Objekten von Interesse und zum Bereitstellen der Schwellwertdaten der Schritte 300 und 304 bereitgestellt. Hierbei wird das Originalbild zunächst verkleinert, Schritt 500. Das Verkleinern des Originalbilds wird durchgeführt, um in der Parameterabschätzungsstufe Zeit zu sparen. Es wird festgestellt, daß Details der Größe und Form des Originalblickfeldbilds nicht notwendig für eine genaue Bestimmung der Schwellwertdaten sind. Das Verkleinern kann durch im Stand der Technik bekannte Verfahren einfach durchgeführt werden.
  • Nach dem Verkleinern des Originalbilds werden dunkle Objekte unter Verwendung eines vorgegebenen Schwellwerts detektiert. Dies wird durch Eliminieren aller Blickfeldbilddaten durchgeführt, die nicht größer als oder gleich wie der vorgegebene Schwellwert sind, Schritt 502. Danach werden große Objekte von dem im Schritt 502 erzeugten Bild entfernt. Die Entfernung von großen Objekten kann durch Anwenden einer öffnenden Restoperation erreicht werden. Wie im Stand der Technik bekannt, ist ein öffnender Rest einfach eine morphologische Öffnung, um ein geöffnetes Bild zu erzeugen, gefolgt von einer Differenzoperation, um das geöffnete Bild mit dem Originalbild zu kombinieren. Danach wird das verkleinerte Bild mit dem im Schritt 504 erzeugten Bild kombiniert, um die großen dunklen Objekte, die durch das Bild von Schritt 504 detektiert wurden, von dem verkleinerten Bild von Schritt 500 zu entfernen, Schritt 506.
  • Wie oben unter Bezugnahme auf die Fig. 4A und 4B diskutiert wurde, werden sich überlappende und dicht gepackte Zellen jegliche Unterscheidung zwischen der Helligkeit des Kerns, des Zytoplasmas und des Hintergrunds des Blickfelds verzerren und so die Parameterbestimmung extrem schwierig machen, falls nicht unmöglich. Die Schritte 502 und 504 sind deshalb vorgesehen, um große dunkle Objekte von den Bilddaten zu entfernen, die für die Parameterbestimmung verwendet werden, um so repräsentative Objekte von Interesse zu isolieren. Der Fachmann wird voraussetzen, daß sich überlappende Zellen dunkel sein werden und sich von dem dunklen Kern durch ihre Größe unterscheiden. Entsprechend sind die Schritte 502 und 504 vorgesehen, um Objekte zu entfernen, die eine Dunkelheit ähnlich derjenigen aufweisen, die für den Kern erwartet wird, und eine Größe aufweisen, die viel größer ist als diejenige, die für den Kern erwartet wird. Es wird dem Fachmann klar sein, daß in anderen Anwendungen andere Kriterien ausgewählt werden könnten, um Objekte zu entfernen, die die Parameter verzerren, und um Objekte zu isolieren, die für die gemessenen Parameter repräsentativ sind.
  • Nachdem die großen dunklen Objekte von dem verkleinerten Bild entfernt worden sind, Schritt 506, wird ein Histogramm aufgestellt, Schritt 508, und es werden die Bildhelligkeitsparameter bestimmt, Schritt 510. Bei der vorliegenden Ausführungsform der Erfindung, die verwendet wird, um Zellen in einem Pap-Zervikalabstrich zu identifizieren, sind die Ergebnisse der Bildbestimmung, Schritt 510, ein den Hintergrund wiedergebender hoher Schwellwert, ein das Zytoplasma wiedergebender mittlerer Schwellwert und ein den Kern wiedergebender niedriger Schwellwert, wie auch in Fig. 4A illustriert ist.
  • Die Resultate der Parameterbestimmung von Schritt 300 sind Schwellwertdaten, die Daten bereitstellen, welche die erwarteten Schwellwerte des Kerns, des Zytoplasmas und des Hintergrunds eines bestimmten Blickfelds einer bestimmten Probe anzeigen, Schritt 304. Der Fachmann wird voraussetzten, daß die Schwellwertdaten speziell für jedes Blickfeld bestimmt werden müssen, da Variationen in dem Bildanalysesystem, wie sie oben diskutiert wurden, dazu führen, daß sich die Parameter von Blickfeld zu Blickfeld ändern. Darüberhinaus können, obwohl die Parameter der hier diskutierten Ausführungsform die Helligkeiten der Objekte von Interesse sind, in verschiedenen anderen Anwendungen andere Parameter ausgewählt und bestimmt werden.
  • Wie oben erwähnt wurde, sind die Resultate der vorliegenden Erfindung die Erzeugung einer Maske, die die Größe, die Form und den Ort der Objekte von Interesse identifiziert, und die Bereitstellung eines Identifikationswerts für die Objekte von Interesse, wie in den Fig. 2B und 2C illustriert ist. Die Objekte von Interesse können jedoch eine Textur aufweisen, d. h. Helligkeitsdiskontinuitäten, die die Möglichkeit der Erzeugung einer Maske beeinträchtigen. Dementsprechend ist es wünschenswert, die Textur von den Objekten von Interesse zu entfernen, Schritt 306. Mit besonderer Bezugnahme auf das Bild von Zellen einer Pap- Zervikalabstrichprobe ist es wünschenswert, die Textur des Kerns von jeglicher Zelle zu entfernen, die in dem Blickfeldbild erscheint. Die Texturentfernung kann an dem Originalbild durch eine morphologische Graustufenöffnung bewirkt werden, wie sie im Stand der Technik bekannt ist. Nach der Öffnung werden die Grenzen der Objekte von Interesse durch bedingte Dilatation wiederaufbereitet. Danach werden die Reste der Bilder wiederaufbereitet, um ein nicht-texturiertes Bild bereitzustellen, Schritt 308.
  • Dann wird der Hintergrund normalisiert, um die Differenz im Kontrast zwischen dem Hintergrund und den Objekten von Interesse zu reduzieren, Schritt 310. Dieser Schritt ist besonders sinnvoll für die Abbildung von Zellen oder anderen Objekten von Interesse, wenn die Objekte von Interesse zwei Bereiche mit unterschiedlichen Helligkeitsniveaus aufweisen, d. h. Kern- und Zytoplasma im Fall einer Zellabbildung. Das Ergebnis der Hintergrundnormalisierung ist die Bereitstellung eines normalisierten Bilds, Schritt 312.
  • Das vom Schritt 312 bereitgestellte normalisierte Bild und das vom Schritt 308 bereitgestellte nicht texturierte Bild werden im Schritt 314 kombiniert, um das verbesserte Bild bereitzustellen, das Teil des Ergebnisses von Schritt 102 ist. Die Transformation des verbesserten Objektbilds von Schritt 314 wird durchgeführt durch Transformieren des Bilds, um den Effekt von Intensitätsvariationen aufgrund von ungleichmäßigen Färbungen der Proben zu eliminieren. Wie es im Stand der Technik bekannt ist, wird ein Pap-Abstrich unter Einfärben einer Probe durchgeführt, um chemisch die Differenz im Transmissionsgrad zwischen Bereichen der Probe, d. h. dem Nukleus, dem Zytoplasma und dem Hintergrund, zu verbessern. Da jedoch das Einfärbung über die Probe unregelmäßig sein kann, können Variationen in der Graustufenintensität des Blickfeldbilds resultieren. Die Bildtransformation von Schritt 314 wird unter Verwendung von Gauß'schen Mittelungstechniken durchgeführt, um diese Unregelmäßigkeiten zu mindern.
  • Insbesondere wird das Originalbild in einem binominalen Filter gefiltert. Das nicht texturierte Bild wird dann von dem gefilterten Bild subtrahiert, um das verbesserte Bild bereitzustellen, Schritt 316.
  • Dementsprechend ist, wie in Fig. 3 illustriert, das Resultat der unter Bezugnahme auf Schritt 102, Fig. 1 diskutierten Kontrastverbesserung, daß Schwellwertdaten bereitgestellt werden, die die Graustufenintensität von verschiedenen Bereichen der Objekte von Interesse und des Hintergrunds illustrieren, und daß ein verbessertes Bild bereitgestellt wird, indem der Kontrast zwischen dem Hintergrund und den Objekten von Interesse verbessert ist.
  • Zurückkehrend zu Fig. 1 wird der Schwellwerttest zum Identifizieren von Objekten von Interesse, Schritt 104, an dem verbesserten Bild (erzeugt von Schritt 316, Fig. 3) unter Verwendung der Schwellwertdaten (erzeugt von dem Verfahren gemäß Fig. 5) durchgeführt, um ein binäres Bild zu erzeugen. Der Schwellwerttest ist im allgemeinen ein solcher, der jedes Datenwort von jedem Pixel der Blickfeldbilddaten mit einem vorgegebenen Schwellwert vergleicht und der jedes Objekt als Objekt von Interesse identifiziert, das eine Intensität größer als der vorgegebene Wert aufweist. Es ist jedoch ein besonderes neues Merkmal der vorliegenden Erfindung, daß der Wert des Schwellwerts für jedes Pixel variiert wird. Anders gesagt wird ein Schwellwertbild erzeugt, wobei das Schwellwertbild einen Schwellwertintensitätswert umfaßt, der jedem einzelnen Pixel des Blickfelds zugeordnet ist. Der Schwellwerttest wird durchgeführt, in dem der einem bestimmten Pixel zugeordnete Schwellwertintensitätswert mit dem Datenwort von diesem Pixel verglichen wird. Es ist im Stand der Technik bekannt, daß dann, wenn das Datenwort größer oder gleich dem Schwellwertintensitätswert ist, dem zugehörigen Pixel des binären Bilds der Wert "eins" zugeordnet wird, um die Anwesenheit eines Objekts anzuzeigen. Umgekehrt wird dann, wenn das Datenwort kleiner oder gleich dem Schwellwertintensitätswert ist, dem zugehörigen Pixel des binären Bilds eine "null" zugeordnet, um die Abwesenheit eines Objekts anzuzeigen.
  • Unter Bezugnahme auf Fig. 6 wird ein Verfahren zum Erzeugen eines Schwellwertbilds diskutiert werden. Das Schwellwertbild wird aus dem nicht texturierten Bild und dem verbesserten Bild erzeugt. Der Hintergrund des nicht texturierten Bilds (siehe Schritt 308 von Fig. 3) wird entfernt, Schritt 600. Danach werden die Kante und die Textur des verbesserten Bilds erzeugt, Schritt 602, und der dunkle Bereich wird geschwächt, Schritt 604. Das Kantenbild wird durch eine morphologische Dilatationsrestoperation bestimmt, und das Texturbild wird durch die Differenz des nicht texturierten Bilds und des Originalbilds erhalten. Die Bilder, die aus den Schritten 600 und 604 resultieren, werden kombiniert, Schritt 606, und das kombinierte Bild wird verwaschen ("blurred"), Schritt 608, um das Schwellwertbild zu erzeugen, Schritt 610.
  • Wie oben erwähnt, wird das Schwellwertbild mit dem Originalbild kombiniert, um die Objekte von Interesse zu identifizieren. Das Schwellwertbild, das oben erzeugte wurde, wie unter Bezugnahme auf Fig. 6 beschrieben ist, kann als solches zusammen mit dem Originalbild verwendet werden, um die Objekte von Interesse zu identifizieren; in einer derzeit bevorzugten Ausführungsform der vorliegenden Erfindung wird das Schwellwertbild jedoch mit dem verbesserten Bild kombiniert, um die Objekte von Interesse zu identifizieren. Zusätzlich wird das Schwellwertbild, wie unten detaillierter beschrieben werden wird, mit zwei vorbestimmten Offset-Werten kombiniert, um drei Schwellwertbilder zu erzeugen. Ein erster vorbestimmter Offset wird von jedem Graustufenpixelwert eines Originalschwellwertbilds subtrahiert, um ein Niedrigschwellwertbild zu erzeugen, und ein zweiter vorgegebener Wert wird zu jedem Graustufenpixelwert des Schwellwertbilds hinzuaddiert, um ein Hochschwellwertbild zu erzeugen. Das Niedrigschwellwertbild, das Hochschwellwertbild und das Originalschwellwertbild werden jeweils getrennt voneinander mit dem verbesserten Bild kombiniert, um drei binäre Schwellwertbilder bereitzustellen.
  • Es wird dem Fachmann klar sein, daß jedes der hier oben diskutierten Bilder Graustufenbilder gewesen sind, d. h. Bilder, in denen jedes Pixel einen Bereich von Werten haben kann, die eine Vielzahl von Intensitäten wiedergeben. Nachdem die Schwellwertbilder, wie oben diskutiert wurde, mit dem verbesserten Bild kombiniert worden sind, ist das Ergebnis ein binäres Bild, d. h. ein Bild, in dem jedes Pixel entweder die Anwesenheit oder die Abwesenheit eines Objekts wiedergibt. Da es das Ergebnis des vorliegenden Verfahrens ist, eine Maske bereitzustellen, wird der Fachmann voraussetzen, daß die binären Bilder, die durch Kombinieren der Schwellwertbilder mit dem verbesserten Bild erzeugt wurden, die Maske wiedergeben, die die Form, die Größe und die Position von jedem Objekt von Interesse innerhalb des Blickfelds identifiziert.
  • Noch weiter wird der Fachmann voraussetzen, daß eine Kombination des originalen Schwellwertbilds mit dem verbesserten Bild eine Maske bereitstellt, die die Größe, die Form und die Position von Objekten von Interesse identifiziert, wobei die Maske für die meisten Anwendungen geeignet ist. In der aktuellen Anwendung des vorliegenden Verfahrens ist es jedoch wünschenswert, weitere eine Datenverarbeitung der Blickfeldbilddaten durchzuführen, um sicherzustellen, daß alle Objekte von Interesse ordnungsgemäß identifiziert worden sind und in der Maske wiedergegeben werden. Deshalb werden die drei binäre Schwellwertbilder, die als Ergebnis des Schritts 104 (Fig. 1), wie oben diskutiert wurde, erzeugt wurden, verfeinert, Schritt 106, wie unten detaillierter diskutiert werden wird.
  • Im allgemeinen beginnt die Verfeinerung der binären Schwellwertbilder mit dem binären Schwellwertbild, das durch Kombinierendes Originalschwellwertbilds mit dem verbesserten Bild erzeugt wurde. Eine Datenverarbeitung wird durchgeführt, um zu bestimmen, ob irgendwelche Artefakte, oder nicht-Kerne identifiziert worden sind. Das Ergebnis dieser Tests ist es, etwas zu erzeugen, was eine sehr enge Näherung der gewünschten Maske wiedergibt. Danach werden alle Objekte, die in dem binären Hochschwellwertbild identifiziert sind, zu der oben erzeugten besten Näherungsmaske zugefügt. Letztlich wird eine weitere Datenverarbeitung durchgeführt, um zu bestimmen, ob irgendwelche zusätzlichen Objekte von Interesse in dem binären Niedrigschwellwertbild identifiziert worden sind, die noch nicht in die Maske aufgenommen wurden, und falls ja, werden diese Objekte ebenfalls in die Maske aufgenommen.
  • Um das binäre Mittelschwellwertbild zu verfeinern, wird die Maske überarbeitet, um etwaige Löcher zu füllen. Zum Beispiel kann die binäre Maske, die wie in Fig. 2B angezeigt aussehen sollte, Löcher innerhalb der Objekte von Interesse haben, wie in Fig. 7A gezeigt ist. Das Verfahren von Fig. 8 wird durchgeführt, um die Maske von Fig. 7A zu verfeinern, um jegliche Löcher zu beseitigen und um eine Maske bereitzustellen, wie sie in Fig. 2B illustriert ist. Zu Beginn werden die dunklen Kanten der Objekte von Interesse durch morphologische Erosionsrestoperationen identifiziert, wie durch die Zwischenmaske von Fig. 7B illustriert ist. Um das Einschließen der dunklen Kanten auszuführen, werden die dunklen Kanten des verbesserten Bilds detektiert. Die dunkle-Kanten-Detektion kann durch ein einfaches Bestimmen durchgeführt werden, wo eine Variation zwischen einem Pixel und einem benachbarten Pixel vorliegt. Die dunkle Kante wird identifiziert als das Pixel, das ein Objekt von Interesse wiedergibt. Als nächstes werden die dunklen Kanten unter Anwendung einer kleinen morphologischen Schließung und nachfolgender Öffnung verbunden, um Löcher in den dunklen Kanten aufzufüllen, Schritt 802. Danach wird der Grenzbereich der Kante detektiert und als die wahre dunkle-Kanten-Maske identifiziert, wie in Fig. 7B illustriert ist. Das binäre Mittelschwellwertbild 806 wird in einer Satzvereinigung 808 mit dem Bild kombiniert, das durch Schritt 804 erzeugt wurde, um ein dunkle Kanten einschließendes Bild, Schritt 810 zu erzeugen.
  • In entsprechender Weise werden die hellen Kanten des Originalbilds dann von dem binären Mittelschwellwertbild ausgeschlossen. Zu diesem Zweck werden hellen Kanten des verbesserten Bilds detektiert, Schritt 900, wie in Fig. 9 illustriert ist. Dies wird in einer der dunkle-Kanten-Detektion von Schritt 800, wie sie oben diskutiert wurde, entsprechenden Weise durchgeführt, außer daß die Pixel, die die Abwesenheit eines Objekts anzeigen, als die helle Kante identifiziert werden. Der Grenzbereich des dunkle Kanten einschließenden Bilds, das in dem obigen Schritt 810 erzeugt wurde, wird dann detektiert, und die Ergebnisse der Schritte 900 und 902 werden in einer Satzschnittmengenoperation kombiniert. Die Resultate des Schritts 904 werden dann von dem dunkle Kanten einschließenden Bild subtrahiert, Schritt 906, um ein helle Kanten ausschließendes Bild zu erzeugen, Schritt 908. Das Mittelschwellwertbild wird jetzt durch das helle Kanten ausschließende Bild wiedergegeben.
  • Die Objekte des helle Kanten ausschließenden Bilds werden durch Auffüllen jeglicher Löcher komplettiert, die zurückbleiben können. Vorteilhafterweise ist das vorliegende Verfahren in der Lage, Löcher aufzufüllen, ohne nahe beieinander liegende Objekte miteinander zu verbinden. Um die Verfeinerung des binären Mittelschwellwertbilds zu komplettieren, wird das helle Kanten ausschließende Bild von Schritt 908 invertiert, um ein Bild bereitzustellen, wie es in Fig. 10A illustriert ist. Als nächstes werden die Objekte von Fig. 10A detektiert und durch eine verbundene-Komponenten-Markierungsprozedur markiert. Dann werden Objekte identifiziert, die größer als eine vorgegebene Größe sind, und diese Objekte werden aus dem Bild ausgeschlossen, um ein Bild bereitzustellen, wie es in Fig. 10B illustriert ist. Das so erzeugte Bild wird dann zu dem Originalbild hinzugefügt, um die fertige binäre mittlerer Schwellwertmaske bereitzustellen. Es wird dem Fachmann klar sein, daß die vorgegebene Größe zum Ausschließen von Objekten aus der Maske von Fig. 10A so ausgewählt wird, daß sie größer als die erwartete Größe von Objekten von Interesse ist.
  • Um das binäre mittlerer Schwellwertbild weiter zu komplettieren, wird Datenverarbeitung durchgeführt, um Objekte abzutrennen, die möglicherweise unter Verwendung der oben diskutierten helle- Kanten-Detektionstechnik noch nicht abgetrennt wurden. Um die Objektseparation durchzuführen, werden die Objekte der in Fig. 10C erzeugten Maske um einen ersten vorgegebenen Betrag erodiert und dann um einen zweiten vorgegebenen Betrag dilatiert, wobei der Betrag der Erosion den Betrag der Dilatation überschreitet, so daß die Objekte nach der Dilatation kleiner sind, als sie es vor der Erosion waren. So werden die verbundenen Objekte separiert. Dann wird eine morphologische Verschlußrestoperation angewendet, um die Separationsgrenze zu bestimmen. Die Separationsgrenze wird dann von dem lochaufgefüllten Bild subtrahiert, um das binäre, von überlappenden Objekten separierte Bild zu erzeugen.
  • Um sicherzustellen, dab keine Objekte während der oben bezeichneten Separation verlorengegangen sind, wird das von überlappenden Objekten separierte Bild dilatiert, um eine Objektmaske zu erzeugen. Kleine Objekte, die nicht in der Objektmaske enthalten sind, werden in einer Satzvereinigung mit dem Objektseparationsbild kombiniert, um ein wiedergewonnene-Objekte-Bild bereitzustellen.
  • Letztlich werden das binäre Hochschwellwertbild und das binäre Niedrigschwellwertbild mit dem wiedergewonnene-Objekte-Bild, d. h. dem komplettierten binären Mittelschwellwertbild, kombiniert, um die letztendliche Maske zu erzeugen. Zu diesem Zweck werden alle Objekte, die in dem Hochschwellwertbild identifiziert sind, zu dem komplettierten Mittelschwellwertbild unter Anwendung einer Satzvereinigungsoperation hinzugefügt. Die resultierende Maske wird dann um einen kleinen Betrag erodiert und um einen großen Betrag dilatiert, so daß alle Objekte, die identifiziert worden sind, zu einem einzigen Objekt verbunden werden. Die resultierende Maske wird dann mit der Niedrigschwellwertmaske kombiniert, so daß jegliche Objekte, die in der Niedrigschwellwertmaske in einem Bereich identifiziert worden sind, der sich nicht in großer Nähe zu Objekten befindet, die in der komplettierten Mittelschwellwertmaske erscheinen, zu dem Bild hinzugefügt werden. Diese Objekte werden dann zu dem komplettierten Mittelschwellwertbild hinzugefügt, um die fertige Maske zu erzeugen. Eine verbundene Komponenten markierende Prozedur wird auf die fertige Maske angewendet, um jedem verbundenen Objekt eine spezielle Markierung zuzuordnen.
  • Es wird vorausgesetzt werden, daß die Erfindung vielfach werden kann. Dementsprechend unterliegt die Erfindung keiner Beschränkung außer durch die nachfolgenden Patentansprüche.
  • Was beansprucht wird, ist:

Claims (13)

1. Verfahren zum Erzeugen einer Maske zum Identifizieren von Objekten von Interesse (200, 202, 204, 206), wobei die Objekte von Interesse (200, 202, 204, 206) in einem Bild enthalten sind, das durch ein Array von Datenworten (100) wiedergegeben wird, wobei das Verfahren die Schritte aufweist:
(a) Verarbeiten der Daten, die das Bild wiedergeben, um ein Schwellwertbild (610) zu erzeugen, wobei das Schwellwertbild (610) ein Array von Datenworten ist, wobei jedes Datenwort des Schwellwertbilds (6I0) einem zugehörigen Datenwort des Bilds entspricht;
(b) Vergleichen jedes Datenworts des Schwellwertbilds (610) mit dem zugehörigen Datenwort des Bilds, um ein binäres Bild (806) zu erzeugen, wobei das binäre Bild (806) ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort (100) des Bilds entspricht und wobei jedes Datenwort des binären Bilds (806) identifiziert, ob das zugehörige Datenwort (100) des Bilds größer war als das zugehörige Datenwort des Schwellwertbilds (610); und
Verwenden des binären Bilds (806) als Maske oder zum Erzeugen einer Maske, um die Objekte von Interesse (200, 202, 204, 206) zu identifizieren.
2. Verfahren nach Anspruch 1, das weiterhin die Schritte aufweist:
(c) Subtrahieren (502, 504) eines vorgegebenen Offsets von jedem Datenwort des Schwellwertbilds (610), um ein Array von Daten zu erzeugen, die ein Niedrigschwellwertbild wiedergeben;
(d) Vergleichen jedes Datenworts des Niedrigschwellwertbilds mit seinem zugehörigen Datenwort des Bilds, um ein binäres Niedrigschwellwertbild zu erzeugen, wobei das binäre Niedrigschwellwertbild ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort des Bilds entspricht, und wobei jedes Datenwort des binären Niedrigschwellwertbilds identifiziert, ob das zugehörige Datenwort des Bilds größer als das zugehörige Datenwort des Niedrigschwellwertbilds (610) war; und
(e) Hinzufügen von Objekten, die durch das binäre Niedrigschwellwertbild identifiziert wurden, zu dem binären Bild (806).
3. Verfahren nach Anspruch 2, wobei der Schritt (e), das Hinzufügen von Objekten, die durch das binäre Niedrigschwellwertbild identifiziert wurden, den Unterschritt aufweist:
(f) Bestimmen, welche Objekte des binären Niedrigschwellwertbilds innerhalb einer Niedrigschwellwertregion angeordnet sind, und Hinzufügen nur von solchen Objekten zu der binären Maske, die in der Niedrigschwellwertregion angeordnet sind, wobei die Niedrigschwellwertregion eine Region des Bilds ist, in der die Größe der Datenworte, die Objekte wiedergeben, relativ klein im Vergleich zu der Größe von Datenworten ist, die Objekte in anderen Regionen des Bilds wiedergeben.
4. Verfahren nach Anspruch 1, das weiterhin die Schritte aufweist:
(g) Hinzufügen eines vorgegebenen Offsets zu jedem Datenwort des Schwellwertbilds (610), um ein Array von Daten zu erzeugen, die ein Hochschwellwertbild (610) wiedergeben;
(h) Vergleichen jedes Datenworts des Hochschwellwertbilds (610) mit seinem zugehörigen Datenwort des Bilds, um ein binäres Hochschwellwertbild zu erzeugen, wobei das binäre Hochschwellwertbild ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort des Bilds entspricht und wobei jedes Datenwort des binären Hochschwellwertbilds identifiziert, ob das zugehörige Datenwort des Bilds größer als das zugehörige Datenwort des Hochschwellwertbilds (610) war; und
(i) Hinzufügen von Objekten, die durch das binäre Hochschwellwertbild identifiziert wurden, zu dem binären Bild (806).
5. Verfahren nach Anspruch 1, das weiterhin den Schritt aufweist:
(j) Auffüllen von Löchern in dem binären Bild (806) durch Invertieren des binären Bilds (806) und Ausschließen von Daten, die ein Objekt von um einen vorgegebenen Betrag geringerer Größe als die erwartete Größe der Objekte von Interesse (200, 202, 204, 206) wiedergeben, wobei die identifizierten Objekte dann zurück zu dem binären Bild (806) hinzugefügt werden, um eine Maske (810) zu erzeugen, die die Objekte von Interesse (200, 202, 204, 206) identifiziert.
6. Verfahren nach Anspruch 1, das weiterhin die Schritte aufweist:
(k) Verarbeiten (800) der Daten, die das binäre Bild (806) wiedergeben, um seine dunklen Kanten zu detektieren (800), und Kombinieren (808) der resultierenden Daten mit den binären Bild (806), um Daten zu erzeugen, die eine dunkle Kanten einschließende Maske (810) wiedergeben;
(l) Verarbeiten (900) der Daten, die das binäre Bild (806) wiedergeben, um seine hellen Kanten zu detektieren (900), und Kombinieren (904) der resultierenden Daten mit der dunkle Kanten einschließenden Maske (902), um Daten zu erzeugen, die eine Maske (908) wiedergeben, die die Objekte von Interesse (200, 202, 204, 206) identifiziert.
7. Verfahren nach Anspruch 1, wobei der Schritt des Verwendens des binären Bilds zum Erzeugen der Maske zum Identifizieren der Objekte von Interesse die Schritte umfaßt:
(c) Auffüllen von Löchern in dem binären Bild (806) durch Invertieren des binären Bilds (806) und Ausschließen von Daten, die ein Objekt von um einen vorgegebenen Betrag geringerer Größe als die erwartete Größe der Objekte von Interesse (200, 202, 204, 206) wiedergeben, wobei die identifizierten Objekte dann zurück zu dem binären Bild (806) hinzugefügt werden, um eine vorläufige Maske zu erzeugen;
(d) Verarbeiten (800) der Daten, die die vorläufige Maske wiedergeben, um ihre dunklen Kanten zu detektieren (800), und Kombinieren der resultierenden Daten mit der vorläufigen Maske, um Daten (304) zu erzeugen, die eine dunkle Kanten einschließende Maske (810) wiedergeben: und
(e) Verarbeiten (900) der Daten, die die vorläufige Maske wiedergeben, um ihre hellen Kanten zu detektieren (900), und Kombinieren der resultierenden Daten mit der dunkle Kanten einschließenden Maske (906), um Daten (304) zu erzeugen, die eine die Objekte von Interesse (200, 202, 204, 206) identifizierende Maske wiedergeben.
8. Verfahren nach Anspruch 7, wobei der Schritt (b), das Erzeugen eines binären Bilds (806), weiterhin die Schritte aufweist:
(f) Subtrahieren (502, 504) eines vorgegebenen Offsets (502, 506) von jedem Datenwort des Schwellwertbilds (610), um ein Array von Daten zu erzeugen, die ein Niedrigschwellwertbild wiedergeben;
(g) Vergleichen jedes Datenworts des Niedrigschwellwertbilds (610) mit seinem zugehörigen Datenwort des Bilds, um ein binäres Niedrigschwellwertbild zu erzeugen, wobei das binäre Niedrigschwellwertbild ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort des Bilds entspricht, und wobei jedes Datenwort des binären Niedrigschwellwertbilds identifiziert, ob das zugehörige Datenwort des Bilds größer als das zugehörige Datenwort des Niedrigschwellwertbilds (610) war; und
(h) Hinzufügen von Objekten, die durch das binäre Niedrigschwellwertbild identifiziert wurden, zu dem binären Bild (806).
9. Verfahren nach Anspruch 8, wobei der Schritt (h), das Hinzufügen von Objekten, die durch das binäre Niedrigschwellwertbild identifiziert wurden, den Unterschritt aufweist:
(i) Bestimmen, welche Objekte des binären Niedrigschwellwertbilds innerhalb einer Niedrigschwellwertregion angeordnet sind, und Hinzufügen nur von solchen Objekten zu der binären Maske, die in der Niedrigschwellwertregion angeordnet sind, wobei die Niedrigschwellwertregion eine Region des Bilds ist, in der die Größe der Datenworte, die Objekte wiedergeben, relativ kein im Vergleich zu der Größe von Datenworten ist, die Objekte in anderen Regionen des Bilds wiedergeben.
10. Verfahren nach Anspruch 8, wobei der Schritt (b), das Erzeugen eines binären Bilds (806), weiterhin die Schritte aufweist:
(j) Hinzufügen eines vorgegebenen Offsets (502, 506) zu jedem Datenwort des Schwellwertbilds (610), um ein Array von Daten zu erzeugen, die ein Hochschwellwertbild wiedergeben;
(k) Vergleichen jedes Datenworts des Hochschwellwertbilds (610) mit seinem zugehörigen Datenwort des Bilds, um ein binäres Hochschwellwertbild zu erzeugen, wobei das binäre Hochschwellwertbild ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort des Bilds entspricht, und wobei jedes Datenwort des binäre Hochschwellwertbilds identifiziert, ob das zugehörige Datenwort des Bilds größer als das zugehörige Datenwort des Hochschwellwertbilds (610) war; und
(l) Hinzufügen von Objekten, die durch das binäre Hochschwellwertbild identifiziert wurden, zu dem binären Bild (806).
11. Verfahren nach Anspruch 1, wobei der Verarbeitungsschritt die Schritte aufweist:
(a) Entfernen von Objekten (504) von den Bilddaten, die größer als eine erwartete Größe der Objekte von Interesse (200, 202, 204, 206) sind, wobei die Objekte eine Textur aufweisen;
(b) Entfernen der Textur (306) der Objekte von Interesse (200, 202, 204, 206), um nicht texturierte Bilddaten (308) bereitzustellen;
(c) Normalisieren des Hintergrunds (310) der Bilddaten (100), um normalisierte Bilddaten (312) bereitzustellen;
(d) Filtern der normalisierten Bilddaten und Subtrahieren der nicht texturierten Bilddaten (314), um verbesserte Bilddaten (316) bereitzustellen;
(e) Ermitteln der Differenz zwischen den nicht texturierten Bilddaten (314) und den Bilddaten (100), um texturierte Bilddaten bereitzustellen;
(f) Durchführen einer morphologischen Dilatationsrestoperation (602) bezüglich der verbesserten Bilddaten (316) und Kombinieren der texturierten Bilddaten und der nicht texturierten Bilddaten (314) mit dem Ergebnis, um Schwellwertbilddaten (610) zu erzeugen; und
(g) Erzeugen (104) von Niedrigschwellwertbilddaten und Hochschwellwertbilddaten durch Subtrahieren bzw. Addieren eines vorbestimmten Offsets von bzw. zu den Schwellwertbilddaten (610);
und wobei der Vergleichsschritt weiterhin die Schritte aufweist:
(h) Identifizieren von Bilddaten, die ein Objekt von Interesse (200, 202, 204, 206) wiedergeben, als jegliche verbesserten Bilddaten (316), die einen Wert aufweisen, welcher den Wert der zugehörigen Schwellwertbilddaten (610) überschreitet, um eine vorläufige Maske zu erzeugen;
(i) Detektieren der dunklen Kanten (800) der verbesserten Bilddaten (316), um Dunkelkantendaten zu erzeugen, und Kombinieren der dunkle-Kanten-Daten mit der vorläufigen Maske, um dunkle-Kanten-Maskendaten (810) zu erzeugen;
(j) Detektieren der hellen Kanten (900) der verbesserten Bilddaten (316), um helle-Kanten-Daten zu erzeugen, wobei die helle-Kanten-Daten Pixel aufweisen, und Ausschließen der Pixel in den helle-Kanten-Daten von den dunkle-Kanten-Maskendaten, um helle-Kanten-Maskendaten (908) zu erzeugen;
(k) Auffüllen von Löchern in den helle-Kanten-Maskendaten (908) durch Invertieren der helle-Kanten-Maskendaten (908) und Ausschließen von Daten, die ein identifiziertes Objekt von um einen vorgegebenen Betrag geringerer Größe als die erwartete Größe der Objekte von Interesse (200, 202, 204, 206) wiedergeben, und Hinzufügen der identifizierten Objekte zurück zu den helle-Kanten-Maskendaten (908), um eine lochaufgefüllte Maske zu erzeugen;
(l) Erodieren der lochaufgefüllten Maske um einen ersten Betrag und Dilatieren um einen kleineren Betrag und Bestimmen einer Grenzseparation zwischen den identifizierten Objekten durch eine morphologische Verschlußrestoperation (802) und Subtrahieren der Separationsgrenze von der lochaufgefüllten Maske, um eine Objektmaske zu erzeugen;
(m) Vergleichen der Hochschwellwertbilddaten (610) mit den verbesserten Bilddaten (316), wobei ein Pixel, das die Daten aufweist, welche eine Hochschwellwertmaske wiedergeben, in der Hochschwellwertmaske enthalten ist, falls der zugehörige Wert der Daten in dem verbesserten Bild größer als ein zugehöriger Datenwert des Hochschwellwertbilds ist, und wobei jegliche Objekte, die durch die Hochschwellwertmaske identifiziert werden, durch eine Satzvereinigungsoperation zu der objektseparierten Maske hinzugefügt werden, um den Hochschwellwert einschließende Maskendaten zu erzeugen;
(n) Vergleichen der Niedrigschwellwertbilddaten (610) mit den verbesserten Bilddaten (316), um Niedrigschwellwertmaskendaten zu erzeugen, wobei ein Pixel, das Daten umfaßt, die eine Niedrigschwellwertmaske wiedergeben, in den Niedrigschwellwertmaskendaten enthalten ist, wenn der jeweilige Wert der Daten in dem verbesserten Bild größer als ein zugehöriger Datenwert des Niedrigschwellwertbilds ist; und
(o) Erodieren der den Hochschwellwert einschließenden Maskendaten um einen kleinen Betrag und Dilatieren der resultierenden Daten um einen großen Betrag, um alle Objekte zu verbinden, die durch die den Hochschwellwert einschließenden Maskendaten identifiziert sind, und Kombinieren der resultierenden Daten mit den Niedrigschwellwertmaskendaten, um bei den Niedrigschwellwertmaskendaten jegliche Objekte zu identifizieren, die den verbundenen Objekten der erodierten und dilatierten den Hochschwellwert einschließenden Maskendaten nicht nahe benachbart sind, und Hinzufügen dieser Objekte zu den originalen den Hochschwellwert einschließenden Maskendaten, um die Maske zu erzeugen, die die Objekte von Interesse (200, 202, 204, 206) identifiziert.
12. Verfahren nach Anspruch 1, wobei der Verarbeitungsschritt die Schritte aufweist:
(a) Entfernen von Objekten (504) von dem Bild, die größer als die erwartete Größe der Objekte von Interesse (200, 202, 204, 206) sind, und Aufstellen eines Histogramms (508), um Parameterdaten (510) bereitzustellen, wobei die Parameterdaten (510) Intensitätsbereiche eines Hintergrundbereichs, Zytoplasmabereichs und Kernbereichs aufweisen, wobei die Objekte eine Textur umfassen, und wobei Objekte von Interesse einen Intensitätswert innerhalb des Kernbereichs aufweisen;
(b) Verbessern des Bildkontrasts (102) durch Entfernen der Textur (306) der Objekte von Interesse (200, 202, 204, 206) unter Anwendung morphologischer Öffnung und bedingter Dilatation bezüglich der Bilddaten (100), um Daten bereitzustellen, die ein nicht-texturiertes Bild (308) wiedergeben, wobei die Textur der Objekte von Interesse nur aus den Bildbereichen entfernt wird, die den Intensitätswert innerhalb des Kernbereichs aufweisen;
(c) Normalisieren des Hintergrunds (310) des Bilds, das die Bilddaten (100) wiedergibt, um den Unterschied im Kontrast zwischen dem Hintergrund und den Objekten von Interesse (200, 202, 204, 206) herabzusetzen, um Daten bereitzustellen, die ein normalisiertes Bild (312) wiedergeben, wobei Bilddaten mit einem Intensitätswert größer als ein Hintergrundschwellwert vor dem Normalisieren auf den Hintergrundschwellwert gesetzt werden;
(d) Kombinieren (314) des normalisierten Bilds (312) und des nicht texturierten Bilds (308) durch Filtern der Daten, die das normalisierte Bild (312) wiedergeben, in einer linearen Faltung und Subtrahieren der Daten, die das nicht texturierte Bild (314) wiedergeben, davon, um Daten bereitzustellen, die ein verbessertes Bild (316) wiedergeben;
(e) Ermitteln der Differenz (606) zwischen dem nicht- texturierten Bild (308) und dem Bild (100), um ein texturiertes Bild bereitzustellen;
(f) Verarbeiten der Daten, die das nicht texturierte Bild (600) wiedergeben, um Daten zu erzeugen, die ein Schwellwertbild (610) wiedergeben, durch Durchführen einer morphologischen Dilatationsrestoperation (300) bezüglich der Daten, die das texturierte Bild wiedergeben, und Kombinieren der Daten, die das texturierte Bild wiedergeben, und des nicht texturierten Bilds (600) mit dem Ergebnis, um Daten zu erzeugen, die ein Schwellwertbild (610) wiedergeben;
(g) Erzeugen (104) eines Niedrigschwellwertbilds und eines Hochschwellwertbilds durch Subtrahieren (606) bzw. Addieren eines vorgegebenen Offsets von bzw. zu den Daten, die das Schwellwertbild (610) wiedergeben;
und wobei der Vergleichsschritt weiterhin die Schritte aufweist:
(h) Vergleichen der Daten, die das Schwellwertbild (610) wiedergeben, mit den Daten, die das verbesserte Bild (316) wiedergeben, um Objekte von Interesse (200, 202, 204, 206) zu identifizieren, indem Daten, die ein Objekt von Interesse (200, 202, 204, 206) wiedergeben, als jegliche Daten identifiziert werden, die das verbesserte Bild (316) mit einem Wert, der den Wert der zugehörigen, das Schwellwertbild (610) wiedergebenden Daten überschreitet, wiedergeben, um eine vorläufige Maske zu erzeugen;
(i) Verarbeiten der Daten, die das verbesserte Bild (316) wiedergeben, um seine dunklen Kanten (800) zu detektieren, und Erzeugen von Daten davon und Kombinieren dieser Dunkelkantendaten mit der vorläufigen Maske, um Daten zu erzeugen, die eine dunkle Kanten einschließende Maske (810) wiedergeben;
(j) Verarbeiten der Daten, die das verbesserte Bild (316) wiedergeben, um seine hellen Kanten (900) zu detektieren, und Kombinieren (902) der resultierenden Daten mit der dunkle Kanten einschließenden Maske (810), um Daten zu erzeugen, die eine helle Kanten ausschließende Maske (908) wiedergeben;
(k) Auffüllen von Löchern in der helle Kanten ausschließenden Maske (908) durch Invertieren der hellen Kanten ausschließenden Maske (908) und Ausschließen von Daten, die ein Objekt von einer Größe wiedergeben, die um einen vorgegebenen Betrag kleiner als die erwartete Größe der Objekte von Interesse (200, 202, 204, 206) ist, wobei die identifizierten Objekte dann zurück zu der helle Kanten ausschließenden Maske (908) hinzugefügt werden, um eine lochaufgefüllte Maske zu erzeugen;
(l) Erodieren der lochaufgefüllten Maske um einen ersten Betrag, dann Dilatieren um einen kleineren Betrag, dann Bestimmen einer Separationsgrenze zwischen den identifizierten Objekten durch morphologische Verschlußrestoperation (802) und dann Subtrahieren der Separationsgrenze von der lochaufgefüllten Maske, um eine von sich überlappenden Objekten separierte Maske zu erzeugen;
(m) Vergleichen der Daten, die das Hochschwellwertbild (610) wiedergeben, mit dem verbesserten Bild (316), um Daten zu erzeugen, die eine Hochschwellwertmaske wiedergeben, wobei ein Pixel, das die Daten umfaßt, welche eine Hochschwellwertmaske wiedergeben, in der Hochschwellwertmaske enthalten ist, wenn der jeweilige Wert der Daten in dem verbesserten Bild größer als ein zugehöriger Datenwert des Hochschwellwertbilds ist, und wobei alle Objekte, die durch die Hochschwellwertmaske identifiziert sind, durch eine Satzvereinigungsoperation zu der objektseparierten Maske hinzugefügt werden, um eine den Hochschwellwert einschließende Maske zu erzeugen; und
(n) Vergleichen der Daten, die das Niedrigschwellwertbild (610) wiedergeben, mit dem verbesserten Bild (316), um Daten zu erzeugen, die eine Niedrigschwellwertmaske wiedergeben, wobei ein Pixel, das die Daten aufweist, welche eine Niedrigschwellwertmaske wiedergeben, in der Niedrigschwellwertmaske enthalten ist, falls der jeweilige Wert der Daten in dem verbesserten Bild größer als ein zugehöriger Datenwert des Niedrigschwellwertbilds ist; und
(o) Erodieren der Daten, die die den Hochschwellwert einschließende Maske wiedergeben, um einen kleinen Betrag und Dilatieren der resultierenden Daten um einen großen Betrag, um alle Objekte zu verbinden, die durch die der Hochschwellwert einschließende Maske identifiziert sind, und Kombinieren der resultierenden Daten mit der Niedrigschwellwertmaske, um jegliche Objekte in der Niedrigschwellwertmaske zu identifizieren, die sich nicht in der Nähe der verbundenen Objekte der erodierten und dilatierten den Hochschwellwert einschließenden Maske befinden, und Hinzufügen dieser Objekte zu der originalen den Hochschwellwert einschließenden Maske, um die Maske zu erzeugen, die die Objekte von Interesse (200, 202, 204, 206) identifiziert.
13. Verfahren zum Identifizieren von Objekten von Interesse (200, 202, 204, 206), die in einem Bild enthalten sind, das durch Bilddaten (100) wiedergegeben wird, wobei die Objekte von Interesse eine Textur aufweisen, unter Verwendung des Verfahrens nach Anspruch 1, wobei der Verarbeitungsschritt die Schritte aufweist:
(a) Entfernen der Textur (306) der Objekte von Interesse (200, 202, 204, 206), um nicht texturierte Bilddaten (308) und texturierte Bilddaten bereitzustellen;
(b) Normalisieren und Filtern des Hintergrunds (310) der Bilddaten (100) und Subtrahieren (310) der nicht exturierten Bilddaten (308) davon, um verbesserte Bilddaten (316) bereitzustellen;
(c) Detektieren des Kantenbilds (602) der verbesserten Bilddaten und Kombinieren der texturierten Bilddaten und der nicht texturierten Bilddaten mit dem Ergebnis, um Schwellwertbilddaten (610) zu erzeugen;
(d) Erzeugen (502) von Niedrigschwellwertbilddaten und Hochschwellwertbilddaten durch Subtrahieren bzw. Addieren eines vorgegebenen Offsets von bzw. zu den Schwellwertbilddaten (610); und wobei der Vergleichsschritt weiterhin die Schritte aufweist:
(e) Identifizieren von Bilddaten, die ein Objekt von Interesse (200, 202, 204, 206) wiedergeben, als jegliche verbesserte Bilddaten (316) mit einem Wert, der den Wert der zugehörigen Schwellwertbilddaten (610) überschreitet, um eine vorläufige Maske zu erzeugen;
(f) Detektieren der dunklen Kanten (800) der verbesserten Bilddaten (316) und Kombinieren der detektierten Dunkelkantendaten mit der vorläufigen Maske, um dunkle-Kanten-Maskendaten (810) zu erzeugen;
(g) Detektieren der hellen Kanten (900) der verbesserten Bilddaten (316) und Ausschließen von Pixeln in den helle-Kanten- Daten von der Dunkle-Kanten-Maske, um helle-Kanten-Maskendaten (908) zu erzeugen;
(h) Invertieren der helle-Kanten-Maskendaten (908) und Ausschließen von Daten, die identifizierte Objekte von um einen vorgegebenen Betrag kleinerer Größe als die erwartete Größe der Objekte von Interesse (200, 202, 204, 206) wiedergeben, und zurück Hinzufügen der Daten, die identifizierte Objekte wiedergeben, zu den helle-Kanten-Maskendaten (908), um eine lochaufgefüllte Maske zu erzeugen;
(i) Bestimmen einer Separationsgrenze zwischen den identifizierten Objekten und Subtrahieren der Separationsgrenze von der lochaufgefüllten Maske, um eine Objektmaske zu erzeugen;
(j) Vergleichen der Hochschwellwertbilddaten (610) mit den verbesserten Bilddaten (316), um Daten zu erzeugen, die eine Hochschwellwertmaske wiedergeben, wobei ein Pixel, das Daten umfaßt, welche eine Hochschwellwertmaske wiedergeben, in der Hochschwellwertmaske enthalten ist, wenn der zugehörige Wert der Daten in den verbesserten Bilddaten größer ist als der zugehörige Datenwert der Hochschwellwertbilddaten, und wobei jedes Objekt, das durch die Hochschwellwertmaske identifiziert wird, zu der objektseparierten Maske durch eine Satzvereinigungsoperation hinzugefügt wird, um eine den Hochschwellwert einschließende Maske zu erzeugen;
(k) Vergleichen der Niedrigschwellwertbilddaten (610) mit den verbesserten Bilddaten (316), um Niedrigschwellwertmaskendaten zu erzeugen, wobei ein Pixel, das die Daten umfaßt, welche eine Niedrigschwellwertmaske wiedergeben, in den Niedrigschwellwertmaskendaten enthalten ist, falls der jeweilige Wert der Daten in dem verbesserten Bild größer als ein zugehöriger Datenwert des Niedrigschwellwertbilds ist; und
(l) Erodieren der Hochschwellwertmaskendaten um einen kleinen Betrag und Dilatieren der resultierenden Daten um einen großen Betrag und Kombinieren der resultierenden Daten mit den Niedrigschwellwertmaskendaten und Hinzufügen dieser Objekte zu den originalen Hochschwellwertmaskendaten, um die Maske zu erzeugen, die die Objekte von Interesse (200, 202, 204, 206) identifiziert; und weiterhin umfassend den Schritt:
Verwenden der Maske zum Identifizieren der Objekte von Interesse.
DE69329554T 1992-02-18 1993-02-18 Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken Expired - Fee Related DE69329554T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US83839592A 1992-02-18 1992-02-18
PCT/US1993/001883 WO1993016442A1 (en) 1992-02-18 1993-02-18 Method for identifying objects using data processing techniques

Publications (2)

Publication Number Publication Date
DE69329554D1 DE69329554D1 (de) 2000-11-16
DE69329554T2 true DE69329554T2 (de) 2001-05-31

Family

ID=25277006

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69329554T Expired - Fee Related DE69329554T2 (de) 1992-02-18 1993-02-18 Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken

Country Status (8)

Country Link
US (3) US5528703A (de)
EP (1) EP0664038B1 (de)
JP (1) JPH07504056A (de)
AU (2) AU671984B2 (de)
CA (1) CA2130340C (de)
DE (1) DE69329554T2 (de)
ES (1) ES2152946T3 (de)
WO (1) WO1993016442A1 (de)

Families Citing this family (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993016442A1 (en) * 1992-02-18 1993-08-19 Neopath, Inc. Method for identifying objects using data processing techniques
US6026174A (en) * 1992-10-14 2000-02-15 Accumed International, Inc. System and method for automatically detecting malignant cells and cells having malignancy-associated changes
US5889881A (en) * 1992-10-14 1999-03-30 Oncometrics Imaging Corp. Method and apparatus for automatically detecting malignancy-associated changes
EP0610916A3 (de) * 1993-02-09 1994-10-12 Cedars Sinai Medical Center Verfahren und Vorrichtung zur Erzeugung vorzugsweiser segmentierter numerischer Bilder.
US5740266A (en) * 1994-04-15 1998-04-14 Base Ten Systems, Inc. Image processing system and method
US5768412A (en) * 1994-09-19 1998-06-16 Hitachi, Ltd. Region segmentation method for particle images and apparatus thereof
US5978497A (en) * 1994-09-20 1999-11-02 Neopath, Inc. Apparatus for the identification of free-lying cells
US5848177A (en) * 1994-12-29 1998-12-08 Board Of Trustees Operating Michigan State University Method and system for detection of biological materials using fractal dimensions
JP3571819B2 (ja) * 1995-01-09 2004-09-29 富士写真フイルム株式会社 生化学画像解析装置
KR100414432B1 (ko) * 1995-03-24 2004-03-18 마츠시타 덴끼 산교 가부시키가이샤 윤곽추출장치
DE19529950C1 (de) * 1995-08-14 1996-11-14 Deutsche Forsch Luft Raumfahrt Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie
US6430309B1 (en) 1995-09-15 2002-08-06 Monogen, Inc. Specimen preview and inspection system
US6091842A (en) * 1996-10-25 2000-07-18 Accumed International, Inc. Cytological specimen analysis system with slide mapping and generation of viewing path information
US6148096A (en) * 1995-09-15 2000-11-14 Accumed International, Inc. Specimen preview and inspection system
JP3003561B2 (ja) * 1995-09-25 2000-01-31 松下電器産業株式会社 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置
US6108098A (en) * 1995-12-28 2000-08-22 Canon Kabushiki Kaisha Image processing apparatus and method
US5872870A (en) 1996-02-16 1999-02-16 Cognex Corporation Machine vision methods for identifying extrema of objects in rotated reference frames
US6259827B1 (en) 1996-03-21 2001-07-10 Cognex Corporation Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images
US5832134A (en) * 1996-11-27 1998-11-03 General Electric Company Data visualization enhancement through removal of dominating structures
US6081612A (en) * 1997-02-28 2000-06-27 Electro Optical Sciences Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6208749B1 (en) 1997-02-28 2001-03-27 Electro-Optical Sciences, Inc. Systems and methods for the multispectral imaging and characterization of skin tissue
US6075881A (en) 1997-03-18 2000-06-13 Cognex Corporation Machine vision methods for identifying collinear sets of points from an image
US6608647B1 (en) 1997-06-24 2003-08-19 Cognex Corporation Methods and apparatus for charge coupled device image acquisition with independent integration and readout
US6122397A (en) * 1997-07-03 2000-09-19 Tri Path Imaging, Inc. Method and apparatus for maskless semiconductor and liquid crystal display inspection
US6130967A (en) * 1997-07-03 2000-10-10 Tri Path Imaging, Inc. Method and apparatus for a reduced instruction set architecture for multidimensional image processing
US6148099A (en) * 1997-07-03 2000-11-14 Neopath, Inc. Method and apparatus for incremental concurrent learning in automatic semiconductor wafer and liquid crystal display defect classification
WO1999001985A1 (en) * 1997-07-03 1999-01-14 Neopath, Inc. Method and apparatus for semiconductor wafer and lcd inspection using multidimensional image decomposition and synthesis
KR19990016896A (ko) * 1997-08-20 1999-03-15 전주범 얼굴영상에서 눈영역 검출방법
US6198839B1 (en) 1997-09-05 2001-03-06 Tripath Imaging, Inc. Dynamic control and decision making method and apparatus
US6014451A (en) * 1997-10-17 2000-01-11 Pioneer Hi-Bred International, Inc. Remote imaging system for plant diagnosis
US6272230B1 (en) 1998-02-11 2001-08-07 Analogic Corporation Apparatus and method for optimizing detection of objects in computed tomography data
US6076400A (en) * 1998-02-11 2000-06-20 Analogic Corporation Apparatus and method for classifying objects in computed tomography data using density dependent mass thresholds
US6078642A (en) * 1998-02-11 2000-06-20 Analogice Corporation Apparatus and method for density discrimination of objects in computed tomography data using multiple density ranges
US6067366A (en) * 1998-02-11 2000-05-23 Analogic Corporation Apparatus and method for detecting objects in computed tomography data using erosion and dilation of objects
US6111974A (en) * 1998-02-11 2000-08-29 Analogic Corporation Apparatus and method for detecting sheet objects in computed tomography data
US6026143A (en) * 1998-02-11 2000-02-15 Analogic Corporation Apparatus and method for detecting sheet objects in computed tomography data
US6035014A (en) * 1998-02-11 2000-03-07 Analogic Corporation Multiple-stage apparatus and method for detecting objects in computed tomography data
US6317509B1 (en) 1998-02-11 2001-11-13 Analogic Corporation Computed tomography apparatus and method for classifying objects
US6075871A (en) * 1998-02-11 2000-06-13 Analogic Corporation Apparatus and method for eroding objects in computed tomography data
US6128365A (en) * 1998-02-11 2000-10-03 Analogic Corporation Apparatus and method for combining related objects in computed tomography data
US6026171A (en) * 1998-02-11 2000-02-15 Analogic Corporation Apparatus and method for detection of liquids in computed tomography data
JP2002503816A (ja) * 1998-02-11 2002-02-05 アナロジック コーポレーション 対象を分類するコンピュータ断層撮影装置および方法
US6381375B1 (en) 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
WO1999045366A1 (en) 1998-03-05 1999-09-10 Universal Healthwatch, Inc. Optical imaging system for diagnostics
DE69908713T2 (de) * 1998-06-22 2004-05-13 Texas Instruments Inc., Dallas Selektive Helligkeitserweiterung
US6097849A (en) * 1998-08-10 2000-08-01 The United States Of America As Represented By The Secretary Of The Navy Automated image enhancement for laser line scan data
DE69942619D1 (de) * 1998-11-25 2010-09-02 Iridian Technologies Inc Schnelles fokusbeurteilungssystem und -verfahren zur bilderfassung
US6753919B1 (en) 1998-11-25 2004-06-22 Iridian Technologies, Inc. Fast focus assessment system and method for imaging
US6381366B1 (en) 1998-12-18 2002-04-30 Cognex Corporation Machine vision methods and system for boundary point-based comparison of patterns and images
US6687402B1 (en) 1998-12-18 2004-02-03 Cognex Corporation Machine vision methods and systems for boundary feature comparison of patterns and images
US6937330B2 (en) 1999-04-23 2005-08-30 Ppd Biomarker Discovery Sciences, Llc Disposable optical cuvette cartridge with low fluorescence material
GB2394350B (en) * 1999-07-05 2004-06-16 Mitsubishi Electric Inf Tech Method and apparatus for representing and searching for an object in an image
CA2379836A1 (en) * 1999-07-21 2001-02-01 Aaron B. Kantor System for microvolume laser scanning cytometry
US6687395B1 (en) * 1999-07-21 2004-02-03 Surromed, Inc. System for microvolume laser scanning cytometry
JP3454760B2 (ja) * 1999-10-22 2003-10-06 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 位相分布測定方法および装置、位相補正方法および装置、並びに、磁気共鳴撮像装置
US6665060B1 (en) * 1999-10-29 2003-12-16 Cytyc Corporation Cytological imaging system and method
US6661501B1 (en) 1999-10-29 2003-12-09 Cytyc Corporation Cytological stain composition including verification characteristic
US6593102B2 (en) 1999-10-29 2003-07-15 Cytyc Corporation Cytological stain composition
US7369304B2 (en) * 1999-10-29 2008-05-06 Cytyc Corporation Cytological autofocusing imaging systems and methods
US6348325B1 (en) 1999-10-29 2002-02-19 Cytyc Corporation Cytological stain composition
AU1656401A (en) * 1999-11-09 2001-06-06 Cellomics, Inc. A system for cell-based screening
US6684402B1 (en) 1999-12-01 2004-01-27 Cognex Technology And Investment Corporation Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor
US7102784B1 (en) * 1999-12-06 2006-09-05 Xerox Corporation Method of selective edge softening and rendering for the suppression of halo
US6535626B1 (en) 2000-01-14 2003-03-18 Accumed International, Inc. Inspection system with specimen preview
US6748104B1 (en) 2000-03-24 2004-06-08 Cognex Corporation Methods and apparatus for machine vision inspection using single and multiple templates or patterns
US7167575B1 (en) 2000-04-29 2007-01-23 Cognex Corporation Video safety detector with projected pattern
US6701005B1 (en) 2000-04-29 2004-03-02 Cognex Corporation Method and apparatus for three-dimensional object segmentation
US6728401B1 (en) 2000-08-17 2004-04-27 Viewahead Technology Red-eye removal using color image processing
US7027628B1 (en) 2000-11-14 2006-04-11 The United States Of America As Represented By The Department Of Health And Human Services Automated microscopic image acquisition, compositing, and display
AU2002225639A1 (en) * 2000-11-17 2002-05-27 Molecular Diagnostics Inc. Evaluation of microscope slides
US6787761B2 (en) * 2000-11-27 2004-09-07 Surromed, Inc. Median filter for liquid chromatography-mass spectrometry data
US20020095260A1 (en) * 2000-11-28 2002-07-18 Surromed, Inc. Methods for efficiently mining broad data sets for biological markers
US6456741B1 (en) * 2000-12-15 2002-09-24 Shih-Jong J. Lee Structure-guided image measurement method
WO2002048949A1 (en) * 2000-12-15 2002-06-20 Cellavision Ab Method and arrangment for processing digital image information
US20020126328A1 (en) * 2001-03-09 2002-09-12 Lehmeier Michelle R. Method and apparatus for matching color image data with a corresponding color in a defined color space
US6873915B2 (en) * 2001-08-24 2005-03-29 Surromed, Inc. Peak selection in multidimensional data
US20030078739A1 (en) * 2001-10-05 2003-04-24 Surromed, Inc. Feature list extraction from data sets such as spectra
US10156501B2 (en) 2001-11-05 2018-12-18 Life Technologies Corporation Automated microdissection instrument for determining a location of a laser beam projection on a worksurface area
US7239399B2 (en) * 2001-11-13 2007-07-03 Cyberoptics Corporation Pick and place machine with component placement inspection
US7206101B2 (en) * 2001-11-21 2007-04-17 Ge Medical Systems Global Technology Company, Llc Computationally efficient noise reduction filter
WO2003078965A2 (en) * 2002-03-13 2003-09-25 Q3Dm, Llc System and method for measurement of a response of localized cellular compartments
CA2484625A1 (en) * 2002-05-09 2003-11-20 Surromed, Inc. Methods for time-alignment of liquid chromatography-mass spectrometry data
WO2004025569A2 (en) * 2002-09-13 2004-03-25 Arcturus Bioscience, Inc. Tissue image analysis for cell classification and laser capture microdissection
JP3944059B2 (ja) * 2002-11-14 2007-07-11 アロカ株式会社 超音波診断装置
JP4419426B2 (ja) * 2003-04-24 2010-02-24 コニカミノルタエムジー株式会社 医用画像システム
JP4336561B2 (ja) * 2003-10-24 2009-09-30 キヤノン株式会社 眼底画像処理装置
JP4200890B2 (ja) * 2003-12-10 2008-12-24 株式会社日立製作所 映像信号処理装置及びそれを用いたテレビジョン受信機並びに映像信号処理方法
GB2409030A (en) * 2003-12-11 2005-06-15 Sony Uk Ltd Face detection
US20050215876A1 (en) * 2004-03-25 2005-09-29 Eastman Kodak Company Method and system for automatic image adjustment for in vivo image diagnosis
US7248360B2 (en) * 2004-04-02 2007-07-24 Ppd Biomarker Discovery Sciences, Llc Polychronic laser scanning system and method of use
US7593586B2 (en) * 2004-06-30 2009-09-22 Aptina Imaging Corporation Method and system for reducing artifacts in image detection
WO2006031574A2 (en) 2004-09-09 2006-03-23 Arcturus Bioscience, Inc. Laser microdissection apparatus and method
US7697755B2 (en) * 2004-09-29 2010-04-13 Drvision Technologies Llc Method for robust analysis of biological activity in microscopy images
US7430320B2 (en) * 2004-11-15 2008-09-30 Drvision Technologies Llc Region-guided boundary refinement method
DE102004061507B4 (de) * 2004-12-21 2007-04-12 Siemens Ag Verfahren zur Korrektur von Inhomogenitäten in einem Bild sowie bildgebende Vorrichtung dazu
JP4418362B2 (ja) * 2004-12-28 2010-02-17 オリンパス株式会社 画像処理装置
GB0502511D0 (en) * 2005-02-08 2005-03-16 Medical Solutions Plc Apparatus and method for image processing of specimen images for use in computer analysis thereof
GB0503629D0 (en) 2005-02-22 2005-03-30 Durand Technology Ltd Method and apparatus for automated analysis of biological specimen
US7991242B2 (en) 2005-05-11 2011-08-02 Optosecurity Inc. Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality
US20090174554A1 (en) 2005-05-11 2009-07-09 Eric Bergeron Method and system for screening luggage items, cargo containers or persons
US7466872B2 (en) * 2005-06-20 2008-12-16 Drvision Technologies Llc Object based boundary refinement method
US8111904B2 (en) 2005-10-07 2012-02-07 Cognex Technology And Investment Corp. Methods and apparatus for practical 3D vision system
WO2007043899A1 (en) 2005-10-14 2007-04-19 Applied Research Associates Nz Limited A method of monitoring a surface feature and apparatus therefor
US7903851B2 (en) * 2005-10-17 2011-03-08 Siemens Medical Solutions Usa, Inc. Method and system for vertebrae and intervertebral disc localization in magnetic resonance images
US8014590B2 (en) * 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
US20070196028A1 (en) * 2006-02-22 2007-08-23 Nik Software, Inc. Multi-Purpose Digital Image Editing Tools Using Background Processing
US7899232B2 (en) 2006-05-11 2011-03-01 Optosecurity Inc. Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same
US8494210B2 (en) 2007-03-30 2013-07-23 Optosecurity Inc. User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same
US8162584B2 (en) 2006-08-23 2012-04-24 Cognex Corporation Method and apparatus for semiconductor wafer alignment
US7925074B2 (en) * 2006-10-16 2011-04-12 Teradyne, Inc. Adaptive background propagation method and device therefor
US20090041322A1 (en) * 2007-07-10 2009-02-12 Seimens Medical Solutions Usa, Inc. Computer Assisted Detection of Polyps Within Lumen Using Enhancement of Concave Area
US8520916B2 (en) * 2007-11-20 2013-08-27 Carestream Health, Inc. Enhancement of region of interest of radiological image
WO2009073649A1 (en) * 2007-12-04 2009-06-11 Particle Measuring Systems, Inc. Non-orthogonal particle detection systems and methods
JP2009145285A (ja) * 2007-12-18 2009-07-02 Dainippon Screen Mfg Co Ltd 欠陥検出方法および欠陥検出装置
US8351720B2 (en) * 2008-04-24 2013-01-08 Hewlett-Packard Development Company, L.P. Method and system providing edge enhanced image binarization
US8260002B2 (en) 2008-09-26 2012-09-04 Axis Ab Video analytics system, computer program product, and associated methodology for efficiently using SIMD operations
US8744122B2 (en) * 2008-10-22 2014-06-03 Sri International System and method for object detection from a moving platform
GB2466818B (en) * 2009-01-09 2014-08-13 Inst Cancer Genetics And Informatics Optimizing the initialization and convergence of active contours for segmentation of cell nuclei in histological sections
US8260055B2 (en) * 2009-03-27 2012-09-04 The Nielsen Company (Us), Llc Methods and apparatus for identifying primary media content in a post-production media content presentation
WO2010138121A1 (en) * 2009-05-28 2010-12-02 Hewlett-Packard Development Company, L.P. Image processing
JP5206620B2 (ja) * 2009-08-05 2013-06-12 三菱電機株式会社 部材の位置認識装置、位置決め装置、接合装置および部材の接合方法
US8925024B2 (en) 2009-12-31 2014-12-30 The Nielsen Company (Us), Llc Methods and apparatus to detect commercial advertisements associated with media presentations
JP2011209966A (ja) * 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
US8274656B2 (en) * 2010-06-30 2012-09-25 Luminex Corporation Apparatus, system, and method for increasing measurement accuracy in a particle imaging device
US9389408B2 (en) * 2010-07-23 2016-07-12 Zeta Instruments, Inc. 3D microscope and methods of measuring patterned substrates
US8983179B1 (en) 2010-11-10 2015-03-17 Google Inc. System and method for performing supervised object segmentation on images
GB2486496A (en) * 2010-12-17 2012-06-20 Medicsight Plc A method of identifying an object in an image by defining a series of bands
WO2013036735A1 (en) 2011-09-07 2013-03-14 Rapiscan Systems, Inc. X-ray inspection system that integrates manifest data with imaging/detection processing
US9179844B2 (en) 2011-11-28 2015-11-10 Aranz Healthcare Limited Handheld skin measuring or monitoring device
US8954267B2 (en) * 2013-02-21 2015-02-10 Qualcomm Incorporated Mobile device positioning
CN103439338B (zh) * 2013-08-30 2015-08-12 无锡金视界科技有限公司 薄膜缺陷分类方法
WO2016033564A1 (en) * 2014-08-28 2016-03-03 Decision Sciences International Corporation Detection of an object within a volume of interest
CN104574361B (zh) * 2014-11-27 2017-12-29 沈阳东软医疗系统有限公司 一种乳腺外周组织均衡的图像处理方法和装置
KR101998081B1 (ko) * 2015-06-11 2019-07-09 동우 화인켐 주식회사 복합 필름의 결함 판별 방법
GB2542764A (en) * 2015-09-23 2017-04-05 Pathxl Ltd Image processing method and apparatus for normalisation and artefact correction
CN105344620B (zh) * 2015-10-14 2018-10-23 合肥安晶龙电子股份有限公司 基于物料形状的色选方法
EP3764281B1 (de) 2016-02-22 2024-09-18 Rapiscan Systems, Inc. Verfahren zur erkennung von feuerwaffen in radiographischen aufnahmen
DE102016105102A1 (de) * 2016-03-18 2017-09-21 Leibniz-Institut für Photonische Technologien e. V. Verfahren zur Untersuchung verteilter Objekte
US10013527B2 (en) 2016-05-02 2018-07-03 Aranz Healthcare Limited Automatically assessing an anatomical surface feature and securely managing information related to the same
US20180045937A1 (en) * 2016-08-10 2018-02-15 Zeta Instruments, Inc. Automated 3-d measurement
US11116407B2 (en) 2016-11-17 2021-09-14 Aranz Healthcare Limited Anatomical surface assessment methods, devices and systems
RU2664411C2 (ru) * 2016-12-01 2018-08-17 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" Способ обработки последовательности изображений для распознавания воздушных объектов
EP3606410B1 (de) 2017-04-04 2022-11-02 Aranz Healthcare Limited Anatomische oberflächenbeurteilungsverfahren, vorrichtungen und systeme
TWI676962B (zh) * 2018-01-08 2019-11-11 瑞昱半導體股份有限公司 基於直方圖調整的對比增強方法及其裝置
JP7161875B2 (ja) * 2018-07-10 2022-10-27 株式会社Screenホールディングス 画像処理方法、コンピュータプログラムおよび記録媒体
JP2022516556A (ja) * 2019-01-03 2022-02-28 ピクセル メディカル テクノロジーズ リミテッド 流体サンプルを分析するシステム及び方法
US10885631B2 (en) * 2019-02-01 2021-01-05 Essen Instruments, Inc. Label-free cell segmentation using phase contrast and brightfield imaging
WO2020234653A1 (en) 2019-05-20 2020-11-26 Aranz Healthcare Limited Automated or partially automated anatomical surface assessment methods, devices and systems
CN110120056B (zh) * 2019-05-21 2021-08-10 闽江学院 基于自适应直方图阈值和轮廓检测的血液白细胞分割方法
US11650597B2 (en) * 2019-07-09 2023-05-16 Samsung Electronics Co., Ltd. Electronic apparatus for identifying object through warped image and control method thereof
EP3842911B1 (de) * 2019-12-26 2023-04-05 Dassault Systèmes 3d-schnittstelle mit verbesserter objektauswahl

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3999047A (en) * 1972-09-05 1976-12-21 Green James E Method and apparatus utilizing color algebra for analyzing scene regions
US4048616A (en) * 1975-12-03 1977-09-13 Geometric Data Corporation Pattern recognition system with keyboard entry for adaptive sensitivity
US4097845A (en) * 1976-11-01 1978-06-27 Rush-Presbyterian-St. Luke's Medical Center Method of and an apparatus for automatic classification of red blood cells
DE2903855A1 (de) * 1979-02-01 1980-08-14 Bloss Werner H Prof Dr Ing Verfahren zum automatischen markieren von zellen und bestimmung der merkmale von zellen aus zytologischen abstrichpraeparaten
US4538299A (en) * 1981-12-04 1985-08-27 International Remote Imaging Systems, Inc. Method and apparatus for locating the boundary of an object
US5086476A (en) * 1985-11-04 1992-02-04 Cell Analysis Systems, Inc. Method and apparatus for determining a proliferation index of a cell sample
US5185809A (en) * 1987-08-14 1993-02-09 The General Hospital Corporation Morphometric analysis of anatomical tomographic data
US4922915A (en) * 1987-11-27 1990-05-08 Ben A. Arnold Automated image detail localization method
US4965725B1 (en) * 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method
US5163095A (en) * 1988-04-22 1992-11-10 Toa Medical Electronics Co., Ltd. Processor for extracting and memorizing cell images, and method of practicing same
US4975972A (en) * 1988-10-18 1990-12-04 At&T Bell Laboratories Method and apparatus for surface inspection
JP3132565B2 (ja) * 1989-08-30 2001-02-05 株式会社日立製作所 欠陥検査方法及びその装置
US5107422A (en) * 1989-10-02 1992-04-21 Kamentsky Louis A Method and apparatus for measuring multiple optical properties of biological specimens
US5072382A (en) * 1989-10-02 1991-12-10 Kamentsky Louis A Methods and apparatus for measuring multiple optical properties of biological specimens
US5029226A (en) * 1989-10-10 1991-07-02 Unisys Corporation Method and apparatus for effecting spot/void filtering of image data
US5202933A (en) * 1989-12-08 1993-04-13 Xerox Corporation Segmentation of text and graphics
US5131049A (en) * 1989-12-08 1992-07-14 Xerox Corporation Identification, characterization, and segmentation of halftone or stippled regions of binary images by growing a seed to a clipping mask
US5218649A (en) * 1990-05-04 1993-06-08 U S West Advanced Technologies, Inc. Image enhancement system
US5115475A (en) * 1990-06-04 1992-05-19 Motorola, Inc. Automatic semiconductor package inspection method
US5257182B1 (en) * 1991-01-29 1996-05-07 Neuromedical Systems Inc Morphological classification system and method
US5204627A (en) * 1991-03-14 1993-04-20 Wisconsin Alumni Research Foundation Adaptive NMR angiographic reprojection method
WO1992022801A1 (en) * 1991-06-13 1992-12-23 Abbott Laboratories Automated specimen analyzing apparatus and method
JP3038051B2 (ja) * 1991-06-28 2000-05-08 日本放送協会 動画像領域抽出装置
WO1993016442A1 (en) * 1992-02-18 1993-08-19 Neopath, Inc. Method for identifying objects using data processing techniques

Also Published As

Publication number Publication date
US5710842A (en) 1998-01-20
US5867610A (en) 1999-02-02
AU7545096A (en) 1997-02-20
WO1993016442A1 (en) 1993-08-19
AU671984B2 (en) 1996-09-19
AU708935B2 (en) 1999-08-19
AU3737693A (en) 1993-09-03
CA2130340C (en) 2000-06-06
EP0664038A4 (de) 1994-11-24
EP0664038B1 (de) 2000-10-11
ES2152946T3 (es) 2001-02-16
US5528703A (en) 1996-06-18
EP0664038A1 (de) 1995-07-26
JPH07504056A (ja) 1995-04-27
DE69329554D1 (de) 2000-11-16
CA2130340A1 (en) 1993-08-19

Similar Documents

Publication Publication Date Title
DE69329554T2 (de) Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken
DE60212917T2 (de) Vorrichtung zur Berechnung eines Index von örtlichen Blutflüssen
DE69331251T2 (de) Automatische Detektion des Vorder- und Hintergrunds in digitalen Röntgenbildern
DE3780955T2 (de) Verfahren zur automatischen spitzenerkennung im graustufenhistogramm eines digitalen bildes.
EP0014857B1 (de) Verfahren zum automatischen Markieren von Zellen und zur Bestimmung der Merkmale von Zellen aus zytologischen Abstrichpräparaten
DE19614975C2 (de) Gesichtsbildverarbeitungssystem
DE69322498T2 (de) Verfahren zur identifizierung von normalen biomedizinischen proben
DE2823490C2 (de)
DE19903235B4 (de) Verfahren und Vorrichtung zur automatischen Ausblendung bei der peripheren Röntgenabbildung
DE19916612B4 (de) Verfahren und System zur Verbesserung diskreter Pixelbilder
DE69630935T2 (de) Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild
DE2952422C3 (de) Verfahren und Vorrichtung zum Verarbeiten eines Röntgenbildes bei einem Röntgenbild-Kopiersystem
DE19747415C2 (de) Verfahren zur Unterstützung eines Betrachters bei der Durchmusterung einer Probe und zytologisches Probenanalysiersystem
DE102007013971B4 (de) Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle
DE602004008471T2 (de) Verfahren und anordnung zur bestimmung einer objektkontur
DE10319546A1 (de) Verfahren und Vorrichtung zur automatischen Detektion von Anomalien in Gefäßstrukturen
EP1908009A2 (de) Verfahren und einrichtung zur segmentierung von bereichen
DE102012208625B4 (de) Verfahren und System zur Verarbeitung von MRT-Daten des menschlichen Gehirns
EP2400458B1 (de) Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme
DE69117692T2 (de) Gerät und Verfahren zum Verarbeiten von Röntgenbilddaten
DE102010041619A1 (de) Verfahren und Röntgensystem zur Summation von DSA-Serienbildern
EP1685384A1 (de) Verfahren und vorrichtung zur erfassung von verschiedenen zelltypen von zellen in einer biologischen probe
EP3583902B1 (de) Verfahren zum automatischen anpassen eines mittels eines röntgengeräts gewonnenen bilddatensatzes, computerprogramm, datenspeicher und röntgengerät
DE112019004112T5 (de) System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren
DE102005034374B3 (de) Verfahren zur automatischen Erstellung einer Hintergrundmaske bei Bildern mit verrauschten Hintergrundbereichen, Anwendungen dazu sowie ein Kernspintomographiegerät zur Durchführung der Verfahren und Computersoftwareprodukt

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee