DE69329554T2 - Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken - Google Patents
Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechnikenInfo
- Publication number
- DE69329554T2 DE69329554T2 DE69329554T DE69329554T DE69329554T2 DE 69329554 T2 DE69329554 T2 DE 69329554T2 DE 69329554 T DE69329554 T DE 69329554T DE 69329554 T DE69329554 T DE 69329554T DE 69329554 T2 DE69329554 T2 DE 69329554T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- data
- mask
- objects
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 58
- 238000012545 processing Methods 0.000 title claims description 23
- 230000000877 morphologic effect Effects 0.000 claims description 11
- 238000000926 separation method Methods 0.000 claims description 11
- 230000003628 erosive effect Effects 0.000 claims description 10
- 210000000805 cytoplasm Anatomy 0.000 claims description 9
- 230000010339 dilation Effects 0.000 claims description 9
- 230000007717 exclusion Effects 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 230000000916 dilatatory effect Effects 0.000 claims 5
- 238000001914 filtration Methods 0.000 claims 3
- 210000004027 cell Anatomy 0.000 description 22
- 238000010191 image analysis Methods 0.000 description 22
- 238000009595 pap smear Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000002360 preparation method Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 238000007670 refining Methods 0.000 description 3
- 238000010186 staining Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000008802 morphological function Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 210000000601 blood cell Anatomy 0.000 description 1
- 238000004820 blood count Methods 0.000 description 1
- 210000002798 bone marrow cell Anatomy 0.000 description 1
- 210000004958 brain cell Anatomy 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 230000002380 cytological effect Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012285 ultrasound imaging Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N15/00—Investigating characteristics of particles; Investigating permeability, pore-volume or surface-area of porous materials
- G01N15/10—Investigating individual particles
- G01N15/14—Optical investigation techniques, e.g. flow cytometry
- G01N15/1429—Signal processing
- G01N15/1433—Signal processing using image recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/155—Segmentation; Edge detection involving morphological operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10056—Microscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30024—Cell structures in vitro; Tissue sections in vitro
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Dispersion Chemistry (AREA)
- Molecular Biology (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Biomedical Technology (AREA)
- Medical Informatics (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
- Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Identifizierung von Objekten unter Verwendung von Datenverarbeitungstechniken und genauer auf ein Verfahren zur Verwendung in Kombination mit Bildanalysevorrichtungen zum Identifizieren von Objekten von Interesse innerhalb des Blickfeld eines Bildanalysemikroskops.
- Mit zunehmendem Fortschritt in der Datenverarbeitungstechnologie, sowohl bezüglich Hardware als auch bezüglich Software, werden biomedizinische Analysesysteme mehr und mehr vorherrschend. Bis in die Gegenwart sind Bildverbesserungssysteme zum Bereitstellen von Bildern von Körpersystemen entwickelt worden, wie beispielsweise Magnetresonanzabbildungseinrichtungen, Ultraschalldarstellung, Computertomographiedarstellung usw.. Bildverbesserungssysteme werden typischerweise zum Aufnehmen und Verarbeiten von Daten verwendet, die zu verwenden sind, um ein Bild eines funktionalen Systems eine Patienten, z. B. des Herzens des Patienten, der Lunge usw., bereitzustellen. Diese Systeme machen keinen Versuch, andere Daten, die die funktionalen Systeme des Patienten wiedergeben, zu sammeln oder zu analysieren.
- Andere Bildanalysesysteme, die zum Analysieren von Bilddaten von Proben, welche einem Patienten entnommen wurden, verwendet werden, sind entwickelt worden. Beispielsweise sind Einrichtungen zum Analysieren von Bilddaten bereitgestellt worden, die Blutzellen, Knochenmarkzellen, Gehirnzellen usw. wiedergeben. Bildanalysesystene sind typischerweise vorgesehen, um Bilddaten aufzunehmen und zu verarbeiten, die verwendet werden, um Charakteristika von Proben, beispielsweise Blutzellenzahlen zu bestimmen. Diese Systeme versuchen, verschiedene Objekte innerhalb der Probe zu identifizieren, z. B. einzelne Zellen, so daß die Charakteristika des Objekts weiter analysiert werden können, um die Gesamtqualität oder den Zustand der Probe zu bestimmen. Bisherige Bildanalysesysteme sind jedoch daran gescheitert, wirksame Methoden und Vorrichtungen zum Identifizieren einzelner Objekte von Interesse innerhalb der Proben ohne spezielle Präparation der Proben bereitzustellen.
- Zum Beispiel sind Bildanalysesysteme bereitgestellt worden, um Teile eines Pap-Zervikalabstrichs zu durchsuchen. Diese Systeme erfordern typischerweise eine spezielle Präparation der Pap- Zervikalabstrichprobe, bevor die Probe untersucht werden kann. Dies ist so, weil eine typische Pap-Zervikalabstrichprobe, die ohne die Hilfe eines Bildanalysesystems von einem Zytotechniker untersucht werden kann, Schichten und Klumpen von Zellen umfaßt, die durch Einsatz verfügbarer Bilddatenverarbeitungstechnologie nicht einfach identifiziert werden können. Die spezielle Präparation, die für diese Analysesysteme erforderlich ist, erfordert jedoch zusätzliche Schritte in der Präparation der Probe und erhöht deshalb den Gesamtaufwand und die Kompliziertheit der Analyse.
- Es gibt verschiedene bekannte Ansätze, um Zellen in einer Probe zu identifizieren. Zum Beispiel sind in A. Rosenfeld et al.: "Digital Picture Processing", 1982, zweite Auflage, Band 2, Seiten 66 und 78 bis 79, Academic Press, Orlando, FL, USA, verschiedene mögliche Lösungen zum Schwellwertvergleich solcher Probenbilder beschrieben, einschließlich unter anderem der Verwendung von zwei Schwellwerten, dis unter Berücksichtigung des Graustufenhistogramms des Bilds festgelegt werden (Seite 66, dritter Absatz), aber auch der Verwendung lokaler Eigenschaftswerte der Bildpixel (Seite 78, letzter Absatz und Seite 79, die ersten beiden Absätze); es scheint jedoch so, daß lokale Eigenschaften (so wie die Graustufe der Pixel selbst oder die mittlere Graustufe berechnet über eine Pixelnachbarschaft) nur zum Festlegen eines besseren Schwellwerts berücksichtigt werden, wie er sowieso konventionell verwendet wird. Die EP-A-0 421 736 beschreibt ein Verfahren, bei dem, nachdem die Zellen provisorisch identifiziert worden sind, das Bild durch Berechnung des Hintergrundniveaus um die identifizierten Zellen herum lokal korrigiert wird.
- Dementsprechend ist es wünschenswert, ein Verfahren zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops eines Bildanalysesystems bereitzustellen, das keine spezielle Präparation der Probe erfordert, die abgebildet werden. Weiterhin ist es wünschenswert, ein Verfahren zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops eines Bildanalysesystems bereitzustellen, das in der Lage ist, einzelne Objekte zu identifizieren, die nahe anderen Objekten angeordnet sein können. Spezieller ist es wünschenswert, ein Verfahren zur Verwendung mit Bildanalysesystemen zum Identifizieren von Zellen einer Pap-Zervikalabstrichprobe bereitzustellen.
- Die vorliegende Erfindung stellt ein Verfahren nach Anspruch 1 zum Erzeugen einer Maske zum Identifizieren von Objekten von Interesse bereit, wobei die Objekte von Interesse in einem Bild enthalten sind, das durch ein Array von Bilddaten wiedergegeben wird. Das Verfahren umfaßt die Schritte des Verarbeitens der Daten, die das Bild wiedergeben, um ein Schwellwertbild zu erzeugen, wobei das Schwellwertbild ein Array von Datenworten ist, wobei jedes Datenwort des Schwellwertbilds einem zugehörigen Datenwort des Bilds entspricht. Ein binäres Bild wird durch Vergleich jedes Datenworts des Schwellwertbilds mit dem zugehörigen Datenwort des Bilds erzeugt, wobei das binäre Bild ein Array von Datenworten ist, von denen jedes einem zugehörigen Datenwort des Bilds entspricht und wobei jedes Datenwort des binären Bilds identifiziert, ob das zugehörige Datenwort des Bilds größer war als das zugehörige Datenwort des Schwellwertbilds. Löcher in dem binären Bild werden durch Invertieren des binären Bilds und Ausschließen von Daten, die ein Objekt von um einen vorgegebenen Betrag geringerer Größe als die erwartete Größe der Objekte von Interesse wiedergeben, wobei die identifizierten Objekte dann zurück zu dem binären Bild hinzugefügt werden, geschlossen, um eine vorläufige Maske zu erzeugen. Die Daten, die die vorläufige Maske wiedergeben, werden verarbeitet, um ihre dunklen Kanten zu detektieren, und sie werden mit der vorläufigen Maske kombiniert, um Daten zu erzeugen, die eine dunkle Kanten einschließende Maske wiedergeben. Die Daten, die die vorläufige Maske wiedergeben, werden auch verarbeitet, um ihre hellen Kanten zu detektieren, und sie werden mit der dunkle Kanten einschließenden Maske kombiniert, um Daten zu erzeugen, die eine die Objekte von Interesse identifizierende Maske wiedergeben.
- Fig. 1 ist ein Verfahrensflußdiagramm, das die Schritte der vorliegenden Erfindung im allgemeinen illustriert;
- die Fig. 2A, 2B und 2C sind Darstellungen, die Objekte einer Probe auf einem Probenträger illustrieren;
- Fig. 3 ist ein Verfahrensflußdiagramm, das Unterschritte zum Ausführen des Schritts 102 gemäß Fig. 1 illustriert;
- Fig. 4A ist ein Graph, der eine Idealverteilung von Pixelhelligkeiten für einen Probenträger illustriert, der in Kombination mit der vorliegenden Erfindung verwendet wird;
- Fig. 4B ist ein Graph eines verzerrten Histogramms, wobei die Peaks von den Tälern tatsächlich nicht unterscheidbar sind und wobei die Helligkeit, bei der die Peaks auftreten, unbestimmt ist.
- Fig. 5 ist ein Verfahrensflußdiagramm, das die Schritte erläutert, die zum Bestimmen der Helligkeitsverteilung von Pixeln für ein bestimmtes Blickfeld verwendet werden;
- Fig. 6 ist ein Verfahrensflußdiagramm, das die Schritte illustriert, die zum Erzeugen eines Schwellwertbilds gemäß der vorliegenden Erfindung verwendet werden;
- Fig. 7A und 7B sind Zeichnungen, die einen Teil des Verfahrens zum Verfeinern der Objekte von Interesse gemäß der vorliegenden Erfindung illustrieren.
- Fig. 8 ist ein Verfahrensflußdiagramm, das Schritte zum Verfeinern der Objekte von Interesse gemäß der vorliegenden Erfindung illustriert;
- Fig. 9 ist ein Verfahrensflußdiagramm, das Schritte zum Verfeinern der Objekte von Interesse gemäß der vorliegenden Erfindung illustriert; und
- die Fig. 10A, 10B und 10C sind Zeichnungen, die ein neues Verfahren zum Beseitigen von Löchern an den Objekten von Interesse gemäß der vorliegenden Erfindung illustrieren.
- Wie oben erwähnt, umfaßt die vorliegende Erfindung ein Verfahren zur Verwendung mit Bildanalysesystemen zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops des Bildanalysesystems. Das Verfahren der vorliegenden Erfindung ist besonders geeignet zur Verwendung mit Bildanalysesystemen, die zur Analyse von zytologischen Proben und spezieller zur Analyse der Charakteristika der Zellen der Probe ausgebildet sind. Die vorliegende Erfindung ist jedoch allgemein anwendbar auf jegliche Systeme zum Verarbeiten von Bilddaten und könnte deshalb in einfacher Weise zur Verwendung in vielen Bereichen der Bildanalyse adaptiert werden, wie beispielsweise der Maschinenüberwachung, der Halbleiterkontrolle usw. Dementsprechend wird der Fachmann, obwohl die vorliegende Erfindung hier unter Bezugnahme auf ein Bildanalysesystem, das zur Analyse von Pap-Zervikalabstrichen ausgebildet ist, beschrieben wird, erkennen, daß die Erfindung auf vielen Gebieten der Bildanalyse anwendbar ist.
- Ein Bildanalysesystem umfaßt typischerweise ein Mikroskop, eine Kamera und Datenverarbeitungseinrichtungen zum Bereitstellen von Daten, die ein Blickfeld des Mikroskops wiedergeben. Die Blickfelddaten werden analysiert, um die Objekte von Interesse zu identifizieren und um die Objekte von Interesse zu charakterisieren, um zu bestimmen, ob die Probe auf dem Probenträger normal oder abnormal ist.
- Es wird vom Fachmann vorausgesetzt werden, daß die vorliegende Erfindung ein Verfahren zum Durchführen eines notwendigen Schritts bei der Gesamtanalyse von Pap-Zervikalabstrichproben aufweist. Insbesondere ist die vorliegende Erfindung zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds des Mikroskops vorgesehen. Andere Verfahren müssen dann verwendet werden, um die Charakteristika der identifizierten Objekte von Interesse zu analysieren und den Gesamtzustand der Probe zu bestimmen.
- Das vorliegende Verfahren zum Identifizieren von Objekten von Interesse innerhalb des Blickfelds eines Mikroskops ist im allgemeinen in Fig. 1 illustriert. Dabei ist es der erste Schritt, die Blickfelddaten für die Analyse zu empfangen, Schritt 100. Die Blickfelddaten sind Daten von dem Mikroskop des Bildanalysesystems, die das Bild eines Blickfelds des Mikroskops wiedergeben. In einer derzeit bevorzugten Ausführungsform der Erfindung kann die Mikroskopabbildungsvorrichtung so viele wie 15 000 Blickfelder für eine Probe bereitstellen. Es wird jedoch dem Fachmann klar sein, daß viele Blickfelder keine Objekte von Interesse enthalten werden. Dementsprechend wird von den Daten, die in Schritt 100 empfangen werden, angenommen, daß sie als Blickfelddaten, die Objekte von Interesse enthalten, vorgescannt oder anderweitig vorsortiert wurden.
- Die Blickfelddaten sind typischerweise ein Array von Datenworten, wobei jedes Datenwort ein Pixel (Bildelement) der Kamera des Bildanalysesystems wiedergibt. In der derzeit bevorzugten Ausführungsform der Erfindung, sind die Blickfelddaten Graustufenblickfelddaten, d. h., jedes Datenwort ist ein binäres Mehrbitwort, wobei der Wert des Datenworts den Transmissionsgrad des Bereichs der Probe anzeigt, der dem Pixel zugeordnet ist, das von dem Datenwort wiedergegeben wird. Teile der vorliegenden Erfindung sind aber gleichermaßen auf binäre Blickfelddaten anwendbar, d. h. auf Daten, bei denen jedes Datenwort entweder die Anwesenheit oder die Abwesenheit eines Objekts in dem Bereich der Probe anzeigt, der dem Pixel zugeordnet ist, das durch das Datenwort wiedergegeben wird.
- Die Blickfelddaten, die ein Bild des Blickfelds der Mikroskopabbildungsvorrichtung wiedergeben, werden einzeln verarbeitet, um die Objekte von Interesse innerhalb des Blickfelds zu identifizieren. Das Ergebnis des vorliegenden Verfahrens zum Identifizieren von Objekten von Interesse, d. h. von Zellen im Fall eines Pap-Zervikalabstrichs, ist eine Maske, die die Größe, die Form und den Ort der Objekte von Interesse innerhalb des Blickfelds identifiziert und eine Maske, die einen eindeutigen Identifikationswert für jedes Objekt in dem Bild bereitstellt. Bezugnehmend auf Fig. 2A ist ein Blickfeld eines Mikroskops illustriert, das mehrere Objekte von Interesse umfaßt, die mit 200, 202, 204 und 206 bezeichnet sind. Fig. 2B illustriert die Maske, die entwickelt werden wird, um die Größe, die Form und den Ort der Objekte von Interesse zu identifizieren, die in Fig. 2A illustriert sind. Fig. 2C illustriert die Maske, die erzeugt werden wird, um den Identifikationswert für die Objekte von Interesse bereitzustellen, die in Fig. 2A illustriert sind. Es wird vom Fachmann vorausgesetzt werden, daß die vorliegende Erfindung, wenn sie zur Pap-Zervikalabstrichanalyse verwendet wird, zusätzlich zu anderer Zellanalyse die in den Fig. 2B und 2C illustrierten Masken sowohl für den Kern als auch das Zytoplasma jeder Zelle bereitstellen wird, die in dem Blickfeld des Mikroskops enthalten ist. Weiterhin wird es dem Fachmann klar sein, daß die in den Fig. 2B und 2C bereitgestellten Illustrationen Wiedergaben von Daten sind, die gemäß der vorliegenden Erfindung erzeugt werden und nicht notwendigerweise als Ausgabe des Verfahrens bereitgestellt werden. Die hier bereitgestellten Darstellungen sollen nur bei der Beschreibung der Erfindung helfen.
- Um die Objekte von Interesse zu identifizieren und die in den Fig. 2B und 2C illustrierten Masken bereitzustellen, verbessert die vorliegende Erfindung zunächst den Kontrast zwischen den Objekten von Interesse und dem Hintergrund, Schritt 102. Diese Verbesserung wird vorgenommen, um die Differenz zwischen Daten, die die Kante eines Objekts wiedergeben und Daten, die den Hintergrund wiedergeben, zu vergrößern. Danach wird jedes Objekt in dem Blickfeld einem Schwellwerttest unterworfen, um zu bestimmen, ob die Helligkeit des Objekts innerhalb eines vorgegebenen Helligkeitsbereichs liegt, der für Objekte von Interesse erwartet wird. Da das Blickfeld zusätzlich zu Objekten von Interesse Artefakte enthalten kann, ist es wünschenswert, nicht nur die Größe, die Form und den Ort von Objekten von Interesse zu identifizieren, sondern auch jegliche Artefakte, wie beispielsweise Haar, Schmutz, Staub usw., die unbeabsichtigt in dem Blickfeld erscheinen können, von der weiteren Analyse auszuschließen. Zu diesem Zweck wird ein Bereich von vorgegebenen Werten für verschiedene Charakteristika der Objekte von Interesse bereitgestellt, wobei von den Objekten von Interesse erwartet wird, daß sie in dem Bereich der bereitgestellten Werte liegen. Die Charakteristika, die untersucht werden, sind Helligkeit, Größe und Form. Es wird dem Fachmann jedoch klar sein, daß andere Charakteristika ausgewählt werden können, um verschiedene andere Objekte von Interesse zu identifizieren, wenn die vorliegende Erfindung auf andere Typen von Bildanalysesystemen angewandt wird.
- Nach dem Durchführen des Schwellwerttests von Schritt 104 sind die Objekte von Interesse identifiziert worden. Der nächste Schritt dient deshalb zum Verfeinern des Bilds der Objekte von Interesse und zum Erzeugen der Masken, die in den Fig. 2B und 2C illustriert sind, Schritt 106.
- Ein detaillierteres Entscheidungsflußdiagramm, das das Verfahren zum Durchführen der Kontrastverbesserung von Schritt 102 illustriert, ist in Fig. 3 bereitgestellt. Der erste Schritt beim Verbessern des Bilds ist es, ausgewählte Parameter der Blickfelddaten zu bestimmen. In der Ausführungsform der Erfindung, die in Fig. 3 illustriert ist, sind die ausgewählten Parameter die Helligkeit des Kerns, des Zytoplasma und des Hintergrunds, Schritt 300. Der Fachmann wird voraussetzten, daß das Bildanalysesystem aus verschiedenen Gründen Variationen in der Helligkeit von Blickfeld zu Blickfeld aufweisen kann. Der offensichtlichste Beitrag zur Helligkeitsvariation ist die Helligkeit des Beleuchtungssystems bzw. das für den Probenträger bereitgestellte Licht vor dem Aufnehmen der Blickfeldbilddaten. Es können aber andere Faktoren zur Variation der Helligkeit von einem Blickfeld zum nächsten beitragen. Dementsprechend wird die Bestimmung des Schritts 300 durchgeführt, um die Helligkeit des vorliegenden Blickfelds wirksam zu skalieren.
- Die Helligkeitsbestimmung von Schritt 300 kann unter Anwendung einer Histogrammfunktion durchgeführt werden, um zu bestimmen, wieviele Pixel innerhalb des Graustufenblickfelds eine bestimmte Helligkeit aufweisen. Die Resultate des Histogramms können graphisch dargestellt werden, wie in Fig. 4A illustriert ist. Idealerweise ist das Resultat des Histogramms eine Kurve mit drei Peaks, wobei der hellste Peak die Anzahl der Pixel anzeigt, die den Hintergrund des Blickfelds wiedergeben. Der mittelhelle Peak 402 zeigt die Anzahl der Pixel an, die das Zytoplasma der Zellen von Interesse wiedergeben, und der dunkelste Peak 400 gibt die Anzahl der Pixel wieder, die den Kern der Zelle wiedergeben.
- Da jedoch das vorliegende Verfahren zur Verwendung ohne jegliche spezielle Präparation der Probe vorgesehen ist, können Zellen in überlappender Anordnung oder in Klumpen vorliegen. Diese Zellen werden dazu neigen, die Resultate des Histogramms zu verzerren, so daß sie das Histogramm von dem in Fig. 4A illustrierten Ideal abweichen lassen. Solch ein verzerrtes Histogramm ist in Fig. 4B illustriert, wobei die Peaks tatsächlich ununterscheidbar von den Tälern sind und wobei die Helligkeit, mit der die Peaks auftreten, unbestimmt ist. Um den Einfluß von sich überlappenden Zellen auf die Parameterbestimmung von Schritt 300 zu reduzieren, können morphologische Funktionen wie wiederholte Dilatation und Erosion durchgeführt werden, um sich überlappende Objekte aus dem Blickfeld zu entfernen. Die morphologischen Funktionen der Dilatation und Erosion sind dem Fachmann gut bekannt und müssen hier nicht im Detail diskutiert werden.
- Bezugnehmend auf Fig. 5 ist ein Verfahren zum Bestimmten der Helligkeit von Objekten von Interesse und zum Bereitstellen der Schwellwertdaten der Schritte 300 und 304 bereitgestellt. Hierbei wird das Originalbild zunächst verkleinert, Schritt 500. Das Verkleinern des Originalbilds wird durchgeführt, um in der Parameterabschätzungsstufe Zeit zu sparen. Es wird festgestellt, daß Details der Größe und Form des Originalblickfeldbilds nicht notwendig für eine genaue Bestimmung der Schwellwertdaten sind. Das Verkleinern kann durch im Stand der Technik bekannte Verfahren einfach durchgeführt werden.
- Nach dem Verkleinern des Originalbilds werden dunkle Objekte unter Verwendung eines vorgegebenen Schwellwerts detektiert. Dies wird durch Eliminieren aller Blickfeldbilddaten durchgeführt, die nicht größer als oder gleich wie der vorgegebene Schwellwert sind, Schritt 502. Danach werden große Objekte von dem im Schritt 502 erzeugten Bild entfernt. Die Entfernung von großen Objekten kann durch Anwenden einer öffnenden Restoperation erreicht werden. Wie im Stand der Technik bekannt, ist ein öffnender Rest einfach eine morphologische Öffnung, um ein geöffnetes Bild zu erzeugen, gefolgt von einer Differenzoperation, um das geöffnete Bild mit dem Originalbild zu kombinieren. Danach wird das verkleinerte Bild mit dem im Schritt 504 erzeugten Bild kombiniert, um die großen dunklen Objekte, die durch das Bild von Schritt 504 detektiert wurden, von dem verkleinerten Bild von Schritt 500 zu entfernen, Schritt 506.
- Wie oben unter Bezugnahme auf die Fig. 4A und 4B diskutiert wurde, werden sich überlappende und dicht gepackte Zellen jegliche Unterscheidung zwischen der Helligkeit des Kerns, des Zytoplasmas und des Hintergrunds des Blickfelds verzerren und so die Parameterbestimmung extrem schwierig machen, falls nicht unmöglich. Die Schritte 502 und 504 sind deshalb vorgesehen, um große dunkle Objekte von den Bilddaten zu entfernen, die für die Parameterbestimmung verwendet werden, um so repräsentative Objekte von Interesse zu isolieren. Der Fachmann wird voraussetzen, daß sich überlappende Zellen dunkel sein werden und sich von dem dunklen Kern durch ihre Größe unterscheiden. Entsprechend sind die Schritte 502 und 504 vorgesehen, um Objekte zu entfernen, die eine Dunkelheit ähnlich derjenigen aufweisen, die für den Kern erwartet wird, und eine Größe aufweisen, die viel größer ist als diejenige, die für den Kern erwartet wird. Es wird dem Fachmann klar sein, daß in anderen Anwendungen andere Kriterien ausgewählt werden könnten, um Objekte zu entfernen, die die Parameter verzerren, und um Objekte zu isolieren, die für die gemessenen Parameter repräsentativ sind.
- Nachdem die großen dunklen Objekte von dem verkleinerten Bild entfernt worden sind, Schritt 506, wird ein Histogramm aufgestellt, Schritt 508, und es werden die Bildhelligkeitsparameter bestimmt, Schritt 510. Bei der vorliegenden Ausführungsform der Erfindung, die verwendet wird, um Zellen in einem Pap-Zervikalabstrich zu identifizieren, sind die Ergebnisse der Bildbestimmung, Schritt 510, ein den Hintergrund wiedergebender hoher Schwellwert, ein das Zytoplasma wiedergebender mittlerer Schwellwert und ein den Kern wiedergebender niedriger Schwellwert, wie auch in Fig. 4A illustriert ist.
- Die Resultate der Parameterbestimmung von Schritt 300 sind Schwellwertdaten, die Daten bereitstellen, welche die erwarteten Schwellwerte des Kerns, des Zytoplasmas und des Hintergrunds eines bestimmten Blickfelds einer bestimmten Probe anzeigen, Schritt 304. Der Fachmann wird voraussetzten, daß die Schwellwertdaten speziell für jedes Blickfeld bestimmt werden müssen, da Variationen in dem Bildanalysesystem, wie sie oben diskutiert wurden, dazu führen, daß sich die Parameter von Blickfeld zu Blickfeld ändern. Darüberhinaus können, obwohl die Parameter der hier diskutierten Ausführungsform die Helligkeiten der Objekte von Interesse sind, in verschiedenen anderen Anwendungen andere Parameter ausgewählt und bestimmt werden.
- Wie oben erwähnt wurde, sind die Resultate der vorliegenden Erfindung die Erzeugung einer Maske, die die Größe, die Form und den Ort der Objekte von Interesse identifiziert, und die Bereitstellung eines Identifikationswerts für die Objekte von Interesse, wie in den Fig. 2B und 2C illustriert ist. Die Objekte von Interesse können jedoch eine Textur aufweisen, d. h. Helligkeitsdiskontinuitäten, die die Möglichkeit der Erzeugung einer Maske beeinträchtigen. Dementsprechend ist es wünschenswert, die Textur von den Objekten von Interesse zu entfernen, Schritt 306. Mit besonderer Bezugnahme auf das Bild von Zellen einer Pap- Zervikalabstrichprobe ist es wünschenswert, die Textur des Kerns von jeglicher Zelle zu entfernen, die in dem Blickfeldbild erscheint. Die Texturentfernung kann an dem Originalbild durch eine morphologische Graustufenöffnung bewirkt werden, wie sie im Stand der Technik bekannt ist. Nach der Öffnung werden die Grenzen der Objekte von Interesse durch bedingte Dilatation wiederaufbereitet. Danach werden die Reste der Bilder wiederaufbereitet, um ein nicht-texturiertes Bild bereitzustellen, Schritt 308.
- Dann wird der Hintergrund normalisiert, um die Differenz im Kontrast zwischen dem Hintergrund und den Objekten von Interesse zu reduzieren, Schritt 310. Dieser Schritt ist besonders sinnvoll für die Abbildung von Zellen oder anderen Objekten von Interesse, wenn die Objekte von Interesse zwei Bereiche mit unterschiedlichen Helligkeitsniveaus aufweisen, d. h. Kern- und Zytoplasma im Fall einer Zellabbildung. Das Ergebnis der Hintergrundnormalisierung ist die Bereitstellung eines normalisierten Bilds, Schritt 312.
- Das vom Schritt 312 bereitgestellte normalisierte Bild und das vom Schritt 308 bereitgestellte nicht texturierte Bild werden im Schritt 314 kombiniert, um das verbesserte Bild bereitzustellen, das Teil des Ergebnisses von Schritt 102 ist. Die Transformation des verbesserten Objektbilds von Schritt 314 wird durchgeführt durch Transformieren des Bilds, um den Effekt von Intensitätsvariationen aufgrund von ungleichmäßigen Färbungen der Proben zu eliminieren. Wie es im Stand der Technik bekannt ist, wird ein Pap-Abstrich unter Einfärben einer Probe durchgeführt, um chemisch die Differenz im Transmissionsgrad zwischen Bereichen der Probe, d. h. dem Nukleus, dem Zytoplasma und dem Hintergrund, zu verbessern. Da jedoch das Einfärbung über die Probe unregelmäßig sein kann, können Variationen in der Graustufenintensität des Blickfeldbilds resultieren. Die Bildtransformation von Schritt 314 wird unter Verwendung von Gauß'schen Mittelungstechniken durchgeführt, um diese Unregelmäßigkeiten zu mindern.
- Insbesondere wird das Originalbild in einem binominalen Filter gefiltert. Das nicht texturierte Bild wird dann von dem gefilterten Bild subtrahiert, um das verbesserte Bild bereitzustellen, Schritt 316.
- Dementsprechend ist, wie in Fig. 3 illustriert, das Resultat der unter Bezugnahme auf Schritt 102, Fig. 1 diskutierten Kontrastverbesserung, daß Schwellwertdaten bereitgestellt werden, die die Graustufenintensität von verschiedenen Bereichen der Objekte von Interesse und des Hintergrunds illustrieren, und daß ein verbessertes Bild bereitgestellt wird, indem der Kontrast zwischen dem Hintergrund und den Objekten von Interesse verbessert ist.
- Zurückkehrend zu Fig. 1 wird der Schwellwerttest zum Identifizieren von Objekten von Interesse, Schritt 104, an dem verbesserten Bild (erzeugt von Schritt 316, Fig. 3) unter Verwendung der Schwellwertdaten (erzeugt von dem Verfahren gemäß Fig. 5) durchgeführt, um ein binäres Bild zu erzeugen. Der Schwellwerttest ist im allgemeinen ein solcher, der jedes Datenwort von jedem Pixel der Blickfeldbilddaten mit einem vorgegebenen Schwellwert vergleicht und der jedes Objekt als Objekt von Interesse identifiziert, das eine Intensität größer als der vorgegebene Wert aufweist. Es ist jedoch ein besonderes neues Merkmal der vorliegenden Erfindung, daß der Wert des Schwellwerts für jedes Pixel variiert wird. Anders gesagt wird ein Schwellwertbild erzeugt, wobei das Schwellwertbild einen Schwellwertintensitätswert umfaßt, der jedem einzelnen Pixel des Blickfelds zugeordnet ist. Der Schwellwerttest wird durchgeführt, in dem der einem bestimmten Pixel zugeordnete Schwellwertintensitätswert mit dem Datenwort von diesem Pixel verglichen wird. Es ist im Stand der Technik bekannt, daß dann, wenn das Datenwort größer oder gleich dem Schwellwertintensitätswert ist, dem zugehörigen Pixel des binären Bilds der Wert "eins" zugeordnet wird, um die Anwesenheit eines Objekts anzuzeigen. Umgekehrt wird dann, wenn das Datenwort kleiner oder gleich dem Schwellwertintensitätswert ist, dem zugehörigen Pixel des binären Bilds eine "null" zugeordnet, um die Abwesenheit eines Objekts anzuzeigen.
- Unter Bezugnahme auf Fig. 6 wird ein Verfahren zum Erzeugen eines Schwellwertbilds diskutiert werden. Das Schwellwertbild wird aus dem nicht texturierten Bild und dem verbesserten Bild erzeugt. Der Hintergrund des nicht texturierten Bilds (siehe Schritt 308 von Fig. 3) wird entfernt, Schritt 600. Danach werden die Kante und die Textur des verbesserten Bilds erzeugt, Schritt 602, und der dunkle Bereich wird geschwächt, Schritt 604. Das Kantenbild wird durch eine morphologische Dilatationsrestoperation bestimmt, und das Texturbild wird durch die Differenz des nicht texturierten Bilds und des Originalbilds erhalten. Die Bilder, die aus den Schritten 600 und 604 resultieren, werden kombiniert, Schritt 606, und das kombinierte Bild wird verwaschen ("blurred"), Schritt 608, um das Schwellwertbild zu erzeugen, Schritt 610.
- Wie oben erwähnt, wird das Schwellwertbild mit dem Originalbild kombiniert, um die Objekte von Interesse zu identifizieren. Das Schwellwertbild, das oben erzeugte wurde, wie unter Bezugnahme auf Fig. 6 beschrieben ist, kann als solches zusammen mit dem Originalbild verwendet werden, um die Objekte von Interesse zu identifizieren; in einer derzeit bevorzugten Ausführungsform der vorliegenden Erfindung wird das Schwellwertbild jedoch mit dem verbesserten Bild kombiniert, um die Objekte von Interesse zu identifizieren. Zusätzlich wird das Schwellwertbild, wie unten detaillierter beschrieben werden wird, mit zwei vorbestimmten Offset-Werten kombiniert, um drei Schwellwertbilder zu erzeugen. Ein erster vorbestimmter Offset wird von jedem Graustufenpixelwert eines Originalschwellwertbilds subtrahiert, um ein Niedrigschwellwertbild zu erzeugen, und ein zweiter vorgegebener Wert wird zu jedem Graustufenpixelwert des Schwellwertbilds hinzuaddiert, um ein Hochschwellwertbild zu erzeugen. Das Niedrigschwellwertbild, das Hochschwellwertbild und das Originalschwellwertbild werden jeweils getrennt voneinander mit dem verbesserten Bild kombiniert, um drei binäre Schwellwertbilder bereitzustellen.
- Es wird dem Fachmann klar sein, daß jedes der hier oben diskutierten Bilder Graustufenbilder gewesen sind, d. h. Bilder, in denen jedes Pixel einen Bereich von Werten haben kann, die eine Vielzahl von Intensitäten wiedergeben. Nachdem die Schwellwertbilder, wie oben diskutiert wurde, mit dem verbesserten Bild kombiniert worden sind, ist das Ergebnis ein binäres Bild, d. h. ein Bild, in dem jedes Pixel entweder die Anwesenheit oder die Abwesenheit eines Objekts wiedergibt. Da es das Ergebnis des vorliegenden Verfahrens ist, eine Maske bereitzustellen, wird der Fachmann voraussetzen, daß die binären Bilder, die durch Kombinieren der Schwellwertbilder mit dem verbesserten Bild erzeugt wurden, die Maske wiedergeben, die die Form, die Größe und die Position von jedem Objekt von Interesse innerhalb des Blickfelds identifiziert.
- Noch weiter wird der Fachmann voraussetzen, daß eine Kombination des originalen Schwellwertbilds mit dem verbesserten Bild eine Maske bereitstellt, die die Größe, die Form und die Position von Objekten von Interesse identifiziert, wobei die Maske für die meisten Anwendungen geeignet ist. In der aktuellen Anwendung des vorliegenden Verfahrens ist es jedoch wünschenswert, weitere eine Datenverarbeitung der Blickfeldbilddaten durchzuführen, um sicherzustellen, daß alle Objekte von Interesse ordnungsgemäß identifiziert worden sind und in der Maske wiedergegeben werden. Deshalb werden die drei binäre Schwellwertbilder, die als Ergebnis des Schritts 104 (Fig. 1), wie oben diskutiert wurde, erzeugt wurden, verfeinert, Schritt 106, wie unten detaillierter diskutiert werden wird.
- Im allgemeinen beginnt die Verfeinerung der binären Schwellwertbilder mit dem binären Schwellwertbild, das durch Kombinierendes Originalschwellwertbilds mit dem verbesserten Bild erzeugt wurde. Eine Datenverarbeitung wird durchgeführt, um zu bestimmen, ob irgendwelche Artefakte, oder nicht-Kerne identifiziert worden sind. Das Ergebnis dieser Tests ist es, etwas zu erzeugen, was eine sehr enge Näherung der gewünschten Maske wiedergibt. Danach werden alle Objekte, die in dem binären Hochschwellwertbild identifiziert sind, zu der oben erzeugten besten Näherungsmaske zugefügt. Letztlich wird eine weitere Datenverarbeitung durchgeführt, um zu bestimmen, ob irgendwelche zusätzlichen Objekte von Interesse in dem binären Niedrigschwellwertbild identifiziert worden sind, die noch nicht in die Maske aufgenommen wurden, und falls ja, werden diese Objekte ebenfalls in die Maske aufgenommen.
- Um das binäre Mittelschwellwertbild zu verfeinern, wird die Maske überarbeitet, um etwaige Löcher zu füllen. Zum Beispiel kann die binäre Maske, die wie in Fig. 2B angezeigt aussehen sollte, Löcher innerhalb der Objekte von Interesse haben, wie in Fig. 7A gezeigt ist. Das Verfahren von Fig. 8 wird durchgeführt, um die Maske von Fig. 7A zu verfeinern, um jegliche Löcher zu beseitigen und um eine Maske bereitzustellen, wie sie in Fig. 2B illustriert ist. Zu Beginn werden die dunklen Kanten der Objekte von Interesse durch morphologische Erosionsrestoperationen identifiziert, wie durch die Zwischenmaske von Fig. 7B illustriert ist. Um das Einschließen der dunklen Kanten auszuführen, werden die dunklen Kanten des verbesserten Bilds detektiert. Die dunkle-Kanten-Detektion kann durch ein einfaches Bestimmen durchgeführt werden, wo eine Variation zwischen einem Pixel und einem benachbarten Pixel vorliegt. Die dunkle Kante wird identifiziert als das Pixel, das ein Objekt von Interesse wiedergibt. Als nächstes werden die dunklen Kanten unter Anwendung einer kleinen morphologischen Schließung und nachfolgender Öffnung verbunden, um Löcher in den dunklen Kanten aufzufüllen, Schritt 802. Danach wird der Grenzbereich der Kante detektiert und als die wahre dunkle-Kanten-Maske identifiziert, wie in Fig. 7B illustriert ist. Das binäre Mittelschwellwertbild 806 wird in einer Satzvereinigung 808 mit dem Bild kombiniert, das durch Schritt 804 erzeugt wurde, um ein dunkle Kanten einschließendes Bild, Schritt 810 zu erzeugen.
- In entsprechender Weise werden die hellen Kanten des Originalbilds dann von dem binären Mittelschwellwertbild ausgeschlossen. Zu diesem Zweck werden hellen Kanten des verbesserten Bilds detektiert, Schritt 900, wie in Fig. 9 illustriert ist. Dies wird in einer der dunkle-Kanten-Detektion von Schritt 800, wie sie oben diskutiert wurde, entsprechenden Weise durchgeführt, außer daß die Pixel, die die Abwesenheit eines Objekts anzeigen, als die helle Kante identifiziert werden. Der Grenzbereich des dunkle Kanten einschließenden Bilds, das in dem obigen Schritt 810 erzeugt wurde, wird dann detektiert, und die Ergebnisse der Schritte 900 und 902 werden in einer Satzschnittmengenoperation kombiniert. Die Resultate des Schritts 904 werden dann von dem dunkle Kanten einschließenden Bild subtrahiert, Schritt 906, um ein helle Kanten ausschließendes Bild zu erzeugen, Schritt 908. Das Mittelschwellwertbild wird jetzt durch das helle Kanten ausschließende Bild wiedergegeben.
- Die Objekte des helle Kanten ausschließenden Bilds werden durch Auffüllen jeglicher Löcher komplettiert, die zurückbleiben können. Vorteilhafterweise ist das vorliegende Verfahren in der Lage, Löcher aufzufüllen, ohne nahe beieinander liegende Objekte miteinander zu verbinden. Um die Verfeinerung des binären Mittelschwellwertbilds zu komplettieren, wird das helle Kanten ausschließende Bild von Schritt 908 invertiert, um ein Bild bereitzustellen, wie es in Fig. 10A illustriert ist. Als nächstes werden die Objekte von Fig. 10A detektiert und durch eine verbundene-Komponenten-Markierungsprozedur markiert. Dann werden Objekte identifiziert, die größer als eine vorgegebene Größe sind, und diese Objekte werden aus dem Bild ausgeschlossen, um ein Bild bereitzustellen, wie es in Fig. 10B illustriert ist. Das so erzeugte Bild wird dann zu dem Originalbild hinzugefügt, um die fertige binäre mittlerer Schwellwertmaske bereitzustellen. Es wird dem Fachmann klar sein, daß die vorgegebene Größe zum Ausschließen von Objekten aus der Maske von Fig. 10A so ausgewählt wird, daß sie größer als die erwartete Größe von Objekten von Interesse ist.
- Um das binäre mittlerer Schwellwertbild weiter zu komplettieren, wird Datenverarbeitung durchgeführt, um Objekte abzutrennen, die möglicherweise unter Verwendung der oben diskutierten helle- Kanten-Detektionstechnik noch nicht abgetrennt wurden. Um die Objektseparation durchzuführen, werden die Objekte der in Fig. 10C erzeugten Maske um einen ersten vorgegebenen Betrag erodiert und dann um einen zweiten vorgegebenen Betrag dilatiert, wobei der Betrag der Erosion den Betrag der Dilatation überschreitet, so daß die Objekte nach der Dilatation kleiner sind, als sie es vor der Erosion waren. So werden die verbundenen Objekte separiert. Dann wird eine morphologische Verschlußrestoperation angewendet, um die Separationsgrenze zu bestimmen. Die Separationsgrenze wird dann von dem lochaufgefüllten Bild subtrahiert, um das binäre, von überlappenden Objekten separierte Bild zu erzeugen.
- Um sicherzustellen, dab keine Objekte während der oben bezeichneten Separation verlorengegangen sind, wird das von überlappenden Objekten separierte Bild dilatiert, um eine Objektmaske zu erzeugen. Kleine Objekte, die nicht in der Objektmaske enthalten sind, werden in einer Satzvereinigung mit dem Objektseparationsbild kombiniert, um ein wiedergewonnene-Objekte-Bild bereitzustellen.
- Letztlich werden das binäre Hochschwellwertbild und das binäre Niedrigschwellwertbild mit dem wiedergewonnene-Objekte-Bild, d. h. dem komplettierten binären Mittelschwellwertbild, kombiniert, um die letztendliche Maske zu erzeugen. Zu diesem Zweck werden alle Objekte, die in dem Hochschwellwertbild identifiziert sind, zu dem komplettierten Mittelschwellwertbild unter Anwendung einer Satzvereinigungsoperation hinzugefügt. Die resultierende Maske wird dann um einen kleinen Betrag erodiert und um einen großen Betrag dilatiert, so daß alle Objekte, die identifiziert worden sind, zu einem einzigen Objekt verbunden werden. Die resultierende Maske wird dann mit der Niedrigschwellwertmaske kombiniert, so daß jegliche Objekte, die in der Niedrigschwellwertmaske in einem Bereich identifiziert worden sind, der sich nicht in großer Nähe zu Objekten befindet, die in der komplettierten Mittelschwellwertmaske erscheinen, zu dem Bild hinzugefügt werden. Diese Objekte werden dann zu dem komplettierten Mittelschwellwertbild hinzugefügt, um die fertige Maske zu erzeugen. Eine verbundene Komponenten markierende Prozedur wird auf die fertige Maske angewendet, um jedem verbundenen Objekt eine spezielle Markierung zuzuordnen.
- Es wird vorausgesetzt werden, daß die Erfindung vielfach werden kann. Dementsprechend unterliegt die Erfindung keiner Beschränkung außer durch die nachfolgenden Patentansprüche.
- Was beansprucht wird, ist:
Claims (13)
1. Verfahren zum Erzeugen einer Maske zum Identifizieren von
Objekten von Interesse (200, 202, 204, 206), wobei die Objekte
von Interesse (200, 202, 204, 206) in einem Bild enthalten sind,
das durch ein Array von Datenworten (100) wiedergegeben wird,
wobei das Verfahren die Schritte aufweist:
(a) Verarbeiten der Daten, die das Bild wiedergeben, um
ein Schwellwertbild (610) zu erzeugen, wobei das Schwellwertbild
(610) ein Array von Datenworten ist, wobei jedes Datenwort des
Schwellwertbilds (6I0) einem zugehörigen Datenwort des Bilds
entspricht;
(b) Vergleichen jedes Datenworts des Schwellwertbilds
(610) mit dem zugehörigen Datenwort des Bilds, um ein binäres
Bild (806) zu erzeugen, wobei das binäre Bild (806) ein Array
von Datenworten ist, von denen jedes einem zugehörigen Datenwort
(100) des Bilds entspricht und wobei jedes Datenwort des binären
Bilds (806) identifiziert, ob das zugehörige Datenwort (100) des
Bilds größer war als das zugehörige Datenwort des
Schwellwertbilds (610); und
Verwenden des binären Bilds (806) als Maske oder zum
Erzeugen einer Maske, um die Objekte von Interesse (200, 202,
204, 206) zu identifizieren.
2. Verfahren nach Anspruch 1, das weiterhin die Schritte
aufweist:
(c) Subtrahieren (502, 504) eines vorgegebenen Offsets von
jedem Datenwort des Schwellwertbilds (610), um ein Array von
Daten zu erzeugen, die ein Niedrigschwellwertbild wiedergeben;
(d) Vergleichen jedes Datenworts des Niedrigschwellwertbilds
mit seinem zugehörigen Datenwort des Bilds, um ein binäres
Niedrigschwellwertbild zu erzeugen, wobei das binäre
Niedrigschwellwertbild ein Array von Datenworten ist, von denen
jedes einem zugehörigen Datenwort des Bilds entspricht, und
wobei jedes Datenwort des binären Niedrigschwellwertbilds
identifiziert, ob das zugehörige Datenwort des Bilds größer als das
zugehörige Datenwort des Niedrigschwellwertbilds (610) war; und
(e) Hinzufügen von Objekten, die durch das binäre
Niedrigschwellwertbild identifiziert wurden, zu dem binären Bild (806).
3. Verfahren nach Anspruch 2, wobei der Schritt (e), das
Hinzufügen von Objekten, die durch das binäre
Niedrigschwellwertbild identifiziert wurden, den Unterschritt aufweist:
(f) Bestimmen, welche Objekte des binären
Niedrigschwellwertbilds innerhalb einer Niedrigschwellwertregion angeordnet
sind, und Hinzufügen nur von solchen Objekten zu der binären
Maske, die in der Niedrigschwellwertregion angeordnet sind,
wobei die Niedrigschwellwertregion eine Region des Bilds ist, in
der die Größe der Datenworte, die Objekte wiedergeben, relativ
klein im Vergleich zu der Größe von Datenworten ist, die Objekte
in anderen Regionen des Bilds wiedergeben.
4. Verfahren nach Anspruch 1, das weiterhin die Schritte
aufweist:
(g) Hinzufügen eines vorgegebenen Offsets zu jedem
Datenwort des Schwellwertbilds (610), um ein Array von Daten zu
erzeugen, die ein Hochschwellwertbild (610) wiedergeben;
(h) Vergleichen jedes Datenworts des Hochschwellwertbilds
(610) mit seinem zugehörigen Datenwort des Bilds, um ein binäres
Hochschwellwertbild zu erzeugen, wobei das binäre
Hochschwellwertbild ein Array von Datenworten ist, von denen jedes einem
zugehörigen Datenwort des Bilds entspricht und wobei jedes
Datenwort des binären Hochschwellwertbilds identifiziert, ob das
zugehörige Datenwort des Bilds größer als das zugehörige
Datenwort des Hochschwellwertbilds (610) war; und
(i) Hinzufügen von Objekten, die durch das binäre
Hochschwellwertbild identifiziert wurden, zu dem binären Bild (806).
5. Verfahren nach Anspruch 1, das weiterhin den Schritt
aufweist:
(j) Auffüllen von Löchern in dem binären Bild (806) durch
Invertieren des binären Bilds (806) und Ausschließen von Daten,
die ein Objekt von um einen vorgegebenen Betrag geringerer Größe
als die erwartete Größe der Objekte von Interesse (200, 202,
204, 206) wiedergeben, wobei die identifizierten Objekte dann
zurück zu dem binären Bild (806) hinzugefügt werden, um eine
Maske (810) zu erzeugen, die die Objekte von Interesse (200,
202, 204, 206) identifiziert.
6. Verfahren nach Anspruch 1, das weiterhin die Schritte
aufweist:
(k) Verarbeiten (800) der Daten, die das binäre Bild (806)
wiedergeben, um seine dunklen Kanten zu detektieren (800), und
Kombinieren (808) der resultierenden Daten mit den binären Bild
(806), um Daten zu erzeugen, die eine dunkle Kanten
einschließende Maske (810) wiedergeben;
(l) Verarbeiten (900) der Daten, die das binäre Bild (806)
wiedergeben, um seine hellen Kanten zu detektieren (900), und
Kombinieren (904) der resultierenden Daten mit der dunkle Kanten
einschließenden Maske (902), um Daten zu erzeugen, die eine
Maske (908) wiedergeben, die die Objekte von Interesse (200,
202, 204, 206) identifiziert.
7. Verfahren nach Anspruch 1, wobei der Schritt des Verwendens
des binären Bilds zum Erzeugen der Maske zum Identifizieren der
Objekte von Interesse die Schritte umfaßt:
(c) Auffüllen von Löchern in dem binären Bild (806) durch
Invertieren des binären Bilds (806) und Ausschließen von Daten,
die ein Objekt von um einen vorgegebenen Betrag geringerer Größe
als die erwartete Größe der Objekte von Interesse (200, 202,
204, 206) wiedergeben, wobei die identifizierten Objekte dann
zurück zu dem binären Bild (806) hinzugefügt werden, um eine
vorläufige Maske zu erzeugen;
(d) Verarbeiten (800) der Daten, die die vorläufige Maske
wiedergeben, um ihre dunklen Kanten zu detektieren (800), und
Kombinieren der resultierenden Daten mit der vorläufigen Maske,
um Daten (304) zu erzeugen, die eine dunkle Kanten
einschließende Maske (810) wiedergeben: und
(e) Verarbeiten (900) der Daten, die die vorläufige Maske
wiedergeben, um ihre hellen Kanten zu detektieren (900), und
Kombinieren der resultierenden Daten mit der dunkle Kanten
einschließenden Maske (906), um Daten (304) zu erzeugen, die
eine die Objekte von Interesse (200, 202, 204, 206)
identifizierende Maske wiedergeben.
8. Verfahren nach Anspruch 7, wobei der Schritt (b), das
Erzeugen eines binären Bilds (806), weiterhin die Schritte
aufweist:
(f) Subtrahieren (502, 504) eines vorgegebenen Offsets
(502, 506) von jedem Datenwort des Schwellwertbilds (610), um
ein Array von Daten zu erzeugen, die ein Niedrigschwellwertbild
wiedergeben;
(g) Vergleichen jedes Datenworts des
Niedrigschwellwertbilds (610) mit seinem zugehörigen Datenwort des Bilds, um ein
binäres Niedrigschwellwertbild zu erzeugen, wobei das binäre
Niedrigschwellwertbild ein Array von Datenworten ist, von denen
jedes einem zugehörigen Datenwort des Bilds entspricht, und
wobei jedes Datenwort des binären Niedrigschwellwertbilds
identifiziert, ob das zugehörige Datenwort des Bilds größer als
das zugehörige Datenwort des Niedrigschwellwertbilds (610) war;
und
(h) Hinzufügen von Objekten, die durch das binäre
Niedrigschwellwertbild identifiziert wurden, zu dem binären Bild (806).
9. Verfahren nach Anspruch 8, wobei der Schritt (h), das
Hinzufügen von Objekten, die durch das binäre
Niedrigschwellwertbild identifiziert wurden, den Unterschritt aufweist:
(i) Bestimmen, welche Objekte des binären
Niedrigschwellwertbilds innerhalb einer Niedrigschwellwertregion angeordnet
sind, und Hinzufügen nur von solchen Objekten zu der binären
Maske, die in der Niedrigschwellwertregion angeordnet sind,
wobei die Niedrigschwellwertregion eine Region des Bilds ist, in
der die Größe der Datenworte, die Objekte wiedergeben, relativ
kein im Vergleich zu der Größe von Datenworten ist, die Objekte
in anderen Regionen des Bilds wiedergeben.
10. Verfahren nach Anspruch 8, wobei der Schritt (b), das
Erzeugen eines binären Bilds (806), weiterhin die Schritte
aufweist:
(j) Hinzufügen eines vorgegebenen Offsets (502, 506) zu
jedem Datenwort des Schwellwertbilds (610), um ein Array von
Daten zu erzeugen, die ein Hochschwellwertbild wiedergeben;
(k) Vergleichen jedes Datenworts des Hochschwellwertbilds
(610) mit seinem zugehörigen Datenwort des Bilds, um ein binäres
Hochschwellwertbild zu erzeugen, wobei das binäre
Hochschwellwertbild ein Array von Datenworten ist, von denen jedes einem
zugehörigen Datenwort des Bilds entspricht, und wobei jedes
Datenwort des binäre Hochschwellwertbilds identifiziert, ob das
zugehörige Datenwort des Bilds größer als das zugehörige
Datenwort des Hochschwellwertbilds (610) war; und
(l) Hinzufügen von Objekten, die durch das binäre
Hochschwellwertbild identifiziert wurden, zu dem binären Bild (806).
11. Verfahren nach Anspruch 1, wobei der Verarbeitungsschritt
die Schritte aufweist:
(a) Entfernen von Objekten (504) von den Bilddaten, die
größer als eine erwartete Größe der Objekte von Interesse (200,
202, 204, 206) sind, wobei die Objekte eine Textur aufweisen;
(b) Entfernen der Textur (306) der Objekte von Interesse
(200, 202, 204, 206), um nicht texturierte Bilddaten (308)
bereitzustellen;
(c) Normalisieren des Hintergrunds (310) der Bilddaten
(100), um normalisierte Bilddaten (312) bereitzustellen;
(d) Filtern der normalisierten Bilddaten und Subtrahieren
der nicht texturierten Bilddaten (314), um verbesserte Bilddaten
(316) bereitzustellen;
(e) Ermitteln der Differenz zwischen den nicht texturierten
Bilddaten (314) und den Bilddaten (100), um texturierte
Bilddaten bereitzustellen;
(f) Durchführen einer morphologischen
Dilatationsrestoperation (602) bezüglich der verbesserten Bilddaten (316) und
Kombinieren der texturierten Bilddaten und der nicht
texturierten Bilddaten (314) mit dem Ergebnis, um
Schwellwertbilddaten (610) zu erzeugen; und
(g) Erzeugen (104) von Niedrigschwellwertbilddaten und
Hochschwellwertbilddaten durch Subtrahieren bzw. Addieren eines
vorbestimmten Offsets von bzw. zu den Schwellwertbilddaten
(610);
und wobei der Vergleichsschritt weiterhin die Schritte
aufweist:
(h) Identifizieren von Bilddaten, die ein Objekt von
Interesse (200, 202, 204, 206) wiedergeben, als jegliche
verbesserten Bilddaten (316), die einen Wert aufweisen, welcher
den Wert der zugehörigen Schwellwertbilddaten (610)
überschreitet, um eine vorläufige Maske zu erzeugen;
(i) Detektieren der dunklen Kanten (800) der verbesserten
Bilddaten (316), um Dunkelkantendaten zu erzeugen, und
Kombinieren der dunkle-Kanten-Daten mit der vorläufigen Maske, um
dunkle-Kanten-Maskendaten (810) zu erzeugen;
(j) Detektieren der hellen Kanten (900) der verbesserten
Bilddaten (316), um helle-Kanten-Daten zu erzeugen, wobei die
helle-Kanten-Daten Pixel aufweisen, und Ausschließen der Pixel
in den helle-Kanten-Daten von den dunkle-Kanten-Maskendaten, um
helle-Kanten-Maskendaten (908) zu erzeugen;
(k) Auffüllen von Löchern in den helle-Kanten-Maskendaten
(908) durch Invertieren der helle-Kanten-Maskendaten (908) und
Ausschließen von Daten, die ein identifiziertes Objekt von um
einen vorgegebenen Betrag geringerer Größe als die erwartete
Größe der Objekte von Interesse (200, 202, 204, 206)
wiedergeben, und Hinzufügen der identifizierten Objekte zurück zu den
helle-Kanten-Maskendaten (908), um eine lochaufgefüllte Maske zu
erzeugen;
(l) Erodieren der lochaufgefüllten Maske um einen ersten
Betrag und Dilatieren um einen kleineren Betrag und Bestimmen
einer Grenzseparation zwischen den identifizierten Objekten
durch eine morphologische Verschlußrestoperation (802) und
Subtrahieren der Separationsgrenze von der lochaufgefüllten
Maske, um eine Objektmaske zu erzeugen;
(m) Vergleichen der Hochschwellwertbilddaten (610) mit den
verbesserten Bilddaten (316), wobei ein Pixel, das die Daten
aufweist, welche eine Hochschwellwertmaske wiedergeben, in der
Hochschwellwertmaske enthalten ist, falls der zugehörige Wert
der Daten in dem verbesserten Bild größer als ein zugehöriger
Datenwert des Hochschwellwertbilds ist, und wobei jegliche
Objekte, die durch die Hochschwellwertmaske identifiziert
werden, durch eine Satzvereinigungsoperation zu der
objektseparierten Maske hinzugefügt werden, um den Hochschwellwert
einschließende Maskendaten zu erzeugen;
(n) Vergleichen der Niedrigschwellwertbilddaten (610) mit
den verbesserten Bilddaten (316), um
Niedrigschwellwertmaskendaten zu erzeugen, wobei ein Pixel, das Daten umfaßt, die eine
Niedrigschwellwertmaske wiedergeben, in den
Niedrigschwellwertmaskendaten enthalten ist, wenn der jeweilige Wert der Daten in
dem verbesserten Bild größer als ein zugehöriger Datenwert des
Niedrigschwellwertbilds ist; und
(o) Erodieren der den Hochschwellwert einschließenden
Maskendaten um einen kleinen Betrag und Dilatieren der
resultierenden Daten um einen großen Betrag, um alle Objekte zu
verbinden, die durch die den Hochschwellwert einschließenden
Maskendaten identifiziert sind, und Kombinieren der
resultierenden Daten mit den Niedrigschwellwertmaskendaten, um bei den
Niedrigschwellwertmaskendaten jegliche Objekte zu
identifizieren, die den verbundenen Objekten der erodierten und dilatierten
den Hochschwellwert einschließenden Maskendaten nicht nahe
benachbart sind, und Hinzufügen dieser Objekte zu den originalen
den Hochschwellwert einschließenden Maskendaten, um die Maske zu
erzeugen, die die Objekte von Interesse (200, 202, 204, 206)
identifiziert.
12. Verfahren nach Anspruch 1, wobei der Verarbeitungsschritt
die Schritte aufweist:
(a) Entfernen von Objekten (504) von dem Bild, die größer
als die erwartete Größe der Objekte von Interesse (200, 202,
204, 206) sind, und Aufstellen eines Histogramms (508), um
Parameterdaten (510) bereitzustellen, wobei die Parameterdaten
(510) Intensitätsbereiche eines Hintergrundbereichs,
Zytoplasmabereichs und Kernbereichs aufweisen, wobei die Objekte eine
Textur umfassen, und wobei Objekte von Interesse einen
Intensitätswert innerhalb des Kernbereichs aufweisen;
(b) Verbessern des Bildkontrasts (102) durch Entfernen der
Textur (306) der Objekte von Interesse (200, 202, 204, 206)
unter Anwendung morphologischer Öffnung und bedingter Dilatation
bezüglich der Bilddaten (100), um Daten bereitzustellen, die ein
nicht-texturiertes Bild (308) wiedergeben, wobei die Textur der
Objekte von Interesse nur aus den Bildbereichen entfernt wird,
die den Intensitätswert innerhalb des Kernbereichs aufweisen;
(c) Normalisieren des Hintergrunds (310) des Bilds, das
die Bilddaten (100) wiedergibt, um den Unterschied im Kontrast
zwischen dem Hintergrund und den Objekten von Interesse (200,
202, 204, 206) herabzusetzen, um Daten bereitzustellen, die ein
normalisiertes Bild (312) wiedergeben, wobei Bilddaten mit einem
Intensitätswert größer als ein Hintergrundschwellwert vor dem
Normalisieren auf den Hintergrundschwellwert gesetzt werden;
(d) Kombinieren (314) des normalisierten Bilds (312) und
des nicht texturierten Bilds (308) durch Filtern der Daten, die
das normalisierte Bild (312) wiedergeben, in einer linearen
Faltung und Subtrahieren der Daten, die das nicht texturierte
Bild (314) wiedergeben, davon, um Daten bereitzustellen, die ein
verbessertes Bild (316) wiedergeben;
(e) Ermitteln der Differenz (606) zwischen dem nicht-
texturierten Bild (308) und dem Bild (100), um ein texturiertes
Bild bereitzustellen;
(f) Verarbeiten der Daten, die das nicht texturierte Bild
(600) wiedergeben, um Daten zu erzeugen, die ein Schwellwertbild
(610) wiedergeben, durch Durchführen einer morphologischen
Dilatationsrestoperation (300) bezüglich der Daten, die das
texturierte Bild wiedergeben, und Kombinieren der Daten, die das
texturierte Bild wiedergeben, und des nicht texturierten Bilds
(600) mit dem Ergebnis, um Daten zu erzeugen, die ein
Schwellwertbild (610) wiedergeben;
(g) Erzeugen (104) eines Niedrigschwellwertbilds und eines
Hochschwellwertbilds durch Subtrahieren (606) bzw. Addieren
eines vorgegebenen Offsets von bzw. zu den Daten, die das
Schwellwertbild (610) wiedergeben;
und wobei der Vergleichsschritt weiterhin die Schritte
aufweist:
(h) Vergleichen der Daten, die das Schwellwertbild (610)
wiedergeben, mit den Daten, die das verbesserte Bild (316)
wiedergeben, um Objekte von Interesse (200, 202, 204, 206) zu
identifizieren, indem Daten, die ein Objekt von Interesse (200,
202, 204, 206) wiedergeben, als jegliche Daten identifiziert
werden, die das verbesserte Bild (316) mit einem Wert, der den
Wert der zugehörigen, das Schwellwertbild (610) wiedergebenden
Daten überschreitet, wiedergeben, um eine vorläufige Maske zu
erzeugen;
(i) Verarbeiten der Daten, die das verbesserte Bild (316)
wiedergeben, um seine dunklen Kanten (800) zu detektieren, und
Erzeugen von Daten davon und Kombinieren dieser
Dunkelkantendaten mit der vorläufigen Maske, um Daten zu erzeugen, die eine
dunkle Kanten einschließende Maske (810) wiedergeben;
(j) Verarbeiten der Daten, die das verbesserte Bild (316)
wiedergeben, um seine hellen Kanten (900) zu detektieren, und
Kombinieren (902) der resultierenden Daten mit der dunkle Kanten
einschließenden Maske (810), um Daten zu erzeugen, die eine
helle Kanten ausschließende Maske (908) wiedergeben;
(k) Auffüllen von Löchern in der helle Kanten
ausschließenden Maske (908) durch Invertieren der hellen Kanten
ausschließenden Maske (908) und Ausschließen von Daten, die ein
Objekt von einer Größe wiedergeben, die um einen vorgegebenen
Betrag kleiner als die erwartete Größe der Objekte von Interesse
(200, 202, 204, 206) ist, wobei die identifizierten Objekte dann
zurück zu der helle Kanten ausschließenden Maske (908)
hinzugefügt werden, um eine lochaufgefüllte Maske zu erzeugen;
(l) Erodieren der lochaufgefüllten Maske um einen ersten
Betrag, dann Dilatieren um einen kleineren Betrag, dann
Bestimmen einer Separationsgrenze zwischen den identifizierten
Objekten durch morphologische Verschlußrestoperation (802) und
dann Subtrahieren der Separationsgrenze von der lochaufgefüllten
Maske, um eine von sich überlappenden Objekten separierte Maske
zu erzeugen;
(m) Vergleichen der Daten, die das Hochschwellwertbild
(610) wiedergeben, mit dem verbesserten Bild (316), um Daten zu
erzeugen, die eine Hochschwellwertmaske wiedergeben, wobei ein
Pixel, das die Daten umfaßt, welche eine Hochschwellwertmaske
wiedergeben, in der Hochschwellwertmaske enthalten ist, wenn der
jeweilige Wert der Daten in dem verbesserten Bild größer als ein
zugehöriger Datenwert des Hochschwellwertbilds ist, und wobei
alle Objekte, die durch die Hochschwellwertmaske identifiziert
sind, durch eine Satzvereinigungsoperation zu der
objektseparierten Maske hinzugefügt werden, um eine den
Hochschwellwert einschließende Maske zu erzeugen; und
(n) Vergleichen der Daten, die das Niedrigschwellwertbild
(610) wiedergeben, mit dem verbesserten Bild (316), um Daten zu
erzeugen, die eine Niedrigschwellwertmaske wiedergeben, wobei
ein Pixel, das die Daten aufweist, welche eine
Niedrigschwellwertmaske wiedergeben, in der Niedrigschwellwertmaske enthalten
ist, falls der jeweilige Wert der Daten in dem verbesserten Bild
größer als ein zugehöriger Datenwert des Niedrigschwellwertbilds
ist; und
(o) Erodieren der Daten, die die den Hochschwellwert
einschließende Maske wiedergeben, um einen kleinen Betrag und
Dilatieren der resultierenden Daten um einen großen Betrag, um
alle Objekte zu verbinden, die durch die der Hochschwellwert
einschließende Maske identifiziert sind, und Kombinieren der
resultierenden Daten mit der Niedrigschwellwertmaske, um
jegliche Objekte in der Niedrigschwellwertmaske zu identifizieren,
die sich nicht in der Nähe der verbundenen Objekte der
erodierten und dilatierten den Hochschwellwert einschließenden Maske
befinden, und Hinzufügen dieser Objekte zu der originalen den
Hochschwellwert einschließenden Maske, um die Maske zu erzeugen,
die die Objekte von Interesse (200, 202, 204, 206)
identifiziert.
13. Verfahren zum Identifizieren von Objekten von Interesse
(200, 202, 204, 206), die in einem Bild enthalten sind, das
durch Bilddaten (100) wiedergegeben wird, wobei die Objekte von
Interesse eine Textur aufweisen, unter Verwendung des Verfahrens
nach Anspruch 1, wobei der Verarbeitungsschritt die Schritte
aufweist:
(a) Entfernen der Textur (306) der Objekte von Interesse
(200, 202, 204, 206), um nicht texturierte Bilddaten (308) und
texturierte Bilddaten bereitzustellen;
(b) Normalisieren und Filtern des Hintergrunds (310) der
Bilddaten (100) und Subtrahieren (310) der nicht exturierten
Bilddaten (308) davon, um verbesserte Bilddaten (316)
bereitzustellen;
(c) Detektieren des Kantenbilds (602) der verbesserten
Bilddaten und Kombinieren der texturierten Bilddaten und der
nicht texturierten Bilddaten mit dem Ergebnis, um
Schwellwertbilddaten (610) zu erzeugen;
(d) Erzeugen (502) von Niedrigschwellwertbilddaten und
Hochschwellwertbilddaten durch Subtrahieren bzw. Addieren eines
vorgegebenen Offsets von bzw. zu den Schwellwertbilddaten (610);
und wobei der Vergleichsschritt weiterhin die Schritte
aufweist:
(e) Identifizieren von Bilddaten, die ein Objekt von
Interesse (200, 202, 204, 206) wiedergeben, als jegliche
verbesserte Bilddaten (316) mit einem Wert, der den Wert der
zugehörigen Schwellwertbilddaten (610) überschreitet, um eine
vorläufige Maske zu erzeugen;
(f) Detektieren der dunklen Kanten (800) der verbesserten
Bilddaten (316) und Kombinieren der detektierten
Dunkelkantendaten mit der vorläufigen Maske, um dunkle-Kanten-Maskendaten
(810) zu erzeugen;
(g) Detektieren der hellen Kanten (900) der verbesserten
Bilddaten (316) und Ausschließen von Pixeln in den helle-Kanten-
Daten von der Dunkle-Kanten-Maske, um helle-Kanten-Maskendaten
(908) zu erzeugen;
(h) Invertieren der helle-Kanten-Maskendaten (908) und
Ausschließen von Daten, die identifizierte Objekte von um einen
vorgegebenen Betrag kleinerer Größe als die erwartete Größe der
Objekte von Interesse (200, 202, 204, 206) wiedergeben, und
zurück Hinzufügen der Daten, die identifizierte Objekte
wiedergeben, zu den helle-Kanten-Maskendaten (908), um eine
lochaufgefüllte Maske zu erzeugen;
(i) Bestimmen einer Separationsgrenze zwischen den
identifizierten Objekten und Subtrahieren der Separationsgrenze von
der lochaufgefüllten Maske, um eine Objektmaske zu erzeugen;
(j) Vergleichen der Hochschwellwertbilddaten (610) mit den
verbesserten Bilddaten (316), um Daten zu erzeugen, die eine
Hochschwellwertmaske wiedergeben, wobei ein Pixel, das Daten
umfaßt, welche eine Hochschwellwertmaske wiedergeben, in der
Hochschwellwertmaske enthalten ist, wenn der zugehörige Wert der
Daten in den verbesserten Bilddaten größer ist als der
zugehörige Datenwert der Hochschwellwertbilddaten, und wobei
jedes Objekt, das durch die Hochschwellwertmaske identifiziert
wird, zu der objektseparierten Maske durch eine
Satzvereinigungsoperation hinzugefügt wird, um eine den Hochschwellwert
einschließende Maske zu erzeugen;
(k) Vergleichen der Niedrigschwellwertbilddaten (610) mit
den verbesserten Bilddaten (316), um
Niedrigschwellwertmaskendaten zu erzeugen, wobei ein Pixel, das die Daten umfaßt, welche
eine Niedrigschwellwertmaske wiedergeben, in den
Niedrigschwellwertmaskendaten enthalten ist, falls der jeweilige Wert der
Daten in dem verbesserten Bild größer als ein zugehöriger
Datenwert des Niedrigschwellwertbilds ist; und
(l) Erodieren der Hochschwellwertmaskendaten um einen
kleinen Betrag und Dilatieren der resultierenden Daten um einen
großen Betrag und Kombinieren der resultierenden Daten mit den
Niedrigschwellwertmaskendaten und Hinzufügen dieser Objekte zu
den originalen Hochschwellwertmaskendaten, um die Maske zu
erzeugen, die die Objekte von Interesse (200, 202, 204, 206)
identifiziert; und weiterhin umfassend den Schritt:
Verwenden der Maske zum Identifizieren der Objekte von
Interesse.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US83839592A | 1992-02-18 | 1992-02-18 | |
PCT/US1993/001883 WO1993016442A1 (en) | 1992-02-18 | 1993-02-18 | Method for identifying objects using data processing techniques |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69329554D1 DE69329554D1 (de) | 2000-11-16 |
DE69329554T2 true DE69329554T2 (de) | 2001-05-31 |
Family
ID=25277006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69329554T Expired - Fee Related DE69329554T2 (de) | 1992-02-18 | 1993-02-18 | Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken |
Country Status (8)
Country | Link |
---|---|
US (3) | US5528703A (de) |
EP (1) | EP0664038B1 (de) |
JP (1) | JPH07504056A (de) |
AU (2) | AU671984B2 (de) |
CA (1) | CA2130340C (de) |
DE (1) | DE69329554T2 (de) |
ES (1) | ES2152946T3 (de) |
WO (1) | WO1993016442A1 (de) |
Families Citing this family (151)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1993016442A1 (en) * | 1992-02-18 | 1993-08-19 | Neopath, Inc. | Method for identifying objects using data processing techniques |
US6026174A (en) * | 1992-10-14 | 2000-02-15 | Accumed International, Inc. | System and method for automatically detecting malignant cells and cells having malignancy-associated changes |
US5889881A (en) * | 1992-10-14 | 1999-03-30 | Oncometrics Imaging Corp. | Method and apparatus for automatically detecting malignancy-associated changes |
EP0610916A3 (de) * | 1993-02-09 | 1994-10-12 | Cedars Sinai Medical Center | Verfahren und Vorrichtung zur Erzeugung vorzugsweiser segmentierter numerischer Bilder. |
US5740266A (en) * | 1994-04-15 | 1998-04-14 | Base Ten Systems, Inc. | Image processing system and method |
US5768412A (en) * | 1994-09-19 | 1998-06-16 | Hitachi, Ltd. | Region segmentation method for particle images and apparatus thereof |
US5978497A (en) * | 1994-09-20 | 1999-11-02 | Neopath, Inc. | Apparatus for the identification of free-lying cells |
US5848177A (en) * | 1994-12-29 | 1998-12-08 | Board Of Trustees Operating Michigan State University | Method and system for detection of biological materials using fractal dimensions |
JP3571819B2 (ja) * | 1995-01-09 | 2004-09-29 | 富士写真フイルム株式会社 | 生化学画像解析装置 |
KR100414432B1 (ko) * | 1995-03-24 | 2004-03-18 | 마츠시타 덴끼 산교 가부시키가이샤 | 윤곽추출장치 |
DE19529950C1 (de) * | 1995-08-14 | 1996-11-14 | Deutsche Forsch Luft Raumfahrt | Verfahren zum Nachführen eines Stereo-Laparoskops in der minimalinvasiven Chirurgie |
US6430309B1 (en) | 1995-09-15 | 2002-08-06 | Monogen, Inc. | Specimen preview and inspection system |
US6091842A (en) * | 1996-10-25 | 2000-07-18 | Accumed International, Inc. | Cytological specimen analysis system with slide mapping and generation of viewing path information |
US6148096A (en) * | 1995-09-15 | 2000-11-14 | Accumed International, Inc. | Specimen preview and inspection system |
JP3003561B2 (ja) * | 1995-09-25 | 2000-01-31 | 松下電器産業株式会社 | 階調変換方法及びその回路と画像表示方法及びその装置と画像信号変換装置 |
US6108098A (en) * | 1995-12-28 | 2000-08-22 | Canon Kabushiki Kaisha | Image processing apparatus and method |
US5872870A (en) | 1996-02-16 | 1999-02-16 | Cognex Corporation | Machine vision methods for identifying extrema of objects in rotated reference frames |
US6259827B1 (en) | 1996-03-21 | 2001-07-10 | Cognex Corporation | Machine vision methods for enhancing the contrast between an object and its background using multiple on-axis images |
US5832134A (en) * | 1996-11-27 | 1998-11-03 | General Electric Company | Data visualization enhancement through removal of dominating structures |
US6081612A (en) * | 1997-02-28 | 2000-06-27 | Electro Optical Sciences Inc. | Systems and methods for the multispectral imaging and characterization of skin tissue |
US6208749B1 (en) | 1997-02-28 | 2001-03-27 | Electro-Optical Sciences, Inc. | Systems and methods for the multispectral imaging and characterization of skin tissue |
US6075881A (en) | 1997-03-18 | 2000-06-13 | Cognex Corporation | Machine vision methods for identifying collinear sets of points from an image |
US6608647B1 (en) | 1997-06-24 | 2003-08-19 | Cognex Corporation | Methods and apparatus for charge coupled device image acquisition with independent integration and readout |
US6122397A (en) * | 1997-07-03 | 2000-09-19 | Tri Path Imaging, Inc. | Method and apparatus for maskless semiconductor and liquid crystal display inspection |
US6130967A (en) * | 1997-07-03 | 2000-10-10 | Tri Path Imaging, Inc. | Method and apparatus for a reduced instruction set architecture for multidimensional image processing |
US6148099A (en) * | 1997-07-03 | 2000-11-14 | Neopath, Inc. | Method and apparatus for incremental concurrent learning in automatic semiconductor wafer and liquid crystal display defect classification |
WO1999001985A1 (en) * | 1997-07-03 | 1999-01-14 | Neopath, Inc. | Method and apparatus for semiconductor wafer and lcd inspection using multidimensional image decomposition and synthesis |
KR19990016896A (ko) * | 1997-08-20 | 1999-03-15 | 전주범 | 얼굴영상에서 눈영역 검출방법 |
US6198839B1 (en) | 1997-09-05 | 2001-03-06 | Tripath Imaging, Inc. | Dynamic control and decision making method and apparatus |
US6014451A (en) * | 1997-10-17 | 2000-01-11 | Pioneer Hi-Bred International, Inc. | Remote imaging system for plant diagnosis |
US6272230B1 (en) | 1998-02-11 | 2001-08-07 | Analogic Corporation | Apparatus and method for optimizing detection of objects in computed tomography data |
US6076400A (en) * | 1998-02-11 | 2000-06-20 | Analogic Corporation | Apparatus and method for classifying objects in computed tomography data using density dependent mass thresholds |
US6078642A (en) * | 1998-02-11 | 2000-06-20 | Analogice Corporation | Apparatus and method for density discrimination of objects in computed tomography data using multiple density ranges |
US6067366A (en) * | 1998-02-11 | 2000-05-23 | Analogic Corporation | Apparatus and method for detecting objects in computed tomography data using erosion and dilation of objects |
US6111974A (en) * | 1998-02-11 | 2000-08-29 | Analogic Corporation | Apparatus and method for detecting sheet objects in computed tomography data |
US6026143A (en) * | 1998-02-11 | 2000-02-15 | Analogic Corporation | Apparatus and method for detecting sheet objects in computed tomography data |
US6035014A (en) * | 1998-02-11 | 2000-03-07 | Analogic Corporation | Multiple-stage apparatus and method for detecting objects in computed tomography data |
US6317509B1 (en) | 1998-02-11 | 2001-11-13 | Analogic Corporation | Computed tomography apparatus and method for classifying objects |
US6075871A (en) * | 1998-02-11 | 2000-06-13 | Analogic Corporation | Apparatus and method for eroding objects in computed tomography data |
US6128365A (en) * | 1998-02-11 | 2000-10-03 | Analogic Corporation | Apparatus and method for combining related objects in computed tomography data |
US6026171A (en) * | 1998-02-11 | 2000-02-15 | Analogic Corporation | Apparatus and method for detection of liquids in computed tomography data |
JP2002503816A (ja) * | 1998-02-11 | 2002-02-05 | アナロジック コーポレーション | 対象を分類するコンピュータ断層撮影装置および方法 |
US6381375B1 (en) | 1998-02-20 | 2002-04-30 | Cognex Corporation | Methods and apparatus for generating a projection of an image |
WO1999045366A1 (en) | 1998-03-05 | 1999-09-10 | Universal Healthwatch, Inc. | Optical imaging system for diagnostics |
DE69908713T2 (de) * | 1998-06-22 | 2004-05-13 | Texas Instruments Inc., Dallas | Selektive Helligkeitserweiterung |
US6097849A (en) * | 1998-08-10 | 2000-08-01 | The United States Of America As Represented By The Secretary Of The Navy | Automated image enhancement for laser line scan data |
DE69942619D1 (de) * | 1998-11-25 | 2010-09-02 | Iridian Technologies Inc | Schnelles fokusbeurteilungssystem und -verfahren zur bilderfassung |
US6753919B1 (en) | 1998-11-25 | 2004-06-22 | Iridian Technologies, Inc. | Fast focus assessment system and method for imaging |
US6381366B1 (en) | 1998-12-18 | 2002-04-30 | Cognex Corporation | Machine vision methods and system for boundary point-based comparison of patterns and images |
US6687402B1 (en) | 1998-12-18 | 2004-02-03 | Cognex Corporation | Machine vision methods and systems for boundary feature comparison of patterns and images |
US6937330B2 (en) | 1999-04-23 | 2005-08-30 | Ppd Biomarker Discovery Sciences, Llc | Disposable optical cuvette cartridge with low fluorescence material |
GB2394350B (en) * | 1999-07-05 | 2004-06-16 | Mitsubishi Electric Inf Tech | Method and apparatus for representing and searching for an object in an image |
CA2379836A1 (en) * | 1999-07-21 | 2001-02-01 | Aaron B. Kantor | System for microvolume laser scanning cytometry |
US6687395B1 (en) * | 1999-07-21 | 2004-02-03 | Surromed, Inc. | System for microvolume laser scanning cytometry |
JP3454760B2 (ja) * | 1999-10-22 | 2003-10-06 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 位相分布測定方法および装置、位相補正方法および装置、並びに、磁気共鳴撮像装置 |
US6665060B1 (en) * | 1999-10-29 | 2003-12-16 | Cytyc Corporation | Cytological imaging system and method |
US6661501B1 (en) | 1999-10-29 | 2003-12-09 | Cytyc Corporation | Cytological stain composition including verification characteristic |
US6593102B2 (en) | 1999-10-29 | 2003-07-15 | Cytyc Corporation | Cytological stain composition |
US7369304B2 (en) * | 1999-10-29 | 2008-05-06 | Cytyc Corporation | Cytological autofocusing imaging systems and methods |
US6348325B1 (en) | 1999-10-29 | 2002-02-19 | Cytyc Corporation | Cytological stain composition |
AU1656401A (en) * | 1999-11-09 | 2001-06-06 | Cellomics, Inc. | A system for cell-based screening |
US6684402B1 (en) | 1999-12-01 | 2004-01-27 | Cognex Technology And Investment Corporation | Control methods and apparatus for coupling multiple image acquisition devices to a digital data processor |
US7102784B1 (en) * | 1999-12-06 | 2006-09-05 | Xerox Corporation | Method of selective edge softening and rendering for the suppression of halo |
US6535626B1 (en) | 2000-01-14 | 2003-03-18 | Accumed International, Inc. | Inspection system with specimen preview |
US6748104B1 (en) | 2000-03-24 | 2004-06-08 | Cognex Corporation | Methods and apparatus for machine vision inspection using single and multiple templates or patterns |
US7167575B1 (en) | 2000-04-29 | 2007-01-23 | Cognex Corporation | Video safety detector with projected pattern |
US6701005B1 (en) | 2000-04-29 | 2004-03-02 | Cognex Corporation | Method and apparatus for three-dimensional object segmentation |
US6728401B1 (en) | 2000-08-17 | 2004-04-27 | Viewahead Technology | Red-eye removal using color image processing |
US7027628B1 (en) | 2000-11-14 | 2006-04-11 | The United States Of America As Represented By The Department Of Health And Human Services | Automated microscopic image acquisition, compositing, and display |
AU2002225639A1 (en) * | 2000-11-17 | 2002-05-27 | Molecular Diagnostics Inc. | Evaluation of microscope slides |
US6787761B2 (en) * | 2000-11-27 | 2004-09-07 | Surromed, Inc. | Median filter for liquid chromatography-mass spectrometry data |
US20020095260A1 (en) * | 2000-11-28 | 2002-07-18 | Surromed, Inc. | Methods for efficiently mining broad data sets for biological markers |
US6456741B1 (en) * | 2000-12-15 | 2002-09-24 | Shih-Jong J. Lee | Structure-guided image measurement method |
WO2002048949A1 (en) * | 2000-12-15 | 2002-06-20 | Cellavision Ab | Method and arrangment for processing digital image information |
US20020126328A1 (en) * | 2001-03-09 | 2002-09-12 | Lehmeier Michelle R. | Method and apparatus for matching color image data with a corresponding color in a defined color space |
US6873915B2 (en) * | 2001-08-24 | 2005-03-29 | Surromed, Inc. | Peak selection in multidimensional data |
US20030078739A1 (en) * | 2001-10-05 | 2003-04-24 | Surromed, Inc. | Feature list extraction from data sets such as spectra |
US10156501B2 (en) | 2001-11-05 | 2018-12-18 | Life Technologies Corporation | Automated microdissection instrument for determining a location of a laser beam projection on a worksurface area |
US7239399B2 (en) * | 2001-11-13 | 2007-07-03 | Cyberoptics Corporation | Pick and place machine with component placement inspection |
US7206101B2 (en) * | 2001-11-21 | 2007-04-17 | Ge Medical Systems Global Technology Company, Llc | Computationally efficient noise reduction filter |
WO2003078965A2 (en) * | 2002-03-13 | 2003-09-25 | Q3Dm, Llc | System and method for measurement of a response of localized cellular compartments |
CA2484625A1 (en) * | 2002-05-09 | 2003-11-20 | Surromed, Inc. | Methods for time-alignment of liquid chromatography-mass spectrometry data |
WO2004025569A2 (en) * | 2002-09-13 | 2004-03-25 | Arcturus Bioscience, Inc. | Tissue image analysis for cell classification and laser capture microdissection |
JP3944059B2 (ja) * | 2002-11-14 | 2007-07-11 | アロカ株式会社 | 超音波診断装置 |
JP4419426B2 (ja) * | 2003-04-24 | 2010-02-24 | コニカミノルタエムジー株式会社 | 医用画像システム |
JP4336561B2 (ja) * | 2003-10-24 | 2009-09-30 | キヤノン株式会社 | 眼底画像処理装置 |
JP4200890B2 (ja) * | 2003-12-10 | 2008-12-24 | 株式会社日立製作所 | 映像信号処理装置及びそれを用いたテレビジョン受信機並びに映像信号処理方法 |
GB2409030A (en) * | 2003-12-11 | 2005-06-15 | Sony Uk Ltd | Face detection |
US20050215876A1 (en) * | 2004-03-25 | 2005-09-29 | Eastman Kodak Company | Method and system for automatic image adjustment for in vivo image diagnosis |
US7248360B2 (en) * | 2004-04-02 | 2007-07-24 | Ppd Biomarker Discovery Sciences, Llc | Polychronic laser scanning system and method of use |
US7593586B2 (en) * | 2004-06-30 | 2009-09-22 | Aptina Imaging Corporation | Method and system for reducing artifacts in image detection |
WO2006031574A2 (en) | 2004-09-09 | 2006-03-23 | Arcturus Bioscience, Inc. | Laser microdissection apparatus and method |
US7697755B2 (en) * | 2004-09-29 | 2010-04-13 | Drvision Technologies Llc | Method for robust analysis of biological activity in microscopy images |
US7430320B2 (en) * | 2004-11-15 | 2008-09-30 | Drvision Technologies Llc | Region-guided boundary refinement method |
DE102004061507B4 (de) * | 2004-12-21 | 2007-04-12 | Siemens Ag | Verfahren zur Korrektur von Inhomogenitäten in einem Bild sowie bildgebende Vorrichtung dazu |
JP4418362B2 (ja) * | 2004-12-28 | 2010-02-17 | オリンパス株式会社 | 画像処理装置 |
GB0502511D0 (en) * | 2005-02-08 | 2005-03-16 | Medical Solutions Plc | Apparatus and method for image processing of specimen images for use in computer analysis thereof |
GB0503629D0 (en) | 2005-02-22 | 2005-03-30 | Durand Technology Ltd | Method and apparatus for automated analysis of biological specimen |
US7991242B2 (en) | 2005-05-11 | 2011-08-02 | Optosecurity Inc. | Apparatus, method and system for screening receptacles and persons, having image distortion correction functionality |
US20090174554A1 (en) | 2005-05-11 | 2009-07-09 | Eric Bergeron | Method and system for screening luggage items, cargo containers or persons |
US7466872B2 (en) * | 2005-06-20 | 2008-12-16 | Drvision Technologies Llc | Object based boundary refinement method |
US8111904B2 (en) | 2005-10-07 | 2012-02-07 | Cognex Technology And Investment Corp. | Methods and apparatus for practical 3D vision system |
WO2007043899A1 (en) | 2005-10-14 | 2007-04-19 | Applied Research Associates Nz Limited | A method of monitoring a surface feature and apparatus therefor |
US7903851B2 (en) * | 2005-10-17 | 2011-03-08 | Siemens Medical Solutions Usa, Inc. | Method and system for vertebrae and intervertebral disc localization in magnetic resonance images |
US8014590B2 (en) * | 2005-12-07 | 2011-09-06 | Drvision Technologies Llc | Method of directed pattern enhancement for flexible recognition |
US20070196028A1 (en) * | 2006-02-22 | 2007-08-23 | Nik Software, Inc. | Multi-Purpose Digital Image Editing Tools Using Background Processing |
US7899232B2 (en) | 2006-05-11 | 2011-03-01 | Optosecurity Inc. | Method and apparatus for providing threat image projection (TIP) in a luggage screening system, and luggage screening system implementing same |
US8494210B2 (en) | 2007-03-30 | 2013-07-23 | Optosecurity Inc. | User interface for use in security screening providing image enhancement capabilities and apparatus for implementing same |
US8162584B2 (en) | 2006-08-23 | 2012-04-24 | Cognex Corporation | Method and apparatus for semiconductor wafer alignment |
US7925074B2 (en) * | 2006-10-16 | 2011-04-12 | Teradyne, Inc. | Adaptive background propagation method and device therefor |
US20090041322A1 (en) * | 2007-07-10 | 2009-02-12 | Seimens Medical Solutions Usa, Inc. | Computer Assisted Detection of Polyps Within Lumen Using Enhancement of Concave Area |
US8520916B2 (en) * | 2007-11-20 | 2013-08-27 | Carestream Health, Inc. | Enhancement of region of interest of radiological image |
WO2009073649A1 (en) * | 2007-12-04 | 2009-06-11 | Particle Measuring Systems, Inc. | Non-orthogonal particle detection systems and methods |
JP2009145285A (ja) * | 2007-12-18 | 2009-07-02 | Dainippon Screen Mfg Co Ltd | 欠陥検出方法および欠陥検出装置 |
US8351720B2 (en) * | 2008-04-24 | 2013-01-08 | Hewlett-Packard Development Company, L.P. | Method and system providing edge enhanced image binarization |
US8260002B2 (en) | 2008-09-26 | 2012-09-04 | Axis Ab | Video analytics system, computer program product, and associated methodology for efficiently using SIMD operations |
US8744122B2 (en) * | 2008-10-22 | 2014-06-03 | Sri International | System and method for object detection from a moving platform |
GB2466818B (en) * | 2009-01-09 | 2014-08-13 | Inst Cancer Genetics And Informatics | Optimizing the initialization and convergence of active contours for segmentation of cell nuclei in histological sections |
US8260055B2 (en) * | 2009-03-27 | 2012-09-04 | The Nielsen Company (Us), Llc | Methods and apparatus for identifying primary media content in a post-production media content presentation |
WO2010138121A1 (en) * | 2009-05-28 | 2010-12-02 | Hewlett-Packard Development Company, L.P. | Image processing |
JP5206620B2 (ja) * | 2009-08-05 | 2013-06-12 | 三菱電機株式会社 | 部材の位置認識装置、位置決め装置、接合装置および部材の接合方法 |
US8925024B2 (en) | 2009-12-31 | 2014-12-30 | The Nielsen Company (Us), Llc | Methods and apparatus to detect commercial advertisements associated with media presentations |
JP2011209966A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | 画像処理装置および方法、並びにプログラム |
US8274656B2 (en) * | 2010-06-30 | 2012-09-25 | Luminex Corporation | Apparatus, system, and method for increasing measurement accuracy in a particle imaging device |
US9389408B2 (en) * | 2010-07-23 | 2016-07-12 | Zeta Instruments, Inc. | 3D microscope and methods of measuring patterned substrates |
US8983179B1 (en) | 2010-11-10 | 2015-03-17 | Google Inc. | System and method for performing supervised object segmentation on images |
GB2486496A (en) * | 2010-12-17 | 2012-06-20 | Medicsight Plc | A method of identifying an object in an image by defining a series of bands |
WO2013036735A1 (en) | 2011-09-07 | 2013-03-14 | Rapiscan Systems, Inc. | X-ray inspection system that integrates manifest data with imaging/detection processing |
US9179844B2 (en) | 2011-11-28 | 2015-11-10 | Aranz Healthcare Limited | Handheld skin measuring or monitoring device |
US8954267B2 (en) * | 2013-02-21 | 2015-02-10 | Qualcomm Incorporated | Mobile device positioning |
CN103439338B (zh) * | 2013-08-30 | 2015-08-12 | 无锡金视界科技有限公司 | 薄膜缺陷分类方法 |
WO2016033564A1 (en) * | 2014-08-28 | 2016-03-03 | Decision Sciences International Corporation | Detection of an object within a volume of interest |
CN104574361B (zh) * | 2014-11-27 | 2017-12-29 | 沈阳东软医疗系统有限公司 | 一种乳腺外周组织均衡的图像处理方法和装置 |
KR101998081B1 (ko) * | 2015-06-11 | 2019-07-09 | 동우 화인켐 주식회사 | 복합 필름의 결함 판별 방법 |
GB2542764A (en) * | 2015-09-23 | 2017-04-05 | Pathxl Ltd | Image processing method and apparatus for normalisation and artefact correction |
CN105344620B (zh) * | 2015-10-14 | 2018-10-23 | 合肥安晶龙电子股份有限公司 | 基于物料形状的色选方法 |
EP3764281B1 (de) | 2016-02-22 | 2024-09-18 | Rapiscan Systems, Inc. | Verfahren zur erkennung von feuerwaffen in radiographischen aufnahmen |
DE102016105102A1 (de) * | 2016-03-18 | 2017-09-21 | Leibniz-Institut für Photonische Technologien e. V. | Verfahren zur Untersuchung verteilter Objekte |
US10013527B2 (en) | 2016-05-02 | 2018-07-03 | Aranz Healthcare Limited | Automatically assessing an anatomical surface feature and securely managing information related to the same |
US20180045937A1 (en) * | 2016-08-10 | 2018-02-15 | Zeta Instruments, Inc. | Automated 3-d measurement |
US11116407B2 (en) | 2016-11-17 | 2021-09-14 | Aranz Healthcare Limited | Anatomical surface assessment methods, devices and systems |
RU2664411C2 (ru) * | 2016-12-01 | 2018-08-17 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет" | Способ обработки последовательности изображений для распознавания воздушных объектов |
EP3606410B1 (de) | 2017-04-04 | 2022-11-02 | Aranz Healthcare Limited | Anatomische oberflächenbeurteilungsverfahren, vorrichtungen und systeme |
TWI676962B (zh) * | 2018-01-08 | 2019-11-11 | 瑞昱半導體股份有限公司 | 基於直方圖調整的對比增強方法及其裝置 |
JP7161875B2 (ja) * | 2018-07-10 | 2022-10-27 | 株式会社Screenホールディングス | 画像処理方法、コンピュータプログラムおよび記録媒体 |
JP2022516556A (ja) * | 2019-01-03 | 2022-02-28 | ピクセル メディカル テクノロジーズ リミテッド | 流体サンプルを分析するシステム及び方法 |
US10885631B2 (en) * | 2019-02-01 | 2021-01-05 | Essen Instruments, Inc. | Label-free cell segmentation using phase contrast and brightfield imaging |
WO2020234653A1 (en) | 2019-05-20 | 2020-11-26 | Aranz Healthcare Limited | Automated or partially automated anatomical surface assessment methods, devices and systems |
CN110120056B (zh) * | 2019-05-21 | 2021-08-10 | 闽江学院 | 基于自适应直方图阈值和轮廓检测的血液白细胞分割方法 |
US11650597B2 (en) * | 2019-07-09 | 2023-05-16 | Samsung Electronics Co., Ltd. | Electronic apparatus for identifying object through warped image and control method thereof |
EP3842911B1 (de) * | 2019-12-26 | 2023-04-05 | Dassault Systèmes | 3d-schnittstelle mit verbesserter objektauswahl |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3999047A (en) * | 1972-09-05 | 1976-12-21 | Green James E | Method and apparatus utilizing color algebra for analyzing scene regions |
US4048616A (en) * | 1975-12-03 | 1977-09-13 | Geometric Data Corporation | Pattern recognition system with keyboard entry for adaptive sensitivity |
US4097845A (en) * | 1976-11-01 | 1978-06-27 | Rush-Presbyterian-St. Luke's Medical Center | Method of and an apparatus for automatic classification of red blood cells |
DE2903855A1 (de) * | 1979-02-01 | 1980-08-14 | Bloss Werner H Prof Dr Ing | Verfahren zum automatischen markieren von zellen und bestimmung der merkmale von zellen aus zytologischen abstrichpraeparaten |
US4538299A (en) * | 1981-12-04 | 1985-08-27 | International Remote Imaging Systems, Inc. | Method and apparatus for locating the boundary of an object |
US5086476A (en) * | 1985-11-04 | 1992-02-04 | Cell Analysis Systems, Inc. | Method and apparatus for determining a proliferation index of a cell sample |
US5185809A (en) * | 1987-08-14 | 1993-02-09 | The General Hospital Corporation | Morphometric analysis of anatomical tomographic data |
US4922915A (en) * | 1987-11-27 | 1990-05-08 | Ben A. Arnold | Automated image detail localization method |
US4965725B1 (en) * | 1988-04-08 | 1996-05-07 | Neuromedical Systems Inc | Neural network based automated cytological specimen classification system and method |
US5163095A (en) * | 1988-04-22 | 1992-11-10 | Toa Medical Electronics Co., Ltd. | Processor for extracting and memorizing cell images, and method of practicing same |
US4975972A (en) * | 1988-10-18 | 1990-12-04 | At&T Bell Laboratories | Method and apparatus for surface inspection |
JP3132565B2 (ja) * | 1989-08-30 | 2001-02-05 | 株式会社日立製作所 | 欠陥検査方法及びその装置 |
US5107422A (en) * | 1989-10-02 | 1992-04-21 | Kamentsky Louis A | Method and apparatus for measuring multiple optical properties of biological specimens |
US5072382A (en) * | 1989-10-02 | 1991-12-10 | Kamentsky Louis A | Methods and apparatus for measuring multiple optical properties of biological specimens |
US5029226A (en) * | 1989-10-10 | 1991-07-02 | Unisys Corporation | Method and apparatus for effecting spot/void filtering of image data |
US5202933A (en) * | 1989-12-08 | 1993-04-13 | Xerox Corporation | Segmentation of text and graphics |
US5131049A (en) * | 1989-12-08 | 1992-07-14 | Xerox Corporation | Identification, characterization, and segmentation of halftone or stippled regions of binary images by growing a seed to a clipping mask |
US5218649A (en) * | 1990-05-04 | 1993-06-08 | U S West Advanced Technologies, Inc. | Image enhancement system |
US5115475A (en) * | 1990-06-04 | 1992-05-19 | Motorola, Inc. | Automatic semiconductor package inspection method |
US5257182B1 (en) * | 1991-01-29 | 1996-05-07 | Neuromedical Systems Inc | Morphological classification system and method |
US5204627A (en) * | 1991-03-14 | 1993-04-20 | Wisconsin Alumni Research Foundation | Adaptive NMR angiographic reprojection method |
WO1992022801A1 (en) * | 1991-06-13 | 1992-12-23 | Abbott Laboratories | Automated specimen analyzing apparatus and method |
JP3038051B2 (ja) * | 1991-06-28 | 2000-05-08 | 日本放送協会 | 動画像領域抽出装置 |
WO1993016442A1 (en) * | 1992-02-18 | 1993-08-19 | Neopath, Inc. | Method for identifying objects using data processing techniques |
-
1993
- 1993-02-18 WO PCT/US1993/001883 patent/WO1993016442A1/en active IP Right Grant
- 1993-02-18 DE DE69329554T patent/DE69329554T2/de not_active Expired - Fee Related
- 1993-02-18 JP JP5514368A patent/JPH07504056A/ja active Pending
- 1993-02-18 CA CA002130340A patent/CA2130340C/en not_active Expired - Fee Related
- 1993-02-18 ES ES93906285T patent/ES2152946T3/es not_active Expired - Lifetime
- 1993-02-18 AU AU37376/93A patent/AU671984B2/en not_active Ceased
- 1993-02-18 EP EP93906285A patent/EP0664038B1/de not_active Expired - Lifetime
-
1994
- 1994-01-10 US US08/179,812 patent/US5528703A/en not_active Expired - Lifetime
-
1996
- 1996-03-14 US US08/615,468 patent/US5710842A/en not_active Expired - Lifetime
- 1996-12-18 AU AU75450/96A patent/AU708935B2/en not_active Ceased
-
1997
- 1997-08-01 US US08/904,971 patent/US5867610A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US5710842A (en) | 1998-01-20 |
US5867610A (en) | 1999-02-02 |
AU7545096A (en) | 1997-02-20 |
WO1993016442A1 (en) | 1993-08-19 |
AU671984B2 (en) | 1996-09-19 |
AU708935B2 (en) | 1999-08-19 |
AU3737693A (en) | 1993-09-03 |
CA2130340C (en) | 2000-06-06 |
EP0664038A4 (de) | 1994-11-24 |
EP0664038B1 (de) | 2000-10-11 |
ES2152946T3 (es) | 2001-02-16 |
US5528703A (en) | 1996-06-18 |
EP0664038A1 (de) | 1995-07-26 |
JPH07504056A (ja) | 1995-04-27 |
DE69329554D1 (de) | 2000-11-16 |
CA2130340A1 (en) | 1993-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69329554T2 (de) | Verfahren zur identifizierung von objekten unter verwendung von datenverarbeitungstechniken | |
DE60212917T2 (de) | Vorrichtung zur Berechnung eines Index von örtlichen Blutflüssen | |
DE69331251T2 (de) | Automatische Detektion des Vorder- und Hintergrunds in digitalen Röntgenbildern | |
DE3780955T2 (de) | Verfahren zur automatischen spitzenerkennung im graustufenhistogramm eines digitalen bildes. | |
EP0014857B1 (de) | Verfahren zum automatischen Markieren von Zellen und zur Bestimmung der Merkmale von Zellen aus zytologischen Abstrichpräparaten | |
DE19614975C2 (de) | Gesichtsbildverarbeitungssystem | |
DE69322498T2 (de) | Verfahren zur identifizierung von normalen biomedizinischen proben | |
DE2823490C2 (de) | ||
DE19903235B4 (de) | Verfahren und Vorrichtung zur automatischen Ausblendung bei der peripheren Röntgenabbildung | |
DE19916612B4 (de) | Verfahren und System zur Verbesserung diskreter Pixelbilder | |
DE69630935T2 (de) | Bilverarbeitungsverfahren und -vorrichtung zur automatischen Erfassung von Bereichen eines vorbestimmten Krebstyps in einem Intensitätsbild | |
DE2952422C3 (de) | Verfahren und Vorrichtung zum Verarbeiten eines Röntgenbildes bei einem Röntgenbild-Kopiersystem | |
DE19747415C2 (de) | Verfahren zur Unterstützung eines Betrachters bei der Durchmusterung einer Probe und zytologisches Probenanalysiersystem | |
DE102007013971B4 (de) | Verfahren und Vorrichtung zur Ermittlung einer Zellkontur einer Zelle | |
DE602004008471T2 (de) | Verfahren und anordnung zur bestimmung einer objektkontur | |
DE10319546A1 (de) | Verfahren und Vorrichtung zur automatischen Detektion von Anomalien in Gefäßstrukturen | |
EP1908009A2 (de) | Verfahren und einrichtung zur segmentierung von bereichen | |
DE102012208625B4 (de) | Verfahren und System zur Verarbeitung von MRT-Daten des menschlichen Gehirns | |
EP2400458B1 (de) | Verfahren und Vorrichtung zur Segmentierung von biologischen Zellen in einer Aufnahme | |
DE69117692T2 (de) | Gerät und Verfahren zum Verarbeiten von Röntgenbilddaten | |
DE102010041619A1 (de) | Verfahren und Röntgensystem zur Summation von DSA-Serienbildern | |
EP1685384A1 (de) | Verfahren und vorrichtung zur erfassung von verschiedenen zelltypen von zellen in einer biologischen probe | |
EP3583902B1 (de) | Verfahren zum automatischen anpassen eines mittels eines röntgengeräts gewonnenen bilddatensatzes, computerprogramm, datenspeicher und röntgengerät | |
DE112019004112T5 (de) | System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren | |
DE102005034374B3 (de) | Verfahren zur automatischen Erstellung einer Hintergrundmaske bei Bildern mit verrauschten Hintergrundbereichen, Anwendungen dazu sowie ein Kernspintomographiegerät zur Durchführung der Verfahren und Computersoftwareprodukt |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |