[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE69624614T2 - Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung - Google Patents

Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung

Info

Publication number
DE69624614T2
DE69624614T2 DE69624614T DE69624614T DE69624614T2 DE 69624614 T2 DE69624614 T2 DE 69624614T2 DE 69624614 T DE69624614 T DE 69624614T DE 69624614 T DE69624614 T DE 69624614T DE 69624614 T2 DE69624614 T2 DE 69624614T2
Authority
DE
Germany
Prior art keywords
frequency component
image
ternary
images
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69624614T
Other languages
English (en)
Other versions
DE69624614D1 (de
Inventor
Katsumasa Onda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Publication of DE69624614D1 publication Critical patent/DE69624614D1/de
Application granted granted Critical
Publication of DE69624614T2 publication Critical patent/DE69624614T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

  • Diese Erfindung bezieht sich allgemein auf ein Verfahren zum Abgleichen von Stereobildern und ein Verfahren zum Feststellen einer Disparität zwischen diesen Bildern, welches hauptsächlich auf dem industriellen Feld von Stereokameras zum Feststellen einer Positionsinformation im Bildaufnahmeraum basierend auf Stereobildern, einer Volumenkompression aller Stereobilder (d. h. dreidimensionalen Videobilder), Anzeigesteuerung dieser Stereobilder und für die Extraktion des optischen Flusses von Bewegtbildern und so weiter verwendet wird.
  • Allgemein bekannte herkömmliche Verfahren zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen diesen Bildern werden im folgenden mit Verweis auf eine sogenannten Stereobildmeßtechnologie erläutert, bei der die Positions- oder Distanzinformation im Bildaufnahmeraum erhalten werden kann, indem der Abgleich zwischen zwei Bildern (Stereobildern) durchgeführt und eine Disparität zwischen diesen Bildern festgestellt wird.
  • Die europäische Patentanmeldung Nr. EP 0686942 offenbart ein Verfahren zum Stereoabgleichen und Bestimmen der Disparität von Stereobildern mit einem möglichst geringen Umfang an Berechnungen und ein Verfahren zum Messen der Disparität, das einen Abgleichfehler absorbieren kann, der auftreten kann, worin zwei rechte und linke Bilder durch zwei Abbildungsvorrichtungen in der Abbildungsphase erhalten werden.
  • Fig. 1 ist eine Ansicht, die das Prinzip einer typischen Stereobildmessung veranschaulicht. In Fig. 1 repräsentiert eine dreidimensionale Koordinate, die allgemein durch Variablen x, y und z definiert ist, den realen Raum. Eine zweidimensionale Koordinate, die allgemein durch Variablen X und Y definiert ist, repräsentiert die Bildebene (d. h. eine Bildaufnahmeebene einer Kamera). Vorgesehen ist ein Paar zweidimensionaler Koordinaten für ein Paar Kameras 23R und 23L. Eine Position auf der Bildebene der rechten Kamera 23R kann durch Variablen XR und YR auf einer zweidimensionalen Koordinate ausgedrückt werden. Eine Position auf der Bildebene der linken Kamera 23L kann durch Variablen XL und YL auf der anderen zweidimensionalen Koordinate ausgedrückt werden.
  • Achsen XL und XR sind zur Achse x parallel, während Achsen YL und YR zur Achse y parallel sind. Eine Achse z ist parallel zu den optischen Achsen der beiden Kameras 23R und 23L. Der Ursprung der Koordinate (x, y, z) im realen Raum fällt mit einem Mittelpunkt zwischen den Projektionszentren der rechten und linken Kamera 23R und 23L zusammen. Auf die Distanz zwischen den Projektionszentren wird im allgemeinen als eine durch 2a bezeichnete Basislänge verwiesen. Eine durch f bezeichnete Distanz ist eine Fokaldistanz zwischen jedem Projektionszentrum und dessen Bildebene.
  • Nun wird angenommen, dass ein Punkt p im realen Raum bei einem PR(XR, YR) auf der rechten Bildebene und zur gleichen Zeit einen Punkt PL (XL, YL) auf der linken Bildebene projiziert wird. Gemäß der Stereobildmessung werden PR und PL auf jeweiligen Bildebenen (durch Durchführen des Abgleichs von Stereobildern) bestimmt, und die Koordinate (x, y, z) im realen Raum, die den Punkt p repräsentiert, wird auf der Basis des Prinzips der trigonometrischen Vermessung erhalten.
  • YR und YL haben in diesem Fall identische Werte, weil zwei optische Achsen der Kameras 23R und 23L auf der gleichen Ebene vorhanden sind und die X-Achsen der Kameras 23R und 23L zur Achse x parallel sind. Die Beziehung zwischen den Koordinatenwerten XR, YR, XR, YR und den Koordinatenwerten x, y, z im realen Raum wird durch die folgende Gleichung ausgedrückt.
  • oder
  • wo d die Disparität (zwischen Stereobildern) repräsentiert.
  • d = XL-XR (Gl. 3)
  • Da "a" ein positiver Wert ist (a > 0), wird aus der obigen Gleichung 2 die folgende Beziehung abgeleitet
  • XL > XR und YL = YR (Gl. 4)
  • Aus der oben angegebenen Beziehung versteht man, dass ein spezifischer Punkt auf einer Bildebene einen Abgleichpunkt auf der anderen Bildebene entlang der gleichen Scanlinie hat, die als epipolare Linie innerhalb des durch XL > XR definierten Bereichs dient. Dementsprechend kann der Abgleichpunkt entsprechend einem spezifischen Punkt einer Bildebene auf der anderen Bildebene gefunden werden, indem die Ähnlichkeit von Bildern in jeder Mikrofläche entlang der Linie mit der Möglichkeit, den Abgleichpunkt festzustellen, geprüft wird.
  • Einige Verfahren zur Auswertung der Ähnlichkeit werden im folgenden erläutert. Fig. 2 zeigt ein herkömmliches Verfahren zum Feststellen eines Wertes der gegenseitigen Korrelation zwischen zwei Bildern, das beispielsweise in "Image Processing Handbook" (Shokodo Publishing Co. Ltd) von Morio ONOUE et al. offenbart ist.
  • Zunächst wird einem Pixel 2403, das irgendwo auf dem linken Bild 2401 vorhanden ist, eine Bezeichnung gegeben. Als nächstes wird ein zu diesem Pixel 2403 passendes Pixel entlang der Ebene des rechten Bildes 2402 gefunden. Mit anderen Worten wird der Abgleichpunkt bestimmt. Konkreter wird eine quadratische Mikrofläche 2404 (auf die im folgenden als Mikrofläche verwiesen wird) auf dem linken Bild 2401 so festgelegt, dass sie eine Größe hat, die n x m Pixeln entspricht, die ausreichen, um das bezeichnete Pixel 2403 bei ihrer Mitte einzubeziehen. Nun wird angenommen, dass IL(i, j) die Helligkeit jedes Punktes (Pixel) innerhalb der Mikrofläche 2404 repräsentiert.
  • Auf der anderen Seite wird eine quadratische Mikrofläche 2405 auf dem rechten Bild 2402 als eine Mikrofläche bezeichnet, deren Mitte auf einem die Bedingung von Gleichung 4 erfüllenden Pixel liegt. Die Mikrofläche 2405 hat eine n · m Pixel entsprechende Größe. Es wird angenommen, dass IR(i, j) die Helligkeit jedes Punktes (Pixel) innerhalb der Mikrofläche 2405 repräsentiert.
  • Überdies wird angenommen, dass uL, uR, σR2 und σR2 Durchschnitte und Varianzen der Helligkeit in den Mikroflächen 2404 und 2405 repräsentieren. Der Wert einer gegenseitigen Korrelation dieser Mikroflächen kann durch die folgende Gleichung gegeben sein.
  • Der Wert "c", der durch die Gleichung 5 definiert ist, wird entlang der geraden Linie (epipolaren Linie) mit der Möglichkeit, einen passenden bzw. Abgleichpunkt festzustellen, berechnet. Der Punkt, an dem der Wert "c" maximiert ist, wird dann als der festzustellende passende bzw. Abgleichpunkt identifiziert. Gemäß diesem Verfahren wird es möglich, den Abgleichpunkt mit der einem Pixel identischen Größe zu bestimmen. Falls der Abgleichpunkt einmal gefunden ist, kann die Disparität "d" unter Verwendung der Gleichung 3 basierend auf den Koordinatenwerten sofort erhalten werden, die einen so gefundenen Abgleichpunkt repräsentieren.
  • Dieses herkömmliche Verfahren ist jedoch insofern nachteilig, als ein großer Umfang an Berechnungen erforderlich sein wird, um alle Abgleichpunkte erforderlicher Pixel vollständig zu erhalten, da sogar eine Einzelsuche zum Finden nur eines Abgleichpunktes eine bestimmten Pixel erfordert, dass die oben beschriebenen komplizierten Berechnungen bezüglich des gesamten Bereichs mit der Möglichkeit, den Abgleichpunkt festzustellen, wiederholt durchgeführt werden.
  • Die Berechnungen, um die Korrelation zu erhalten, können durch Reduzieren der Größe der Mikrofläche beschleunigt werden, obgleich die Stabilität in der Feststellung des Abgleichpunktes aufgrund einer Erhöhung einer Bildverzerrung und von Rauschen verschlechtert werden wird. Im Gegensatz dazu erhöht ein Vergrößern der Größe der Mikrofläche nicht nur die Berechnungszeit, sondern verschlechtert die Genauigkeit in der Feststellung eines Abgleichpunktes wegen der Änderung von Korrelationswerten, die in unerwünschter Weise moderiert werden. Somit ist es erforderlich, die Größe der Mikrofläche angemessen festzulegen, indem die Eigenschaften des zu bearbeitenden Bildes berücksichtigt werden.
  • Wie aus Gleichung 3 ersichtlich ist, liegen ferner die Charakteristiken des oben beschriebenen herkömmlichen Verfahrens darin, dass die Bestimmung der Disparität direkt das Ergebnis eines Stereobild-Abgleichs widerspiegelt. Ein etwaiger fehlerhafter Abgleich wird daher einen Fehler in der Messung der Disparität "d" bewirken. Kurz gesagt führt ein Fehler im Abgleich von Stereobildern zu einem Fehler in der Disparitätsmessung.
  • Auf diese Weise ist das Verfahren zum Bestimmen eines Abgleichpunktes bezüglich jedes Pixel insofern nachteilig, als der Berechnungsumfang riesig wird. Um dieses Problem zu lösen, ist eine der vorgeschlagenen Technologien ein Verfahren zum Teilen oder Zerlegen des Bildes in mehrere Blöcke, die jeweils eine vorbestimmte Größe haben, und Bestimmen des Abgleichsbereichs basierend auf den zerlegten Blöcken. Beispielsweise offenbart "Driving Aid System based on Three-Dimensional Image Recognition Technology" von Jitsuyoshi et al., in the Pre-publishing 924, Seiten 169-172 des Automotive Vehicle Technical Institute Scientific Lecture Meeting, im Oktober 1992, solch ein Verfahren zum Suchen des Abgleichsbereichs basierend auf dem Vergleich zwischen den Blöcken rechter und linker Bilder.
  • Fig. 3 ist eine Ansicht, die das herkömmliche Verfahren zum Durchführen des Abgleichs von Stereobildern zwischen quadratischen Mikroflächen (Blöcken) veranschaulicht. Das linke Bild 2501, das als ein Referenzbild dient, wird in mehrere Blöcke so zerlegt, dass jeder Block (2503) eine n · m Pixel äquivalente Größe hat. Um die Disparität zu erhalten, wird jeder Abgleichbereich bezüglich jedes Blocks auf dem linken Bild 2501 entlang der Ebene des rechten Bildes abgesucht. Folgende Gleichung ist eine Ähnlichkeitsauswertung, die zum Bestimmen des Abgleichbereichs verwendet wird.
  • C = Σ Li - Ri (Gl. 6)
  • worin Li eine Luminanz des i-ten Pixels im linken Block 2503 repräsentiert, während Ri eine Luminanz des i-ten Pixels im rechten Block 2504 repräsentiert.
  • Diese Auswertung ist nicht so kompliziert, wenn sie mit der Berechnung von Gleichung 5 verglichen wird, welche die Berechnungen zum Subtrahieren der Durchschnittswerte einschließt. Der Umfang der Hardware ist wegen für die Auswertung einer zweidimensionalen Ähnlichkeit verwendeter Zeilenspeicher jedoch noch groß. Überdies wird die erforderliche Gesamtverarbeitungszeit aufgrund zu vieler Zugriffe auf die Speicher ziemlich lang sein.
  • Eine Verwendung des Luminanzwertes für die Ähnlichkeitsauswertung wird außerdem die Hardwarekosten erhöhen, weil die Vorverarbeitung zusätzlich erforderlich ist, um die Empfindlichkeitsdifferenz zwischen rechter und linker Kamera einzustellen und die Schattierungskorrektur vor Ausführen einer Verarbeitung zum Abgleichen von Stereobildern durchzuführen.
  • Eine im Bildaufnahmeraum existierende gerade Linie kann als in ihren Gradienten verschiedene gerade Linien 2603 und 2604 in Blöcken 2605 und 2606 des rechten und linken Bildes 2601 und 2602 abgebildet werden, wie in Fig. 4 gezeigt ist. In einem solchen Fall kann eine genaue Bestimmung der Abgleichbereiche scheitern.
  • Im Gegensatz dazu können zwei verschiedene Linien als identische Linien in Blöcken 2703 und 2704 auf dem linken und rechten Bild 2701 und 2702 wie in Fig. 5 gezeigt abgebildet werden. Daher wird ein Vergleichen der Pixel zwischen nur zwei Blöcken 2703 und 2704 ein Problem hervorrufen, dass der Abgleich von Stereobildern fehlerhaft durchgeführt werden kann und die nachfolgende Messung einer Disparität scheitern wird.
  • Gemäß den oben beschriebenen Disparitätsmessverfahren ist die Einheit zum Messen jeder Disparität mindestens ein Pixel wegen Bilddaten digitaler Daten, die mit einer bestimmten Frequenz abgetastet werden. Es ist jedoch möglich, die Messung einer Disparität genauer durchzuführen.
  • Fig. 6 ist eine Ansicht, die ein herkömmliches Disparitätsmessverfahren veranschaulicht, das im Stande ist, eine Disparität in einer Genauigkeit auf der Ebene von Subpixel festzustellen. Fig. 6 zeigt eine Spitzenposition, die im Ähnlichkeitsauswertungswert C (Ordinate) gefunden wurde, wenn die Gleichung 6 entlang dem Suchbereich in jedem Block berechnet wird.
  • Die Messung der Disparität auf der Ebene von Subpixel wird durchgeführt, indem Ähnlichkeitsauswertungen Ci, Ci - 1, Ci + 1 entsprechend bestimmten Disparitäten di, di - 1, di + 1 (im Inkrement eines Pixel) verwendet werden, die vor und nach der Spitzenposition existieren. Konkreter wird eine erste gerade Linie 2801 als eine Linie erhalten, die beide Punkte (d1 - 1, Ci - 1) und (di, Ci) kreuzt. Eine zweite gerade Linie 2802 wird als eine Linie erhalten, die einen Punkt (di + 1, Ci + 1)kreuzt und einen zur Linie 2801 symmetrischen Gradienten aufweist (d. h. im Absolutwert identisch ist, aber mit entgegengesetztem Vorzeichen). Ein Punkt 2803 wird dann als ein Schnittpunkt von zwei geraden Linien 2801 und 2802 erhalten. Eine einem so erhaltenen Schnittpunkt 2803 entsprechende Disparität ds wird schließlich als eine Disparität auf der Ebene von Subpixel im betreffenden Block erhalten.
  • Wie aus der vorhergehenden Beschreibung ersichtlich ist, leiden die oben beschriebenen herkömmlichen Stereobild-Abgleichsverfahren und Verfahren zum Feststellen von Disparitäten allgemein an einer Erhöhung der Hardwarekosten und Verlängerung der Verarbeitungszeit aufgrund von arithmetischen Berechnungen mit vier Regeln (engl. four rules' artithmeic calculations) der Gleichungen 5 und 6, die für die Ähnlichkeitsauswertung im Stereobild-Abgleich erforderlich sind.
  • Eine Durchführung der Ähnlichkeitsauswertung basierend auf zweidimensionalen Feldern verlangt überdies notwendigerweise das Vorsehen von Zeilenspeichern als Hardware, was möglicherweise häufige Zugriffe auf die Speicher erfordert, was eine weitere Erhöhung der Hardwarekosten und Verlängerung der Verarbeitungszeit zur Folge hat.
  • Ferner erhöht eine Ausnutzung des Vergleichs einer Luminanzdifferenz zwischen rechtem und linkem Bild sicher noch die Hardwarekosten wegen der Addition von Vorverarbeitungskomponenten, die bei der Einstellung der Empfindlichkeit und Schattierungskorrektur zwischen rechter und linker Kamera verwendet werden, die vor Ausführen des Stereobild- Abgleichs durchgeführt werden.
  • Eine Verwendung eines einzigen Blocks als die Einheit zum Bestimmen der Disparität, der eine identische Größe wie ein zweidimensionales Fenster hat, das als die Einheit für den Abgleich dient, wird ferner noch ein Problem hervorrufen, dass ein in der Abgleichphase basierend auf dem zweidimensionalen Fenster auftretender etwaiger Fehler direkt einen nachteiligen Effekt auf die Feststellung einer Disparität des entsprechenden Blocks zur Folge haben wird. Kurz gesagt gibt es kein Mittel, um den Fehler, der in der Abgleichphase auftritt, zu absorbieren oder zu korrigieren.
  • Eine Bestimmung jedes Abgleichbereichs unter Verwendung nur der Pixel, die in einem Block vorhanden sind (= zweidimensionales Fenster), wird überdies wahrscheinlich das Scheitern bei der Feststellung eines wahren Abgleichbereichs zur Folge haben.
  • Dementsprechend ist im Hinblick auf die oben beschriebenen Probleme, auf die man im Stand der Technik trifft, eine Hauptaufgabe der vorliegenden Erfindung, ein Verfahren zum Abgleichen von Stereobildern und zum Feststellen einer Disparität zwischen diesen Bildern mit einem geringen Umfang an Berechnungen, kompaktem Hardwareaufbau, schneller Verarbeitung, hoher Zuverlässigkeit und ausgezeichneter Genauigkeit zu schaffen.
  • Um diese und andere verwandte Aufgaben zu lösen, sieht ein erster Gesichtspunkt der vorliegenden Erfindung ein neuartiges und ausgezeichnetes Verfahren zum Abgleichen von Stereobildern vor, das die Schritte aufweist, bei denen: ein erstes und zweites Bild (IL und IR) eingegeben werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ----, FLk, FLk + 1, ----, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FRk + 1, FRn entwickelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Frequenzkomponentenbild nach Anwenden der sekundären differentiellen Verarbeitung Pixel für Pixel in ternäre Werte umgewandelt wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild auf der Basis der ternärwertigen Frequenzkomponentenbilder durchgeführt wird.
  • Ein zweiter Gesichtspunkt der vorliegenden Erfindung sieht ein Verfahren zum Abgleichen von Stereobildern vor, das die Schritte aufweist, bei denen: ein erstes und zweites Bild IL und IR eingegeben werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ---, FLk, FLk + 1, ---, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FR + 1, ---, FRn entwickelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Frequenzkomponentenbild, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel in ternäre Werte umgewandelt wird, indem eine positive Schwelle TH1 (> 0) und eine negative Schwelle TH2(< 0) auf solche Weise verwendet werden, dass ein Pixel, das größer als TH1 ist, als "p" bezeichnet wird, ein Pixel in einem Bereich zwischen TH1 und TH2 als "z" bezeichnet wird, und ein kleineres Pixel als TH2 als "m" bezeichnet wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild auf der Basis der ternärwertigen Frequenzkomponentenbilder durchgeführt wird.
  • Ein dritter Gesichtspunkt der vorliegenden Erfindung liefert ein Verfahren zum Abgleichen von Stereobildern, das die Schritte aufweist, bei denen: ein erstes und zweites Bild IL und IR eingegebenen werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ---, FLk, FLk + 1, ---, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FRk + 1, ---, FRn entwickelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Frequenzkomponentenbild, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel auf solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, ein auf einen Nulldurchgangspunkt bezogenes und einen positiven Gradienten aufweisendes Pixel als "p" bezeichnet wird, und ein einen Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes Pixel als "m" bezeichnet wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3, ,---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild basierend auf den ternärwertigen Frequenzkomponentenbildern durchgeführt wird.
  • Ein vierter Gesichtspunkt der vorliegenden Erfindung liefert ein Verfahren zum Abgleichen von Stereobildern, das die Schritte aufweist, bei denen: ein erstes und zweites Bild IL und IR eingegebenen werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ---, FLk, FLk + 1, ---, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FRk + 1, ---, FRn umgewandelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Niederfrequenzkomponentenbild der Frequenzkomponentenbilder, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel in ternäre Werte umgewandelt wird, indem eine positive Schwelle TH1 (> 0) und eine negative Schwelle TH2 (< 0) auf solche Weise verwendet werden, dass ein größeres Pixel als TH1 als "p" bezeichnet wird, ein Pixel in einem Bereich zwischen TH1 und TH2 als "z" bezeichnet wird und ein kleineres Pixel als TH2 als "m" bezeichnet wird, und jedes Hochfrequenzkomponentenbild der Frequenzkomponentenbilder, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel auf solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, ein auf einen Nulldurchgangspunkt bezogenes und einen positiven Gradienten aufweisendes Pixel als "p" bezeichnet wird und ein auf einen Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes Pixel als "m" bezeichnet wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3,,---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild basierend auf den ternärwertigen Frequenzkomponentenbildern durchgeführt wird.
  • Gemäß den Merkmalen bevorzugter Ausführungsformen der vorliegenden Erfindung wird das erste Bild IL als ein Referenzbild für die Abgleichoperation bezeichnet, wird ein eindimensionales Fenster, das N Pixel darin umschließen kann, auf dem ternärwertigen Frequenzkomponentenbild des ersten Bildes IL festgelegt und wird ein Abgleichbereich mit dem gleichen Ternärwertmuster wie die N Pixel in dem eindimensionalen Fenster aus dem ternärwertigen Frequenzkomponentenbild des zweiten Bildes IR gesucht.
  • Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung wird eines der ersten und zweiten Bilder IL und IR als Referenzbild für die Abgleichoperation bezeichnet, werden mehrere eindimensionale Fenster auf der gesamten Oberfläche des ternärwertigen Frequenzkomponentenbildes des Referenzbildes durch eine Scanoperation entlang einer epipolaren Linie festgelegt, so dass die eindimensionalen Fenster in den gleichen Intervallen N/2 sukzessiv überlappt sind, wenn jedes der eindimensionalen Fenster eine N Pixel äquivalente Größe hat, und die Abgleichoperation wird bezüglich jedes der eindimensionalen Fenster ausgeführt.
  • Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung werden Pixel in einem eindimensionalen Fenster eines ternärwertigen Frequenzkomponentenbildes TLk des ersten Bildes IL 1 : 1 mit Pixel in einem bezeichneten Bereich eines ternärwertigen Frequenzkomponentenbildes TRk des zweiten Bildes IR verglichen, wenn die ternärwertigen Frequenzkomponentenbilder TLk und TRk in ihren Frequenzkomponenten identisch sind, wobei ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende zwei Pixel beide "p" oder "m" sind, während ein Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden zwei Pixel beide "z" sind, und eine Ähnlichkeit zwischen zwei ternärwertigen Frequenzkomponentenbilder TRk und TLk wird durch Verwenden der folgenden Gleichung ausgewertet.
  • Eall = &Sigma;&beta;k(PN)k + &Sigma;&gamma;k(ZN)k
  • worin n PN die gesamte Zahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN die Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtungsfaktoren repräsentieren.
  • Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung werden Pixel in einem eindimensionalen Fenster eines ternärwertigen Frequenzkomponentenbildes TLk des ersten Bildes IL 1 : 1 mit Pixel in einem bezeichneten Bereich eines ternärwertigen Frequenzkomponentenbildes TRk des zweiten Bildes IR verglichen, wenn die ternärwertigen Frequenzkomponentenbilder TLk und TRk in ihren Frequenzkomponenten identisch sind, worin ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende zwei Pixel beide "p" oder "m" sind, während ein Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden zwei Pixel beide "z" sind, und eine Ähnlichkeit zwischen zwei ternärwertigen Frequenzkomponentenbildern TLk und TRk wird durch Verwenden der folgenden Gleichung ausgewertet:
  • Eall = &Sigma;&beta;k(PN)k + &Sigma;&gamma;k(ZN)k
  • worin PN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtungsfaktoren repräsentieren, und ein Abgleichergebnis in der Abgleichoperation wird nur validiert, wenn &Sigma;&beta;k(PN)k größer als eine vorbestimmte Schwelle TH3(> 0) ist.
  • Ein fünfter Gesichtspunkt der vorliegenden Erfindung schafft ferner ein neuartiges und ausgezeichnetes Verfahren zum Feststellen einer Disparität zwischen Stereobildern mit den Schritten, bei denen: Pixel in einem Mikrobereich, der durch ein auf einem Referenzbild festgelegtes eindimensionales Fenster definiert ist, mit Pixel in einem bezeichneten Mikrobereich auf einem Nicht-Referenzbild verglichen werden; und eine Ähnlichkeit zwischen zwei Mikrobereichen wird unter Verwendung der folgenden Gleichung ausgewertet:
  • Eall = &Sigma;&beta;k(PN)k + &Sigma;&gamma;k(ZN)k
  • worin PN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, während ZN eine Gesamtzahl Pixel mit einem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtungsfaktoren repräsentieren; ein erster Bereich mit einer höchsten Ähnlichkeit und zweiter Bereich mit einer zweithöchsten Ähnlichkeit gesucht werden; eine erste Kandidatendisparität als eine Disparität entsprechend dem ersten Bereich und eine zweite Kandidatendisparität als eine dem zweiten Bereich entsprechende Disparität spezifiziert werden; und eine gültige Disparität zwischen den Stereobildern auf der Basis der ersten und zweiten Kandidatendisparitäten bestimmt wird.
  • Ein sechster Gesichtspunkt der vorliegenden Erfindung liefert überdies ein Verfahren zum Feststellen einer Disparität zwischen Stereobildern, das die Schritte aufweist, bei denen: jedes von ersten und zweiten Bildern IL und IR in mehrere Blöcke geteilt wird, die jeweils eine Größe M · L Pixel aufweisen; ternärwertige Frequenzkomponentenbilder der Bilder IL und IR abgeglichen werden; Pixel in einem Mikrobereich, der durch ein auf dem ersten Bild IL festgelegtes eindimensionales Fenster definiert ist, mit Pixel in einem bezeichneten Mikrobereich auf dem zweiten Bild IR verglichen werden; eine Ähnlichkeit zwischen zwei Mikrobereichen unter Verwendung der folgenden Gleichung ausgewertet wird;
  • Eall = &Sigma;&beta;k(PN)k + &Sigma;&gamma;k(ZN)k
  • worin PN eine Gesamtzahl Pixel mit einem Auswertungsergebnis "P" repräsentiert, während ZN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtungsfaktoren repräsentieren; ein erster Bereich mit einer höchsten Ähnlichkeit und ein zweiter Bereich mit einer zweithöchsten Ähnlichkeit in einem betreffenden Block gesucht werden; eine erste Kandidatendisparität als eine dem ersten Bereich entsprechende Disparität und eine zweite Kandidatendisparität als eine dem zweiten Bereich entsprechende Disparität spezifiziert werden; ein Histogramm basierend auf den ersten und zweiten Kandidatendisparitäten erzeugt wird; und eine gültige Disparität des betreffenden Blocks als eine einer Spitzenposition des Histogramms entsprechende Disparität bestimmt wird.
  • Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung wird in dem oben beschriebenen Verfahren zum Feststellen einer Disparität das erste Bild IL als ein Referenzbild bezeichnet, wird ein eindimensionales Fenster, das darin N Pixel umfassen kann, auf dem ternärwertigen Frequenzkomponentenbild des ersten Bildes IL festgelegt, und ein Abgleichbereich mit dem gleichen Ternärwertmuster wie die N Pixel in dem eindimensionalen Fenster wird aus dem ternärwertigen Frequenzkomponentenbild des zweiten Bildes IR gesucht. Alternativ dazu wird eines der ersten und zweiten Bilder IL und IR als Referenzbild bezeichnet, werden mehrere eindimensionale Fenster auf der gesamten Oberfläche des ternärwertigen Frequenzkomponentenbildes des Referenzbildes durch eine Scan-Operation entlang einer epipolaren Linie festgelegt, so dass die eindimensionalen Fenster in den gleichen Intervallen N/2 sukzessiv überlappt sind, wenn jedes der eindimensionalen Fenster eine N Pixel äquivalente Größe hat, und eine Abgleichoperation wird bezüglich jedes der eindimensionalen Fenster ausgeführt.
  • Gemäß den Merkmalen der bevorzugten Ausführungsformen wird die gültige Disparität als eine Parität auf der Ebene von Subpixel entsprechend einem Schnittpunkt einer ersten geraden Linie, die zwei Punkte (di - 1, hi - 1), (di, hi) kreuzt, und einer einen Punkt (di + 1, hi + 1) kreuzenden zweiten geraden Linie mit einem zur ersten geraden Linie symmetrischen Gradienten berechnet, worin di - 1, di, di + 1 Disparitäten nahe der Spitzenposition des Histogramms repräsentieren und hi - 1, h1, hi + 1 die Zahl eines Auftretens bzw. Häufigkeiten der Disparitäten di - 1, di bzw. di + 1 repräsentieren.
  • Die obigen und anderen Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden ausführlichen Beschreibung ersichtlicher werden, die in Verbindung mit den beiliegenden Zeichnungen gelesen werden soll, von denen:
  • Fig. 1 eine Ansicht ist, die das Prinzip der Stereobildmessung veranschaulicht;
  • Fig. 2 eine Ansicht ist, die ein herkömmliches Verfahren zum Prüfen eines Wertes einer gegenseitigen Korrelation zwischen zwei Bildern veranschaulicht;
  • Fig. 3 eine Ansicht ist, die ein herkömmliches Verfahren zum Abgleichen von Stereobildern basierend auf dem Vergleich quadratischer Mikrobereiche (Blöcke) von zwei Bildern veranschaulicht;
  • Fig. 4 eine Ansicht ist, die in Problem in einem herkömmlichen Verfahren veranschaulicht;
  • Fig. 5 eine Ansicht ist, die ein anderes Problem in einem herkömmlichen Verfahren veranschaulicht;
  • Fig. 6 eine Ansicht ist, die eine Feststellung einer Disparität auf einer Ebene von Subpixel gemäß einem herkömmlichen Verfahren zum Feststellen einer Disparität veranschaulicht;
  • Fig. 7 ein Flussdiagramm ist, das sequentielle Prozesse zum Ausführen einer ersten Ausführungsform der vorliegenden Erfindung zeigt, die die Aufnahme von Stereobildern durch die Bestimmung einer Disparität abdeckt;
  • Fig. 8 eine Ansicht ist, die ein Monochrombild veranschaulicht, das in der Erklärung eines Verfahrens einer Ausführungsform zum Abgleichen von Stereobildern und zum Feststellen einer Disparität zwischen diesen Bildern gemäß der vorliegenden Erfindung verwendet wird;
  • Fig. 9 ein Blockdiagramm ist, das eine Anordnung einer ersten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B) von Fig. 7 realisiert;
  • Fig. 10A, 10B, 10C und 10D graphische Darstellungen sind, die Beispiele verschiedener Frequenzkomponentenbilder zeigen, die als Ergebnis der in Fig. 9, 23 und 27 gezeigten Verarbeitung einer Merkmalextraktionsphase erhalten wurden;
  • Fig. 11 ein Blockdiagramm ist, das eine Anordnung einer zweiten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B) von Fig. 7 veranschaulicht;
  • Fig. 12 eine Ansicht ist, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, die in der ersten und dritten Ausführungsform der vorliegenden Erfindung verwendet werden;
  • Fig. 13 eine Ansicht ist, die ein Verfahren zum Teilen eines Bildes in mehrere Blöcke veranschaulicht, die jeweils als die Einheit zum Bestimmen einer Disparität dienen, gemäß der vorliegenden Erfindung;
  • Fig. 14 eine Ansicht ist, die ein Scan-Verfahren eines eindimensionalen Fensters veranschaulicht, das als die Einheit zum Abgleichen von Stereobildern in der vorliegenden Erfindung dient;
  • Fig. 15 eine Ansicht ist, die die Beziehung zwischen dem als die Einheit zum Abgleichen von Stereobildern dienenden eindimensionalen Fenster und einem als die Einheit zum Bestimmen einer Disparität dienenden Block in der vorliegenden Erfindung veranschaulicht;
  • Fig. 16 eine Ansicht ist, die ein Verfahren zum Bestimmen eines Disparitätskandidaten basierend auf der Suche mit einem eindimensionalen Fenster der vorliegenden Erfindung veranschaulicht;
  • Fig. 17 eine Ansicht ist, die ein Verfahren zum Auswerten einer Ähnlichkeit, basierend auf der Suche mit einem eindimensionalen Fenster, der vorliegenden Erfindung veranschaulicht;
  • Fig. 18 eine Ansicht ist, die ein Beispiel eines Speicherbereichs veranschaulicht, der zum vorübergehenden Speichern von Kandidatendisparitäten verwendet wird, welche in Bezug auf jedes eindimensionale Fenster gemäß der vorliegenden Erfindung bestimmt werden;
  • Fig. 19 eine Ansicht ist, die ein Verfahren gemäß der vorliegenden Erfindung veranschaulicht, um ein Histogramm in Bezug auf Blöcke basierend auf Kandidatendisparitäten zu erzeugen, die in dem Speicherbereich in Bezug auf eindimensionale Fenster vorübergehend gespeichert werden;
  • Fig. 20 eine graphische Darstellung ist, die ein Beispiel des in jedem Block erzeugten Histogramms gemäß der vorliegenden Erfindung zeigt;
  • Fig. 21 eine graphische Darstellung ist, die ein Verfahren der vorliegenden Erfindung zeigt, um eine Disparität mit der Genauigkeit einer Ebene von Subpixel basierend auf dem in Bezug auf Blöcke erzeugten Histogramm zu messen;
  • Fig. 22 ein Flussdiagramm ist, das sequentielle Prozesse zum Ausführen einer zweiten Ausführungsform der vorliegenden Erfindung zeigt, die die Aufnahme von Stereobildern durch die Bestimmung einer Disparität abdeckt;
  • Fig. 23 ein Blockdiagramm ist, das eine Anordnung einer dritten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') von Fig. 22 gemäß der zweiten Ausführungsform realisiert;
  • Fig. 24 ein Blockdiagramm ist, das eine Anordnung einer vierten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') von Fig. 22 gemäß der zweiten Ausführungsform realisiert;
  • Fig. 25 eine Ansicht ist, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, die in der zweiten und dritten Ausführungsform der vorliegenden Erfindung verwendet werden;
  • Fig. 26 ein Flussdiagramm ist, das sequentielle Prozesse zum Ausführen einer dritten Ausführungsform der vorliegenden Erfindung zeigt, die die Aufnahme von Stereobildern durch die Bestimmung einer Disparität abdeckt;
  • Fig. 27 ein Blockdiagramm ist, das eine Anordnung einer fünften Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 gemäß der dritten Ausführungsform realisiert; und
  • Fig. 28 ein Blockdiagramm ist, das eine Anordnung einer sechsten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 gemäß der dritten Ausführungsform realisiert.
  • Bevorzugte Ausführungsformen der vorliegenden Erfindung werden im folgenden mit Verweis auf die beiliegenden Zeichnungen ausführlicher erläutert. Identische Teile sind in allen Ansichten durch die gleiche Referenzziffer bezeichnet.
  • Ein Verfahren zum Abgleichen von Stereobildern und ein Verfahren zum Feststellen einer Disparität zwischen diesen Bildern werden im folgenden gemäß der vorliegenden Erfindung erläutert.
  • Erste Ausführungsform
  • Eine erste Ausführungsform wird basierend auf einer Stereobildmessung unter Verwendung des Verfahrens zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern gemäß der vorliegenden Erfindung erläutert.
  • Fig. 7 ist ein Flussdiagramm, das sequentielle Prozesse zum Ausführen der ersten Ausführungsform der vorliegenden Erfindung zeigt, die die Stereobildaufnahmephase bis zur Disparitätsbestimmungsphase abdeckt. In der Bildaufnahmephase (A) werden durch zwei, rechte und linke, Bildaufnahmeeinrichtungen in Schritten S101 und S102 zwei Bilder, rechts und links, aufgenommen. Die in der Bildaufnahmephase (A) erhaltenen rechten und linken Bilder werden dann in der nächsten Merkmalextraktionsphase (B) in Schritten S103 und S104 jeweils einer Merkmalextraktion unterzogen. In der nachfolgenden Abgleichphase (C) werden danach die extrahierten Merkmale der rechten und linken Bilder in Schritt S105 verglichen, um zu prüfen, ob sie zusammenpassen.
  • In der Abgleichphase (C) wird konkreter ein eindimensionales Fenster festgelegt, wird dieses eindimensionale Fenster entlang; einer Referenz- Bildebene (rechte oder linke Bildebene) gemäß einer vorbestimmten Scan- Regel verschoben, um Fenster sukzessiv festzulegen, die jeweils als die Einheit zum Abgleichen von Stereobildern dienen, und eine Abgleichoperation wird durchgeführt, indem die Bildmerkmale innerhalb eines Fensters und entsprechende Bildmerkmale auf dem anderen (die andere der rechten und linken Bildebene) verglichen werden.
  • In der Phase (D) zur Bestimmung einer Disparität wird die Referenz- Bildmerkmalsebene in mehrere Blöcke zerlegt oder geteilt, die jeweils eine vorbestimmte Größe haben, wird ein Histogramm in jedem Block aus Disparitäten erzeugt, die durch die Abgleichoperation basierend auf eindimensionalen Fenstern, die Pixel eines bestimmten Blocks einbeziehen, erhalten wurden, und eine spezifische Disparität, die gerade der Spitze eines so erhaltenen Histogramms entspricht, wird als eine den betreffenden Block repräsentierende gültige Disparität in Schritt S106 identifiziert. Die in diesen Phasen (A) bis (D) durchgeführte Verarbeitung wird im folgenden ausführlicher beschrieben.
  • A: BILDAUFNAHMEPHASE
  • Obwohl es verschiedene Verfahren zum Anordnen der Stereokameras gibt, ordnet diese Ausführungsform ein Paar rechte und linke Kameras in einer parallelen Anordnungen an, in der zwei Kameras an vorbestimmten rechten und linken Positionen in der horizontalen Richtung liegen, so dass sie parallele optische Achsen aufweisen. Die Parallelanordnung rechts und links, die mit Verweis auf Fig. 1 erläutert wurde, zeigt ein ideales Anordnungsmodell, das in dieser Ausführungsform auch übernommen werden soll. In der Praxis wird es jedoch unmöglich sein, die ideale Anordnung von Stereokameras perfekt aufzubauen, ohne etwaige Versetzungen hervorzurufen. In dieser Hinsicht ist es wichtig, dass das Verfahren zum Abgleichen von Stereobildern und das Verfahren zum Feststellen einer Disparität zwischen diesen Bildern flexibel sein sollte, um solche Versetzungen zu erlauben.
  • In der folgenden Erläuterung werden die in der Bildaufnahmephase (A) erhaltenen rechten und linken Bilder als Monochrombilder mit einer vorbestimmten Größe von 768 (H) · 480(V) erklärt. Selbstverständlich sind die in der vorliegenden Erfindung behandelten Bilder nicht auf die offenbarten Monochrombilder beschränkt. Die in der Bildaufnahmephase erhaltenen rechten und linken Bilder sind wie folgt definiert:
  • Linkes Bild: IL(x, y)
  • Rechtes Bild: IR(x, y)
  • worin 1 &le; x &le; 768, 1 &le; y &le; 480, 0 &le; IL(x, y) &le; 255, und 0 &le; IR(x, y) &le; 255.
  • Wie in dem Monochrombild von Fig. 8 gezeigt ist, repräsentiert "x" einen horizontalen Index des Bildes, während "y" einen vertikalen Index (d. h. eine Zeilennummer) des Bildes repräsentiert. Die Pixelnummer wird von links nach rechts durch "x" ausgedrückt, während die Zeilennummer von oben nach unten durch "y" ausgedrückt wird.
  • Beim Durchführen des Stereobild-Abgleichs wird eines von zwei Bildern als ein Referenzbild bezeichnet, und ein einem spezifischen Bereich dieses Referenzbildes entsprechender Abgleichbereich wird aus dem anderen Bild gesucht. Das linke Bild, das in dieser Ausführungsform als das Referenzbild dient, wird in zahlreiche Blöcke zerlegt, die jeweils eine Größe von M · L Pixel aufweisen, wie in Fig. 13 gezeigt ist. Als ein praktisches Beispiel hat jeder Block eine Größe von 16 · 16 Pixel (M = L = 16). In diesem Fall wird das linke Bild in insgesamt 48 Pixel in der horizontalen Richtung und insgesamt 30 Pixel in der vertikalen Richtung geteilt, was insgesamt 1440 Blöcke erzeugt. Im folgenden wird jeder Block durch die folgenden Identifizierungsdaten BL(X, Y) unterschieden.
  • Block ID: BL(X, Y), wobei 1 &le; X &le; 48, 1 &le; Y &le; 30 sind.
  • B: MERKMALEXTRAKTIONSPHASE
  • Die beiden Bilder, das rechte Bild IR und das linke Bild IL, die in der Bildaufnahmephase (A) erhalten wurden, werden in der Merkmalextraktionsphase (B) in mehrere Frequenzkomponentenbilder entwickelt.
  • IL: L1, L2, L3, ---, Lk, Lk +1, ---, Ln
  • IR: R1, R2, R3, ---, Rk, Rk + 1, ---, Rn
  • Auf jedes Frequenzkomponentenbild wird die sekundäre differentielle Verarbeitung angewendet. Danach wird jedes Bild Pixel für Pixel in ternäre Werte umgewandelt, wobei somit die folgenden ternärwertigen Frequenzkomponentenbilder erhalten werden.
  • TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn
  • TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn
  • Die oben beschriebene Operation macht es möglich, Ränder in verschiedenen Auflösungen zu extrahieren. Die Hauptaufgabe, um die oben beschriebene Operation auszuführen, lautet wie folgt.
  • Grundsätzlich empfängt jede Randposition keinen aus einer Empfindlichkeitsdifferenz oder Schattenbildung abgeleiteten nachteiligen Effekt. Durch Nutzen dieser vorzuziehenden Eigenschaft wird es möglich, den Stereobild-Abgleich genau durchzuführen, ohne irgendeine Vorverarbeitung, wie z. B. eine Korrektur von Empfindlichkeitsdifferenzen der Kameras oder eine Schattierungskorrektur, durchzuführen. Das Vorsehen einer Ternärwert-Verarbeitung macht es möglich, die Ähnlichkeitsauswertung durch Verwendung einer kompakten Hardwareanordnung durchzuführen.
  • Die zweite Aufgabe lautet wie folgt.
  • Niederfrequenzränder sind robust gegen Rauschen, sind aber in ihren Positionen ungenau. Auf der anderen Seite sind Hochfrequenzränder in ihren Positionen genau, obgleich sie eine Tendenz haben, durch Rauschen nachteilig beeinflusst zu werden. Durch Nutzen dieser Eigenschaften wird es möglich, einen robusten und genauen Stereobild-Abgleich zu realisieren.
  • Als nächstes wird eine Ternärwert-Verarbeitung erläutert. Fig. 12 ist eine Ansicht, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, die in der ersten und dritten Ausführungsform der vorliegenden Erfindung verwendet werden. Wie in Fig. 12 gezeigt ist, sind eine positive Schwelle TH1 (> 0) und eine negative Schwelle TH2 (< 0) vorgesehen, um alle Frequenzkomponentenbilder in drei Werte zu klassifizieren. Zum Beispiel werden ternäre Werte jeweiligen Pixel wie folgt gegeben.
  • Geringer als TH2 --- -1
  • Nicht kleiner als TH2 aber kleiner als TH1 --- 0
  • Nicht kleiner als TH1 --- 1
  • Die oben beschriebene Ternärwert-Verarbeitung macht es möglich, die Bilder an ihren Rändern 1 oder -1 zu quantisieren, insbesondere in der Umgebung von (positiven und negativen) Spitzenpositionen, ansonsten werden die Bilder durch 0 ausgedrückt. Diese Ternärwert-Verarbeitung ist dadurch gekennzeichnet, dass ihre Schaltung einfach angeordnet und verhältnismäßig robust gegen Rauschen sein kann. Falls irgendeine Empfindlichkeitsdifferenz zwischen rechten und linken Bildern IR und IL existiert, gibt es jedoch die Möglichkeit, dass einige Bilder nahe der Schwelle aufgrund eines Quantisierungsfehlers eine fehlerhafte Rand-Positionsinformation hervorrufen können.
  • Fig. 9 ist ein Blockdiagramm, das die Anordnung einer ersten Vorrichtung zeigt, die die Verarbeitung der Merkmalextraktionsphase (B) von Fig. 7 realisiert. Das linke Bild IL (oder rechte Bild IR), das in der Merkmalextraktionsphase (B) empfangen wurde, ist das linke Bild IL (oder rechte Bild IR); das in der Bildaufnahmephase (A) erhalten wurde, die auf fc (Hz) bandbegrenzt ist. Das Eingabebild IL wird durch mehrere Tiefpassfilter (LPFk, k = 1, 2, 3, ---,) und Hochpassfilter (HPFk, k = 1, 2, 3, ---, n), die wie in der Zeichnung gezeigt kombiniert sind, in mehrere Bandsignale mit verschiedenen Frequenzkomponenten (d. h. Frequenzkomponentenbilder FLK, k = 1, 2, 3, ---, n) entwickelt. Jedes Bandsignal wird dann durch die nachfolgende Ternärwert-Verarbeitung (F) in einen ternären Wert (d. h. ternärwertiges Frequenzkomponentenbild TLk, k = 1, 2, 3, ---, n) quantisiert. Das oben beschriebene HPFk ist ein Hochpassiilter mit einer sekundären differentiellen Funktion. Fig. 10A, 10B, 10C und 10D sind graphische Darstellungen, die Beispiele verschiedener Frequenzkomponentenbilder FLk (k = 1, 2, 3, ---), d. h. Beispiele von Bandteilungen zeigen, die als Folge der Entwicklung unter Verwendung der im Blockdiagramm von Fig. 9 gezeigten Schaltung erhalten wurden.
  • Jedes dieser mehreren ternärwertigen Frequenzkomponentenbilder TLk, die so erhalten wurden, zeigt eine Randposition, die jedes Frequenzkomponentenbild betrifft. Jede Randposition wird in der nachfolgenden Abgleichphase (C) für das Abgleichen rechter und linker Bilder verwendet. Bezüglich der Festlegungen wird angemerkt, dass die Zahl von Frequenzkomponentenbildern FLk oder die Breite jedes Frequenzbandes bestimmt werden sollte, indem die erforderliche Leistung und der zulässige Kostenrahmen berücksichtigt werden.
  • Fig. 11 ist ein Blockdiagramm, das die Anordnung einer zweiten Vorrichtung zeigt, die die Verarbeitung der Merkmalextraktionsphase (B) von Fig. 7 realisiert. Die Laplace-Gauß-Funktion ( ²G), die die Basis für "&sigma;" eines Laplace-Gauß-Filters bildet, wird gebildet, indem ein zweites Differential einer Gaußschen Funktion genommen wird. In einem eindimensionalen Fall gilt:
  • In einem zweidimensionalen Fall gilt:
  • worin r² = i² + j² ist und &sigma;² die Varianz einer Gauß-Funktion repräsentiert.
  • Eine Faltung dieser Funktion und des Bildes zu erhalten (Laplace-Gauß- Filter) ist einer Glättung des Bildes durch das Gauß-Filter (LPF) und einem Erhalt eines zweiten Differentials (Laplace, HPF) äquivalent.
  • Andern des Wertes &sigma; macht es möglich, Ränder in mehreren Auflösungen (Skalen) zu extrahieren, was auf Bildverarbeitungstechnologien in breitem Maße anwendbar ist.
  • Mit dem oben beschriebenen Verfahren wird das Bild in mehrere Frequenzkomponentenbilder entwickelt, die dann in ternärwertige Frequenzkomponentenbilder wie folgt quantisiert werden.
  • Linkes ternärwertiges Frequenzkomponentenbild:
  • TL1 (x, y), TL2 (x, y), TL3 (x, y), ---
  • Rechtes ternärwertiges Frequenzkomponentenbild:
  • TR1 (x, y), TR2 (x, y), TR3 (x, y), ---
  • worin 1 &le; x &le; 768, 1 &le; y &le; 480 gelten,
  • -1 &le; TL1 (x, y), TL2 (x, y), TL3 (x, y), --------- &le; 1, und
  • -1 &le; TR1(x, y), TR2(x, y), TR3(x, y), --------- &le; 1 (Gl.10)
  • gelten.
  • Die so erhaltenen rechten und linken ternärwertigen Frequenzkomponentenbilder werden an die nachfolgende Abgleichphase (C) geschickt und verwendet, um den Abgleich von Stereobildern zu prüfen.
  • C: ABGLEICHPHASE
  • In der Abgleichphase wird ein Abgleich rechter und linker Bilder unter Verwendung mehrere ternärwertiger Frequenzkomponentenbilder durchgeführt, die durch eine Ternärwert-Verarbeitung in der Merkmalextraktionsphase (B) erhalten wurden. Eines von zwei Stereobildern wird in dieser Abgleichoperation als Referenzbild bezeichnet, und ein Abgleichbereich eines spezifischen Bereichs des Referenzbildes wird aus dem anderen Bild gesucht.
  • Wie in der Bildaufnahmephase (A) erläutert wurde, bezeichnet diese Ausführungsform das linke Bild als das Referenzbild. Wie das linke Bild, das als das Referenzbild dient, welches in zahlreiche Blöcke zerlegt ist, die jeweils die gleiche Größe von M · L Pixel haben, wie in Fig. 13 gezeigt ist, wird jedes der linken ternärwertigen Frequenzkomponentenbilder TLk, wie in Fig. 14 gezeigt, in zahlreiche Blöcke zerlegt. Im folgenden werden Blockidentifizierungsdaten BLk (X, Y) zum Unterscheiden des linken ternärwertigen Frequenzkomponentenbildes TLk verwendet.
  • Block-ID: BLk (X, Y), wo 1 &le; X &le; 48, 1 &le; Y &le; 30
  • Die Abgleichoperation dieser Ausführungsform wird nur entlang der ungeradzahligen Zeilen ausgeführt. Auf eine Scanlinie wird als eine Ziel- Scanlinie im folgenden verwiesen, wenn sie ein Objekt der Abgleichoperation ist. Alle auf die geradzahligen Zeilen bezogenen Informationen werden in der Abgleichphase und der nachfolgenden überhaupt nicht verwendet.
  • Wie in Fig. 14 gezeigt ist, ist zum Durchführen einer Fenster-Abtastung entlang einer betreffenden ungeradzahligen Zeile (d. h. entlang einer von Ziel-Scanzeilen) des linken ternärwertigen Frequenzkomponentenbildes TLk (x, y) zunächst ein eindimensionales Fenster mit einer Größe 1 · 16 Pixel (d. h. L = 1, M = 16) vorgesehen. Jeder Strich (engl. stroke) der Abtastung eines eindimensionalen Fensters umfasst 8 Pixel, was genau eine halbe (M/2) Fenstergröße (16 Pixel) ist. Mit anderen Worten wird das oben beschriebene Fenster in der x-Richtung um einen Betrag verschoben, der seiner Hälfte identisch ist, um die Fenster-Abtastung auszuführen, indem die durch das Fenster eingenommene Fläche sukzessiv überlappt wird. Diese Abtast- bzw. Scan-Operation liefert insgesamt 95 Fenster, die entlang einer Ziel-Scanlinie sukzessiv überlappt sind.
  • Ein Abgleich-Kandidatenbereich entsprechend jedem der eindimensionalen Fenster, die so vorgesehen sind, wird aus dem rechten ternärwertigen Frequenzkomponentenbild TRk(x, y) gesucht. Jedes der eindimensionalen Fenster wird durch Identifizierungsdaten WNk(i, y) spezifiziert.
  • Fenster-ID: WNk (I, J), worin 1 &le; I &le; 95 und 1 &le; J &le; 240 sind.
  • Wie in Fig. 15 gezeigt ist, beinhaltet ein Block BLk (X, Y) komplett insgesamt 8 eindimensionale Fenster 901, die im allgemeinen unter Verwendung der Blockindizes X und Y durch die folgende Gleichung ausgedrückt werden.
  • WNk(I, J) = WNk(2X - 1, 8(Y - 1) + u), worin 1 &le; u &le; 8 ist (Gl. 11)
  • Unterdessen gibt es insgesamt 8 eindimensionale Fenster 902, die jeweils 8 (M/2) Pixel eines Blocks BLk(X, Y) und 8 (M/2) Pixel eines Blocks BLk(X - 1, Y) überbrücken. Diese eindimensionalen Fenster werden im allgemeinen durch die folgende Gleichung ausgedrückt.
  • WNk(I, J) = WNk(2X - 2, 8(Y - 1) + u), worin 1 &le; u &le; 8 ist (Gl. 12)
  • Andererseits gibt es insgesamt 8 eindimensionale Fenster, die jeweils 8 (M/2) Pixel eines Blocks BLk(X, Y) und 8 (M/2) Pixel eines Blocks BLk(X + 1, Y) überbrücken. Diese eindimensionalen Fenster werden im allgemeinen durch die folgende Gleichung ausgedrückt.
  • WNk(I, J) = WNk(2X, 8(Y - 1) + u), worin 1 &le; u &le; 8 ist (Gl. 13)
  • Wie aus der vorhergehenden Beschreibung ersichtlich ist, ist diese Ausführungsform durch eindimensionale Fenster gekennzeichnet, die jeweils als die Einheit für die Abgleichoperation dienen. Der Zweck einer Verwendung solcher eindimensionaler Fenster ist, die Größe der Hardware im Vergleich zum herkömmlichen zweidimensionalen Fenster zu reduzieren und als Folge einer Reduzierung von Zugriffen auf die Speicher auch die Verarbeitungszeit zu reduzieren.
  • Diese Ausführungsform ist überdies dadurch gekennzeichnet, dass eindimensionale Fenster in einer überlappten Weise in den gleichen Intervallen von 8 (M/2) Pixel sukzessiv angeordnet werden. Der Zweck einer Übernahme solch einer Überlappungs-Anordnung ist, die Zuverlässigkeit jeder Abgleichoperation zu steigern, indem zusätzlicher Gebrauch von benachbarten Pixel in dem Fall erlaubt wird, dass der Abgleichbereich basierend nur auf den Pixel in einem gegebenen Block nicht eindeutig bestimmt werden kann, wenn die Disparität des Blocks bestimmt wird.
  • Als nächstes wird ein Verfahren zum Bestimmen eines Abgleichbereichs von jedem der so vorgesehenen eindimensionalen Fenster erläutert. Wie in Fig. 16 gezeigt ist, wird ein Abgleichbereich jedes eindimensionalen Fensters, der auf dem linken ternärwertigen Frequenzkomponentenbild TLk festgelegt ist, aus dem rechten ternärwertigen Frequenzkomponentenbild TRk gesucht.
  • Bei der Suche wird die vorher beschriebene Gleichung 8 verwendet, um die Ähnlichkeit zwischen rechten und linken ternärwertigen Frequenzkomponentenbildern TLk und TRk auszuwerten, die in den bezeichneten eindimensionalen Fenstern enthalten sind. Bezüglich jedes der eindimensionalen Fenster wird ein Bereich mit der höchsten Ähnlichkeit als eine Primärkandidatendisparität (disp1) spezifiziert, und ein Bereich mit der zweithöchsten Ähnlichkeit wird als eine Sekundärkandidatendisparität (disp2) spezifiziert.
  • Diese Primär- und Sekundärkandidatendisparitäten, die in der oben beschriebenen Abgleichoperation basierend auf eindimensionalen Fenstern erhalten werden, sind nur Kandidaten und nicht die endgültige Disparität.
  • Die endgültige Disparität jedes Blocks wird in der nachfolgenden Disparitätsbestimmungsphase (D) basierend auf diesen Primär- und Sekundärkandidatendisparitäten bestimmt.
  • Als nächstes wird mit Verweis auf Fig. 17 ein Verfahren zum Auswerten einer Ähnlichkeit ausführlicher beschrieben. Bei der Auswertung einer Ähnlichkeit werden alle 16 Pixel in einem gegebenen eindimensionalen Fenster auf dem linken ternärwertigen Frequenzkomponentenbild TLk mit nachfolgenden 16 Pixel verglichen, die in der horizontalen Richtung innerhalb einer vorbestimmten Zone auf dem rechten ternärwertigen Frequenzkomponentenbild TRk in einem Array angeordnet sind, wobei diese vorbestimmte Zone die Möglichkeit zum Feststellen eines Abgleichbereichs bietet.
  • Konkreter wird die Ähnlichkeit zwischen entsprechenden zwei Pixel unter Verwendung der folgenden Codes ausgewertet:
  • Beide Pixel mit Wert 0: Z
  • Beide Pixel mit Wert 1: P
  • Beide Pixel mit Wert -1: P
  • Andere Fälle: 0
  • Die Codieroperation zum Auswerten der Ähnlichkeit (d. h. Auswertung zwischen entsprechenden Pixel) wird bezüglich aller 16 Pixel in dem gegebenen eindimensionalen Fenster ausgeführt. Auf diese Weise wird auf alle ternärwertigen Frequenzkomponentenbilder TLk und TRk die Auswertung einer Ähnlichkeit angewendet, wobei schließlich das Gesamtergebnis einer Auswertung der Ähnlichkeit wie folgt erhalten wird:
  • Eall = &Sigma;&beta;k(PN)k + &Sigma;&gamma;k(ZN)k (Gl. 14)
  • worin PN eine gesamte Zahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN eine gesamte Zahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtsfaktoren repräsentieren.
  • Ein großer Wert im Gesamtergebnis Ea11 einer Ähnlichkeitsauswertung gibt an, dass die Ähnlichkeit hoch ist. Obgleich in der Gleichung 14 "k" aufeinanderfolgende ganze Zahlen 1, 2, ---, n repräsentiert, ist es möglich, einige von ihnen zu verwenden. Außerdem drückt der erste Ausdruck auf der rechten Seite der Gleichung 14 die Zahl von miteinander übereinstimmenden Pixel bezüglich der als Abgleichmerkmale dienenden Randpunkte aus. Man ist der Ansicht, dass diese Zahl die Zuverlässigkeit des Ergebnisses einer Abgleichoperation widerspiegelt. Je größer diese Zahl ist, desto höher ist die Zuverlässigkeit. Je kleiner diese Zahl ist, desto geringer ist die Zuverlässigkeit.
  • Falls der erste Ausdruck auf der rechten Seite im Ergebnis einer Ähnlichkeitsauswertung basierend auf der Primärkandidatendisparität kleiner als eine vorbestimmte Schwelle TH3 ist, sollte dementsprechend diese Kandidatendisparität auf Null gesetzt oder für ungültig erklärt werden, um etwaige fehlerhafte Abgleichoperationen zu eliminieren.
  • Zahlreiche Primärkandidatendisparitäten (disp 1) und Sekundärkandidatendisparitäten (disp2) werden als Ergebnis der auf einem eindimensionalen Fenster basierenden Abtastung erhalten, das in Strichen von 8 (M/2) Pixel in einer überlappten Art und Weise entlang der ungeradzahligen Zeile des linken Bildes sukzessiv verschoben wird. Die Primärkandidatendisparitäten (disp1) und Sekundärkandidatendisparitäten (disp2), die so erhalten werden, werden in den vorbestimmten Bereichen eines Speichers gespeichert, der in Fig. 18 gezeigt ist. Obgleich Fig. 18 die Speicherbereiche in einer Beziehung 1 : 1 zu den Bilddaten zeigt, wird besonders erwähnt, dass freie Bereiche im Speicher eliminiert werden können.
  • D: DISPARITÄTSBESTIMMUNGSPHASE
  • Inder Disparitätsbestimmung wird schließlich in jedem der Blöcke (insgesamt 1440 Blöcke) basierend auf den Primärkandidatendisparitäten (disp1) und den Sekundärkandidatendisparitäten (disp2), die bezüglich jedes eindimensionalen Fensters bestimmt wurden, eine Disparität bestimmt.
  • Ein Verfahren zum Bestimmen einer Disparität jedes Blocks wird mit Verweis auf Fig. 19 erläutert, die erklärt, wie die Disparität eines Blocks BL(X, Y) bestimmt wird. Um eine Disparität eines Blocks BL(X, Y) zu bestimmen, wird basierend auf insgesamt 24 Sätzen von Primärkandidatendisparitäten (disp1) und Sekundärkandidatendisparitäten (disp2), die in dem durch eine gestrichelte Linie in Fig. 19 eingekreisten Bereich vorhanden sind, ein Histogramm erzeugt, wobei die Tatsache berücksichtigt wird, dass all diese ausgewählten Primär- und Sekundärkandidatendisparitäten durch die Abgleichoperation der spezifischen eindimensionalen Fenster mit jeweils mindestens 8 Pixel erhalten werden, die im Bereich des Blocks BL(X, Y) vorhanden sind. Fig. 20 ist eine graphische Darstellung, die ein Beispiel des Histogramms von Disparitäten zeigt, das basierend auf den Primär- und Sekundärkandidatendisparitäten erzeugt wurde.
  • Eine Disparität mit der größten Zahl eines Auftretens bzw. Häufigkeit wird dann schließlich als die Disparität des Blocks BL(X, Y) bestimmt.
  • Kehrt man zum zweiten Beispiel der Verfahren nach dem Stand der Technik zurück, ist der charakteristische Punkt, dass, nachdem das Bild in mehrere Blöcke zerlegt ist, die Ähnlichkeitsauswertung für den Abgleich in jedem Block unter Verwendung nur der in diesem betreffenden Block vorhandenen Pixel unabhängig durchgeführt wurde. Daher bestand die Möglichkeit, dass aufgrund des zufälligen Vorhandenseins ähnlicher, aber verschiedener mehrerer Bereiche ein Fehlabgleich verursacht wurde. Der Fehlabgleich war auch eine direkte Ursache für das Scheitern bei der Feststellung einer Disparität für jeden Block.
  • Gemäß dem Verfahren zum Feststellen einer Disparität der vorliegenden Erfindung sind jedoch diese Probleme vollständig gelöst. Das heißt, die vorliegende Erfindung ist dadurch gekennzeichnet, dass ein Histogramm in jedem Block unter Verwendung der Abgleichdaten erzeugt wird, die sich aus dem Festlegen mehrerer eindimensionaler Fenster ergeben, die sukzessiv überlappt sind, und die Disparität des betreffenden Blocks BL(X, Y) dann bestimmt wird, indem die Spitzenposition im Histogramm festgestellt wird. Selbst wenn in der bezüglich jedes der eindimensionalen Fenster durchgeführten Abgleichoperation ein fehlerhafter Abgleich entstehen kann (d. h. selbst wenn eine fehlerhafte Kandidatendisparität versehentlich festgestellt wird), ist daher die vorliegende Erfindung ausreichend flexibel, um einen solchen Fehler zu absorbieren oder zu korrigieren.
  • Als ein besonders guter Effekt einer Verwendung überlappter eindimensionaler Fenster wird es überdies möglich, die Pixel, die außerhalb des betreffenden Blocks vorhanden sind, bei der Bestimmung einer Disparität ergänzend zu verwenden. Dies wird das Scheitern bei der Feststellung einer Disparität sicher verhindern, selbst wenn ähnliche, aber verschiedene Bereiche versehentlich gemessen werden.
  • Bei dieser Art eines Verfahrens zum Feststellen einer Disparität wird allgemein das Bild als Digitaldaten erhalten, die mit einer vorbestimmten Frequenz abgetastet wurden. Daher ist die messbare minimale Einheit auf ein Pixel begrenzt. Falls eine hohe Genauigkeit bei der Disparitätsmessung streng gefordert ist, steht die folgende Messung auf der Ebene von Subpixel zur Verfügung.
  • Das Verfahren einer Messung auf der Ebene von Subpixel wird mit Verweis auf Fig. 21 erläutert. Fig. 21 zeigt ein Histogramm, das in einem bestimmten Block gemäß dem vorher bestimmten Verfahren erzeugt wurde, und zeigt insbesondere die Verteilung der Zahl eines Auftretens bzw. Häufigkeit in der Umgebung einer spezifischen Disparität entsprechend einer Spitzenposition. Die Messung einer Disparität auf der Ebene von Subpixel wird durchgeführt, indem die Häufigkeit hi, hi - 1, hi + 1 entsprechend den bezeichneten Disparitäten di, di - 1, di + 1 (im Inkrement eines Pixel) verwendet wird, die vor und nach einer Spitzenposition ds vorhanden sind.
  • Konkreter wird eine erste gerade Linie 1501 als eine Linie erhalten, die beide Punkte (di - 1, hi - 1) und (di, hi) kreuzt. Eine zweite gerade Linie 1502 wird als eine Linie erhalten, die einen Punkt (di + 1, hi + 1) kreuzt und einen zur Linie 1501 symmetrischen Gradienten aufweist (d. h. im Absolutwert identisch, im Vorzeichen aber entgegengesetzt ist). Ein Punkt 1503 wird dann als Schnittpunkt der beiden geraden Linie 1501 und 1502 erhalten. Eine dem so erhaltenen Schnittpunkt 1503 entsprechende Disparität ds wird schließlich als eine Disparität auf einer Ebene von Subpixel des betreffenden Blocks erhalten.
  • Die oben beschriebene Messung einer Disparität auf der Ebene von Subpixel verwendet das durch die Häufigkeit erzeugte Histogramm; dementsprechend ist dieses Verfahren von dem Verfahren nach dem Stand der Technik wesentlich verschieden, welches grundsätzlich die aus Gleichung 6 abgeleiteten Ähnlichkeitsauswertungen C verwendet.
  • Zweite Ausführungsform
  • Eine zweite Ausführungsform wird basierend auf einer Stereobildmessung unter Verwendung des Verfahrens zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern gemäß der vorliegenden Erfindung erläutert.
  • Fig. 22 ist ein Flussdiagramm, das sequentielle Prozesse zum Ausführen der zweiten Ausführungsform der vorliegenden Erfindung zeigt, die die Stereobildaufnahmephase bis zur Disparitätsbestimmungsphase abdecken. In der Bildaufnahmephase (A) werden durch zwei rechte und linke Bildaufnahmeeinrichtungen in Schritten S1601 und S1602 zwei rechte und linke Bilder aufgenommen. Die in der Bildaufnahmephase (A) durchgeführte Verarbeitung ist zu derjenigen der ersten Ausführungsform identisch. Die rechten und linken Bilder, die in der Bildaufnahmephase (A) erhalten wurden, werden dann in der nächsten Merkmalextraktionsphase (B') in Schritten S1603 und S1604 jeweils einer Merkmalextraktion unterzogen. In der nachfolgenden Abgleichphase (C) werden danach die extrahierten Merkmale der rechten und linken Bilder in Schritt S1605 verglichen, um zu prüfen, ob sie zueinander passen. In einer Disparitätsbestimmungsphase (D) wird überdies eine Disparität in jedem Block bestimmt (Schritt S1606). Die in der Abgleichphase (C) und der Disparitätsbestimmungsphase (D) durchgeführte Verarbeitung ist zu denjenigen der ersten Ausführungsform identisch.
  • Im folgenden wird nur der Abschnitt ausführlicher erläutert, der von der ersten Ausführungsform verschieden ist, d. h. die Verarbeitung einer Merkmalextraktionsphase (B').
  • B': MERKMALEXTRAKTIONSPHASE
  • Die in der Bildaufnahmephase (A) erhaltenen zwei Bilder, das rechte Bild IR und das linke Bild IL, werden in der Merkmalextraktionsphase (B') in mehrere Frequenzkomponentenbilder entwickelt.
  • IL: L1, L2, L3, ---, Lk, Lk + 1, ---, Ln
  • IR: R1, R2, R3, ---m Rk, Rk + 1, ---, Rn
  • Auf jedes Frequenzkomponentenbild wird die sekundäre differentielle Verarbeitung angewendet. Danach wird jedes Bild Pixel für Pixel in ternäre Werte umgewandelt, wobei somit die folgenden ternärwertigen Frequenzkomponentenbilder erhalten werden.
  • TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn
  • TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn
  • Der Verarbeitungsablauf und seine Zwecke sind mit denjenigen der Merkmalextraktraktionsphase (B) der ersten Ausführungsform identisch.
  • Als nächstes wird der von der ersten Ausführungsform verschiedene wesentliche Abschnitt, d. h. eine Ternärwert-Verarbeitung, erklärt.
  • Fig. 25 ist eine Ansicht, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, das in der zweiten Ausführungsform der vorliegenden Erfindung verwendet wird. Wie in Fig. 25 gezeigt ist, werden alle Frequenzkomponentenbilder in drei Werte klassifiziert, indem beurteilt wird, ob das Pixel eines betreffenden Bildes auf einen Nulldurchgangspunkt bezogen ist oder ob das Vorzeichen seines Gradienten positiv oder negativ ist, wenn es dem Nulldurchgangspunkt entspricht. Zum Beispiel werden den jeweiligen Pixel wie folgt ternäre Werte verliehen.
  • Vom Nulldurchgangspunkt verschieden --- 0
  • Nulldurchgangspunkt und positiver Gradient --- 1
  • Nulldurchgangspunkt und negativer Gradient --- -1
  • Die oben beschriebene Ternärwert-Verarbeitung macht es möglich, die Bilder an ihren Ränder, d. h. insbesondere den Wendepunkten (= Nulldurchgangspunkte), in 1 oder -1 zu quantisieren; ansonsten werden die Bilder durch 0 ausgedrückt. Diese Ternärwert-Verarbeitung (G) ist in der genauen Feststellung von Randpositionen und auch der Robustheit gegen eine Empfindlichkeitsdifferenz zwischen rechten und linken Bildern vergleichbar mit der oder besser als die Ternärwert-Verarbeitung (F) der ersten Ausführungsform, obgleich sie ein wenig labil gegen Rauschen ist.
  • Fig. 23 ist ein Blockdiagramm, das die Anordnung einer dritten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') in Fig. 22 realisiert. Ein in der Merkmalextraktionsphase (B') empfangenes linkes Bild ist das Bild, das in der Bildaufnahmephase (A) erhalten wurde, welche auf fc (Hz) bandbegrenzt ist. Das Eingabebild IL wird in mehrere Bandsignale mit verschiedenen Frequenzkomponenten (d. h. Frequenzkomponentenbilder FLk, k = 1, 2, 3, ---, n) durch mehrere Tiefpassfilter (LPFk, k = 1, 2, 3, ---) und Hochpaßfilter (HPFk, k = 1, 2, 3, ---n) entwickelt, die wie in der Zeichnung dargestellt kombiniert sind. Diese Verarbeitung ist zu derjenigen der ersten Ausführungsform identisch. Die entwickelten Frequenzkomponentenbilder FLk werden durch die oben beschriebene Ternärwert-Verarbeitung (G) in ternärwertige Daten (d. h. ternärwertige Frequenzkomponentenbilder TLk, k = 1, 2, 3, ---, n) umgewandelt oder quantisiert.
  • Jedes dieser so erhaltenen mehreren ternärwertigen Frequenzkomponentenbilder TLk zeigt eine in jedem Frequenzkomponentenbild enthaltene Randposition. Jede Randposition wird für den Abgleich rechter und linker Bilder in der nachfolgenden Abgleichphase (C) verwendet. Im Hinblick auf die Festlegungen wird besonders erwähnt, dass in der gleichen Weise wie in der ersten Ausführungsform die Zahl von Frequenzkomponentenbildern FLk oder die Breite jedes Frequenzbandes bestimmt werden sollte, indem die erforderliche Leistung und der zulässige Kostenrahmen berücksichtigt werden.
  • Fig. 24 ist ein Blockdiagramm, das die Anordnung einer vierten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') von Fig. 22 realisiert. Diese vierte Vorrichtung ist mit Ausnahme der Ternärwert-Verarbeitung (G) mit der zweiten Vorrichtung der ersten Ausführungsform identisch, die in Fig. 11 dargestellt ist.
  • Auf diese Weise wird das Bild in mehrere Frequenzkomponentenbilder FLk entwickelt, die dann durch eine Ternärwert-Verarbeitung in ternärwertige Frequenzkomponentenbilder TLk umgewandelt werden. Anschließend werden ternärwertige Frequenzkomponentenbilder TLk zur nachfolgenden Abgleichphase (C) geschickt, um die Stereobild-Abgleichoperation basierend auf eindimensionalen Fenstern durchzuführen. Eine Disparität jedes Blocks wird schließlich auch in der Disparitätsbestimmungsphase (D) bestimmt.
  • Dritte Ausführungsform
  • Eine dritte Ausführungsform wird basierend auf einer Stereobildmessung unter Verwendung des Verfahrens zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern gemäß der vorliegenden Erfindung erläutert.
  • Fig. 26 ist ein Flussdiagramm, das sequentielle Prozesse zum Ausführen der dritten Ausführungsform der vorliegenden Erfindung zeigt, die die Stereobild-Aufnahmephase bis zur Disparitätsbestimmungsphase abdecken. In der Bildaufnahmephase (A) werden in Schritten S2001 und S2002 durch zwei rechte und linke Bildaufnahmeeinrichtungen zwei rechte und Linke Bilder aufgenommen. Die in der Bildaufnahmephase (A) durchgeführte Verarbeitung ist zu denjenigen der ersten und zweiten Ausführungsform identisch. Die rechten und linken Bilder, die in der Bildaufnahmephase (A) erhalten wurden, werden dann in der nächsten Merkmalextraktionsphase (B") in Schritten S2003 und S2004 jeweils einer Merkmalextraktion unterzogen. In der nachfolgenden Abgleichphase (C) werden danach die extrahierten Merkmale der rechten und linken Bilder in Schritt S2005 verglichen, um zu prüfen, wie sie zueinander passen. In einer Disparitätsbestimmungsphase (D) wird überdies eine Disparität in jedem Block bestimmt (Schritt S2006). Die in der Abgleichphase (C) und der Disparitätsbestimmungsphase (D) durchgeführte Verarbeitung ist denjenigen der ersten Ausführungsformen identisch.
  • Im folgenden wird nur der Abschnitt ausführlicher erläutert, der von der ersten Ausführungsform verschieden ist, d. h. die Verarbeitung einer Merkmalextraktionsphase (B").
  • B": MERKMALEXTRAKTIONSPHASE
  • Die in der Bildaufnahmephase (A) erhaltenen zwei Bilder, das rechte Bild IR und das linke Bild IL, werden in der Merkmalextraktionsphase (B") in mehrere Frequenzkomponentenbilder entwickelt.
  • IL: L1, L2, L3, ---, Lk, Lk + 1, ---, Ln
  • IR: R1, R2, R3, ---, Rk, Rk + 1, ---, Rn
  • Auf jedes Frequenzkomponentenbild wird die sekundäre differentielle Verarbeitung angewendet. Danach wird jedes Bild Pixel für Pixel in ternäre Werte umgewandelt, wobei somit die folgenden ternärwertigen Frequenzkomponentenbilder erhalten werden.
  • TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn
  • TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn
  • Der Verarbeitungsablauf und seine Zwecke sind mit denjenigen der Merkmalextraktionsphasen (B), (B') der ersten und zweiten Ausführungsform identisch.
  • Als nächstes wird der von der ersten und zweiten Ausführungsform verschiedene wesentliche Abschnitt, d. h. eine Ternärwert-Verarbeitung erläutert. Die Ternärwert-Verarbeitung der dritten Ausführungsform ist dadurch gekennzeichnet, dass die Niederfrequenzkomponentenbilder durch die vorher beschriebene Ternärwert-Verarbeitung (F) der ersten Verarbeitungsform verarbeitet werden, während die Hochfrequenzbilder durch die oben beschriebene Ternärwert-Verarbeitung (G) der zweiten Ausführungsform verarbeitet werden.
  • Die Hochfrequenzkomponentenbilder haben genaue Information bezüglich der Randpositionen, wenn sie mit den Niederfrequenzkomponentenbildern verglichen werden. Um diese genauen Informationen effektiv zu nutzen, wird die Nulldurchgangspunkt-Klassifizierung zum Umwandeln von Hochfrequenzkomponentenbildern in ternäre Werte verwendet. Die durch die Ternärwert-Verarbeitung (G) erhaltene Randinformation neigt jedoch dazu, aufgrund von Rauschen fehlerhafte Randinformationen zu enthalten. Im Gegensatz dazu werden die Niederfrequenzkomponentenbilder in ternäre Werte umgewandelt, indem die Schwellenklassifizierung verwendet wird, da Niederfrequenzkomponentenbilder keine so genaue Information zum Darstellen der Randpositionen sind. Die durch die Ternärwert-Verarbeitung (F) erhaltene Randinformation enthält selten von Rauschen abgeleitete fehlerhafte Randinformationen.
  • Fig. 27 ist ein Blockdiagramm, das die Anordnung einer fünften Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 realisiert. Ein in der Merkmalextraktionsphase (B") empfangenes linkes Bild IL ist das Bild, das in der Bildaufnahmephase (A) erhalten wurde, die auf fc (Hz) bandbegrenzt ist. Das Eingabebild IL wird durch mehrere Tiefpassfilter (LPFk, k = 1, 2, 3, ---) und Hochpassfilter (HPDk, k = 1, 2, 3, ---, n), die wie in der Zeichnung gezeigt kombiniert sind, in mehrere Bandsignale mit verschiedenen Frequenzkomponenten (d. h. Frequenzkomponentenbilder FLk, k = 1, 2, 3, ---, n) entwickelt. Diese Verarbeitung ist mit derjenigen der ersten und zweiten Ausführungsform identisch. Die Niederfrequenzkomponentenbilder der entwickelten Frequenzkomponentenbilder FLk werden durch die Ternärwert-Verarbeitung (F), die in der ersten Ausführungsform erläutert wurde, in ternärwertige Daten umgewandelt oder quantisiert. Auf der anderen Seite werden die Hochfrequenzkomponentenbilder der entwickelten Frequenzkomponentenbilder FLk durch die Ternärwert-Verarbeitung (G), die in der zweiten Ausführungsform erläutert wurde, in ternärwertige Daten umgewandelt oder quantisiert. Folglich werden ternärwertige Frequenzkomponentenbilder TLk (k = 1, 2, 3, ---, n) erhalten.
  • Jedes dieser so erhaltenen mehreren ternärwertigen Frequenzkomponentenbilder TLk zeigt eine in jedem Frequenzkomponentenbild enthaltene Randposition auf. Jede Randposition wird für den Abgleich rechter und linker Bilder in der nachfolgenden Abgleichphase (C) verwendet. Bezüglich der Feststellungen wird besonders erwähnt, dass die Zahl von Frequenzkomponentenbildern FLk oder die Breite jedes Frequenzbandes sowie eine Auswahl zwischen der Ternärwert-Verarbeitung (F) und der Ternärwert- Verarbeitung (G) bestimmt werden sollte, indem die erforderliche Leistung und der zulässige Kostenrahmen berücksichtigt werden.
  • Fig. 28 ist ein Blockdiagramm, das die Anordnung einer sechsten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 realisiert. Diese sechste Vorrichtung ist mit der zweiten und vierten Vorrichtung der ersten und zweiten Ausführungsform, die in Fig. 11 und 24 dargestellt sind, mit Ausnahme des Abschnitts der Ternärwert- Verarbeitung identisch.
  • Auf diese Weise wird das Bild in mehrere Frequenzkomponentenbilder FLk entwickelt, die dann durch eine Ternärwert-Verarbeitung in ternärwärtige Frequenzkomponentenbilder TLk umgewandelt werden. Anschließend werden ternärwertige Frequenzkomponentenbilder TLk an die nachfolgende Abgleichphase (C) geschickt, um basierend auf eindimensionalen Fenstern die Stereobild-Abgleichoperation durchzuführen. Eine Disparität jedes Blocks wird schließlich auch in der Disparitätsbestimmungsphase (D).
  • Verschiedenes
  • Wie aus dem vorhergehenden ersichtlich ist, wird das Verfahren der vorliegenden Erfindung zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern auf der Basis des Stereobild- Meßsystems erläutert, das in die oben beschriebene erste, zweite und dritte Ausführungsform eingebettet ist. Obgleich die Ausführungsformen der vorliegenden Erfindung die Stereokameras verwenden, die in Richtung rechts und links parallel zueinander angeordnet sind, ist selbstverständlich die Anordnung von Stereokameras nicht auf die offenbarte begrenzt.
  • Obgleich die Ausführungsformen der vorliegenden Erfindung nur die ungeradzahligen Zeilen für die Abtast- bzw. Scanoperation nutzen, wird ferner der gleiche Effekt erhalten, indem nur die Ziel-Scanzeilen der geradzahligen Zeilen verwendet werden. Falls alle Zeilen für die Scan-Operation verwendet werden, wird die Zuverlässigkeit der Messung einer Disparität gesteigert, obgleich das Verarbeitungsvolumen verdoppelt wird.
  • Außerdem übernehmen die Ausführungsformen der vorliegenden Erfindung eine Fenstergröße von 1 · 16 (M = 16) Pixel, die sich in der horizontalen Richtung erstrecken, und eine Blockgröße von 16 · 16 (M = L = 16) Pixel. Selbstverständlich können praktische Werte für M und L flexibel geändert werden.
  • Wie in der vorhergehenden Beschreibung erläutert wurde, liefert die vorliegende Erfindung ein neuartiges und ausgezeichnetes Verfahren zum Abgleichen von Stereobildern und Feststellen einer Disparität dieser Bilder, das einen kleinen Berechnungsumfang aufweist, kompakt und billig in der Hardware-Anordnung, schnell in der Verarbeitung und zuverlässig und genau in der Leistung des Stereobild-Abgleichs und der Feststellung einer Disparität ist.
  • Dementsprechend kann die vorliegende Erfindung z. B. auf verschiedene industrielle Überwachungssysteme angewendet werden, wie z. B. eine Überwachungseinrichtung für Hindernisse an einem Schienenübergang oder eine Überwachungseinrichtung gegen Eindringlinge in einem Gebäude, indem deren Fähigkeit, basierend auf sukzessiv abgetasteten Stereobildern immer eine Disparität zu messen und die Änderung der Disparität festzustellen, genutzt wird.
  • Die vorliegenden Ausführungsformen, wie sie beschrieben wurden, sollen daher nur veranschaulichend und nicht beschränkend sein, da der Umfang der Erfindung eher durch die beigefügten Ansprüche als durch die ihnen vorangehende Beschreibung definiert ist.

Claims (11)

1. Verfahren zum Abgleichen von Stereobildern, aufweisend die Schritte, bei denen:
ein erstes und zweites Bild (IL und IR) eingegeben werden;
das erste und zweite Bild (IL und IR) in eine erste Mehrzahl Frequenzkomponentenbilder (FL1, FL2, FL3, ----, FLk, FLk + 1, ----, FLn) bzw. eine zweite Mehrzahl Frequenzkomponentenbilder (FR1, FR2, FR3, ---, FRk, FRk + 1, FRn) entwickelt werden;
eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird;
jedes Frequenzkomponentenbild nach Anwenden der sekundären differentiellen Verarbeitung Pixel für Pixel in ternäre Werte umgewandelt wird, wodurch erste ternärwertige Frequenzkomponentenbilder (TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn) und sekundäre ternärwertige Frequenzkomponentenbilder (TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn) erhalten werden; und
eine Abgleichoperation zwischen dem ersten und zweiten Bild auf der Basis der ersten und zweiten ternärwertigen Frequenzkomponentenbilder durchgeführt wird.
2. Verfahren nach Anspruch 1, worin jedes Frequenzkomponentenbild in ternäre Werte umgewandelt wird, indem eine positive Schwelle (TH1) und eine negative Schwelle (TH2) auf solche Weise verwendet werden, dass ein Pixel, das größer als die positive Schwelle (TH1) ist, als "p" bezeichnet wird, ein Pixel in einem Bereich zwischen der positiven und der negativen Schwelle (TH1 und TH2) als "z" bezeichnet wird und ein Pixel, das kleiner als die negative Schwelle (TH2) ist, als "m" bezeichnet wird.
3. Verfahren nach Anspruch 1, worin jedes Frequenzkomponentenbild auf solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, auf einen Nulldurchgangspunkt bezogenes und einen positiven Gradienten aufweisendes Pixel als "p" bezeichnet wird und ein auf einen Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes Pixel als "m" bezeichnet wird.
4. Verfahren nach Anspruch 1, worin jedes Niederfrequenzkomponentenbild der Frequenzkomponentenbilder unter Verwendung einer positiven Schwelle (TH1) und einer negativen Schwelle (TH2) auf solche Weise in ternäre Pixelwerte umgewandelt wird, dass ein Pixel, das größer als die positive Schwelle (TH1) ist, als "p" bezeichnet wird, ein Pixel in einem Bereich zwischen der positiven und der negativen Schwelle (TH1 und TH2) als "z" bezeichnet wird und ein Pixel, das kleiner als die negative Schwelle (TH2) ist, als "m" bezeichnet wird, während jedes Hochfrequenzkomponentenbild der Frequenzkomponentenbilder auf solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, ein auf einen Nulldurchgangspunkt bezogenes und einen positiven Gradienten aufweisendes Pixel mit "p" bezeichnet wird und ein auf einen Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes Pixel als "m" bezeichnet wird.
5. Verfahren nach einem der Ansprüche 1 bis 4,
worin Pixel in einem eindimensionalen Fenster eines ersten ternärwertigen Frequenzkomponentenbildes (TLk) des ersten Bildes (IL) Eins-zu-Eins mit Pixeln in einem bezeichneten Bereich eines zweiten ternärwertigen Frequenzkomponentenbildes (TRk) des zweiten Bildes (IR) verglichen werden, wenn das erste und zweite ternärwertige Frequenzkomponentenbild (TLk und TRk) in ihren Frequenzkomponenten identisch sind, worin
ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende zwei Pixel beide "p" oder "m" sind, während ein Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden beiden Pixel beide "z" sind, und die Ähnlichkeit zwischen dem ersten und zweiten ternärwertigen Frequenzkomponentenbild (TLk und TRk) durch Verwenden der folgenden Gleichung:
Eall = &Sigma;&beta;k(PN)k + &Sigma;&gamma;k(ZN)k
ausgewertet wird, worin PN die gesamte Zahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN die Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtungsfaktoren repräsentieren.
6. Verfahren nach einem der Ansprüche 1 bis 4,
worin Pixel in einem eindimensionalen Fenster eines ersten ternärwertigen Frequenzkomponentenbildes (TLk) des ersten Bildes (IL) Eins-zu-Eins mit Pixeln in einem bezeichneten Bereich eines zweiten ternärwertigen Frequenzkomponentenbildes (TRk) des zweiten Bildes (IR) verglichen werden, wenn das erste und zweite ternärwertige Frequenzkomponentenbild (TLk und TRk) in ihren Frequenzkomponenten identisch sind, worin
ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende zwei Pixel beide "p" oder "m" sind, während ein Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden beiden Pixel beide "z" sind, und die Ähnlichkeit zwischen dem ersten und dem zweiten ternärwertigen Frequenzkomponentenbild (TLk und TRk) durch Verwenden der folgenden Gleichung:
Eall = &Sigma;&beta;(PN)k + &Sigma;&gamma;k(ZN)k
ausgewertet wird, worin PN die gesamte Zahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN die Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und &beta;k und &gamma;k Gewichtungsfaktoren repräsentieren, und
ein Abgleichergebnis in der Abgleichoperation nur validiert wird, wenn &Sigma;&beta;k (PN)k größer als eine vorbestimmte positive Schwelle (TH3) ist.
7. Verfahren nach Anspruch 5 oder Anspruch 6, ferner aufweisend die Schritte, bei denen:
ein erster Bereich mit der höchsten Ähnlichkeit und ein zweiter Bereich mit der zweithöchsten Ähnlichkeit gesucht werden;
eine erste Kandidatendisparität als die dem ersten Bereich entsprechende Disparität und eine zweite Kandidatendisparität als die dem zweiten Bereich entsprechende Disparität spezifiziert werden; und
eine gültige Disparität zwischen den Stereobildern auf der Basis der ersten und zweiten Kandidatendisparität bestimmt wird.
8. Verfahren nach Anspruch 7, worin die gültige Disparität durch die Schritte bestimmt wird, bei denen:
ein Histogramm auf der Basis der ersten und zweiten Kandidatendisparität erzeugt wird; und
die gültige Disparität des betreffenden Blocks als eine einer Spitzenposition des Histogramms entsprechende Disparität bestimmt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche, worin das erste Bild (IL) als ein Referenzbild bezeichnet wird, ein eindimensionales Fenster, welches N Pixel darin einschließen kann, auf dem ternärwertigen Frequenzkomponentenbild des ersten Bildes (IL) festgelegt wird und ein Abgleichbereich mit dem gleichen Ternärwertmuster wie die N Pixel im eindimensionalen Fenster aus dem ternärwertigen Frequenzkomponentenbild des zweiten Bildes (IR) gesucht wird.
10. Verfahren nach einem der Ansprüche 1 bis 8, worin eines des ersten und zweiten Bildes (IL und IR) als ein Referenzbild bezeichnet wird, mehrere eindimensionale Fenster auf der gesamten Oberfläche des ternärwertigen Frequenzkomponentenbildes des Referenzbildes durch eine Scanoperation entlang einer epipolaren Linie festgelegt werden, so dass die eindimensionalen Fenster in den gleichen Intervallen N/2 sukzessiv überlappt werden, wenn jedes der eindimensionalen Fenster eine N Pixel äquivalente Größe aufweist, und bezüglich jedes der eindimensionalen Fenster eine Abgleichoperation ausgeführt wird.
11. Verfahren nach Anspruch 8, worin die gültige Disparität als eine Teilpixelpegelparität entsprechend einem Schnittpunkt einer zwei Punkte [di - 1, hi - 1], [di, hi] kreuzenden ersten geraden Linie und einer einen Punkt [di + 1, Hi + 1] kreuzenden zweiten geraden Linie mit einem zur ersten Linie symmetrischen Gradienten berechnet wird, wobei di - 1, di, di + 1 Disparitäten nahe der Spitzenposition des Histogramms repräsentieren und hi - 1, hi, hi + 1 die Zahl eines Auftretens der Disparitäten di - 1, di bzw. di + 1 repräsentieren.
DE69624614T 1995-04-21 1996-04-11 Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung Expired - Fee Related DE69624614T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP09720495A JP3539788B2 (ja) 1995-04-21 1995-04-21 画像間対応付け方法

Publications (2)

Publication Number Publication Date
DE69624614D1 DE69624614D1 (de) 2002-12-12
DE69624614T2 true DE69624614T2 (de) 2003-07-03

Family

ID=14186093

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69624614T Expired - Fee Related DE69624614T2 (de) 1995-04-21 1996-04-11 Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung

Country Status (5)

Country Link
US (2) US5867591A (de)
EP (1) EP0738872B1 (de)
JP (1) JP3539788B2 (de)
CA (1) CA2174590C (de)
DE (1) DE69624614T2 (de)

Families Citing this family (214)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US6396397B1 (en) 1993-02-26 2002-05-28 Donnelly Corporation Vehicle imaging system with stereo imaging
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US7339149B1 (en) * 1993-02-26 2008-03-04 Donnelly Corporation Vehicle headlight control using imaging sensor
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US6111596A (en) * 1995-12-29 2000-08-29 Lucent Technologies Inc. Gain and offset correction for efficient stereoscopic coding and improved display
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US6154566A (en) * 1996-05-15 2000-11-28 Omron Corporation Method and apparatus for determining image similarity and position
DE19625727C2 (de) * 1996-06-27 2000-11-09 Bernd Porr Einrichtung zur Bestimmung der Disparität in einem Stereobildpaar
JP2910698B2 (ja) 1996-10-15 1999-06-23 日本電気株式会社 三次元構造推定方法及び装置
BE1010929A3 (nl) * 1997-02-17 1999-03-02 Krypton Electronic Eng Nv Meetsysteem.
EP0880010B1 (de) * 1997-05-22 2005-02-23 Kabushiki Kaisha TOPCON Messungsgerät
JP3077745B2 (ja) * 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
FR2767404B1 (fr) * 1997-08-12 1999-10-22 Matra Systemes Et Information Procede de production de donnees cartographiques par stereovision
GB9720864D0 (en) * 1997-10-01 1997-12-03 Univ Nottingham Trent Line-scan imaging in 3-d
KR100307883B1 (ko) * 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
US6275253B1 (en) * 1998-07-09 2001-08-14 Canon Kabushiki Kaisha Stereographic image compression with image moment normalization
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
EP1418766A3 (de) * 1998-08-28 2010-03-24 Imax Corporation Méthode et appareil pour le traitement d'images
DE29902457U1 (de) * 1999-02-12 2000-07-20 Bosch Gmbh Robert Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung
US6721446B1 (en) * 1999-04-26 2004-04-13 Adobe Systems Incorporated Identifying intrinsic pixel colors in a region of uncertain pixels
JP3255360B2 (ja) * 1999-09-22 2002-02-12 富士重工業株式会社 距離データの検査方法およびその検査装置
JP3349121B2 (ja) 1999-09-22 2002-11-20 富士重工業株式会社 ステレオカメラの取付構造
US6865289B1 (en) * 2000-02-07 2005-03-08 Canon Kabushiki Kaisha Detection and removal of image occlusion errors
US6671399B1 (en) * 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
JP3760068B2 (ja) * 1999-12-02 2006-03-29 本田技研工業株式会社 画像認識装置
US6396408B2 (en) 2000-03-31 2002-05-28 Donnelly Corporation Digital electrochromic circuit with a vehicle network
US6606406B1 (en) * 2000-05-04 2003-08-12 Microsoft Corporation System and method for progressive stereo matching of digital images
JP2001324305A (ja) * 2000-05-17 2001-11-22 Minolta Co Ltd 画像対応位置検出装置および該装置を備える測距装置
JP4925498B2 (ja) * 2000-07-12 2012-04-25 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
JP4953498B2 (ja) * 2000-07-12 2012-06-13 富士重工業株式会社 フェールセーフ機能を有する車外監視装置
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
US6700934B2 (en) 2001-03-14 2004-03-02 Redrock Semiconductor, Ltd. Error detection using a maximum distance among four block-motion-vectors in a macroblock in a corrupted MPEG-4 bitstream
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US6690294B1 (en) 2001-07-10 2004-02-10 William E. Zierden System and method for detecting and identifying traffic law violators and issuing citations
US7697027B2 (en) 2001-07-31 2010-04-13 Donnelly Corporation Vehicular video system
US6882287B2 (en) 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
KR100424287B1 (ko) * 2001-09-10 2004-03-24 주식회사 제이앤에이치테크놀러지 비평행 광축 실시간 입체 영상 처리 시스템 및 방법
JP3758034B2 (ja) * 2001-10-30 2006-03-22 株式会社デンソー 車両用乗員保護装置
US7190836B2 (en) * 2002-03-18 2007-03-13 Siemens Corporate Research, Inc. Efficient ordering of data for compression and visualization
US7038577B2 (en) 2002-05-03 2006-05-02 Donnelly Corporation Object detection system for vehicle
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
KR20040000144A (ko) * 2002-06-24 2004-01-03 (학)창성학원 스테레오 매칭을 이용한 이미지 추출방법
KR20040002041A (ko) * 2002-06-29 2004-01-07 칩스브레인(주) 창간 유사도 측정방법과, 이를 이용한 스테레오 변위결정장치 및 방법
AU2003264580B2 (en) * 2002-11-29 2006-08-10 Canon Kabushiki Kaisha Range Estimation Using Multi-dimensional Segmentation
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
KR100503820B1 (ko) * 2003-01-30 2005-07-27 학교법인 포항공과대학교 시스톨릭 어레이를 이용한 멀티레이어 실시간 입체 영상정합 시스템 및 방법
DE10310849B4 (de) * 2003-03-11 2009-01-02 Inb Vision Ag Verfahren zur photogrammmetrischen Abstands- und/oder Positionsbestimmung
US20040217940A1 (en) * 2003-04-29 2004-11-04 Chi-Pao Huang Method of Displaying Items in an On Screen Display
US7308341B2 (en) 2003-10-14 2007-12-11 Donnelly Corporation Vehicle communication system
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
JP4069855B2 (ja) * 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
JP2005227897A (ja) * 2004-02-10 2005-08-25 Fuji Photo Film Co Ltd 画像表示方法、画像表示装置及び画像表示プログラム
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US7330584B2 (en) * 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
US7660458B1 (en) * 2004-12-14 2010-02-09 Google Inc. Three-dimensional model construction using unstructured pattern
US7720580B2 (en) 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
JP4282643B2 (ja) * 2005-08-30 2009-06-24 ダイハツ工業株式会社 歪評価装置及び歪評価方法
KR101185870B1 (ko) * 2005-10-12 2012-09-25 삼성전자주식회사 3d 입체 영상 처리 장치 및 방법
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
US8107728B2 (en) * 2006-09-19 2012-01-31 Sharp Kabushiki Kaisha Image processing apparatus, image forming apparatus, image processing system, computer program and recording medium
JP4821548B2 (ja) * 2006-10-02 2011-11-24 コニカミノルタホールディングス株式会社 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
KR101311896B1 (ko) * 2006-11-14 2013-10-14 삼성전자주식회사 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치
JP2008164367A (ja) * 2006-12-27 2008-07-17 Matsushita Electric Ind Co Ltd 固体撮像装置、カメラ、車両及び監視装置
US8013780B2 (en) 2007-01-25 2011-09-06 Magna Electronics Inc. Radar sensing system for vehicle
KR20080076628A (ko) * 2007-02-16 2008-08-20 삼성전자주식회사 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법
KR101345303B1 (ko) 2007-03-29 2013-12-27 삼성전자주식회사 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치
US7914187B2 (en) 2007-07-12 2011-03-29 Magna Electronics Inc. Automatic lighting system with adaptive alignment function
US8017898B2 (en) 2007-08-17 2011-09-13 Magna Electronics Inc. Vehicular imaging system in an automatic headlamp control system
US8451107B2 (en) * 2007-09-11 2013-05-28 Magna Electronics, Inc. Imaging system for vehicle
US8230367B2 (en) 2007-09-14 2012-07-24 Intellectual Ventures Holding 67 Llc Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
US8446470B2 (en) 2007-10-04 2013-05-21 Magna Electronics, Inc. Combined RGB and IR imaging sensor
JP4856611B2 (ja) * 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
TWI362628B (en) * 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
US8494251B2 (en) * 2008-01-11 2013-07-23 Sri International System and method for measuring image quality
CN101680756B (zh) * 2008-02-12 2012-09-05 松下电器产业株式会社 复眼摄像装置、测距装置、视差算出方法以及测距方法
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
JP2009239391A (ja) * 2008-03-26 2009-10-15 Fujifilm Corp 複眼撮影装置およびその制御方法並びにプログラム
US8213706B2 (en) * 2008-04-22 2012-07-03 Honeywell International Inc. Method and system for real-time visual odometry
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
EP2133726B1 (de) 2008-06-10 2011-06-01 Thomson Licensing Mehrbildaufnahmesystem mit verbesserter Tiefenbildauflösung
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US8264526B2 (en) * 2008-06-27 2012-09-11 The University Of Southern Mississippi Method for front matching stereo vision
US20100020170A1 (en) * 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
KR100942925B1 (ko) * 2008-08-11 2010-02-22 한국전자통신연구원 스테레오 비전 시스템 및 그 제어방법
CN101790103B (zh) 2009-01-22 2012-05-30 华为技术有限公司 一种视差计算方法及装置
US9126525B2 (en) 2009-02-27 2015-09-08 Magna Electronics Inc. Alert system for vehicle
US20100266326A1 (en) * 2009-04-21 2010-10-21 Chuang Cheng-Hua Mark-erasable pen cap
US8376595B2 (en) 2009-05-15 2013-02-19 Magna Electronics, Inc. Automatic headlamp control
JP2011030182A (ja) * 2009-06-29 2011-02-10 Sony Corp 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
EP2459416B2 (de) 2009-07-27 2019-12-25 Magna Electronics Inc. Parkhilfesystem
WO2011014497A1 (en) 2009-07-27 2011-02-03 Magna Electronics Inc. Vehicular camera with on-board microcontroller
WO2011028686A1 (en) 2009-09-01 2011-03-10 Magna Mirrors Of America, Inc. Imaging and display system for vehicle
US20110050857A1 (en) * 2009-09-03 2011-03-03 Electronics And Telecommunications Research Institute Apparatus and method for displaying 3d image in 3d image system
US8284235B2 (en) * 2009-09-28 2012-10-09 Sharp Laboratories Of America, Inc. Reduction of viewer discomfort for stereoscopic images
WO2011070674A1 (ja) * 2009-12-11 2011-06-16 株式会社 東芝 立体画像の奥行き頻度解析装置および方法
TWI402479B (zh) * 2009-12-15 2013-07-21 Ind Tech Res Inst 深度感測方法及應用其之系統
US8890955B2 (en) * 2010-02-10 2014-11-18 Magna Mirrors Of America, Inc. Adaptable wireless vehicle vision system based on wireless communication error
WO2011108283A1 (ja) 2010-03-05 2011-09-09 パナソニック株式会社 立体撮像装置および立体撮像方法
JP5491617B2 (ja) 2010-03-05 2014-05-14 パナソニック株式会社 立体撮像装置、および立体撮像方法
JP5432365B2 (ja) 2010-03-05 2014-03-05 パナソニック株式会社 立体撮像装置および立体撮像方法
US8213708B2 (en) * 2010-03-22 2012-07-03 Eastman Kodak Company Adjusting perspective for objects in stereoscopic images
JP5477128B2 (ja) * 2010-04-07 2014-04-23 ソニー株式会社 信号処理装置、信号処理方法、表示装置及びプログラム
EP2583131B1 (de) * 2010-06-15 2019-11-06 Razer (Asia Pacific) Pte. Ltd. Persönliche anzeigevorrichtungen
US8320627B2 (en) 2010-06-17 2012-11-27 Caterpillar Inc. Machine control system utilizing stereo disparity density
US9117123B2 (en) 2010-07-05 2015-08-25 Magna Electronics Inc. Vehicular rear view camera display system with lifecheck function
GB2483434A (en) * 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
WO2012068331A1 (en) 2010-11-19 2012-05-24 Magna Electronics Inc. Lane keeping system and lane centering system
KR20120055102A (ko) * 2010-11-23 2012-05-31 삼성전자주식회사 영상처리장치 및 영상처리방법
US9900522B2 (en) 2010-12-01 2018-02-20 Magna Electronics Inc. System and method of establishing a multi-camera image using pixel remapping
WO2012084277A1 (en) * 2010-12-22 2012-06-28 Thomson Licensing Apparatus and method for determining a disparity estimate
US9264672B2 (en) 2010-12-22 2016-02-16 Magna Mirrors Of America, Inc. Vision display system for vehicle
US9085261B2 (en) 2011-01-26 2015-07-21 Magna Electronics Inc. Rear vision system with trailer angle detection
US8823777B2 (en) * 2011-03-30 2014-09-02 Intel Corporation Real-time depth extraction using stereo correspondence
US9194943B2 (en) 2011-04-12 2015-11-24 Magna Electronics Inc. Step filter for estimating distance in a time-of-flight ranging system
WO2012145818A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Method and system for dynamically calibrating vehicular cameras
US9834153B2 (en) 2011-04-25 2017-12-05 Magna Electronics Inc. Method and system for dynamically calibrating vehicular cameras
WO2012145819A1 (en) 2011-04-25 2012-11-01 Magna International Inc. Image processing method for detecting objects using relative motion
WO2013016409A1 (en) 2011-07-26 2013-01-31 Magna Electronics Inc. Vision system for vehicle
WO2013019707A1 (en) 2011-08-01 2013-02-07 Magna Electronics Inc. Vehicle camera alignment system
EP2569722A1 (de) * 2011-08-02 2013-03-20 Qatar Foundation Kopienerkennung von 3d-videos
GB2493514B (en) * 2011-08-02 2015-04-08 Qatar Foundation Copy detection
WO2013043661A1 (en) 2011-09-21 2013-03-28 Magna Electronics, Inc. Vehicle vision system using image data transmission and power supply via a coaxial cable
WO2013048994A1 (en) 2011-09-26 2013-04-04 Magna Electronics, Inc. Vehicle camera image quality improvement in poor visibility conditions by contrast amplification
US9402065B2 (en) 2011-09-29 2016-07-26 Qualcomm Incorporated Methods and apparatus for conditional display of a stereoscopic image pair
US9146898B2 (en) 2011-10-27 2015-09-29 Magna Electronics Inc. Driver assist system with algorithm switching
KR20130051241A (ko) * 2011-11-09 2013-05-20 삼성전자주식회사 진단영상을 생성하는 방법, 이를 수행하는 장치 및 의료영상시스템
US9491451B2 (en) 2011-11-15 2016-11-08 Magna Electronics Inc. Calibration system and method for vehicular surround vision system
US10071687B2 (en) 2011-11-28 2018-09-11 Magna Electronics Inc. Vision system for vehicle
WO2013086249A2 (en) 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
WO2013126715A2 (en) 2012-02-22 2013-08-29 Magna Electronics, Inc. Vehicle camera system with image manipulation
US10457209B2 (en) 2012-02-22 2019-10-29 Magna Electronics Inc. Vehicle vision system with multi-paned view
US8694224B2 (en) 2012-03-01 2014-04-08 Magna Electronics Inc. Vehicle yaw rate correction
US10609335B2 (en) 2012-03-23 2020-03-31 Magna Electronics Inc. Vehicle vision system with accelerated object confirmation
WO2013158592A2 (en) 2012-04-16 2013-10-24 Magna Electronics, Inc. Vehicle vision system with reduced image color data processing by use of dithering
US10089537B2 (en) 2012-05-18 2018-10-02 Magna Electronics Inc. Vehicle vision system with front and rear camera integration
TWI507032B (zh) * 2012-06-21 2015-11-01 Top Victory Invest Ltd And a display method and a device for preventing the display of the abnormality of the screen display
US8922662B1 (en) * 2012-07-25 2014-12-30 Amazon Technologies, Inc. Dynamic image selection
US9340227B2 (en) 2012-08-14 2016-05-17 Magna Electronics Inc. Vehicle lane keep assist system
DE102013217430A1 (de) 2012-09-04 2014-03-06 Magna Electronics, Inc. Fahrerassistenzsystem für ein Kraftfahrzeug
US9446713B2 (en) 2012-09-26 2016-09-20 Magna Electronics Inc. Trailer angle detection system
US9558409B2 (en) 2012-09-26 2017-01-31 Magna Electronics Inc. Vehicle vision system with trailer angle detection
EP2902960A4 (de) * 2012-09-27 2015-09-23 Panasonic Ip Man Co Ltd Stereobildverarbeitungsvorrichtung und stereobildverarbeitungsverfahren
US9723272B2 (en) 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
US9090234B2 (en) 2012-11-19 2015-07-28 Magna Electronics Inc. Braking control system for vehicle
US9743002B2 (en) 2012-11-19 2017-08-22 Magna Electronics Inc. Vehicle vision system with enhanced display functions
US10025994B2 (en) 2012-12-04 2018-07-17 Magna Electronics Inc. Vehicle vision system utilizing corner detection
US9481301B2 (en) 2012-12-05 2016-11-01 Magna Electronics Inc. Vehicle vision system utilizing camera synchronization
KR20140099098A (ko) * 2013-02-01 2014-08-11 한국전자통신연구원 능동 스테레오 매칭 방법 및 그 장치
US9092986B2 (en) 2013-02-04 2015-07-28 Magna Electronics Inc. Vehicular vision system
US20140218529A1 (en) 2013-02-04 2014-08-07 Magna Electronics Inc. Vehicle data recording system
US10179543B2 (en) 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system
US9688200B2 (en) 2013-03-04 2017-06-27 Magna Electronics Inc. Calibration system and method for multi-camera vision system
US10027930B2 (en) 2013-03-29 2018-07-17 Magna Electronics Inc. Spectral filtering for vehicular driver assistance systems
US9327693B2 (en) 2013-04-10 2016-05-03 Magna Electronics Inc. Rear collision avoidance system for vehicle
US10232797B2 (en) 2013-04-29 2019-03-19 Magna Electronics Inc. Rear vision system for vehicle with dual purpose signal lines
US9508014B2 (en) 2013-05-06 2016-11-29 Magna Electronics Inc. Vehicular multi-camera vision system
US9563951B2 (en) 2013-05-21 2017-02-07 Magna Electronics Inc. Vehicle vision system with targetless camera calibration
US9205776B2 (en) 2013-05-21 2015-12-08 Magna Electronics Inc. Vehicle vision system using kinematic model of vehicle motion
US10567705B2 (en) 2013-06-10 2020-02-18 Magna Electronics Inc. Coaxial cable with bidirectional data transmission
US9260095B2 (en) 2013-06-19 2016-02-16 Magna Electronics Inc. Vehicle vision system with collision mitigation
US20140375476A1 (en) 2013-06-24 2014-12-25 Magna Electronics Inc. Vehicle alert system
US10755110B2 (en) 2013-06-28 2020-08-25 Magna Electronics Inc. Trailering assist system for vehicle
US10326969B2 (en) 2013-08-12 2019-06-18 Magna Electronics Inc. Vehicle vision system with reduction of temporal noise in images
US9619716B2 (en) 2013-08-12 2017-04-11 Magna Electronics Inc. Vehicle vision system with image classification
CN104574342B (zh) * 2013-10-14 2017-06-23 株式会社理光 视差深度图像的噪声识别方法和噪声识别装置
KR102130123B1 (ko) * 2013-10-31 2020-07-03 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 제어 방법
US9499139B2 (en) 2013-12-05 2016-11-22 Magna Electronics Inc. Vehicle monitoring system
US9988047B2 (en) 2013-12-12 2018-06-05 Magna Electronics Inc. Vehicle control system with traffic driving control
US10160382B2 (en) 2014-02-04 2018-12-25 Magna Electronics Inc. Trailer backup assist system
EP3102908B1 (de) * 2014-02-05 2018-12-12 Creaform Inc. Strukturierte lichtanpassung eines satzes von kurven aus zwei kameras
US10643343B2 (en) * 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
CN103852442B (zh) * 2014-03-14 2016-06-01 华中科技大学 一种红外光谱特征提取及样本鉴定的方法
US9623878B2 (en) 2014-04-02 2017-04-18 Magna Electronics Inc. Personalized driver assistance system for vehicle
US9487235B2 (en) 2014-04-10 2016-11-08 Magna Electronics Inc. Vehicle control system with adaptive wheel angle correction
US10328932B2 (en) 2014-06-02 2019-06-25 Magna Electronics Inc. Parking assist system with annotated map generation
CN104200561B (zh) * 2014-06-16 2017-06-20 华中科技大学 一种基于纹理特征识别具有字迹污损人民币的方法
US9925980B2 (en) 2014-09-17 2018-03-27 Magna Electronics Inc. Vehicle collision avoidance system with enhanced pedestrian avoidance
WO2016092532A1 (en) * 2014-12-09 2016-06-16 Inuitive Ltd. A method for determining depth for stereoscopic reconstruction of three dimensional images
US9916660B2 (en) 2015-01-16 2018-03-13 Magna Electronics Inc. Vehicle vision system with calibration algorithm
KR102298652B1 (ko) 2015-01-27 2021-09-06 삼성전자주식회사 시차 결정 방법 및 장치
US9794543B2 (en) * 2015-03-02 2017-10-17 Ricoh Company, Ltd. Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method
EP3274986A4 (de) 2015-03-21 2019-04-17 Mine One GmbH Virtuelle 3d-verfahren, -systeme und -software
US10853625B2 (en) * 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
US10286855B2 (en) 2015-03-23 2019-05-14 Magna Electronics Inc. Vehicle vision system with video compression
US10946799B2 (en) 2015-04-21 2021-03-16 Magna Electronics Inc. Vehicle vision system with overlay calibration
US10819943B2 (en) 2015-05-07 2020-10-27 Magna Electronics Inc. Vehicle vision system with incident recording function
JP6512938B2 (ja) * 2015-05-25 2019-05-15 キヤノン株式会社 撮像装置及び画像処理方法
US10214206B2 (en) 2015-07-13 2019-02-26 Magna Electronics Inc. Parking assist system for vehicle
US10078789B2 (en) 2015-07-17 2018-09-18 Magna Electronics Inc. Vehicle parking assist system with vision-based parking space detection
US10086870B2 (en) 2015-08-18 2018-10-02 Magna Electronics Inc. Trailer parking assist system for vehicle
US10875403B2 (en) 2015-10-27 2020-12-29 Magna Electronics Inc. Vehicle vision system with enhanced night vision
US10144419B2 (en) 2015-11-23 2018-12-04 Magna Electronics Inc. Vehicle dynamic control system for emergency handling
US11285878B2 (en) 2015-12-17 2022-03-29 Magna Electronics Inc. Vehicle vision system with camera line power filter
US11277558B2 (en) 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
US11433809B2 (en) 2016-02-02 2022-09-06 Magna Electronics Inc. Vehicle vision system with smart camera video output
US10160437B2 (en) 2016-02-29 2018-12-25 Magna Electronics Inc. Vehicle control system with reverse assist
US20170253237A1 (en) 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
US10132971B2 (en) 2016-03-04 2018-11-20 Magna Electronics Inc. Vehicle camera with multiple spectral filters
US10055651B2 (en) 2016-03-08 2018-08-21 Magna Electronics Inc. Vehicle vision system with enhanced lane tracking
JP6722084B2 (ja) * 2016-10-06 2020-07-15 株式会社Soken 物体検出装置
WO2019041035A1 (en) 2017-08-30 2019-03-07 Innovations Mindtrick Inc. STEREOSCOPIC IMAGE DISPLAY DEVICE ADJUSTED BY THE SPECTATOR
US10529085B2 (en) * 2018-03-30 2020-01-07 Samsung Electronics Co., Ltd. Hardware disparity evaluation for stereo matching
US11968639B2 (en) 2020-11-11 2024-04-23 Magna Electronics Inc. Vehicular control system with synchronized communication between control units

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217472A (ja) * 1984-04-13 1985-10-31 Hitachi Ltd 画像処理におけるエツジ抽出方法
US4745562A (en) * 1985-08-16 1988-05-17 Schlumberger, Limited Signal processing disparity resolution
JPH02100589A (ja) * 1988-10-07 1990-04-12 Nippon Telegr & Teleph Corp <Ntt> 両眼視差検出方法
EP0373614A3 (de) * 1988-12-16 1992-08-12 Schlumberger Technologies Inc Verfahren zur direkten Volumenmessung von dreidimensionalen Objekten in Stereobildern
US5577130A (en) * 1991-08-05 1996-11-19 Philips Electronics North America Method and apparatus for determining the distance between an image and an object
US5309522A (en) * 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
US5383013A (en) * 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
JPH06195445A (ja) * 1992-12-24 1994-07-15 Canon Inc 複数画像の対応点抽出方法
US5684890A (en) * 1994-02-28 1997-11-04 Nec Corporation Three-dimensional reference image segmenting method and apparatus
US5530774A (en) * 1994-03-25 1996-06-25 Eastman Kodak Company Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields
JP3242529B2 (ja) * 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
US5606627A (en) * 1995-01-24 1997-02-25 Eotek Inc. Automated analytic stereo comparator
US5612735A (en) * 1995-05-26 1997-03-18 Luncent Technologies Inc. Digital 3D/stereoscopic video compression technique utilizing two disparity estimates
US5652616A (en) * 1996-08-06 1997-07-29 General Instrument Corporation Of Delaware Optimal disparity estimation for stereoscopic video coding

Also Published As

Publication number Publication date
US6125198A (en) 2000-09-26
EP0738872A2 (de) 1996-10-23
EP0738872B1 (de) 2002-11-06
JP3539788B2 (ja) 2004-07-07
JPH08294143A (ja) 1996-11-05
US5867591A (en) 1999-02-02
DE69624614D1 (de) 2002-12-12
CA2174590C (en) 2000-02-08
EP0738872A3 (de) 1999-07-14
CA2174590A1 (en) 1996-10-22

Similar Documents

Publication Publication Date Title
DE69624614T2 (de) Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung
DE69625423T2 (de) Vorrichtung zur Erkennung eines Objektes, in welchem die Position eines ebenen Objektes mit Hilfe einer Houghtransformation geschätzt wird
DE69624980T2 (de) Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras
DE60308782T2 (de) Vorrichtung und Methode zur Hinderniserkennung
DE69027616T2 (de) Gerät und Verfahren zum Bestimmen von Konturen und Linien
DE19636028C1 (de) Verfahren zur Stereobild-Objektdetektion
DE69512709T2 (de) Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung
EP1494044B1 (de) Verfahren zur Hinderniserkennung und Geländeklassifikation
DE69836522T2 (de) Lagenerkennungssystem eines selbstbewegenden Kraftwagens
EP1997070B1 (de) Raum-zeitliches verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE4444593C2 (de) Entfernungsmeßvorrichtung
DE102009051826A1 (de) Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102004018813A1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE102018108027A1 (de) Objekterfassungsvorrichtung
DE102011111440A1 (de) Verfahren zur Umgebungsrepräsentation
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
DE102012000459A1 (de) Verfahren zur Objektdetektion
EP3931798B1 (de) Schätzung der bewegung einer bildposition
EP1098268A2 (de) Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen
DE102019220364A1 (de) Kalibriereinrichtung und Verfahren zum Kalibrieren einer Vorrichtung
DE102020101444A1 (de) Ein Verfahren zum Detektieren sich bewegender Objekte

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: PANASONIC CORP., KADOMA, OSAKA, JP

8339 Ceased/non-payment of the annual fee