DE69624614T2 - Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung - Google Patents
Verfahren zur Stereoübereinstimmungs- und UngleichheitsmessungInfo
- Publication number
- DE69624614T2 DE69624614T2 DE69624614T DE69624614T DE69624614T2 DE 69624614 T2 DE69624614 T2 DE 69624614T2 DE 69624614 T DE69624614 T DE 69624614T DE 69624614 T DE69624614 T DE 69624614T DE 69624614 T2 DE69624614 T2 DE 69624614T2
- Authority
- DE
- Germany
- Prior art keywords
- frequency component
- image
- ternary
- images
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000691 measurement method Methods 0.000 title description 2
- 238000012545 processing Methods 0.000 claims description 75
- 238000000034 method Methods 0.000 claims description 67
- 238000011156 evaluation Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 description 33
- 238000005259 measurement Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 13
- 238000004364 calculation method Methods 0.000 description 10
- 238000007796 conventional method Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 238000003705 background correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 241000692885 Nymphalis antiopa Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
- G01C11/04—Interpretation of pictures
- G01C11/06—Interpretation of pictures by comparison of two or more pictures of the same area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/77—Determining position or orientation of objects or cameras using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/12—Acquisition of 3D measurements of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
- Diese Erfindung bezieht sich allgemein auf ein Verfahren zum Abgleichen von Stereobildern und ein Verfahren zum Feststellen einer Disparität zwischen diesen Bildern, welches hauptsächlich auf dem industriellen Feld von Stereokameras zum Feststellen einer Positionsinformation im Bildaufnahmeraum basierend auf Stereobildern, einer Volumenkompression aller Stereobilder (d. h. dreidimensionalen Videobilder), Anzeigesteuerung dieser Stereobilder und für die Extraktion des optischen Flusses von Bewegtbildern und so weiter verwendet wird.
- Allgemein bekannte herkömmliche Verfahren zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen diesen Bildern werden im folgenden mit Verweis auf eine sogenannten Stereobildmeßtechnologie erläutert, bei der die Positions- oder Distanzinformation im Bildaufnahmeraum erhalten werden kann, indem der Abgleich zwischen zwei Bildern (Stereobildern) durchgeführt und eine Disparität zwischen diesen Bildern festgestellt wird.
- Die europäische Patentanmeldung Nr. EP 0686942 offenbart ein Verfahren zum Stereoabgleichen und Bestimmen der Disparität von Stereobildern mit einem möglichst geringen Umfang an Berechnungen und ein Verfahren zum Messen der Disparität, das einen Abgleichfehler absorbieren kann, der auftreten kann, worin zwei rechte und linke Bilder durch zwei Abbildungsvorrichtungen in der Abbildungsphase erhalten werden.
- Fig. 1 ist eine Ansicht, die das Prinzip einer typischen Stereobildmessung veranschaulicht. In Fig. 1 repräsentiert eine dreidimensionale Koordinate, die allgemein durch Variablen x, y und z definiert ist, den realen Raum. Eine zweidimensionale Koordinate, die allgemein durch Variablen X und Y definiert ist, repräsentiert die Bildebene (d. h. eine Bildaufnahmeebene einer Kamera). Vorgesehen ist ein Paar zweidimensionaler Koordinaten für ein Paar Kameras 23R und 23L. Eine Position auf der Bildebene der rechten Kamera 23R kann durch Variablen XR und YR auf einer zweidimensionalen Koordinate ausgedrückt werden. Eine Position auf der Bildebene der linken Kamera 23L kann durch Variablen XL und YL auf der anderen zweidimensionalen Koordinate ausgedrückt werden.
- Achsen XL und XR sind zur Achse x parallel, während Achsen YL und YR zur Achse y parallel sind. Eine Achse z ist parallel zu den optischen Achsen der beiden Kameras 23R und 23L. Der Ursprung der Koordinate (x, y, z) im realen Raum fällt mit einem Mittelpunkt zwischen den Projektionszentren der rechten und linken Kamera 23R und 23L zusammen. Auf die Distanz zwischen den Projektionszentren wird im allgemeinen als eine durch 2a bezeichnete Basislänge verwiesen. Eine durch f bezeichnete Distanz ist eine Fokaldistanz zwischen jedem Projektionszentrum und dessen Bildebene.
- Nun wird angenommen, dass ein Punkt p im realen Raum bei einem PR(XR, YR) auf der rechten Bildebene und zur gleichen Zeit einen Punkt PL (XL, YL) auf der linken Bildebene projiziert wird. Gemäß der Stereobildmessung werden PR und PL auf jeweiligen Bildebenen (durch Durchführen des Abgleichs von Stereobildern) bestimmt, und die Koordinate (x, y, z) im realen Raum, die den Punkt p repräsentiert, wird auf der Basis des Prinzips der trigonometrischen Vermessung erhalten.
- YR und YL haben in diesem Fall identische Werte, weil zwei optische Achsen der Kameras 23R und 23L auf der gleichen Ebene vorhanden sind und die X-Achsen der Kameras 23R und 23L zur Achse x parallel sind. Die Beziehung zwischen den Koordinatenwerten XR, YR, XR, YR und den Koordinatenwerten x, y, z im realen Raum wird durch die folgende Gleichung ausgedrückt.
- oder
- wo d die Disparität (zwischen Stereobildern) repräsentiert.
- d = XL-XR (Gl. 3)
- Da "a" ein positiver Wert ist (a > 0), wird aus der obigen Gleichung 2 die folgende Beziehung abgeleitet
- XL > XR und YL = YR (Gl. 4)
- Aus der oben angegebenen Beziehung versteht man, dass ein spezifischer Punkt auf einer Bildebene einen Abgleichpunkt auf der anderen Bildebene entlang der gleichen Scanlinie hat, die als epipolare Linie innerhalb des durch XL > XR definierten Bereichs dient. Dementsprechend kann der Abgleichpunkt entsprechend einem spezifischen Punkt einer Bildebene auf der anderen Bildebene gefunden werden, indem die Ähnlichkeit von Bildern in jeder Mikrofläche entlang der Linie mit der Möglichkeit, den Abgleichpunkt festzustellen, geprüft wird.
- Einige Verfahren zur Auswertung der Ähnlichkeit werden im folgenden erläutert. Fig. 2 zeigt ein herkömmliches Verfahren zum Feststellen eines Wertes der gegenseitigen Korrelation zwischen zwei Bildern, das beispielsweise in "Image Processing Handbook" (Shokodo Publishing Co. Ltd) von Morio ONOUE et al. offenbart ist.
- Zunächst wird einem Pixel 2403, das irgendwo auf dem linken Bild 2401 vorhanden ist, eine Bezeichnung gegeben. Als nächstes wird ein zu diesem Pixel 2403 passendes Pixel entlang der Ebene des rechten Bildes 2402 gefunden. Mit anderen Worten wird der Abgleichpunkt bestimmt. Konkreter wird eine quadratische Mikrofläche 2404 (auf die im folgenden als Mikrofläche verwiesen wird) auf dem linken Bild 2401 so festgelegt, dass sie eine Größe hat, die n x m Pixeln entspricht, die ausreichen, um das bezeichnete Pixel 2403 bei ihrer Mitte einzubeziehen. Nun wird angenommen, dass IL(i, j) die Helligkeit jedes Punktes (Pixel) innerhalb der Mikrofläche 2404 repräsentiert.
- Auf der anderen Seite wird eine quadratische Mikrofläche 2405 auf dem rechten Bild 2402 als eine Mikrofläche bezeichnet, deren Mitte auf einem die Bedingung von Gleichung 4 erfüllenden Pixel liegt. Die Mikrofläche 2405 hat eine n · m Pixel entsprechende Größe. Es wird angenommen, dass IR(i, j) die Helligkeit jedes Punktes (Pixel) innerhalb der Mikrofläche 2405 repräsentiert.
- Überdies wird angenommen, dass uL, uR, σR2 und σR2 Durchschnitte und Varianzen der Helligkeit in den Mikroflächen 2404 und 2405 repräsentieren. Der Wert einer gegenseitigen Korrelation dieser Mikroflächen kann durch die folgende Gleichung gegeben sein.
- Der Wert "c", der durch die Gleichung 5 definiert ist, wird entlang der geraden Linie (epipolaren Linie) mit der Möglichkeit, einen passenden bzw. Abgleichpunkt festzustellen, berechnet. Der Punkt, an dem der Wert "c" maximiert ist, wird dann als der festzustellende passende bzw. Abgleichpunkt identifiziert. Gemäß diesem Verfahren wird es möglich, den Abgleichpunkt mit der einem Pixel identischen Größe zu bestimmen. Falls der Abgleichpunkt einmal gefunden ist, kann die Disparität "d" unter Verwendung der Gleichung 3 basierend auf den Koordinatenwerten sofort erhalten werden, die einen so gefundenen Abgleichpunkt repräsentieren.
- Dieses herkömmliche Verfahren ist jedoch insofern nachteilig, als ein großer Umfang an Berechnungen erforderlich sein wird, um alle Abgleichpunkte erforderlicher Pixel vollständig zu erhalten, da sogar eine Einzelsuche zum Finden nur eines Abgleichpunktes eine bestimmten Pixel erfordert, dass die oben beschriebenen komplizierten Berechnungen bezüglich des gesamten Bereichs mit der Möglichkeit, den Abgleichpunkt festzustellen, wiederholt durchgeführt werden.
- Die Berechnungen, um die Korrelation zu erhalten, können durch Reduzieren der Größe der Mikrofläche beschleunigt werden, obgleich die Stabilität in der Feststellung des Abgleichpunktes aufgrund einer Erhöhung einer Bildverzerrung und von Rauschen verschlechtert werden wird. Im Gegensatz dazu erhöht ein Vergrößern der Größe der Mikrofläche nicht nur die Berechnungszeit, sondern verschlechtert die Genauigkeit in der Feststellung eines Abgleichpunktes wegen der Änderung von Korrelationswerten, die in unerwünschter Weise moderiert werden. Somit ist es erforderlich, die Größe der Mikrofläche angemessen festzulegen, indem die Eigenschaften des zu bearbeitenden Bildes berücksichtigt werden.
- Wie aus Gleichung 3 ersichtlich ist, liegen ferner die Charakteristiken des oben beschriebenen herkömmlichen Verfahrens darin, dass die Bestimmung der Disparität direkt das Ergebnis eines Stereobild-Abgleichs widerspiegelt. Ein etwaiger fehlerhafter Abgleich wird daher einen Fehler in der Messung der Disparität "d" bewirken. Kurz gesagt führt ein Fehler im Abgleich von Stereobildern zu einem Fehler in der Disparitätsmessung.
- Auf diese Weise ist das Verfahren zum Bestimmen eines Abgleichpunktes bezüglich jedes Pixel insofern nachteilig, als der Berechnungsumfang riesig wird. Um dieses Problem zu lösen, ist eine der vorgeschlagenen Technologien ein Verfahren zum Teilen oder Zerlegen des Bildes in mehrere Blöcke, die jeweils eine vorbestimmte Größe haben, und Bestimmen des Abgleichsbereichs basierend auf den zerlegten Blöcken. Beispielsweise offenbart "Driving Aid System based on Three-Dimensional Image Recognition Technology" von Jitsuyoshi et al., in the Pre-publishing 924, Seiten 169-172 des Automotive Vehicle Technical Institute Scientific Lecture Meeting, im Oktober 1992, solch ein Verfahren zum Suchen des Abgleichsbereichs basierend auf dem Vergleich zwischen den Blöcken rechter und linker Bilder.
- Fig. 3 ist eine Ansicht, die das herkömmliche Verfahren zum Durchführen des Abgleichs von Stereobildern zwischen quadratischen Mikroflächen (Blöcken) veranschaulicht. Das linke Bild 2501, das als ein Referenzbild dient, wird in mehrere Blöcke so zerlegt, dass jeder Block (2503) eine n · m Pixel äquivalente Größe hat. Um die Disparität zu erhalten, wird jeder Abgleichbereich bezüglich jedes Blocks auf dem linken Bild 2501 entlang der Ebene des rechten Bildes abgesucht. Folgende Gleichung ist eine Ähnlichkeitsauswertung, die zum Bestimmen des Abgleichbereichs verwendet wird.
- C = Σ Li - Ri (Gl. 6)
- worin Li eine Luminanz des i-ten Pixels im linken Block 2503 repräsentiert, während Ri eine Luminanz des i-ten Pixels im rechten Block 2504 repräsentiert.
- Diese Auswertung ist nicht so kompliziert, wenn sie mit der Berechnung von Gleichung 5 verglichen wird, welche die Berechnungen zum Subtrahieren der Durchschnittswerte einschließt. Der Umfang der Hardware ist wegen für die Auswertung einer zweidimensionalen Ähnlichkeit verwendeter Zeilenspeicher jedoch noch groß. Überdies wird die erforderliche Gesamtverarbeitungszeit aufgrund zu vieler Zugriffe auf die Speicher ziemlich lang sein.
- Eine Verwendung des Luminanzwertes für die Ähnlichkeitsauswertung wird außerdem die Hardwarekosten erhöhen, weil die Vorverarbeitung zusätzlich erforderlich ist, um die Empfindlichkeitsdifferenz zwischen rechter und linker Kamera einzustellen und die Schattierungskorrektur vor Ausführen einer Verarbeitung zum Abgleichen von Stereobildern durchzuführen.
- Eine im Bildaufnahmeraum existierende gerade Linie kann als in ihren Gradienten verschiedene gerade Linien 2603 und 2604 in Blöcken 2605 und 2606 des rechten und linken Bildes 2601 und 2602 abgebildet werden, wie in Fig. 4 gezeigt ist. In einem solchen Fall kann eine genaue Bestimmung der Abgleichbereiche scheitern.
- Im Gegensatz dazu können zwei verschiedene Linien als identische Linien in Blöcken 2703 und 2704 auf dem linken und rechten Bild 2701 und 2702 wie in Fig. 5 gezeigt abgebildet werden. Daher wird ein Vergleichen der Pixel zwischen nur zwei Blöcken 2703 und 2704 ein Problem hervorrufen, dass der Abgleich von Stereobildern fehlerhaft durchgeführt werden kann und die nachfolgende Messung einer Disparität scheitern wird.
- Gemäß den oben beschriebenen Disparitätsmessverfahren ist die Einheit zum Messen jeder Disparität mindestens ein Pixel wegen Bilddaten digitaler Daten, die mit einer bestimmten Frequenz abgetastet werden. Es ist jedoch möglich, die Messung einer Disparität genauer durchzuführen.
- Fig. 6 ist eine Ansicht, die ein herkömmliches Disparitätsmessverfahren veranschaulicht, das im Stande ist, eine Disparität in einer Genauigkeit auf der Ebene von Subpixel festzustellen. Fig. 6 zeigt eine Spitzenposition, die im Ähnlichkeitsauswertungswert C (Ordinate) gefunden wurde, wenn die Gleichung 6 entlang dem Suchbereich in jedem Block berechnet wird.
- Die Messung der Disparität auf der Ebene von Subpixel wird durchgeführt, indem Ähnlichkeitsauswertungen Ci, Ci - 1, Ci + 1 entsprechend bestimmten Disparitäten di, di - 1, di + 1 (im Inkrement eines Pixel) verwendet werden, die vor und nach der Spitzenposition existieren. Konkreter wird eine erste gerade Linie 2801 als eine Linie erhalten, die beide Punkte (d1 - 1, Ci - 1) und (di, Ci) kreuzt. Eine zweite gerade Linie 2802 wird als eine Linie erhalten, die einen Punkt (di + 1, Ci + 1)kreuzt und einen zur Linie 2801 symmetrischen Gradienten aufweist (d. h. im Absolutwert identisch ist, aber mit entgegengesetztem Vorzeichen). Ein Punkt 2803 wird dann als ein Schnittpunkt von zwei geraden Linien 2801 und 2802 erhalten. Eine einem so erhaltenen Schnittpunkt 2803 entsprechende Disparität ds wird schließlich als eine Disparität auf der Ebene von Subpixel im betreffenden Block erhalten.
- Wie aus der vorhergehenden Beschreibung ersichtlich ist, leiden die oben beschriebenen herkömmlichen Stereobild-Abgleichsverfahren und Verfahren zum Feststellen von Disparitäten allgemein an einer Erhöhung der Hardwarekosten und Verlängerung der Verarbeitungszeit aufgrund von arithmetischen Berechnungen mit vier Regeln (engl. four rules' artithmeic calculations) der Gleichungen 5 und 6, die für die Ähnlichkeitsauswertung im Stereobild-Abgleich erforderlich sind.
- Eine Durchführung der Ähnlichkeitsauswertung basierend auf zweidimensionalen Feldern verlangt überdies notwendigerweise das Vorsehen von Zeilenspeichern als Hardware, was möglicherweise häufige Zugriffe auf die Speicher erfordert, was eine weitere Erhöhung der Hardwarekosten und Verlängerung der Verarbeitungszeit zur Folge hat.
- Ferner erhöht eine Ausnutzung des Vergleichs einer Luminanzdifferenz zwischen rechtem und linkem Bild sicher noch die Hardwarekosten wegen der Addition von Vorverarbeitungskomponenten, die bei der Einstellung der Empfindlichkeit und Schattierungskorrektur zwischen rechter und linker Kamera verwendet werden, die vor Ausführen des Stereobild- Abgleichs durchgeführt werden.
- Eine Verwendung eines einzigen Blocks als die Einheit zum Bestimmen der Disparität, der eine identische Größe wie ein zweidimensionales Fenster hat, das als die Einheit für den Abgleich dient, wird ferner noch ein Problem hervorrufen, dass ein in der Abgleichphase basierend auf dem zweidimensionalen Fenster auftretender etwaiger Fehler direkt einen nachteiligen Effekt auf die Feststellung einer Disparität des entsprechenden Blocks zur Folge haben wird. Kurz gesagt gibt es kein Mittel, um den Fehler, der in der Abgleichphase auftritt, zu absorbieren oder zu korrigieren.
- Eine Bestimmung jedes Abgleichbereichs unter Verwendung nur der Pixel, die in einem Block vorhanden sind (= zweidimensionales Fenster), wird überdies wahrscheinlich das Scheitern bei der Feststellung eines wahren Abgleichbereichs zur Folge haben.
- Dementsprechend ist im Hinblick auf die oben beschriebenen Probleme, auf die man im Stand der Technik trifft, eine Hauptaufgabe der vorliegenden Erfindung, ein Verfahren zum Abgleichen von Stereobildern und zum Feststellen einer Disparität zwischen diesen Bildern mit einem geringen Umfang an Berechnungen, kompaktem Hardwareaufbau, schneller Verarbeitung, hoher Zuverlässigkeit und ausgezeichneter Genauigkeit zu schaffen.
- Um diese und andere verwandte Aufgaben zu lösen, sieht ein erster Gesichtspunkt der vorliegenden Erfindung ein neuartiges und ausgezeichnetes Verfahren zum Abgleichen von Stereobildern vor, das die Schritte aufweist, bei denen: ein erstes und zweites Bild (IL und IR) eingegeben werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ----, FLk, FLk + 1, ----, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FRk + 1, FRn entwickelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Frequenzkomponentenbild nach Anwenden der sekundären differentiellen Verarbeitung Pixel für Pixel in ternäre Werte umgewandelt wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild auf der Basis der ternärwertigen Frequenzkomponentenbilder durchgeführt wird.
- Ein zweiter Gesichtspunkt der vorliegenden Erfindung sieht ein Verfahren zum Abgleichen von Stereobildern vor, das die Schritte aufweist, bei denen: ein erstes und zweites Bild IL und IR eingegeben werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ---, FLk, FLk + 1, ---, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FR + 1, ---, FRn entwickelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Frequenzkomponentenbild, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel in ternäre Werte umgewandelt wird, indem eine positive Schwelle TH1 (> 0) und eine negative Schwelle TH2(< 0) auf solche Weise verwendet werden, dass ein Pixel, das größer als TH1 ist, als "p" bezeichnet wird, ein Pixel in einem Bereich zwischen TH1 und TH2 als "z" bezeichnet wird, und ein kleineres Pixel als TH2 als "m" bezeichnet wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild auf der Basis der ternärwertigen Frequenzkomponentenbilder durchgeführt wird.
- Ein dritter Gesichtspunkt der vorliegenden Erfindung liefert ein Verfahren zum Abgleichen von Stereobildern, das die Schritte aufweist, bei denen: ein erstes und zweites Bild IL und IR eingegebenen werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ---, FLk, FLk + 1, ---, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FRk + 1, ---, FRn entwickelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Frequenzkomponentenbild, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel auf solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, ein auf einen Nulldurchgangspunkt bezogenes und einen positiven Gradienten aufweisendes Pixel als "p" bezeichnet wird, und ein einen Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes Pixel als "m" bezeichnet wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3, ,---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild basierend auf den ternärwertigen Frequenzkomponentenbildern durchgeführt wird.
- Ein vierter Gesichtspunkt der vorliegenden Erfindung liefert ein Verfahren zum Abgleichen von Stereobildern, das die Schritte aufweist, bei denen: ein erstes und zweites Bild IL und IR eingegebenen werden; die Bilder IL und IR in mehrere Frequenzkomponentenbilder FL1, FL2, FL3, ---, FLk, FLk + 1, ---, FLn bzw. mehrere Frequenzkomponentenbilder FR1, FR2, FR3, ---, FRk, FRk + 1, ---, FRn umgewandelt werden; eine sekundäre differentielle Verarbeitung auf jedes der Frequenzkomponentenbilder angewendet wird; jedes Niederfrequenzkomponentenbild der Frequenzkomponentenbilder, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel in ternäre Werte umgewandelt wird, indem eine positive Schwelle TH1 (> 0) und eine negative Schwelle TH2 (< 0) auf solche Weise verwendet werden, dass ein größeres Pixel als TH1 als "p" bezeichnet wird, ein Pixel in einem Bereich zwischen TH1 und TH2 als "z" bezeichnet wird und ein kleineres Pixel als TH2 als "m" bezeichnet wird, und jedes Hochfrequenzkomponentenbild der Frequenzkomponentenbilder, nachdem die sekundäre differentielle Verarbeitung angewendet ist, Pixel für Pixel auf solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, ein auf einen Nulldurchgangspunkt bezogenes und einen positiven Gradienten aufweisendes Pixel als "p" bezeichnet wird und ein auf einen Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes Pixel als "m" bezeichnet wird, wodurch ternärwertige Frequenzkomponentenbilder TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn und ternärwertige Frequenzkomponentenbilder TR1, TR2, TR3,,---, TRk, TRk + 1, ---, TRn erhalten werden; und eine Abgleichoperation zwischen dem ersten und zweiten Bild basierend auf den ternärwertigen Frequenzkomponentenbildern durchgeführt wird.
- Gemäß den Merkmalen bevorzugter Ausführungsformen der vorliegenden Erfindung wird das erste Bild IL als ein Referenzbild für die Abgleichoperation bezeichnet, wird ein eindimensionales Fenster, das N Pixel darin umschließen kann, auf dem ternärwertigen Frequenzkomponentenbild des ersten Bildes IL festgelegt und wird ein Abgleichbereich mit dem gleichen Ternärwertmuster wie die N Pixel in dem eindimensionalen Fenster aus dem ternärwertigen Frequenzkomponentenbild des zweiten Bildes IR gesucht.
- Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung wird eines der ersten und zweiten Bilder IL und IR als Referenzbild für die Abgleichoperation bezeichnet, werden mehrere eindimensionale Fenster auf der gesamten Oberfläche des ternärwertigen Frequenzkomponentenbildes des Referenzbildes durch eine Scanoperation entlang einer epipolaren Linie festgelegt, so dass die eindimensionalen Fenster in den gleichen Intervallen N/2 sukzessiv überlappt sind, wenn jedes der eindimensionalen Fenster eine N Pixel äquivalente Größe hat, und die Abgleichoperation wird bezüglich jedes der eindimensionalen Fenster ausgeführt.
- Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung werden Pixel in einem eindimensionalen Fenster eines ternärwertigen Frequenzkomponentenbildes TLk des ersten Bildes IL 1 : 1 mit Pixel in einem bezeichneten Bereich eines ternärwertigen Frequenzkomponentenbildes TRk des zweiten Bildes IR verglichen, wenn die ternärwertigen Frequenzkomponentenbilder TLk und TRk in ihren Frequenzkomponenten identisch sind, wobei ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende zwei Pixel beide "p" oder "m" sind, während ein Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden zwei Pixel beide "z" sind, und eine Ähnlichkeit zwischen zwei ternärwertigen Frequenzkomponentenbilder TRk und TLk wird durch Verwenden der folgenden Gleichung ausgewertet.
- Eall = Σβk(PN)k + Σγk(ZN)k
- worin n PN die gesamte Zahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN die Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und βk und γk Gewichtungsfaktoren repräsentieren.
- Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung werden Pixel in einem eindimensionalen Fenster eines ternärwertigen Frequenzkomponentenbildes TLk des ersten Bildes IL 1 : 1 mit Pixel in einem bezeichneten Bereich eines ternärwertigen Frequenzkomponentenbildes TRk des zweiten Bildes IR verglichen, wenn die ternärwertigen Frequenzkomponentenbilder TLk und TRk in ihren Frequenzkomponenten identisch sind, worin ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende zwei Pixel beide "p" oder "m" sind, während ein Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden zwei Pixel beide "z" sind, und eine Ähnlichkeit zwischen zwei ternärwertigen Frequenzkomponentenbildern TLk und TRk wird durch Verwenden der folgenden Gleichung ausgewertet:
- Eall = Σβk(PN)k + Σγk(ZN)k
- worin PN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und βk und γk Gewichtungsfaktoren repräsentieren, und ein Abgleichergebnis in der Abgleichoperation wird nur validiert, wenn Σβk(PN)k größer als eine vorbestimmte Schwelle TH3(> 0) ist.
- Ein fünfter Gesichtspunkt der vorliegenden Erfindung schafft ferner ein neuartiges und ausgezeichnetes Verfahren zum Feststellen einer Disparität zwischen Stereobildern mit den Schritten, bei denen: Pixel in einem Mikrobereich, der durch ein auf einem Referenzbild festgelegtes eindimensionales Fenster definiert ist, mit Pixel in einem bezeichneten Mikrobereich auf einem Nicht-Referenzbild verglichen werden; und eine Ähnlichkeit zwischen zwei Mikrobereichen wird unter Verwendung der folgenden Gleichung ausgewertet:
- Eall = Σβk(PN)k + Σγk(ZN)k
- worin PN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, während ZN eine Gesamtzahl Pixel mit einem Auswertungsergebnis "Z" repräsentiert und βk und γk Gewichtungsfaktoren repräsentieren; ein erster Bereich mit einer höchsten Ähnlichkeit und zweiter Bereich mit einer zweithöchsten Ähnlichkeit gesucht werden; eine erste Kandidatendisparität als eine Disparität entsprechend dem ersten Bereich und eine zweite Kandidatendisparität als eine dem zweiten Bereich entsprechende Disparität spezifiziert werden; und eine gültige Disparität zwischen den Stereobildern auf der Basis der ersten und zweiten Kandidatendisparitäten bestimmt wird.
- Ein sechster Gesichtspunkt der vorliegenden Erfindung liefert überdies ein Verfahren zum Feststellen einer Disparität zwischen Stereobildern, das die Schritte aufweist, bei denen: jedes von ersten und zweiten Bildern IL und IR in mehrere Blöcke geteilt wird, die jeweils eine Größe M · L Pixel aufweisen; ternärwertige Frequenzkomponentenbilder der Bilder IL und IR abgeglichen werden; Pixel in einem Mikrobereich, der durch ein auf dem ersten Bild IL festgelegtes eindimensionales Fenster definiert ist, mit Pixel in einem bezeichneten Mikrobereich auf dem zweiten Bild IR verglichen werden; eine Ähnlichkeit zwischen zwei Mikrobereichen unter Verwendung der folgenden Gleichung ausgewertet wird;
- Eall = Σβk(PN)k + Σγk(ZN)k
- worin PN eine Gesamtzahl Pixel mit einem Auswertungsergebnis "P" repräsentiert, während ZN eine Gesamtzahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und βk und γk Gewichtungsfaktoren repräsentieren; ein erster Bereich mit einer höchsten Ähnlichkeit und ein zweiter Bereich mit einer zweithöchsten Ähnlichkeit in einem betreffenden Block gesucht werden; eine erste Kandidatendisparität als eine dem ersten Bereich entsprechende Disparität und eine zweite Kandidatendisparität als eine dem zweiten Bereich entsprechende Disparität spezifiziert werden; ein Histogramm basierend auf den ersten und zweiten Kandidatendisparitäten erzeugt wird; und eine gültige Disparität des betreffenden Blocks als eine einer Spitzenposition des Histogramms entsprechende Disparität bestimmt wird.
- Gemäß den Merkmalen der bevorzugten Ausführungsformen der vorliegenden Erfindung wird in dem oben beschriebenen Verfahren zum Feststellen einer Disparität das erste Bild IL als ein Referenzbild bezeichnet, wird ein eindimensionales Fenster, das darin N Pixel umfassen kann, auf dem ternärwertigen Frequenzkomponentenbild des ersten Bildes IL festgelegt, und ein Abgleichbereich mit dem gleichen Ternärwertmuster wie die N Pixel in dem eindimensionalen Fenster wird aus dem ternärwertigen Frequenzkomponentenbild des zweiten Bildes IR gesucht. Alternativ dazu wird eines der ersten und zweiten Bilder IL und IR als Referenzbild bezeichnet, werden mehrere eindimensionale Fenster auf der gesamten Oberfläche des ternärwertigen Frequenzkomponentenbildes des Referenzbildes durch eine Scan-Operation entlang einer epipolaren Linie festgelegt, so dass die eindimensionalen Fenster in den gleichen Intervallen N/2 sukzessiv überlappt sind, wenn jedes der eindimensionalen Fenster eine N Pixel äquivalente Größe hat, und eine Abgleichoperation wird bezüglich jedes der eindimensionalen Fenster ausgeführt.
- Gemäß den Merkmalen der bevorzugten Ausführungsformen wird die gültige Disparität als eine Parität auf der Ebene von Subpixel entsprechend einem Schnittpunkt einer ersten geraden Linie, die zwei Punkte (di - 1, hi - 1), (di, hi) kreuzt, und einer einen Punkt (di + 1, hi + 1) kreuzenden zweiten geraden Linie mit einem zur ersten geraden Linie symmetrischen Gradienten berechnet, worin di - 1, di, di + 1 Disparitäten nahe der Spitzenposition des Histogramms repräsentieren und hi - 1, h1, hi + 1 die Zahl eines Auftretens bzw. Häufigkeiten der Disparitäten di - 1, di bzw. di + 1 repräsentieren.
- Die obigen und anderen Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus der folgenden ausführlichen Beschreibung ersichtlicher werden, die in Verbindung mit den beiliegenden Zeichnungen gelesen werden soll, von denen:
- Fig. 1 eine Ansicht ist, die das Prinzip der Stereobildmessung veranschaulicht;
- Fig. 2 eine Ansicht ist, die ein herkömmliches Verfahren zum Prüfen eines Wertes einer gegenseitigen Korrelation zwischen zwei Bildern veranschaulicht;
- Fig. 3 eine Ansicht ist, die ein herkömmliches Verfahren zum Abgleichen von Stereobildern basierend auf dem Vergleich quadratischer Mikrobereiche (Blöcke) von zwei Bildern veranschaulicht;
- Fig. 4 eine Ansicht ist, die in Problem in einem herkömmlichen Verfahren veranschaulicht;
- Fig. 5 eine Ansicht ist, die ein anderes Problem in einem herkömmlichen Verfahren veranschaulicht;
- Fig. 6 eine Ansicht ist, die eine Feststellung einer Disparität auf einer Ebene von Subpixel gemäß einem herkömmlichen Verfahren zum Feststellen einer Disparität veranschaulicht;
- Fig. 7 ein Flussdiagramm ist, das sequentielle Prozesse zum Ausführen einer ersten Ausführungsform der vorliegenden Erfindung zeigt, die die Aufnahme von Stereobildern durch die Bestimmung einer Disparität abdeckt;
- Fig. 8 eine Ansicht ist, die ein Monochrombild veranschaulicht, das in der Erklärung eines Verfahrens einer Ausführungsform zum Abgleichen von Stereobildern und zum Feststellen einer Disparität zwischen diesen Bildern gemäß der vorliegenden Erfindung verwendet wird;
- Fig. 9 ein Blockdiagramm ist, das eine Anordnung einer ersten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B) von Fig. 7 realisiert;
- Fig. 10A, 10B, 10C und 10D graphische Darstellungen sind, die Beispiele verschiedener Frequenzkomponentenbilder zeigen, die als Ergebnis der in Fig. 9, 23 und 27 gezeigten Verarbeitung einer Merkmalextraktionsphase erhalten wurden;
- Fig. 11 ein Blockdiagramm ist, das eine Anordnung einer zweiten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B) von Fig. 7 veranschaulicht;
- Fig. 12 eine Ansicht ist, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, die in der ersten und dritten Ausführungsform der vorliegenden Erfindung verwendet werden;
- Fig. 13 eine Ansicht ist, die ein Verfahren zum Teilen eines Bildes in mehrere Blöcke veranschaulicht, die jeweils als die Einheit zum Bestimmen einer Disparität dienen, gemäß der vorliegenden Erfindung;
- Fig. 14 eine Ansicht ist, die ein Scan-Verfahren eines eindimensionalen Fensters veranschaulicht, das als die Einheit zum Abgleichen von Stereobildern in der vorliegenden Erfindung dient;
- Fig. 15 eine Ansicht ist, die die Beziehung zwischen dem als die Einheit zum Abgleichen von Stereobildern dienenden eindimensionalen Fenster und einem als die Einheit zum Bestimmen einer Disparität dienenden Block in der vorliegenden Erfindung veranschaulicht;
- Fig. 16 eine Ansicht ist, die ein Verfahren zum Bestimmen eines Disparitätskandidaten basierend auf der Suche mit einem eindimensionalen Fenster der vorliegenden Erfindung veranschaulicht;
- Fig. 17 eine Ansicht ist, die ein Verfahren zum Auswerten einer Ähnlichkeit, basierend auf der Suche mit einem eindimensionalen Fenster, der vorliegenden Erfindung veranschaulicht;
- Fig. 18 eine Ansicht ist, die ein Beispiel eines Speicherbereichs veranschaulicht, der zum vorübergehenden Speichern von Kandidatendisparitäten verwendet wird, welche in Bezug auf jedes eindimensionale Fenster gemäß der vorliegenden Erfindung bestimmt werden;
- Fig. 19 eine Ansicht ist, die ein Verfahren gemäß der vorliegenden Erfindung veranschaulicht, um ein Histogramm in Bezug auf Blöcke basierend auf Kandidatendisparitäten zu erzeugen, die in dem Speicherbereich in Bezug auf eindimensionale Fenster vorübergehend gespeichert werden;
- Fig. 20 eine graphische Darstellung ist, die ein Beispiel des in jedem Block erzeugten Histogramms gemäß der vorliegenden Erfindung zeigt;
- Fig. 21 eine graphische Darstellung ist, die ein Verfahren der vorliegenden Erfindung zeigt, um eine Disparität mit der Genauigkeit einer Ebene von Subpixel basierend auf dem in Bezug auf Blöcke erzeugten Histogramm zu messen;
- Fig. 22 ein Flussdiagramm ist, das sequentielle Prozesse zum Ausführen einer zweiten Ausführungsform der vorliegenden Erfindung zeigt, die die Aufnahme von Stereobildern durch die Bestimmung einer Disparität abdeckt;
- Fig. 23 ein Blockdiagramm ist, das eine Anordnung einer dritten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') von Fig. 22 gemäß der zweiten Ausführungsform realisiert;
- Fig. 24 ein Blockdiagramm ist, das eine Anordnung einer vierten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') von Fig. 22 gemäß der zweiten Ausführungsform realisiert;
- Fig. 25 eine Ansicht ist, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, die in der zweiten und dritten Ausführungsform der vorliegenden Erfindung verwendet werden;
- Fig. 26 ein Flussdiagramm ist, das sequentielle Prozesse zum Ausführen einer dritten Ausführungsform der vorliegenden Erfindung zeigt, die die Aufnahme von Stereobildern durch die Bestimmung einer Disparität abdeckt;
- Fig. 27 ein Blockdiagramm ist, das eine Anordnung einer fünften Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 gemäß der dritten Ausführungsform realisiert; und
- Fig. 28 ein Blockdiagramm ist, das eine Anordnung einer sechsten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 gemäß der dritten Ausführungsform realisiert.
- Bevorzugte Ausführungsformen der vorliegenden Erfindung werden im folgenden mit Verweis auf die beiliegenden Zeichnungen ausführlicher erläutert. Identische Teile sind in allen Ansichten durch die gleiche Referenzziffer bezeichnet.
- Ein Verfahren zum Abgleichen von Stereobildern und ein Verfahren zum Feststellen einer Disparität zwischen diesen Bildern werden im folgenden gemäß der vorliegenden Erfindung erläutert.
- Eine erste Ausführungsform wird basierend auf einer Stereobildmessung unter Verwendung des Verfahrens zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern gemäß der vorliegenden Erfindung erläutert.
- Fig. 7 ist ein Flussdiagramm, das sequentielle Prozesse zum Ausführen der ersten Ausführungsform der vorliegenden Erfindung zeigt, die die Stereobildaufnahmephase bis zur Disparitätsbestimmungsphase abdeckt. In der Bildaufnahmephase (A) werden durch zwei, rechte und linke, Bildaufnahmeeinrichtungen in Schritten S101 und S102 zwei Bilder, rechts und links, aufgenommen. Die in der Bildaufnahmephase (A) erhaltenen rechten und linken Bilder werden dann in der nächsten Merkmalextraktionsphase (B) in Schritten S103 und S104 jeweils einer Merkmalextraktion unterzogen. In der nachfolgenden Abgleichphase (C) werden danach die extrahierten Merkmale der rechten und linken Bilder in Schritt S105 verglichen, um zu prüfen, ob sie zusammenpassen.
- In der Abgleichphase (C) wird konkreter ein eindimensionales Fenster festgelegt, wird dieses eindimensionale Fenster entlang; einer Referenz- Bildebene (rechte oder linke Bildebene) gemäß einer vorbestimmten Scan- Regel verschoben, um Fenster sukzessiv festzulegen, die jeweils als die Einheit zum Abgleichen von Stereobildern dienen, und eine Abgleichoperation wird durchgeführt, indem die Bildmerkmale innerhalb eines Fensters und entsprechende Bildmerkmale auf dem anderen (die andere der rechten und linken Bildebene) verglichen werden.
- In der Phase (D) zur Bestimmung einer Disparität wird die Referenz- Bildmerkmalsebene in mehrere Blöcke zerlegt oder geteilt, die jeweils eine vorbestimmte Größe haben, wird ein Histogramm in jedem Block aus Disparitäten erzeugt, die durch die Abgleichoperation basierend auf eindimensionalen Fenstern, die Pixel eines bestimmten Blocks einbeziehen, erhalten wurden, und eine spezifische Disparität, die gerade der Spitze eines so erhaltenen Histogramms entspricht, wird als eine den betreffenden Block repräsentierende gültige Disparität in Schritt S106 identifiziert. Die in diesen Phasen (A) bis (D) durchgeführte Verarbeitung wird im folgenden ausführlicher beschrieben.
- Obwohl es verschiedene Verfahren zum Anordnen der Stereokameras gibt, ordnet diese Ausführungsform ein Paar rechte und linke Kameras in einer parallelen Anordnungen an, in der zwei Kameras an vorbestimmten rechten und linken Positionen in der horizontalen Richtung liegen, so dass sie parallele optische Achsen aufweisen. Die Parallelanordnung rechts und links, die mit Verweis auf Fig. 1 erläutert wurde, zeigt ein ideales Anordnungsmodell, das in dieser Ausführungsform auch übernommen werden soll. In der Praxis wird es jedoch unmöglich sein, die ideale Anordnung von Stereokameras perfekt aufzubauen, ohne etwaige Versetzungen hervorzurufen. In dieser Hinsicht ist es wichtig, dass das Verfahren zum Abgleichen von Stereobildern und das Verfahren zum Feststellen einer Disparität zwischen diesen Bildern flexibel sein sollte, um solche Versetzungen zu erlauben.
- In der folgenden Erläuterung werden die in der Bildaufnahmephase (A) erhaltenen rechten und linken Bilder als Monochrombilder mit einer vorbestimmten Größe von 768 (H) · 480(V) erklärt. Selbstverständlich sind die in der vorliegenden Erfindung behandelten Bilder nicht auf die offenbarten Monochrombilder beschränkt. Die in der Bildaufnahmephase erhaltenen rechten und linken Bilder sind wie folgt definiert:
- Linkes Bild: IL(x, y)
- Rechtes Bild: IR(x, y)
- worin 1 ≤ x ≤ 768, 1 ≤ y ≤ 480, 0 ≤ IL(x, y) ≤ 255, und 0 ≤ IR(x, y) ≤ 255.
- Wie in dem Monochrombild von Fig. 8 gezeigt ist, repräsentiert "x" einen horizontalen Index des Bildes, während "y" einen vertikalen Index (d. h. eine Zeilennummer) des Bildes repräsentiert. Die Pixelnummer wird von links nach rechts durch "x" ausgedrückt, während die Zeilennummer von oben nach unten durch "y" ausgedrückt wird.
- Beim Durchführen des Stereobild-Abgleichs wird eines von zwei Bildern als ein Referenzbild bezeichnet, und ein einem spezifischen Bereich dieses Referenzbildes entsprechender Abgleichbereich wird aus dem anderen Bild gesucht. Das linke Bild, das in dieser Ausführungsform als das Referenzbild dient, wird in zahlreiche Blöcke zerlegt, die jeweils eine Größe von M · L Pixel aufweisen, wie in Fig. 13 gezeigt ist. Als ein praktisches Beispiel hat jeder Block eine Größe von 16 · 16 Pixel (M = L = 16). In diesem Fall wird das linke Bild in insgesamt 48 Pixel in der horizontalen Richtung und insgesamt 30 Pixel in der vertikalen Richtung geteilt, was insgesamt 1440 Blöcke erzeugt. Im folgenden wird jeder Block durch die folgenden Identifizierungsdaten BL(X, Y) unterschieden.
- Block ID: BL(X, Y), wobei 1 ≤ X ≤ 48, 1 ≤ Y ≤ 30 sind.
- Die beiden Bilder, das rechte Bild IR und das linke Bild IL, die in der Bildaufnahmephase (A) erhalten wurden, werden in der Merkmalextraktionsphase (B) in mehrere Frequenzkomponentenbilder entwickelt.
- IL: L1, L2, L3, ---, Lk, Lk +1, ---, Ln
- IR: R1, R2, R3, ---, Rk, Rk + 1, ---, Rn
- Auf jedes Frequenzkomponentenbild wird die sekundäre differentielle Verarbeitung angewendet. Danach wird jedes Bild Pixel für Pixel in ternäre Werte umgewandelt, wobei somit die folgenden ternärwertigen Frequenzkomponentenbilder erhalten werden.
- TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn
- TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn
- Die oben beschriebene Operation macht es möglich, Ränder in verschiedenen Auflösungen zu extrahieren. Die Hauptaufgabe, um die oben beschriebene Operation auszuführen, lautet wie folgt.
- Grundsätzlich empfängt jede Randposition keinen aus einer Empfindlichkeitsdifferenz oder Schattenbildung abgeleiteten nachteiligen Effekt. Durch Nutzen dieser vorzuziehenden Eigenschaft wird es möglich, den Stereobild-Abgleich genau durchzuführen, ohne irgendeine Vorverarbeitung, wie z. B. eine Korrektur von Empfindlichkeitsdifferenzen der Kameras oder eine Schattierungskorrektur, durchzuführen. Das Vorsehen einer Ternärwert-Verarbeitung macht es möglich, die Ähnlichkeitsauswertung durch Verwendung einer kompakten Hardwareanordnung durchzuführen.
- Die zweite Aufgabe lautet wie folgt.
- Niederfrequenzränder sind robust gegen Rauschen, sind aber in ihren Positionen ungenau. Auf der anderen Seite sind Hochfrequenzränder in ihren Positionen genau, obgleich sie eine Tendenz haben, durch Rauschen nachteilig beeinflusst zu werden. Durch Nutzen dieser Eigenschaften wird es möglich, einen robusten und genauen Stereobild-Abgleich zu realisieren.
- Als nächstes wird eine Ternärwert-Verarbeitung erläutert. Fig. 12 ist eine Ansicht, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, die in der ersten und dritten Ausführungsform der vorliegenden Erfindung verwendet werden. Wie in Fig. 12 gezeigt ist, sind eine positive Schwelle TH1 (> 0) und eine negative Schwelle TH2 (< 0) vorgesehen, um alle Frequenzkomponentenbilder in drei Werte zu klassifizieren. Zum Beispiel werden ternäre Werte jeweiligen Pixel wie folgt gegeben.
- Geringer als TH2 --- -1
- Nicht kleiner als TH2 aber kleiner als TH1 --- 0
- Nicht kleiner als TH1 --- 1
- Die oben beschriebene Ternärwert-Verarbeitung macht es möglich, die Bilder an ihren Rändern 1 oder -1 zu quantisieren, insbesondere in der Umgebung von (positiven und negativen) Spitzenpositionen, ansonsten werden die Bilder durch 0 ausgedrückt. Diese Ternärwert-Verarbeitung ist dadurch gekennzeichnet, dass ihre Schaltung einfach angeordnet und verhältnismäßig robust gegen Rauschen sein kann. Falls irgendeine Empfindlichkeitsdifferenz zwischen rechten und linken Bildern IR und IL existiert, gibt es jedoch die Möglichkeit, dass einige Bilder nahe der Schwelle aufgrund eines Quantisierungsfehlers eine fehlerhafte Rand-Positionsinformation hervorrufen können.
- Fig. 9 ist ein Blockdiagramm, das die Anordnung einer ersten Vorrichtung zeigt, die die Verarbeitung der Merkmalextraktionsphase (B) von Fig. 7 realisiert. Das linke Bild IL (oder rechte Bild IR), das in der Merkmalextraktionsphase (B) empfangen wurde, ist das linke Bild IL (oder rechte Bild IR); das in der Bildaufnahmephase (A) erhalten wurde, die auf fc (Hz) bandbegrenzt ist. Das Eingabebild IL wird durch mehrere Tiefpassfilter (LPFk, k = 1, 2, 3, ---,) und Hochpassfilter (HPFk, k = 1, 2, 3, ---, n), die wie in der Zeichnung gezeigt kombiniert sind, in mehrere Bandsignale mit verschiedenen Frequenzkomponenten (d. h. Frequenzkomponentenbilder FLK, k = 1, 2, 3, ---, n) entwickelt. Jedes Bandsignal wird dann durch die nachfolgende Ternärwert-Verarbeitung (F) in einen ternären Wert (d. h. ternärwertiges Frequenzkomponentenbild TLk, k = 1, 2, 3, ---, n) quantisiert. Das oben beschriebene HPFk ist ein Hochpassiilter mit einer sekundären differentiellen Funktion. Fig. 10A, 10B, 10C und 10D sind graphische Darstellungen, die Beispiele verschiedener Frequenzkomponentenbilder FLk (k = 1, 2, 3, ---), d. h. Beispiele von Bandteilungen zeigen, die als Folge der Entwicklung unter Verwendung der im Blockdiagramm von Fig. 9 gezeigten Schaltung erhalten wurden.
- Jedes dieser mehreren ternärwertigen Frequenzkomponentenbilder TLk, die so erhalten wurden, zeigt eine Randposition, die jedes Frequenzkomponentenbild betrifft. Jede Randposition wird in der nachfolgenden Abgleichphase (C) für das Abgleichen rechter und linker Bilder verwendet. Bezüglich der Festlegungen wird angemerkt, dass die Zahl von Frequenzkomponentenbildern FLk oder die Breite jedes Frequenzbandes bestimmt werden sollte, indem die erforderliche Leistung und der zulässige Kostenrahmen berücksichtigt werden.
- Fig. 11 ist ein Blockdiagramm, das die Anordnung einer zweiten Vorrichtung zeigt, die die Verarbeitung der Merkmalextraktionsphase (B) von Fig. 7 realisiert. Die Laplace-Gauß-Funktion ( ²G), die die Basis für "σ" eines Laplace-Gauß-Filters bildet, wird gebildet, indem ein zweites Differential einer Gaußschen Funktion genommen wird. In einem eindimensionalen Fall gilt:
- In einem zweidimensionalen Fall gilt:
- worin r² = i² + j² ist und σ² die Varianz einer Gauß-Funktion repräsentiert.
- Eine Faltung dieser Funktion und des Bildes zu erhalten (Laplace-Gauß- Filter) ist einer Glättung des Bildes durch das Gauß-Filter (LPF) und einem Erhalt eines zweiten Differentials (Laplace, HPF) äquivalent.
- Andern des Wertes σ macht es möglich, Ränder in mehreren Auflösungen (Skalen) zu extrahieren, was auf Bildverarbeitungstechnologien in breitem Maße anwendbar ist.
- Mit dem oben beschriebenen Verfahren wird das Bild in mehrere Frequenzkomponentenbilder entwickelt, die dann in ternärwertige Frequenzkomponentenbilder wie folgt quantisiert werden.
- Linkes ternärwertiges Frequenzkomponentenbild:
- TL1 (x, y), TL2 (x, y), TL3 (x, y), ---
- Rechtes ternärwertiges Frequenzkomponentenbild:
- TR1 (x, y), TR2 (x, y), TR3 (x, y), ---
- worin 1 ≤ x ≤ 768, 1 ≤ y ≤ 480 gelten,
- -1 ≤ TL1 (x, y), TL2 (x, y), TL3 (x, y), --------- ≤ 1, und
- -1 ≤ TR1(x, y), TR2(x, y), TR3(x, y), --------- ≤ 1 (Gl.10)
- gelten.
- Die so erhaltenen rechten und linken ternärwertigen Frequenzkomponentenbilder werden an die nachfolgende Abgleichphase (C) geschickt und verwendet, um den Abgleich von Stereobildern zu prüfen.
- In der Abgleichphase wird ein Abgleich rechter und linker Bilder unter Verwendung mehrere ternärwertiger Frequenzkomponentenbilder durchgeführt, die durch eine Ternärwert-Verarbeitung in der Merkmalextraktionsphase (B) erhalten wurden. Eines von zwei Stereobildern wird in dieser Abgleichoperation als Referenzbild bezeichnet, und ein Abgleichbereich eines spezifischen Bereichs des Referenzbildes wird aus dem anderen Bild gesucht.
- Wie in der Bildaufnahmephase (A) erläutert wurde, bezeichnet diese Ausführungsform das linke Bild als das Referenzbild. Wie das linke Bild, das als das Referenzbild dient, welches in zahlreiche Blöcke zerlegt ist, die jeweils die gleiche Größe von M · L Pixel haben, wie in Fig. 13 gezeigt ist, wird jedes der linken ternärwertigen Frequenzkomponentenbilder TLk, wie in Fig. 14 gezeigt, in zahlreiche Blöcke zerlegt. Im folgenden werden Blockidentifizierungsdaten BLk (X, Y) zum Unterscheiden des linken ternärwertigen Frequenzkomponentenbildes TLk verwendet.
- Block-ID: BLk (X, Y), wo 1 ≤ X ≤ 48, 1 ≤ Y ≤ 30
- Die Abgleichoperation dieser Ausführungsform wird nur entlang der ungeradzahligen Zeilen ausgeführt. Auf eine Scanlinie wird als eine Ziel- Scanlinie im folgenden verwiesen, wenn sie ein Objekt der Abgleichoperation ist. Alle auf die geradzahligen Zeilen bezogenen Informationen werden in der Abgleichphase und der nachfolgenden überhaupt nicht verwendet.
- Wie in Fig. 14 gezeigt ist, ist zum Durchführen einer Fenster-Abtastung entlang einer betreffenden ungeradzahligen Zeile (d. h. entlang einer von Ziel-Scanzeilen) des linken ternärwertigen Frequenzkomponentenbildes TLk (x, y) zunächst ein eindimensionales Fenster mit einer Größe 1 · 16 Pixel (d. h. L = 1, M = 16) vorgesehen. Jeder Strich (engl. stroke) der Abtastung eines eindimensionalen Fensters umfasst 8 Pixel, was genau eine halbe (M/2) Fenstergröße (16 Pixel) ist. Mit anderen Worten wird das oben beschriebene Fenster in der x-Richtung um einen Betrag verschoben, der seiner Hälfte identisch ist, um die Fenster-Abtastung auszuführen, indem die durch das Fenster eingenommene Fläche sukzessiv überlappt wird. Diese Abtast- bzw. Scan-Operation liefert insgesamt 95 Fenster, die entlang einer Ziel-Scanlinie sukzessiv überlappt sind.
- Ein Abgleich-Kandidatenbereich entsprechend jedem der eindimensionalen Fenster, die so vorgesehen sind, wird aus dem rechten ternärwertigen Frequenzkomponentenbild TRk(x, y) gesucht. Jedes der eindimensionalen Fenster wird durch Identifizierungsdaten WNk(i, y) spezifiziert.
- Fenster-ID: WNk (I, J), worin 1 ≤ I ≤ 95 und 1 ≤ J ≤ 240 sind.
- Wie in Fig. 15 gezeigt ist, beinhaltet ein Block BLk (X, Y) komplett insgesamt 8 eindimensionale Fenster 901, die im allgemeinen unter Verwendung der Blockindizes X und Y durch die folgende Gleichung ausgedrückt werden.
- WNk(I, J) = WNk(2X - 1, 8(Y - 1) + u), worin 1 ≤ u ≤ 8 ist (Gl. 11)
- Unterdessen gibt es insgesamt 8 eindimensionale Fenster 902, die jeweils 8 (M/2) Pixel eines Blocks BLk(X, Y) und 8 (M/2) Pixel eines Blocks BLk(X - 1, Y) überbrücken. Diese eindimensionalen Fenster werden im allgemeinen durch die folgende Gleichung ausgedrückt.
- WNk(I, J) = WNk(2X - 2, 8(Y - 1) + u), worin 1 ≤ u ≤ 8 ist (Gl. 12)
- Andererseits gibt es insgesamt 8 eindimensionale Fenster, die jeweils 8 (M/2) Pixel eines Blocks BLk(X, Y) und 8 (M/2) Pixel eines Blocks BLk(X + 1, Y) überbrücken. Diese eindimensionalen Fenster werden im allgemeinen durch die folgende Gleichung ausgedrückt.
- WNk(I, J) = WNk(2X, 8(Y - 1) + u), worin 1 ≤ u ≤ 8 ist (Gl. 13)
- Wie aus der vorhergehenden Beschreibung ersichtlich ist, ist diese Ausführungsform durch eindimensionale Fenster gekennzeichnet, die jeweils als die Einheit für die Abgleichoperation dienen. Der Zweck einer Verwendung solcher eindimensionaler Fenster ist, die Größe der Hardware im Vergleich zum herkömmlichen zweidimensionalen Fenster zu reduzieren und als Folge einer Reduzierung von Zugriffen auf die Speicher auch die Verarbeitungszeit zu reduzieren.
- Diese Ausführungsform ist überdies dadurch gekennzeichnet, dass eindimensionale Fenster in einer überlappten Weise in den gleichen Intervallen von 8 (M/2) Pixel sukzessiv angeordnet werden. Der Zweck einer Übernahme solch einer Überlappungs-Anordnung ist, die Zuverlässigkeit jeder Abgleichoperation zu steigern, indem zusätzlicher Gebrauch von benachbarten Pixel in dem Fall erlaubt wird, dass der Abgleichbereich basierend nur auf den Pixel in einem gegebenen Block nicht eindeutig bestimmt werden kann, wenn die Disparität des Blocks bestimmt wird.
- Als nächstes wird ein Verfahren zum Bestimmen eines Abgleichbereichs von jedem der so vorgesehenen eindimensionalen Fenster erläutert. Wie in Fig. 16 gezeigt ist, wird ein Abgleichbereich jedes eindimensionalen Fensters, der auf dem linken ternärwertigen Frequenzkomponentenbild TLk festgelegt ist, aus dem rechten ternärwertigen Frequenzkomponentenbild TRk gesucht.
- Bei der Suche wird die vorher beschriebene Gleichung 8 verwendet, um die Ähnlichkeit zwischen rechten und linken ternärwertigen Frequenzkomponentenbildern TLk und TRk auszuwerten, die in den bezeichneten eindimensionalen Fenstern enthalten sind. Bezüglich jedes der eindimensionalen Fenster wird ein Bereich mit der höchsten Ähnlichkeit als eine Primärkandidatendisparität (disp1) spezifiziert, und ein Bereich mit der zweithöchsten Ähnlichkeit wird als eine Sekundärkandidatendisparität (disp2) spezifiziert.
- Diese Primär- und Sekundärkandidatendisparitäten, die in der oben beschriebenen Abgleichoperation basierend auf eindimensionalen Fenstern erhalten werden, sind nur Kandidaten und nicht die endgültige Disparität.
- Die endgültige Disparität jedes Blocks wird in der nachfolgenden Disparitätsbestimmungsphase (D) basierend auf diesen Primär- und Sekundärkandidatendisparitäten bestimmt.
- Als nächstes wird mit Verweis auf Fig. 17 ein Verfahren zum Auswerten einer Ähnlichkeit ausführlicher beschrieben. Bei der Auswertung einer Ähnlichkeit werden alle 16 Pixel in einem gegebenen eindimensionalen Fenster auf dem linken ternärwertigen Frequenzkomponentenbild TLk mit nachfolgenden 16 Pixel verglichen, die in der horizontalen Richtung innerhalb einer vorbestimmten Zone auf dem rechten ternärwertigen Frequenzkomponentenbild TRk in einem Array angeordnet sind, wobei diese vorbestimmte Zone die Möglichkeit zum Feststellen eines Abgleichbereichs bietet.
- Konkreter wird die Ähnlichkeit zwischen entsprechenden zwei Pixel unter Verwendung der folgenden Codes ausgewertet:
- Beide Pixel mit Wert 0: Z
- Beide Pixel mit Wert 1: P
- Beide Pixel mit Wert -1: P
- Andere Fälle: 0
- Die Codieroperation zum Auswerten der Ähnlichkeit (d. h. Auswertung zwischen entsprechenden Pixel) wird bezüglich aller 16 Pixel in dem gegebenen eindimensionalen Fenster ausgeführt. Auf diese Weise wird auf alle ternärwertigen Frequenzkomponentenbilder TLk und TRk die Auswertung einer Ähnlichkeit angewendet, wobei schließlich das Gesamtergebnis einer Auswertung der Ähnlichkeit wie folgt erhalten wird:
- Eall = Σβk(PN)k + Σγk(ZN)k (Gl. 14)
- worin PN eine gesamte Zahl Pixel mit dem Auswertungsergebnis "P" repräsentiert, ZN eine gesamte Zahl Pixel mit dem Auswertungsergebnis "Z" repräsentiert und βk und γk Gewichtsfaktoren repräsentieren.
- Ein großer Wert im Gesamtergebnis Ea11 einer Ähnlichkeitsauswertung gibt an, dass die Ähnlichkeit hoch ist. Obgleich in der Gleichung 14 "k" aufeinanderfolgende ganze Zahlen 1, 2, ---, n repräsentiert, ist es möglich, einige von ihnen zu verwenden. Außerdem drückt der erste Ausdruck auf der rechten Seite der Gleichung 14 die Zahl von miteinander übereinstimmenden Pixel bezüglich der als Abgleichmerkmale dienenden Randpunkte aus. Man ist der Ansicht, dass diese Zahl die Zuverlässigkeit des Ergebnisses einer Abgleichoperation widerspiegelt. Je größer diese Zahl ist, desto höher ist die Zuverlässigkeit. Je kleiner diese Zahl ist, desto geringer ist die Zuverlässigkeit.
- Falls der erste Ausdruck auf der rechten Seite im Ergebnis einer Ähnlichkeitsauswertung basierend auf der Primärkandidatendisparität kleiner als eine vorbestimmte Schwelle TH3 ist, sollte dementsprechend diese Kandidatendisparität auf Null gesetzt oder für ungültig erklärt werden, um etwaige fehlerhafte Abgleichoperationen zu eliminieren.
- Zahlreiche Primärkandidatendisparitäten (disp 1) und Sekundärkandidatendisparitäten (disp2) werden als Ergebnis der auf einem eindimensionalen Fenster basierenden Abtastung erhalten, das in Strichen von 8 (M/2) Pixel in einer überlappten Art und Weise entlang der ungeradzahligen Zeile des linken Bildes sukzessiv verschoben wird. Die Primärkandidatendisparitäten (disp1) und Sekundärkandidatendisparitäten (disp2), die so erhalten werden, werden in den vorbestimmten Bereichen eines Speichers gespeichert, der in Fig. 18 gezeigt ist. Obgleich Fig. 18 die Speicherbereiche in einer Beziehung 1 : 1 zu den Bilddaten zeigt, wird besonders erwähnt, dass freie Bereiche im Speicher eliminiert werden können.
- Inder Disparitätsbestimmung wird schließlich in jedem der Blöcke (insgesamt 1440 Blöcke) basierend auf den Primärkandidatendisparitäten (disp1) und den Sekundärkandidatendisparitäten (disp2), die bezüglich jedes eindimensionalen Fensters bestimmt wurden, eine Disparität bestimmt.
- Ein Verfahren zum Bestimmen einer Disparität jedes Blocks wird mit Verweis auf Fig. 19 erläutert, die erklärt, wie die Disparität eines Blocks BL(X, Y) bestimmt wird. Um eine Disparität eines Blocks BL(X, Y) zu bestimmen, wird basierend auf insgesamt 24 Sätzen von Primärkandidatendisparitäten (disp1) und Sekundärkandidatendisparitäten (disp2), die in dem durch eine gestrichelte Linie in Fig. 19 eingekreisten Bereich vorhanden sind, ein Histogramm erzeugt, wobei die Tatsache berücksichtigt wird, dass all diese ausgewählten Primär- und Sekundärkandidatendisparitäten durch die Abgleichoperation der spezifischen eindimensionalen Fenster mit jeweils mindestens 8 Pixel erhalten werden, die im Bereich des Blocks BL(X, Y) vorhanden sind. Fig. 20 ist eine graphische Darstellung, die ein Beispiel des Histogramms von Disparitäten zeigt, das basierend auf den Primär- und Sekundärkandidatendisparitäten erzeugt wurde.
- Eine Disparität mit der größten Zahl eines Auftretens bzw. Häufigkeit wird dann schließlich als die Disparität des Blocks BL(X, Y) bestimmt.
- Kehrt man zum zweiten Beispiel der Verfahren nach dem Stand der Technik zurück, ist der charakteristische Punkt, dass, nachdem das Bild in mehrere Blöcke zerlegt ist, die Ähnlichkeitsauswertung für den Abgleich in jedem Block unter Verwendung nur der in diesem betreffenden Block vorhandenen Pixel unabhängig durchgeführt wurde. Daher bestand die Möglichkeit, dass aufgrund des zufälligen Vorhandenseins ähnlicher, aber verschiedener mehrerer Bereiche ein Fehlabgleich verursacht wurde. Der Fehlabgleich war auch eine direkte Ursache für das Scheitern bei der Feststellung einer Disparität für jeden Block.
- Gemäß dem Verfahren zum Feststellen einer Disparität der vorliegenden Erfindung sind jedoch diese Probleme vollständig gelöst. Das heißt, die vorliegende Erfindung ist dadurch gekennzeichnet, dass ein Histogramm in jedem Block unter Verwendung der Abgleichdaten erzeugt wird, die sich aus dem Festlegen mehrerer eindimensionaler Fenster ergeben, die sukzessiv überlappt sind, und die Disparität des betreffenden Blocks BL(X, Y) dann bestimmt wird, indem die Spitzenposition im Histogramm festgestellt wird. Selbst wenn in der bezüglich jedes der eindimensionalen Fenster durchgeführten Abgleichoperation ein fehlerhafter Abgleich entstehen kann (d. h. selbst wenn eine fehlerhafte Kandidatendisparität versehentlich festgestellt wird), ist daher die vorliegende Erfindung ausreichend flexibel, um einen solchen Fehler zu absorbieren oder zu korrigieren.
- Als ein besonders guter Effekt einer Verwendung überlappter eindimensionaler Fenster wird es überdies möglich, die Pixel, die außerhalb des betreffenden Blocks vorhanden sind, bei der Bestimmung einer Disparität ergänzend zu verwenden. Dies wird das Scheitern bei der Feststellung einer Disparität sicher verhindern, selbst wenn ähnliche, aber verschiedene Bereiche versehentlich gemessen werden.
- Bei dieser Art eines Verfahrens zum Feststellen einer Disparität wird allgemein das Bild als Digitaldaten erhalten, die mit einer vorbestimmten Frequenz abgetastet wurden. Daher ist die messbare minimale Einheit auf ein Pixel begrenzt. Falls eine hohe Genauigkeit bei der Disparitätsmessung streng gefordert ist, steht die folgende Messung auf der Ebene von Subpixel zur Verfügung.
- Das Verfahren einer Messung auf der Ebene von Subpixel wird mit Verweis auf Fig. 21 erläutert. Fig. 21 zeigt ein Histogramm, das in einem bestimmten Block gemäß dem vorher bestimmten Verfahren erzeugt wurde, und zeigt insbesondere die Verteilung der Zahl eines Auftretens bzw. Häufigkeit in der Umgebung einer spezifischen Disparität entsprechend einer Spitzenposition. Die Messung einer Disparität auf der Ebene von Subpixel wird durchgeführt, indem die Häufigkeit hi, hi - 1, hi + 1 entsprechend den bezeichneten Disparitäten di, di - 1, di + 1 (im Inkrement eines Pixel) verwendet wird, die vor und nach einer Spitzenposition ds vorhanden sind.
- Konkreter wird eine erste gerade Linie 1501 als eine Linie erhalten, die beide Punkte (di - 1, hi - 1) und (di, hi) kreuzt. Eine zweite gerade Linie 1502 wird als eine Linie erhalten, die einen Punkt (di + 1, hi + 1) kreuzt und einen zur Linie 1501 symmetrischen Gradienten aufweist (d. h. im Absolutwert identisch, im Vorzeichen aber entgegengesetzt ist). Ein Punkt 1503 wird dann als Schnittpunkt der beiden geraden Linie 1501 und 1502 erhalten. Eine dem so erhaltenen Schnittpunkt 1503 entsprechende Disparität ds wird schließlich als eine Disparität auf einer Ebene von Subpixel des betreffenden Blocks erhalten.
- Die oben beschriebene Messung einer Disparität auf der Ebene von Subpixel verwendet das durch die Häufigkeit erzeugte Histogramm; dementsprechend ist dieses Verfahren von dem Verfahren nach dem Stand der Technik wesentlich verschieden, welches grundsätzlich die aus Gleichung 6 abgeleiteten Ähnlichkeitsauswertungen C verwendet.
- Eine zweite Ausführungsform wird basierend auf einer Stereobildmessung unter Verwendung des Verfahrens zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern gemäß der vorliegenden Erfindung erläutert.
- Fig. 22 ist ein Flussdiagramm, das sequentielle Prozesse zum Ausführen der zweiten Ausführungsform der vorliegenden Erfindung zeigt, die die Stereobildaufnahmephase bis zur Disparitätsbestimmungsphase abdecken. In der Bildaufnahmephase (A) werden durch zwei rechte und linke Bildaufnahmeeinrichtungen in Schritten S1601 und S1602 zwei rechte und linke Bilder aufgenommen. Die in der Bildaufnahmephase (A) durchgeführte Verarbeitung ist zu derjenigen der ersten Ausführungsform identisch. Die rechten und linken Bilder, die in der Bildaufnahmephase (A) erhalten wurden, werden dann in der nächsten Merkmalextraktionsphase (B') in Schritten S1603 und S1604 jeweils einer Merkmalextraktion unterzogen. In der nachfolgenden Abgleichphase (C) werden danach die extrahierten Merkmale der rechten und linken Bilder in Schritt S1605 verglichen, um zu prüfen, ob sie zueinander passen. In einer Disparitätsbestimmungsphase (D) wird überdies eine Disparität in jedem Block bestimmt (Schritt S1606). Die in der Abgleichphase (C) und der Disparitätsbestimmungsphase (D) durchgeführte Verarbeitung ist zu denjenigen der ersten Ausführungsform identisch.
- Im folgenden wird nur der Abschnitt ausführlicher erläutert, der von der ersten Ausführungsform verschieden ist, d. h. die Verarbeitung einer Merkmalextraktionsphase (B').
- Die in der Bildaufnahmephase (A) erhaltenen zwei Bilder, das rechte Bild IR und das linke Bild IL, werden in der Merkmalextraktionsphase (B') in mehrere Frequenzkomponentenbilder entwickelt.
- IL: L1, L2, L3, ---, Lk, Lk + 1, ---, Ln
- IR: R1, R2, R3, ---m Rk, Rk + 1, ---, Rn
- Auf jedes Frequenzkomponentenbild wird die sekundäre differentielle Verarbeitung angewendet. Danach wird jedes Bild Pixel für Pixel in ternäre Werte umgewandelt, wobei somit die folgenden ternärwertigen Frequenzkomponentenbilder erhalten werden.
- TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn
- TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn
- Der Verarbeitungsablauf und seine Zwecke sind mit denjenigen der Merkmalextraktraktionsphase (B) der ersten Ausführungsform identisch.
- Als nächstes wird der von der ersten Ausführungsform verschiedene wesentliche Abschnitt, d. h. eine Ternärwert-Verarbeitung, erklärt.
- Fig. 25 ist eine Ansicht, die ein Verfahren zum Transformieren oder Quantisieren der Frequenzkomponentenbilder in ternäre Werte veranschaulicht, das in der zweiten Ausführungsform der vorliegenden Erfindung verwendet wird. Wie in Fig. 25 gezeigt ist, werden alle Frequenzkomponentenbilder in drei Werte klassifiziert, indem beurteilt wird, ob das Pixel eines betreffenden Bildes auf einen Nulldurchgangspunkt bezogen ist oder ob das Vorzeichen seines Gradienten positiv oder negativ ist, wenn es dem Nulldurchgangspunkt entspricht. Zum Beispiel werden den jeweiligen Pixel wie folgt ternäre Werte verliehen.
- Vom Nulldurchgangspunkt verschieden --- 0
- Nulldurchgangspunkt und positiver Gradient --- 1
- Nulldurchgangspunkt und negativer Gradient --- -1
- Die oben beschriebene Ternärwert-Verarbeitung macht es möglich, die Bilder an ihren Ränder, d. h. insbesondere den Wendepunkten (= Nulldurchgangspunkte), in 1 oder -1 zu quantisieren; ansonsten werden die Bilder durch 0 ausgedrückt. Diese Ternärwert-Verarbeitung (G) ist in der genauen Feststellung von Randpositionen und auch der Robustheit gegen eine Empfindlichkeitsdifferenz zwischen rechten und linken Bildern vergleichbar mit der oder besser als die Ternärwert-Verarbeitung (F) der ersten Ausführungsform, obgleich sie ein wenig labil gegen Rauschen ist.
- Fig. 23 ist ein Blockdiagramm, das die Anordnung einer dritten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') in Fig. 22 realisiert. Ein in der Merkmalextraktionsphase (B') empfangenes linkes Bild ist das Bild, das in der Bildaufnahmephase (A) erhalten wurde, welche auf fc (Hz) bandbegrenzt ist. Das Eingabebild IL wird in mehrere Bandsignale mit verschiedenen Frequenzkomponenten (d. h. Frequenzkomponentenbilder FLk, k = 1, 2, 3, ---, n) durch mehrere Tiefpassfilter (LPFk, k = 1, 2, 3, ---) und Hochpaßfilter (HPFk, k = 1, 2, 3, ---n) entwickelt, die wie in der Zeichnung dargestellt kombiniert sind. Diese Verarbeitung ist zu derjenigen der ersten Ausführungsform identisch. Die entwickelten Frequenzkomponentenbilder FLk werden durch die oben beschriebene Ternärwert-Verarbeitung (G) in ternärwertige Daten (d. h. ternärwertige Frequenzkomponentenbilder TLk, k = 1, 2, 3, ---, n) umgewandelt oder quantisiert.
- Jedes dieser so erhaltenen mehreren ternärwertigen Frequenzkomponentenbilder TLk zeigt eine in jedem Frequenzkomponentenbild enthaltene Randposition. Jede Randposition wird für den Abgleich rechter und linker Bilder in der nachfolgenden Abgleichphase (C) verwendet. Im Hinblick auf die Festlegungen wird besonders erwähnt, dass in der gleichen Weise wie in der ersten Ausführungsform die Zahl von Frequenzkomponentenbildern FLk oder die Breite jedes Frequenzbandes bestimmt werden sollte, indem die erforderliche Leistung und der zulässige Kostenrahmen berücksichtigt werden.
- Fig. 24 ist ein Blockdiagramm, das die Anordnung einer vierten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B') von Fig. 22 realisiert. Diese vierte Vorrichtung ist mit Ausnahme der Ternärwert-Verarbeitung (G) mit der zweiten Vorrichtung der ersten Ausführungsform identisch, die in Fig. 11 dargestellt ist.
- Auf diese Weise wird das Bild in mehrere Frequenzkomponentenbilder FLk entwickelt, die dann durch eine Ternärwert-Verarbeitung in ternärwertige Frequenzkomponentenbilder TLk umgewandelt werden. Anschließend werden ternärwertige Frequenzkomponentenbilder TLk zur nachfolgenden Abgleichphase (C) geschickt, um die Stereobild-Abgleichoperation basierend auf eindimensionalen Fenstern durchzuführen. Eine Disparität jedes Blocks wird schließlich auch in der Disparitätsbestimmungsphase (D) bestimmt.
- Eine dritte Ausführungsform wird basierend auf einer Stereobildmessung unter Verwendung des Verfahrens zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern gemäß der vorliegenden Erfindung erläutert.
- Fig. 26 ist ein Flussdiagramm, das sequentielle Prozesse zum Ausführen der dritten Ausführungsform der vorliegenden Erfindung zeigt, die die Stereobild-Aufnahmephase bis zur Disparitätsbestimmungsphase abdecken. In der Bildaufnahmephase (A) werden in Schritten S2001 und S2002 durch zwei rechte und linke Bildaufnahmeeinrichtungen zwei rechte und Linke Bilder aufgenommen. Die in der Bildaufnahmephase (A) durchgeführte Verarbeitung ist zu denjenigen der ersten und zweiten Ausführungsform identisch. Die rechten und linken Bilder, die in der Bildaufnahmephase (A) erhalten wurden, werden dann in der nächsten Merkmalextraktionsphase (B") in Schritten S2003 und S2004 jeweils einer Merkmalextraktion unterzogen. In der nachfolgenden Abgleichphase (C) werden danach die extrahierten Merkmale der rechten und linken Bilder in Schritt S2005 verglichen, um zu prüfen, wie sie zueinander passen. In einer Disparitätsbestimmungsphase (D) wird überdies eine Disparität in jedem Block bestimmt (Schritt S2006). Die in der Abgleichphase (C) und der Disparitätsbestimmungsphase (D) durchgeführte Verarbeitung ist denjenigen der ersten Ausführungsformen identisch.
- Im folgenden wird nur der Abschnitt ausführlicher erläutert, der von der ersten Ausführungsform verschieden ist, d. h. die Verarbeitung einer Merkmalextraktionsphase (B").
- Die in der Bildaufnahmephase (A) erhaltenen zwei Bilder, das rechte Bild IR und das linke Bild IL, werden in der Merkmalextraktionsphase (B") in mehrere Frequenzkomponentenbilder entwickelt.
- IL: L1, L2, L3, ---, Lk, Lk + 1, ---, Ln
- IR: R1, R2, R3, ---, Rk, Rk + 1, ---, Rn
- Auf jedes Frequenzkomponentenbild wird die sekundäre differentielle Verarbeitung angewendet. Danach wird jedes Bild Pixel für Pixel in ternäre Werte umgewandelt, wobei somit die folgenden ternärwertigen Frequenzkomponentenbilder erhalten werden.
- TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn
- TR1, TR2, TR3, ---, TRk, TRk + 1, ---, TRn
- Der Verarbeitungsablauf und seine Zwecke sind mit denjenigen der Merkmalextraktionsphasen (B), (B') der ersten und zweiten Ausführungsform identisch.
- Als nächstes wird der von der ersten und zweiten Ausführungsform verschiedene wesentliche Abschnitt, d. h. eine Ternärwert-Verarbeitung erläutert. Die Ternärwert-Verarbeitung der dritten Ausführungsform ist dadurch gekennzeichnet, dass die Niederfrequenzkomponentenbilder durch die vorher beschriebene Ternärwert-Verarbeitung (F) der ersten Verarbeitungsform verarbeitet werden, während die Hochfrequenzbilder durch die oben beschriebene Ternärwert-Verarbeitung (G) der zweiten Ausführungsform verarbeitet werden.
- Die Hochfrequenzkomponentenbilder haben genaue Information bezüglich der Randpositionen, wenn sie mit den Niederfrequenzkomponentenbildern verglichen werden. Um diese genauen Informationen effektiv zu nutzen, wird die Nulldurchgangspunkt-Klassifizierung zum Umwandeln von Hochfrequenzkomponentenbildern in ternäre Werte verwendet. Die durch die Ternärwert-Verarbeitung (G) erhaltene Randinformation neigt jedoch dazu, aufgrund von Rauschen fehlerhafte Randinformationen zu enthalten. Im Gegensatz dazu werden die Niederfrequenzkomponentenbilder in ternäre Werte umgewandelt, indem die Schwellenklassifizierung verwendet wird, da Niederfrequenzkomponentenbilder keine so genaue Information zum Darstellen der Randpositionen sind. Die durch die Ternärwert-Verarbeitung (F) erhaltene Randinformation enthält selten von Rauschen abgeleitete fehlerhafte Randinformationen.
- Fig. 27 ist ein Blockdiagramm, das die Anordnung einer fünften Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 realisiert. Ein in der Merkmalextraktionsphase (B") empfangenes linkes Bild IL ist das Bild, das in der Bildaufnahmephase (A) erhalten wurde, die auf fc (Hz) bandbegrenzt ist. Das Eingabebild IL wird durch mehrere Tiefpassfilter (LPFk, k = 1, 2, 3, ---) und Hochpassfilter (HPDk, k = 1, 2, 3, ---, n), die wie in der Zeichnung gezeigt kombiniert sind, in mehrere Bandsignale mit verschiedenen Frequenzkomponenten (d. h. Frequenzkomponentenbilder FLk, k = 1, 2, 3, ---, n) entwickelt. Diese Verarbeitung ist mit derjenigen der ersten und zweiten Ausführungsform identisch. Die Niederfrequenzkomponentenbilder der entwickelten Frequenzkomponentenbilder FLk werden durch die Ternärwert-Verarbeitung (F), die in der ersten Ausführungsform erläutert wurde, in ternärwertige Daten umgewandelt oder quantisiert. Auf der anderen Seite werden die Hochfrequenzkomponentenbilder der entwickelten Frequenzkomponentenbilder FLk durch die Ternärwert-Verarbeitung (G), die in der zweiten Ausführungsform erläutert wurde, in ternärwertige Daten umgewandelt oder quantisiert. Folglich werden ternärwertige Frequenzkomponentenbilder TLk (k = 1, 2, 3, ---, n) erhalten.
- Jedes dieser so erhaltenen mehreren ternärwertigen Frequenzkomponentenbilder TLk zeigt eine in jedem Frequenzkomponentenbild enthaltene Randposition auf. Jede Randposition wird für den Abgleich rechter und linker Bilder in der nachfolgenden Abgleichphase (C) verwendet. Bezüglich der Feststellungen wird besonders erwähnt, dass die Zahl von Frequenzkomponentenbildern FLk oder die Breite jedes Frequenzbandes sowie eine Auswahl zwischen der Ternärwert-Verarbeitung (F) und der Ternärwert- Verarbeitung (G) bestimmt werden sollte, indem die erforderliche Leistung und der zulässige Kostenrahmen berücksichtigt werden.
- Fig. 28 ist ein Blockdiagramm, das die Anordnung einer sechsten Vorrichtung zeigt, die die Verarbeitung einer Merkmalextraktionsphase (B") von Fig. 26 realisiert. Diese sechste Vorrichtung ist mit der zweiten und vierten Vorrichtung der ersten und zweiten Ausführungsform, die in Fig. 11 und 24 dargestellt sind, mit Ausnahme des Abschnitts der Ternärwert- Verarbeitung identisch.
- Auf diese Weise wird das Bild in mehrere Frequenzkomponentenbilder FLk entwickelt, die dann durch eine Ternärwert-Verarbeitung in ternärwärtige Frequenzkomponentenbilder TLk umgewandelt werden. Anschließend werden ternärwertige Frequenzkomponentenbilder TLk an die nachfolgende Abgleichphase (C) geschickt, um basierend auf eindimensionalen Fenstern die Stereobild-Abgleichoperation durchzuführen. Eine Disparität jedes Blocks wird schließlich auch in der Disparitätsbestimmungsphase (D).
- Wie aus dem vorhergehenden ersichtlich ist, wird das Verfahren der vorliegenden Erfindung zum Abgleichen von Stereobildern und Feststellen einer Disparität zwischen den Bildern auf der Basis des Stereobild- Meßsystems erläutert, das in die oben beschriebene erste, zweite und dritte Ausführungsform eingebettet ist. Obgleich die Ausführungsformen der vorliegenden Erfindung die Stereokameras verwenden, die in Richtung rechts und links parallel zueinander angeordnet sind, ist selbstverständlich die Anordnung von Stereokameras nicht auf die offenbarte begrenzt.
- Obgleich die Ausführungsformen der vorliegenden Erfindung nur die ungeradzahligen Zeilen für die Abtast- bzw. Scanoperation nutzen, wird ferner der gleiche Effekt erhalten, indem nur die Ziel-Scanzeilen der geradzahligen Zeilen verwendet werden. Falls alle Zeilen für die Scan-Operation verwendet werden, wird die Zuverlässigkeit der Messung einer Disparität gesteigert, obgleich das Verarbeitungsvolumen verdoppelt wird.
- Außerdem übernehmen die Ausführungsformen der vorliegenden Erfindung eine Fenstergröße von 1 · 16 (M = 16) Pixel, die sich in der horizontalen Richtung erstrecken, und eine Blockgröße von 16 · 16 (M = L = 16) Pixel. Selbstverständlich können praktische Werte für M und L flexibel geändert werden.
- Wie in der vorhergehenden Beschreibung erläutert wurde, liefert die vorliegende Erfindung ein neuartiges und ausgezeichnetes Verfahren zum Abgleichen von Stereobildern und Feststellen einer Disparität dieser Bilder, das einen kleinen Berechnungsumfang aufweist, kompakt und billig in der Hardware-Anordnung, schnell in der Verarbeitung und zuverlässig und genau in der Leistung des Stereobild-Abgleichs und der Feststellung einer Disparität ist.
- Dementsprechend kann die vorliegende Erfindung z. B. auf verschiedene industrielle Überwachungssysteme angewendet werden, wie z. B. eine Überwachungseinrichtung für Hindernisse an einem Schienenübergang oder eine Überwachungseinrichtung gegen Eindringlinge in einem Gebäude, indem deren Fähigkeit, basierend auf sukzessiv abgetasteten Stereobildern immer eine Disparität zu messen und die Änderung der Disparität festzustellen, genutzt wird.
- Die vorliegenden Ausführungsformen, wie sie beschrieben wurden, sollen daher nur veranschaulichend und nicht beschränkend sein, da der Umfang der Erfindung eher durch die beigefügten Ansprüche als durch die ihnen vorangehende Beschreibung definiert ist.
Claims (11)
1. Verfahren zum Abgleichen von Stereobildern, aufweisend die
Schritte, bei denen:
ein erstes und zweites Bild (IL und IR) eingegeben werden;
das erste und zweite Bild (IL und IR) in eine erste Mehrzahl
Frequenzkomponentenbilder (FL1, FL2, FL3, ----, FLk, FLk + 1, ----, FLn)
bzw. eine zweite Mehrzahl Frequenzkomponentenbilder (FR1, FR2,
FR3, ---, FRk, FRk + 1, FRn) entwickelt werden;
eine sekundäre differentielle Verarbeitung auf jedes der
Frequenzkomponentenbilder angewendet wird;
jedes Frequenzkomponentenbild nach Anwenden der sekundären
differentiellen Verarbeitung Pixel für Pixel in ternäre Werte
umgewandelt wird, wodurch erste ternärwertige
Frequenzkomponentenbilder (TL1, TL2, TL3, ---, TLk, TLk + 1, ---, TLn) und sekundäre
ternärwertige Frequenzkomponentenbilder (TR1, TR2, TR3, ---, TRk,
TRk + 1, ---, TRn) erhalten werden; und
eine Abgleichoperation zwischen dem ersten und zweiten Bild auf
der Basis der ersten und zweiten ternärwertigen
Frequenzkomponentenbilder durchgeführt wird.
2. Verfahren nach Anspruch 1,
worin jedes Frequenzkomponentenbild in ternäre Werte
umgewandelt wird, indem eine positive Schwelle (TH1) und eine negative
Schwelle (TH2) auf solche Weise verwendet werden, dass ein Pixel,
das größer als die positive Schwelle (TH1) ist, als "p" bezeichnet
wird, ein Pixel in einem Bereich zwischen der positiven und der
negativen Schwelle (TH1 und TH2) als "z" bezeichnet wird und ein
Pixel, das kleiner als die negative Schwelle (TH2) ist, als "m"
bezeichnet wird.
3. Verfahren nach Anspruch 1,
worin jedes Frequenzkomponentenbild auf solche Weise in ternäre
Werte umgewandelt wird, dass ein nicht auf einen
Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird, auf einen
Nulldurchgangspunkt bezogenes und einen positiven Gradienten
aufweisendes Pixel als "p" bezeichnet wird und ein auf einen
Nulldurchgangspunkt bezogenes und einen negativen Gradienten aufweisendes
Pixel als "m" bezeichnet wird.
4. Verfahren nach Anspruch 1,
worin jedes Niederfrequenzkomponentenbild der
Frequenzkomponentenbilder unter Verwendung einer positiven Schwelle (TH1) und
einer negativen Schwelle (TH2) auf solche Weise in ternäre
Pixelwerte umgewandelt wird, dass ein Pixel, das größer als die positive
Schwelle (TH1) ist, als "p" bezeichnet wird, ein Pixel in einem
Bereich zwischen der positiven und der negativen Schwelle (TH1 und
TH2) als "z" bezeichnet wird und ein Pixel, das kleiner als die
negative Schwelle (TH2) ist, als "m" bezeichnet wird, während jedes
Hochfrequenzkomponentenbild der Frequenzkomponentenbilder auf
solche Weise in ternäre Werte umgewandelt wird, dass ein nicht auf
einen Nulldurchgangspunkt bezogenes Pixel als "z" bezeichnet wird,
ein auf einen Nulldurchgangspunkt bezogenes und einen positiven
Gradienten aufweisendes Pixel mit "p" bezeichnet wird und ein auf
einen Nulldurchgangspunkt bezogenes und einen negativen
Gradienten aufweisendes Pixel als "m" bezeichnet wird.
5. Verfahren nach einem der Ansprüche 1 bis 4,
worin Pixel in einem eindimensionalen Fenster eines ersten
ternärwertigen Frequenzkomponentenbildes (TLk) des ersten Bildes (IL)
Eins-zu-Eins mit Pixeln in einem bezeichneten Bereich eines zweiten
ternärwertigen Frequenzkomponentenbildes (TRk) des zweiten
Bildes (IR) verglichen werden, wenn das erste und zweite ternärwertige
Frequenzkomponentenbild (TLk und TRk) in ihren
Frequenzkomponenten identisch sind, worin
ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende
zwei Pixel beide "p" oder "m" sind, während ein
Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden beiden Pixel beide
"z" sind, und die Ähnlichkeit zwischen dem ersten und zweiten
ternärwertigen Frequenzkomponentenbild (TLk und TRk) durch
Verwenden der folgenden Gleichung:
Eall = Σβk(PN)k + Σγk(ZN)k
ausgewertet wird, worin PN die gesamte Zahl Pixel mit dem
Auswertungsergebnis "P" repräsentiert, ZN die Gesamtzahl Pixel mit dem
Auswertungsergebnis "Z" repräsentiert und βk und γk
Gewichtungsfaktoren repräsentieren.
6. Verfahren nach einem der Ansprüche 1 bis 4,
worin Pixel in einem eindimensionalen Fenster eines ersten
ternärwertigen Frequenzkomponentenbildes (TLk) des ersten Bildes (IL)
Eins-zu-Eins mit Pixeln in einem bezeichneten Bereich eines zweiten
ternärwertigen Frequenzkomponentenbildes (TRk) des zweiten
Bildes (IR) verglichen werden, wenn das erste und zweite ternärwertige
Frequenzkomponentenbild (TLk und TRk) in ihren
Frequenzkomponenten identisch sind, worin
ein Auswertungsergebnis "P" erhalten wird, wenn entsprechende
zwei Pixel beide "p" oder "m" sind, während ein
Auswertungsergebnis "Z" erhalten wird, wenn die entsprechenden beiden Pixel beide
"z" sind, und die Ähnlichkeit zwischen dem ersten und dem zweiten
ternärwertigen Frequenzkomponentenbild (TLk und TRk) durch
Verwenden der folgenden Gleichung:
Eall = Σβ(PN)k + Σγk(ZN)k
ausgewertet wird, worin PN die gesamte Zahl Pixel mit dem
Auswertungsergebnis "P" repräsentiert, ZN die Gesamtzahl Pixel mit dem
Auswertungsergebnis "Z" repräsentiert und βk und γk
Gewichtungsfaktoren repräsentieren, und
ein Abgleichergebnis in der Abgleichoperation nur validiert wird,
wenn Σβk (PN)k größer als eine vorbestimmte positive Schwelle (TH3)
ist.
7. Verfahren nach Anspruch 5 oder Anspruch 6,
ferner aufweisend die Schritte, bei denen:
ein erster Bereich mit der höchsten Ähnlichkeit und ein zweiter
Bereich mit der zweithöchsten Ähnlichkeit gesucht werden;
eine erste Kandidatendisparität als die dem ersten Bereich
entsprechende Disparität und eine zweite Kandidatendisparität als die dem
zweiten Bereich entsprechende Disparität spezifiziert werden; und
eine gültige Disparität zwischen den Stereobildern auf der Basis der
ersten und zweiten Kandidatendisparität bestimmt wird.
8. Verfahren nach Anspruch 7,
worin die gültige Disparität durch die Schritte bestimmt wird, bei
denen:
ein Histogramm auf der Basis der ersten und zweiten
Kandidatendisparität erzeugt wird; und
die gültige Disparität des betreffenden Blocks als eine einer
Spitzenposition des Histogramms entsprechende Disparität bestimmt wird.
9. Verfahren nach einem der vorhergehenden Ansprüche,
worin das erste Bild (IL) als ein Referenzbild bezeichnet wird, ein
eindimensionales Fenster, welches N Pixel darin einschließen kann,
auf dem ternärwertigen Frequenzkomponentenbild des ersten Bildes
(IL) festgelegt wird und ein Abgleichbereich mit dem gleichen
Ternärwertmuster wie die N Pixel im eindimensionalen Fenster aus dem
ternärwertigen Frequenzkomponentenbild des zweiten Bildes (IR)
gesucht wird.
10. Verfahren nach einem der Ansprüche 1 bis 8,
worin eines des ersten und zweiten Bildes (IL und IR) als ein
Referenzbild bezeichnet wird, mehrere eindimensionale Fenster auf der
gesamten Oberfläche des ternärwertigen
Frequenzkomponentenbildes des Referenzbildes durch eine Scanoperation entlang einer epipolaren
Linie festgelegt werden, so dass die eindimensionalen
Fenster in den gleichen Intervallen N/2 sukzessiv überlappt werden,
wenn jedes der eindimensionalen Fenster eine N Pixel äquivalente
Größe aufweist, und bezüglich jedes der eindimensionalen Fenster
eine Abgleichoperation ausgeführt wird.
11. Verfahren nach Anspruch 8,
worin die gültige Disparität als eine Teilpixelpegelparität
entsprechend einem Schnittpunkt einer zwei Punkte [di - 1, hi - 1], [di, hi]
kreuzenden ersten geraden Linie und einer einen Punkt [di + 1, Hi +
1] kreuzenden zweiten geraden Linie mit einem zur ersten Linie
symmetrischen Gradienten berechnet wird, wobei di - 1, di, di + 1
Disparitäten nahe der Spitzenposition des Histogramms
repräsentieren und hi - 1, hi, hi + 1 die Zahl eines Auftretens der Disparitäten
di - 1, di bzw. di + 1 repräsentieren.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP09720495A JP3539788B2 (ja) | 1995-04-21 | 1995-04-21 | 画像間対応付け方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69624614D1 DE69624614D1 (de) | 2002-12-12 |
DE69624614T2 true DE69624614T2 (de) | 2003-07-03 |
Family
ID=14186093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69624614T Expired - Fee Related DE69624614T2 (de) | 1995-04-21 | 1996-04-11 | Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung |
Country Status (5)
Country | Link |
---|---|
US (2) | US5867591A (de) |
EP (1) | EP0738872B1 (de) |
JP (1) | JP3539788B2 (de) |
CA (1) | CA2174590C (de) |
DE (1) | DE69624614T2 (de) |
Families Citing this family (214)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5670935A (en) * | 1993-02-26 | 1997-09-23 | Donnelly Corporation | Rearview vision system for vehicle including panoramic view |
US6396397B1 (en) | 1993-02-26 | 2002-05-28 | Donnelly Corporation | Vehicle imaging system with stereo imaging |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US7339149B1 (en) * | 1993-02-26 | 2008-03-04 | Donnelly Corporation | Vehicle headlight control using imaging sensor |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US6111596A (en) * | 1995-12-29 | 2000-08-29 | Lucent Technologies Inc. | Gain and offset correction for efficient stereoscopic coding and improved display |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
US6154566A (en) * | 1996-05-15 | 2000-11-28 | Omron Corporation | Method and apparatus for determining image similarity and position |
DE19625727C2 (de) * | 1996-06-27 | 2000-11-09 | Bernd Porr | Einrichtung zur Bestimmung der Disparität in einem Stereobildpaar |
JP2910698B2 (ja) | 1996-10-15 | 1999-06-23 | 日本電気株式会社 | 三次元構造推定方法及び装置 |
BE1010929A3 (nl) * | 1997-02-17 | 1999-03-02 | Krypton Electronic Eng Nv | Meetsysteem. |
EP0880010B1 (de) * | 1997-05-22 | 2005-02-23 | Kabushiki Kaisha TOPCON | Messungsgerät |
JP3077745B2 (ja) * | 1997-07-31 | 2000-08-14 | 日本電気株式会社 | データ処理方法および装置、情報記憶媒体 |
FR2767404B1 (fr) * | 1997-08-12 | 1999-10-22 | Matra Systemes Et Information | Procede de production de donnees cartographiques par stereovision |
GB9720864D0 (en) * | 1997-10-01 | 1997-12-03 | Univ Nottingham Trent | Line-scan imaging in 3-d |
KR100307883B1 (ko) * | 1998-04-13 | 2001-10-19 | 박호군 | 정합화소수를이용한유사도측정방법및이를구현하기위한장치 |
US6275253B1 (en) * | 1998-07-09 | 2001-08-14 | Canon Kabushiki Kaisha | Stereographic image compression with image moment normalization |
US6269175B1 (en) * | 1998-08-28 | 2001-07-31 | Sarnoff Corporation | Method and apparatus for enhancing regions of aligned images using flow estimation |
EP1418766A3 (de) * | 1998-08-28 | 2010-03-24 | Imax Corporation | Méthode et appareil pour le traitement d'images |
DE29902457U1 (de) * | 1999-02-12 | 2000-07-20 | Bosch Gmbh Robert | Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung |
US6721446B1 (en) * | 1999-04-26 | 2004-04-13 | Adobe Systems Incorporated | Identifying intrinsic pixel colors in a region of uncertain pixels |
JP3255360B2 (ja) * | 1999-09-22 | 2002-02-12 | 富士重工業株式会社 | 距離データの検査方法およびその検査装置 |
JP3349121B2 (ja) | 1999-09-22 | 2002-11-20 | 富士重工業株式会社 | ステレオカメラの取付構造 |
US6865289B1 (en) * | 2000-02-07 | 2005-03-08 | Canon Kabushiki Kaisha | Detection and removal of image occlusion errors |
US6671399B1 (en) * | 1999-10-27 | 2003-12-30 | Canon Kabushiki Kaisha | Fast epipolar line adjustment of stereo pairs |
JP3760068B2 (ja) * | 1999-12-02 | 2006-03-29 | 本田技研工業株式会社 | 画像認識装置 |
US6396408B2 (en) | 2000-03-31 | 2002-05-28 | Donnelly Corporation | Digital electrochromic circuit with a vehicle network |
US6606406B1 (en) * | 2000-05-04 | 2003-08-12 | Microsoft Corporation | System and method for progressive stereo matching of digital images |
JP2001324305A (ja) * | 2000-05-17 | 2001-11-22 | Minolta Co Ltd | 画像対応位置検出装置および該装置を備える測距装置 |
JP4925498B2 (ja) * | 2000-07-12 | 2012-04-25 | 富士重工業株式会社 | フェールセーフ機能を有する車外監視装置 |
JP4953498B2 (ja) * | 2000-07-12 | 2012-06-13 | 富士重工業株式会社 | フェールセーフ機能を有する車外監視装置 |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
GB2372659A (en) * | 2001-02-23 | 2002-08-28 | Sharp Kk | A method of rectifying a stereoscopic image |
US6700934B2 (en) | 2001-03-14 | 2004-03-02 | Redrock Semiconductor, Ltd. | Error detection using a maximum distance among four block-motion-vectors in a macroblock in a corrupted MPEG-4 bitstream |
US7259747B2 (en) * | 2001-06-05 | 2007-08-21 | Reactrix Systems, Inc. | Interactive video display system |
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
US8300042B2 (en) | 2001-06-05 | 2012-10-30 | Microsoft Corporation | Interactive video display system using strobed light |
US6690294B1 (en) | 2001-07-10 | 2004-02-10 | William E. Zierden | System and method for detecting and identifying traffic law violators and issuing citations |
US7697027B2 (en) | 2001-07-31 | 2010-04-13 | Donnelly Corporation | Vehicular video system |
US6882287B2 (en) | 2001-07-31 | 2005-04-19 | Donnelly Corporation | Automotive lane change aid |
KR100424287B1 (ko) * | 2001-09-10 | 2004-03-24 | 주식회사 제이앤에이치테크놀러지 | 비평행 광축 실시간 입체 영상 처리 시스템 및 방법 |
JP3758034B2 (ja) * | 2001-10-30 | 2006-03-22 | 株式会社デンソー | 車両用乗員保護装置 |
US7190836B2 (en) * | 2002-03-18 | 2007-03-13 | Siemens Corporate Research, Inc. | Efficient ordering of data for compression and visualization |
US7038577B2 (en) | 2002-05-03 | 2006-05-02 | Donnelly Corporation | Object detection system for vehicle |
US7710391B2 (en) | 2002-05-28 | 2010-05-04 | Matthew Bell | Processing an image utilizing a spatially varying pattern |
KR20040000144A (ko) * | 2002-06-24 | 2004-01-03 | (학)창성학원 | 스테레오 매칭을 이용한 이미지 추출방법 |
KR20040002041A (ko) * | 2002-06-29 | 2004-01-07 | 칩스브레인(주) | 창간 유사도 측정방법과, 이를 이용한 스테레오 변위결정장치 및 방법 |
AU2003264580B2 (en) * | 2002-11-29 | 2006-08-10 | Canon Kabushiki Kaisha | Range Estimation Using Multi-dimensional Segmentation |
AU2003301043A1 (en) | 2002-12-13 | 2004-07-09 | Reactrix Systems | Interactive directed light/sound system |
KR100503820B1 (ko) * | 2003-01-30 | 2005-07-27 | 학교법인 포항공과대학교 | 시스톨릭 어레이를 이용한 멀티레이어 실시간 입체 영상정합 시스템 및 방법 |
DE10310849B4 (de) * | 2003-03-11 | 2009-01-02 | Inb Vision Ag | Verfahren zur photogrammmetrischen Abstands- und/oder Positionsbestimmung |
US20040217940A1 (en) * | 2003-04-29 | 2004-11-04 | Chi-Pao Huang | Method of Displaying Items in an On Screen Display |
US7308341B2 (en) | 2003-10-14 | 2007-12-11 | Donnelly Corporation | Vehicle communication system |
WO2005041579A2 (en) | 2003-10-24 | 2005-05-06 | Reactrix Systems, Inc. | Method and system for processing captured image information in an interactive video display system |
CN1902930B (zh) | 2003-10-24 | 2010-12-15 | 瑞克楚斯系统公司 | 管理交互式视频显示系统的方法和系统 |
JP4069855B2 (ja) * | 2003-11-27 | 2008-04-02 | ソニー株式会社 | 画像処理装置及び方法 |
JP2005227897A (ja) * | 2004-02-10 | 2005-08-25 | Fuji Photo Film Co Ltd | 画像表示方法、画像表示装置及び画像表示プログラム |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
US7330584B2 (en) * | 2004-10-14 | 2008-02-12 | Sony Corporation | Image processing apparatus and method |
US7660458B1 (en) * | 2004-12-14 | 2010-02-09 | Google Inc. | Three-dimensional model construction using unstructured pattern |
US7720580B2 (en) | 2004-12-23 | 2010-05-18 | Donnelly Corporation | Object detection system for vehicle |
US9128519B1 (en) | 2005-04-15 | 2015-09-08 | Intellectual Ventures Holding 67 Llc | Method and system for state-based control of objects |
US8081822B1 (en) | 2005-05-31 | 2011-12-20 | Intellectual Ventures Holding 67 Llc | System and method for sensing a feature of an object in an interactive video display |
JP4282643B2 (ja) * | 2005-08-30 | 2009-06-24 | ダイハツ工業株式会社 | 歪評価装置及び歪評価方法 |
KR101185870B1 (ko) * | 2005-10-12 | 2012-09-25 | 삼성전자주식회사 | 3d 입체 영상 처리 장치 및 방법 |
US8098277B1 (en) | 2005-12-02 | 2012-01-17 | Intellectual Ventures Holding 67 Llc | Systems and methods for communication between a reactive video system and a mobile communication device |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
US8107728B2 (en) * | 2006-09-19 | 2012-01-31 | Sharp Kabushiki Kaisha | Image processing apparatus, image forming apparatus, image processing system, computer program and recording medium |
JP4821548B2 (ja) * | 2006-10-02 | 2011-11-24 | コニカミノルタホールディングス株式会社 | 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム |
KR101311896B1 (ko) * | 2006-11-14 | 2013-10-14 | 삼성전자주식회사 | 입체 영상의 변위 조정방법 및 이를 적용한 입체 영상장치 |
JP2008164367A (ja) * | 2006-12-27 | 2008-07-17 | Matsushita Electric Ind Co Ltd | 固体撮像装置、カメラ、車両及び監視装置 |
US8013780B2 (en) | 2007-01-25 | 2011-09-06 | Magna Electronics Inc. | Radar sensing system for vehicle |
KR20080076628A (ko) * | 2007-02-16 | 2008-08-20 | 삼성전자주식회사 | 영상의 입체감 향상을 위한 입체영상 표시장치 및 그 방법 |
KR101345303B1 (ko) | 2007-03-29 | 2013-12-27 | 삼성전자주식회사 | 스테레오 또는 다시점 영상의 입체감 조정 방법 및 장치 |
US7914187B2 (en) | 2007-07-12 | 2011-03-29 | Magna Electronics Inc. | Automatic lighting system with adaptive alignment function |
US8017898B2 (en) | 2007-08-17 | 2011-09-13 | Magna Electronics Inc. | Vehicular imaging system in an automatic headlamp control system |
US8451107B2 (en) * | 2007-09-11 | 2013-05-28 | Magna Electronics, Inc. | Imaging system for vehicle |
US8230367B2 (en) | 2007-09-14 | 2012-07-24 | Intellectual Ventures Holding 67 Llc | Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones |
US8446470B2 (en) | 2007-10-04 | 2013-05-21 | Magna Electronics, Inc. | Combined RGB and IR imaging sensor |
JP4856611B2 (ja) * | 2007-10-29 | 2012-01-18 | 富士重工業株式会社 | 物体検出装置 |
US8159682B2 (en) | 2007-11-12 | 2012-04-17 | Intellectual Ventures Holding 67 Llc | Lens system |
TWI362628B (en) * | 2007-12-28 | 2012-04-21 | Ind Tech Res Inst | Methof for producing an image with depth by using 2d image |
US8494251B2 (en) * | 2008-01-11 | 2013-07-23 | Sri International | System and method for measuring image quality |
CN101680756B (zh) * | 2008-02-12 | 2012-09-05 | 松下电器产业株式会社 | 复眼摄像装置、测距装置、视差算出方法以及测距方法 |
US8259163B2 (en) | 2008-03-07 | 2012-09-04 | Intellectual Ventures Holding 67 Llc | Display with built in 3D sensing |
JP2009239391A (ja) * | 2008-03-26 | 2009-10-15 | Fujifilm Corp | 複眼撮影装置およびその制御方法並びにプログラム |
US8213706B2 (en) * | 2008-04-22 | 2012-07-03 | Honeywell International Inc. | Method and system for real-time visual odometry |
US8238612B2 (en) * | 2008-05-06 | 2012-08-07 | Honeywell International Inc. | Method and apparatus for vision based motion determination |
EP2133726B1 (de) | 2008-06-10 | 2011-06-01 | Thomson Licensing | Mehrbildaufnahmesystem mit verbesserter Tiefenbildauflösung |
US8595218B2 (en) | 2008-06-12 | 2013-11-26 | Intellectual Ventures Holding 67 Llc | Interactive display management systems and methods |
US8264526B2 (en) * | 2008-06-27 | 2012-09-11 | The University Of Southern Mississippi | Method for front matching stereo vision |
US20100020170A1 (en) * | 2008-07-24 | 2010-01-28 | Higgins-Luthman Michael J | Vehicle Imaging System |
KR100942925B1 (ko) * | 2008-08-11 | 2010-02-22 | 한국전자통신연구원 | 스테레오 비전 시스템 및 그 제어방법 |
CN101790103B (zh) | 2009-01-22 | 2012-05-30 | 华为技术有限公司 | 一种视差计算方法及装置 |
US9126525B2 (en) | 2009-02-27 | 2015-09-08 | Magna Electronics Inc. | Alert system for vehicle |
US20100266326A1 (en) * | 2009-04-21 | 2010-10-21 | Chuang Cheng-Hua | Mark-erasable pen cap |
US8376595B2 (en) | 2009-05-15 | 2013-02-19 | Magna Electronics, Inc. | Automatic headlamp control |
JP2011030182A (ja) * | 2009-06-29 | 2011-02-10 | Sony Corp | 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法 |
EP2459416B2 (de) | 2009-07-27 | 2019-12-25 | Magna Electronics Inc. | Parkhilfesystem |
WO2011014497A1 (en) | 2009-07-27 | 2011-02-03 | Magna Electronics Inc. | Vehicular camera with on-board microcontroller |
WO2011028686A1 (en) | 2009-09-01 | 2011-03-10 | Magna Mirrors Of America, Inc. | Imaging and display system for vehicle |
US20110050857A1 (en) * | 2009-09-03 | 2011-03-03 | Electronics And Telecommunications Research Institute | Apparatus and method for displaying 3d image in 3d image system |
US8284235B2 (en) * | 2009-09-28 | 2012-10-09 | Sharp Laboratories Of America, Inc. | Reduction of viewer discomfort for stereoscopic images |
WO2011070674A1 (ja) * | 2009-12-11 | 2011-06-16 | 株式会社 東芝 | 立体画像の奥行き頻度解析装置および方法 |
TWI402479B (zh) * | 2009-12-15 | 2013-07-21 | Ind Tech Res Inst | 深度感測方法及應用其之系統 |
US8890955B2 (en) * | 2010-02-10 | 2014-11-18 | Magna Mirrors Of America, Inc. | Adaptable wireless vehicle vision system based on wireless communication error |
WO2011108283A1 (ja) | 2010-03-05 | 2011-09-09 | パナソニック株式会社 | 立体撮像装置および立体撮像方法 |
JP5491617B2 (ja) | 2010-03-05 | 2014-05-14 | パナソニック株式会社 | 立体撮像装置、および立体撮像方法 |
JP5432365B2 (ja) | 2010-03-05 | 2014-03-05 | パナソニック株式会社 | 立体撮像装置および立体撮像方法 |
US8213708B2 (en) * | 2010-03-22 | 2012-07-03 | Eastman Kodak Company | Adjusting perspective for objects in stereoscopic images |
JP5477128B2 (ja) * | 2010-04-07 | 2014-04-23 | ソニー株式会社 | 信号処理装置、信号処理方法、表示装置及びプログラム |
EP2583131B1 (de) * | 2010-06-15 | 2019-11-06 | Razer (Asia Pacific) Pte. Ltd. | Persönliche anzeigevorrichtungen |
US8320627B2 (en) | 2010-06-17 | 2012-11-27 | Caterpillar Inc. | Machine control system utilizing stereo disparity density |
US9117123B2 (en) | 2010-07-05 | 2015-08-25 | Magna Electronics Inc. | Vehicular rear view camera display system with lifecheck function |
GB2483434A (en) * | 2010-08-31 | 2012-03-14 | Sony Corp | Detecting stereoscopic disparity by comparison with subset of pixel change points |
WO2012068331A1 (en) | 2010-11-19 | 2012-05-24 | Magna Electronics Inc. | Lane keeping system and lane centering system |
KR20120055102A (ko) * | 2010-11-23 | 2012-05-31 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
US9900522B2 (en) | 2010-12-01 | 2018-02-20 | Magna Electronics Inc. | System and method of establishing a multi-camera image using pixel remapping |
WO2012084277A1 (en) * | 2010-12-22 | 2012-06-28 | Thomson Licensing | Apparatus and method for determining a disparity estimate |
US9264672B2 (en) | 2010-12-22 | 2016-02-16 | Magna Mirrors Of America, Inc. | Vision display system for vehicle |
US9085261B2 (en) | 2011-01-26 | 2015-07-21 | Magna Electronics Inc. | Rear vision system with trailer angle detection |
US8823777B2 (en) * | 2011-03-30 | 2014-09-02 | Intel Corporation | Real-time depth extraction using stereo correspondence |
US9194943B2 (en) | 2011-04-12 | 2015-11-24 | Magna Electronics Inc. | Step filter for estimating distance in a time-of-flight ranging system |
WO2012145818A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Method and system for dynamically calibrating vehicular cameras |
US9834153B2 (en) | 2011-04-25 | 2017-12-05 | Magna Electronics Inc. | Method and system for dynamically calibrating vehicular cameras |
WO2012145819A1 (en) | 2011-04-25 | 2012-11-01 | Magna International Inc. | Image processing method for detecting objects using relative motion |
WO2013016409A1 (en) | 2011-07-26 | 2013-01-31 | Magna Electronics Inc. | Vision system for vehicle |
WO2013019707A1 (en) | 2011-08-01 | 2013-02-07 | Magna Electronics Inc. | Vehicle camera alignment system |
EP2569722A1 (de) * | 2011-08-02 | 2013-03-20 | Qatar Foundation | Kopienerkennung von 3d-videos |
GB2493514B (en) * | 2011-08-02 | 2015-04-08 | Qatar Foundation | Copy detection |
WO2013043661A1 (en) | 2011-09-21 | 2013-03-28 | Magna Electronics, Inc. | Vehicle vision system using image data transmission and power supply via a coaxial cable |
WO2013048994A1 (en) | 2011-09-26 | 2013-04-04 | Magna Electronics, Inc. | Vehicle camera image quality improvement in poor visibility conditions by contrast amplification |
US9402065B2 (en) | 2011-09-29 | 2016-07-26 | Qualcomm Incorporated | Methods and apparatus for conditional display of a stereoscopic image pair |
US9146898B2 (en) | 2011-10-27 | 2015-09-29 | Magna Electronics Inc. | Driver assist system with algorithm switching |
KR20130051241A (ko) * | 2011-11-09 | 2013-05-20 | 삼성전자주식회사 | 진단영상을 생성하는 방법, 이를 수행하는 장치 및 의료영상시스템 |
US9491451B2 (en) | 2011-11-15 | 2016-11-08 | Magna Electronics Inc. | Calibration system and method for vehicular surround vision system |
US10071687B2 (en) | 2011-11-28 | 2018-09-11 | Magna Electronics Inc. | Vision system for vehicle |
WO2013086249A2 (en) | 2011-12-09 | 2013-06-13 | Magna Electronics, Inc. | Vehicle vision system with customized display |
WO2013126715A2 (en) | 2012-02-22 | 2013-08-29 | Magna Electronics, Inc. | Vehicle camera system with image manipulation |
US10457209B2 (en) | 2012-02-22 | 2019-10-29 | Magna Electronics Inc. | Vehicle vision system with multi-paned view |
US8694224B2 (en) | 2012-03-01 | 2014-04-08 | Magna Electronics Inc. | Vehicle yaw rate correction |
US10609335B2 (en) | 2012-03-23 | 2020-03-31 | Magna Electronics Inc. | Vehicle vision system with accelerated object confirmation |
WO2013158592A2 (en) | 2012-04-16 | 2013-10-24 | Magna Electronics, Inc. | Vehicle vision system with reduced image color data processing by use of dithering |
US10089537B2 (en) | 2012-05-18 | 2018-10-02 | Magna Electronics Inc. | Vehicle vision system with front and rear camera integration |
TWI507032B (zh) * | 2012-06-21 | 2015-11-01 | Top Victory Invest Ltd | And a display method and a device for preventing the display of the abnormality of the screen display |
US8922662B1 (en) * | 2012-07-25 | 2014-12-30 | Amazon Technologies, Inc. | Dynamic image selection |
US9340227B2 (en) | 2012-08-14 | 2016-05-17 | Magna Electronics Inc. | Vehicle lane keep assist system |
DE102013217430A1 (de) | 2012-09-04 | 2014-03-06 | Magna Electronics, Inc. | Fahrerassistenzsystem für ein Kraftfahrzeug |
US9446713B2 (en) | 2012-09-26 | 2016-09-20 | Magna Electronics Inc. | Trailer angle detection system |
US9558409B2 (en) | 2012-09-26 | 2017-01-31 | Magna Electronics Inc. | Vehicle vision system with trailer angle detection |
EP2902960A4 (de) * | 2012-09-27 | 2015-09-23 | Panasonic Ip Man Co Ltd | Stereobildverarbeitungsvorrichtung und stereobildverarbeitungsverfahren |
US9723272B2 (en) | 2012-10-05 | 2017-08-01 | Magna Electronics Inc. | Multi-camera image stitching calibration system |
US9090234B2 (en) | 2012-11-19 | 2015-07-28 | Magna Electronics Inc. | Braking control system for vehicle |
US9743002B2 (en) | 2012-11-19 | 2017-08-22 | Magna Electronics Inc. | Vehicle vision system with enhanced display functions |
US10025994B2 (en) | 2012-12-04 | 2018-07-17 | Magna Electronics Inc. | Vehicle vision system utilizing corner detection |
US9481301B2 (en) | 2012-12-05 | 2016-11-01 | Magna Electronics Inc. | Vehicle vision system utilizing camera synchronization |
KR20140099098A (ko) * | 2013-02-01 | 2014-08-11 | 한국전자통신연구원 | 능동 스테레오 매칭 방법 및 그 장치 |
US9092986B2 (en) | 2013-02-04 | 2015-07-28 | Magna Electronics Inc. | Vehicular vision system |
US20140218529A1 (en) | 2013-02-04 | 2014-08-07 | Magna Electronics Inc. | Vehicle data recording system |
US10179543B2 (en) | 2013-02-27 | 2019-01-15 | Magna Electronics Inc. | Multi-camera dynamic top view vision system |
US9688200B2 (en) | 2013-03-04 | 2017-06-27 | Magna Electronics Inc. | Calibration system and method for multi-camera vision system |
US10027930B2 (en) | 2013-03-29 | 2018-07-17 | Magna Electronics Inc. | Spectral filtering for vehicular driver assistance systems |
US9327693B2 (en) | 2013-04-10 | 2016-05-03 | Magna Electronics Inc. | Rear collision avoidance system for vehicle |
US10232797B2 (en) | 2013-04-29 | 2019-03-19 | Magna Electronics Inc. | Rear vision system for vehicle with dual purpose signal lines |
US9508014B2 (en) | 2013-05-06 | 2016-11-29 | Magna Electronics Inc. | Vehicular multi-camera vision system |
US9563951B2 (en) | 2013-05-21 | 2017-02-07 | Magna Electronics Inc. | Vehicle vision system with targetless camera calibration |
US9205776B2 (en) | 2013-05-21 | 2015-12-08 | Magna Electronics Inc. | Vehicle vision system using kinematic model of vehicle motion |
US10567705B2 (en) | 2013-06-10 | 2020-02-18 | Magna Electronics Inc. | Coaxial cable with bidirectional data transmission |
US9260095B2 (en) | 2013-06-19 | 2016-02-16 | Magna Electronics Inc. | Vehicle vision system with collision mitigation |
US20140375476A1 (en) | 2013-06-24 | 2014-12-25 | Magna Electronics Inc. | Vehicle alert system |
US10755110B2 (en) | 2013-06-28 | 2020-08-25 | Magna Electronics Inc. | Trailering assist system for vehicle |
US10326969B2 (en) | 2013-08-12 | 2019-06-18 | Magna Electronics Inc. | Vehicle vision system with reduction of temporal noise in images |
US9619716B2 (en) | 2013-08-12 | 2017-04-11 | Magna Electronics Inc. | Vehicle vision system with image classification |
CN104574342B (zh) * | 2013-10-14 | 2017-06-23 | 株式会社理光 | 视差深度图像的噪声识别方法和噪声识别装置 |
KR102130123B1 (ko) * | 2013-10-31 | 2020-07-03 | 삼성전자주식회사 | 다시점 영상 디스플레이 장치 및 그 제어 방법 |
US9499139B2 (en) | 2013-12-05 | 2016-11-22 | Magna Electronics Inc. | Vehicle monitoring system |
US9988047B2 (en) | 2013-12-12 | 2018-06-05 | Magna Electronics Inc. | Vehicle control system with traffic driving control |
US10160382B2 (en) | 2014-02-04 | 2018-12-25 | Magna Electronics Inc. | Trailer backup assist system |
EP3102908B1 (de) * | 2014-02-05 | 2018-12-12 | Creaform Inc. | Strukturierte lichtanpassung eines satzes von kurven aus zwei kameras |
US10643343B2 (en) * | 2014-02-05 | 2020-05-05 | Creaform Inc. | Structured light matching of a set of curves from three cameras |
CN103852442B (zh) * | 2014-03-14 | 2016-06-01 | 华中科技大学 | 一种红外光谱特征提取及样本鉴定的方法 |
US9623878B2 (en) | 2014-04-02 | 2017-04-18 | Magna Electronics Inc. | Personalized driver assistance system for vehicle |
US9487235B2 (en) | 2014-04-10 | 2016-11-08 | Magna Electronics Inc. | Vehicle control system with adaptive wheel angle correction |
US10328932B2 (en) | 2014-06-02 | 2019-06-25 | Magna Electronics Inc. | Parking assist system with annotated map generation |
CN104200561B (zh) * | 2014-06-16 | 2017-06-20 | 华中科技大学 | 一种基于纹理特征识别具有字迹污损人民币的方法 |
US9925980B2 (en) | 2014-09-17 | 2018-03-27 | Magna Electronics Inc. | Vehicle collision avoidance system with enhanced pedestrian avoidance |
WO2016092532A1 (en) * | 2014-12-09 | 2016-06-16 | Inuitive Ltd. | A method for determining depth for stereoscopic reconstruction of three dimensional images |
US9916660B2 (en) | 2015-01-16 | 2018-03-13 | Magna Electronics Inc. | Vehicle vision system with calibration algorithm |
KR102298652B1 (ko) | 2015-01-27 | 2021-09-06 | 삼성전자주식회사 | 시차 결정 방법 및 장치 |
US9794543B2 (en) * | 2015-03-02 | 2017-10-17 | Ricoh Company, Ltd. | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method |
EP3274986A4 (de) | 2015-03-21 | 2019-04-17 | Mine One GmbH | Virtuelle 3d-verfahren, -systeme und -software |
US10853625B2 (en) * | 2015-03-21 | 2020-12-01 | Mine One Gmbh | Facial signature methods, systems and software |
US10286855B2 (en) | 2015-03-23 | 2019-05-14 | Magna Electronics Inc. | Vehicle vision system with video compression |
US10946799B2 (en) | 2015-04-21 | 2021-03-16 | Magna Electronics Inc. | Vehicle vision system with overlay calibration |
US10819943B2 (en) | 2015-05-07 | 2020-10-27 | Magna Electronics Inc. | Vehicle vision system with incident recording function |
JP6512938B2 (ja) * | 2015-05-25 | 2019-05-15 | キヤノン株式会社 | 撮像装置及び画像処理方法 |
US10214206B2 (en) | 2015-07-13 | 2019-02-26 | Magna Electronics Inc. | Parking assist system for vehicle |
US10078789B2 (en) | 2015-07-17 | 2018-09-18 | Magna Electronics Inc. | Vehicle parking assist system with vision-based parking space detection |
US10086870B2 (en) | 2015-08-18 | 2018-10-02 | Magna Electronics Inc. | Trailer parking assist system for vehicle |
US10875403B2 (en) | 2015-10-27 | 2020-12-29 | Magna Electronics Inc. | Vehicle vision system with enhanced night vision |
US10144419B2 (en) | 2015-11-23 | 2018-12-04 | Magna Electronics Inc. | Vehicle dynamic control system for emergency handling |
US11285878B2 (en) | 2015-12-17 | 2022-03-29 | Magna Electronics Inc. | Vehicle vision system with camera line power filter |
US11277558B2 (en) | 2016-02-01 | 2022-03-15 | Magna Electronics Inc. | Vehicle vision system with master-slave camera configuration |
US11433809B2 (en) | 2016-02-02 | 2022-09-06 | Magna Electronics Inc. | Vehicle vision system with smart camera video output |
US10160437B2 (en) | 2016-02-29 | 2018-12-25 | Magna Electronics Inc. | Vehicle control system with reverse assist |
US20170253237A1 (en) | 2016-03-02 | 2017-09-07 | Magna Electronics Inc. | Vehicle vision system with automatic parking function |
US10132971B2 (en) | 2016-03-04 | 2018-11-20 | Magna Electronics Inc. | Vehicle camera with multiple spectral filters |
US10055651B2 (en) | 2016-03-08 | 2018-08-21 | Magna Electronics Inc. | Vehicle vision system with enhanced lane tracking |
JP6722084B2 (ja) * | 2016-10-06 | 2020-07-15 | 株式会社Soken | 物体検出装置 |
WO2019041035A1 (en) | 2017-08-30 | 2019-03-07 | Innovations Mindtrick Inc. | STEREOSCOPIC IMAGE DISPLAY DEVICE ADJUSTED BY THE SPECTATOR |
US10529085B2 (en) * | 2018-03-30 | 2020-01-07 | Samsung Electronics Co., Ltd. | Hardware disparity evaluation for stereo matching |
US11968639B2 (en) | 2020-11-11 | 2024-04-23 | Magna Electronics Inc. | Vehicular control system with synchronized communication between control units |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60217472A (ja) * | 1984-04-13 | 1985-10-31 | Hitachi Ltd | 画像処理におけるエツジ抽出方法 |
US4745562A (en) * | 1985-08-16 | 1988-05-17 | Schlumberger, Limited | Signal processing disparity resolution |
JPH02100589A (ja) * | 1988-10-07 | 1990-04-12 | Nippon Telegr & Teleph Corp <Ntt> | 両眼視差検出方法 |
EP0373614A3 (de) * | 1988-12-16 | 1992-08-12 | Schlumberger Technologies Inc | Verfahren zur direkten Volumenmessung von dreidimensionalen Objekten in Stereobildern |
US5577130A (en) * | 1991-08-05 | 1996-11-19 | Philips Electronics North America | Method and apparatus for determining the distance between an image and an object |
US5309522A (en) * | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
US5383013A (en) * | 1992-09-18 | 1995-01-17 | Nec Research Institute, Inc. | Stereoscopic computer vision system |
JPH06195445A (ja) * | 1992-12-24 | 1994-07-15 | Canon Inc | 複数画像の対応点抽出方法 |
US5684890A (en) * | 1994-02-28 | 1997-11-04 | Nec Corporation | Three-dimensional reference image segmenting method and apparatus |
US5530774A (en) * | 1994-03-25 | 1996-06-25 | Eastman Kodak Company | Generation of depth image through interpolation and extrapolation of intermediate images derived from stereo image pair using disparity vector fields |
JP3242529B2 (ja) * | 1994-06-07 | 2001-12-25 | 松下通信工業株式会社 | ステレオ画像対応付け方法およびステレオ画像視差計測方法 |
US5606627A (en) * | 1995-01-24 | 1997-02-25 | Eotek Inc. | Automated analytic stereo comparator |
US5612735A (en) * | 1995-05-26 | 1997-03-18 | Luncent Technologies Inc. | Digital 3D/stereoscopic video compression technique utilizing two disparity estimates |
US5652616A (en) * | 1996-08-06 | 1997-07-29 | General Instrument Corporation Of Delaware | Optimal disparity estimation for stereoscopic video coding |
-
1995
- 1995-04-21 JP JP09720495A patent/JP3539788B2/ja not_active Expired - Fee Related
-
1996
- 1996-04-09 US US08/629,708 patent/US5867591A/en not_active Expired - Fee Related
- 1996-04-11 EP EP96302562A patent/EP0738872B1/de not_active Expired - Lifetime
- 1996-04-11 DE DE69624614T patent/DE69624614T2/de not_active Expired - Fee Related
- 1996-04-19 CA CA002174590A patent/CA2174590C/en not_active Expired - Fee Related
-
1998
- 1998-11-19 US US09/196,329 patent/US6125198A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
US6125198A (en) | 2000-09-26 |
EP0738872A2 (de) | 1996-10-23 |
EP0738872B1 (de) | 2002-11-06 |
JP3539788B2 (ja) | 2004-07-07 |
JPH08294143A (ja) | 1996-11-05 |
US5867591A (en) | 1999-02-02 |
DE69624614D1 (de) | 2002-12-12 |
CA2174590C (en) | 2000-02-08 |
EP0738872A3 (de) | 1999-07-14 |
CA2174590A1 (en) | 1996-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69624614T2 (de) | Verfahren zur Stereoübereinstimmungs- und Ungleichheitsmessung | |
DE69625423T2 (de) | Vorrichtung zur Erkennung eines Objektes, in welchem die Position eines ebenen Objektes mit Hilfe einer Houghtransformation geschätzt wird | |
DE69624980T2 (de) | Objektüberwachungsverfahren und -gerät mit zwei oder mehreren Kameras | |
DE60308782T2 (de) | Vorrichtung und Methode zur Hinderniserkennung | |
DE69027616T2 (de) | Gerät und Verfahren zum Bestimmen von Konturen und Linien | |
DE19636028C1 (de) | Verfahren zur Stereobild-Objektdetektion | |
DE69512709T2 (de) | Verfahren zur Stereoübereinstimmung und Umgleichheitsmessung | |
EP1494044B1 (de) | Verfahren zur Hinderniserkennung und Geländeklassifikation | |
DE69836522T2 (de) | Lagenerkennungssystem eines selbstbewegenden Kraftwagens | |
EP1997070B1 (de) | Raum-zeitliches verfahren und vorrichtung zur korrespondenzbestimmung, vorzugsweise zur dreidimensionalen rekonstruktion einer szene | |
DE102006055758B4 (de) | Verfahren zur Kalibrierung von Kameras und Projektoren | |
DE4444593C2 (de) | Entfernungsmeßvorrichtung | |
DE102009051826A1 (de) | Verfahren zum Vergleichen der Ähnlichkeit von 3D-bildlichen Objekten | |
DE112010004767T5 (de) | Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm | |
DE102004018813A1 (de) | Verfahren zur Erkennung und/oder Verfolgung von Objekten | |
DE102018108027A1 (de) | Objekterfassungsvorrichtung | |
DE102011111440A1 (de) | Verfahren zur Umgebungsrepräsentation | |
EP1460454B1 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE102013205854B4 (de) | Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz | |
DE102007013664A1 (de) | Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger | |
DE102012000459A1 (de) | Verfahren zur Objektdetektion | |
EP3931798B1 (de) | Schätzung der bewegung einer bildposition | |
EP1098268A2 (de) | Verfahren zur dreidimensionalen optischen Vermessung von Objektoberflächen | |
DE102019220364A1 (de) | Kalibriereinrichtung und Verfahren zum Kalibrieren einer Vorrichtung | |
DE102020101444A1 (de) | Ein Verfahren zum Detektieren sich bewegender Objekte |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: PANASONIC CORP., KADOMA, OSAKA, JP |
|
8339 | Ceased/non-payment of the annual fee |