[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102015111907B4 - Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung - Google Patents

Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung Download PDF

Info

Publication number
DE102015111907B4
DE102015111907B4 DE102015111907.2A DE102015111907A DE102015111907B4 DE 102015111907 B4 DE102015111907 B4 DE 102015111907B4 DE 102015111907 A DE102015111907 A DE 102015111907A DE 102015111907 B4 DE102015111907 B4 DE 102015111907B4
Authority
DE
Germany
Prior art keywords
image
controller
stop line
vehicle
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102015111907.2A
Other languages
English (en)
Other versions
DE102015111907A1 (de
Inventor
Wende Zhang
Zhencheng Hu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102015111907A1 publication Critical patent/DE102015111907A1/de
Application granted granted Critical
Publication of DE102015111907B4 publication Critical patent/DE102015111907B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Nonlinear Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

System in einem Fahrzeug (10), das einen erweiterten Erkennungsbereich einer Haltelinie auf einer Fahrbahn bereitstellt, wobei das System Folgendes umfasst:- eine Frontkamera (20) auf dem Fahrzeug (10), die Bilder der Fahrbahn vor dem Fahrzeug (10) bereitstellt; und- einen Controller (26), der programmiert ist, um die Bilder von der Frontkamera (20) zu empfangen, wobei der Controller (26) ferner programmiert ist, um einen oberen Abschnitt eines unverzerrten Frontbildes von der Frontkamera (20) zu entnehmen, wobei der obere Abschnitt auf ein erweitertes Bild aus der Vogelperspektive erneut abgebildet wird, so dass der Erkennungsbereich der Haltelinie erweitert ist, wobei der Controller (26) ferner programmiert ist, um Spurstreifen in dem unverzerrten Frontbild zu erkennen, um einen Referenzwert zu berechnen, wobei der Referenzwert verwendet wird, um einen Bereich des Frontkamerabildes zu bestimmen, der als der obere Abschnitt zu entnehmen ist und auf das erweiterte Bild aus der Vogelperspektive erneut abzubilden ist und ferner umfassend das Verwenden eines vorbestimmten sicheren Wertes als Referenzwert, wenn die Spurstreifen in den Bildern von der Frontkamera (20) nicht erkannt werden, wobei der Controller (26) ferner programmiert ist, um eine erweiterte Spitze aus dem entnommenen oberen Abschnitt des Frontbildes zu erkennen, die der Haltelinie entspricht.

Description

  • KREUZVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung nimmt das Prioritätsdatum der vorläufigen US-Patentanmeldung mit der Seriennummer 62/027,953 , unter dem Titel „Algorithm to Extend Detecting Range for AVM Stop Line Detection“, eingereicht am 23. Juli 2014, in Anspruch.
  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein System in einem Fahrzeug gemäß Anspruch 1 und ein Verfahren zum Bereitstellen eines erweiterten Erkennungsbereichs in einem Fahrzeug für eine Haltelinie auf einer Fahrbahn gemäß Anspruch 6..
  • Beschreibung der verwandten Technik
  • Moderne Fahrzeuge werden immer selbstständiger, d.h. moderne Fahrzeuge sind in der Lage, eine Fahrsteuerung mit geringerem Fahrereingriff bereitzustellen. Seit einigen Jahren gibt es bereits Tempomate in den Fahrzeugen, wobei der Fahrzeugbediener eine bestimmte Geschwindigkeit des Fahrzeugs einstellen kann und das Fahrzeug diese Geschwindigkeit beibehält, ohne dass der Fahrer das Gaspedal betätigt. In der Technik wurden kürzlich Abstandsregeltempomaten entwickelt, bei denen das System nicht nur die eingestellte Geschwindigkeit bewahrt, sondern auch das Fahrzeug automatisch abbremst, falls ein langsamer fahrendes Fahrzeug vor dem betreffenden Fahrzeug unter Verwendung von diversen Sensoren, wie etwa einem Radar und Kameras, erkannt wird. Moderne Fahrzeugsteuersysteme können auch selbstständiges Parken umfassen, wobei das Fahrzeug automatisch die Lenksteuerung zum Einparken des Fahrzeugs bereitstellt, und wobei das Fahrzeug anhält oder einen Fahrer warnt anzuhalten, wenn eine Haltelinie auf einer Fahrbahn erkannt wird.
  • Die Haltelinienerkennung und die Spurstreifenerkennung bei selbstständigen oder teilweise selbstständigen Fahrzeugen sind in der Technik bekannt. Eine Haltelinie ist eine durchgezogene weiße Linie auf einer Fahrbahn, die eine Stelle angibt, an der ein Fahrzeug, das auf der Fahrbahn fährt, halten soll. In den Vereinigten Staaten sind diese durchgezogenen weißen Haltelinien ungefähr 12 bis 24 Zoll breit. In Japan beträgt die Breite ungefähr 0,3 bis 0,45 m, und in China beträgt die Breite der Haltelinie ungefähr 0,2 bis 0,4 m. In allen Ländern sind die Haltelinien rechtwinklig zu den Linien der Spurstreifen. Wenn bekannte Halteerkennungssysteme verwendet werden, kann es sein, dass diese Systeme unzuverlässig sind, weil Schmutz, Reifenpolitur und undeutliche Haltelinienmarkierungen problematisch sein können. Beispielsweise können bekannte Kantendetektoren, wie etwa eine Sobel- und Canny-Kantenerkennung, ungenau sein, wenn sie eine mögliche Linie aus Schmutz, wechselnder Beleuchtung und anderem Rauschen erkennt, wodurch ein Sicherheitsrisiko entsteht. Zusätzlich sind die bekannten Algorithmen mit oder ohne dazugehörigen Spurstreifen kompliziert. Somit besteht in der Technik ein Bedarf an einem schnellen und robusten Haltelinien-Erkennungssystem, das die Verarbeitungszeit reduziert und die Fahrzeugsicherheit erhöht. Ferner besteht in der Technik ein Bedarf an einer Erkennung und Verfolgung der Haltelinie, um die Fahrzeugsicherheit weiter zu erhöhen.
  • Die EP 2 597 614 A1 offenbart ein Automobilkamerasystem und sein Kalibrierungsverfahren, und ein Kalibrierungsprogramm.
  • Die US 2004 / 0 105 579 A1 offenbart ein antriebsunterstützendes Gerät.
  • Die US 2003 / 0 197 660 A1 offenbart ein Bildanzeigegerät, -verfahren und -programm für Kraftfahrzeuge.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Gemäß den Lehren der vorliegenden Erfindung werden ein System gemäß Anspruch 1 und ein Verfahren zum Bereitstellen eines erweiterten Erkennungsbereichs einer Haltelinie auf einer Fahrbahn gemäß Anspruch 6 offenbart.
  • Zusätzliche Merkmale der vorliegenden Erfindung werden aus der nachstehenden Beschreibung und den beiliegenden Ansprüchen hervorgehen, die zusammen mit den beiliegenden Zeichnungen zu sehen sind.
  • Figurenliste
  • Es zeigen:
    • 1 eine Abbildung einer Draufsicht eines Fahrzeugs auf einer Fahrbahn vor einer Haltelinie, wobei das Fahrzeug ein Rundumsicht-Kamerasystem mit mehreren Kameras umfasst;
    • 2 eine Abbildung einer Draufsicht eines Fahrzeugs in der Nähe von Parkplatzlinien;
    • 3 eine Grafik mit Pixelwerten von X-Koordinaten auf der X-Achse und einem waagerechten Linienfilterergebnis auf der Y-Achse;
    • 4 eine Abbildung einer Draufsicht eines zusammengesetzten Bildes aus der Vogelperspektive;
    • 5 ein Ablaufschema eines Algorithmus, der Haltelinien schnell und robust erkennt;
    • 6 eine Abbildung eines Frontbildes von einer Frontkamera des Fahrzeugs;
    • 7 eine Abbildung eines unverzerrten Frontbildes von der Frontkamera;
    • 8 eine Abbildung eines entnommenen Frontbildes aus der unverzerrten Frontansicht;
    • 9 ein Ablaufschema eines Algorithmus, der eine Haltelinienerkennung in erweitertem Abstand bereitstellt; und
    • 10 eine Abbildung einer Verallgemeinerung eines Algorithmus zum Entnehmen eines oberen Bereichs eines Frontbildes.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Die folgende Diskussion der Ausführungsformen der Erfindung über ein System und Verfahren zur schnellen und robusten Halteliniendetektion ist rein beispielhafter Art und keineswegs dazu gedacht, die Erfindung oder ihre Anwendungen oder Verwendungen einzuschränken. Beispielsweise findet die vorliegende Erfindung Anwendung zum Erkennen einer beliebigen Linie oder eines Spurstreifens auf einer Oberfläche.
  • 1 ist eine Abbildung einer Draufsicht eines Fahrzeugs 10, das auf einer Fahrbahnspur 12 fährt, die durch Spurstreifen definiert ist, die auf der Fahrbahnspur 12 aufgemalt oder anderweitig angebracht sind, wozu eine äußere Spurgrenzenlinie 14 und eine innere Spurmittellinie 16 gehören. Eine Haltelinie 18 befindet sich auf der Fahrbahnspur 12 und gibt eine Stelle an, an der das Fahrzeug 10 anhalten soll. Die Haltelinie 18 ist durch eine Linie definiert, die auf der Fahrbahnspur 12 aufgemalt oder anderweitig angebracht ist.
  • Das Fahrzeug 10 umfasst ein Rundumsicht-Überwachungssystem mit einer Frontkamera 20, einer rechtsseitigen Kamera 22 und einer linksseitigen Kamera 24. Eine Heckkamera kann ebenfalls in dem Rundumsicht-Überwachungssystem enthalten sein, obwohl sie der Übersichtlichkeit halber nicht gezeigt wird. Die Kameras 20 bis 24 können beliebige Kameras sein, die für die hier beschriebenen Zwecke geeignet sind, von denen viele in der Automobiltechnik bekannt sind, die in der Lage sind, Licht oder eine andere Strahlung zu empfangen und die Lichtenergie unter Verwendung beispielsweise von ladungsgekoppelten Bauelementen (CCD) in elektrische Signale in einem Pixelformat umzuwandeln. Die Kameras 20 bis 24 generieren auf einer bestimmten Datenbildrate Einzelbilder aus Bilddaten, die zur späteren Verarbeitung gespeichert werden können. Die Kameras 20 bis 24 können in oder auf einer beliebigen geeigneten Struktur montiert sein, die Teil des Fahrzeugs 10 ist, wie etwa Stoßstangen, Stirnbretter, Kühler, Seitenspiegel, Türbleche usw., wie es der Fachmann verstehen und erkennen wird. Die Bilddaten von den Kameras 20 bis 24 werden an einen Prozessor 26 gesendet, der die Bilddaten verarbeitet, um Bilder zu generieren, wozu Bilder aus der Vogelperspektive gehören, die auf einer Fahrzeuganzeige 28 angezeigt werden.
  • Bekannte Kantendetektoren, wie etwa eine Sobel- und Canny-Kantenerkennung, können ungenau sein, wenn sie eine mögliche Linie aus Schmutz, wechselnder Beleuchtung und anderem Rauschen erkennt. Ein Linienfilteralgorithmus des Controllers 26, der nachstehend ausführlich beschrieben wird, ist beim Erkennen der Haltelinie 18 bei Vorhandensein von Schmutz, wechselnden Beleuchtungsverhältnissen und undeutlichen Markierungen robust. Unter Verwendung der Kameras 20 bis 24 und des Linienfilteralgorithmus des hier beschriebenen Controllers 26 ist eine zusammengesetzte Ansicht, die nachstehend ausführlich beschrieben wird, in der Lage, gleichzeitig die Haltelinie 18 (d.h. die waagerechte Linie) und die Spurstreifen 14 und 16 (d.h. die senkrechten Linien) sowohl schnell als auch robust zu entnehmen. Der hier beschriebene Linienfilteralgorithmus kann einfach eine einzelne Kamera verwenden, wie etwa die vordere Kamera 20, um auch die Haltelinie 18 zu erkennen.
  • Wenn man davon ausgeht, dass das Fahrzeug 10 auf der Fahrbahnspur 12 fährt, werden ein Satz von parallelen senkrechten Spurstreifen, die den Linien 14 und 16 entsprechen, und eine rechtwinklige Linie, die der Haltelinie 18 entspricht, unter Verwendung einer modifizierten Hough-Transformation erkannt. Der Linienfilteralgorithmus des Controllers 26 macht ausgiebig Gebrauch von dem Merkmal einer weißen aufgemalten Fahrbahnlinie, wie etwa von Parkplatzlinien, Spurstreifen und/oder Haltelinien, da die weiß aufgemalten Linien heller als ihre Umgebung sind. Ein Faltungskern mit 1x(2n+1) Elementen wird von dem Linienfilteralgorithmus verwendet, wie in Tabelle 1 gezeigt:
    Figure DE102015111907B4_0001
  • 2 bildet ein Fahrzeug 36 in der Nähe der weißen aufgemalten Linien 30 und 32 ab. Eine Erkennungslinie 34 ist eine beispielhafte Linie zur Erkennung für den Linienfilteralgorithmus, welche die weißen aufgemalten Linien 30 und 32 schneidet, wobei der Linienfilteralgorithmus des Controllers 26 das Vorhandensein einer Linie unter Verwendung der folgenden Gleichung bestimmt: H ( x , y ) = 1 n i = 0 n ( L ( x + i , y ) L ( x i , y ) )
    Figure DE102015111907B4_0002
    wobei H(x,y) das waagerechte Linienfilterergebnis am Pixel (x,y) ist, L der Pixelwert des Zielbildes, d.h. die Helligkeit, ist, x die X-Achsen-Koordinate ist und y die Y-Achsen-Koordinate ist.
  • 3 ist eine Grafik mit X-Koordinaten-Pixelwerten auf der X-Achse und dem waagerechten Linienfilterergebnis auf der Y-Achse, wobei 420 eine willkürliche Anzahl von Pixellinien in der senkrechten Richtung darstellt. Die in 3 gezeigte beispielhafte Grafik entspricht dem Linienfilterergebnis der beispielhaften Erkennungslinie 34 in 2 unter Verwendung von Gleichung (1). Obwohl der Linienfilteralgorithmus alle oder im Wesentlichen alle Pixel in einem Bild erkennt, wie etwa in dem Bild aus 2, ist die Erkennungslinie 34 die bei diesem Beispiel interessierende Linie, die durch die Grafik aus 3 dargestellt wird. Ein erstes Paar, das aus einer positiven und einer negativen Spitze in der Grafik besteht, entspricht dem Abschnitt der weißen aufgemalten Linie 30, welche die in 2 gezeigte Erkennungslinie 34 schneidet. Ein zweites Paar, das aus einer positiven und einer negativen Spitze in der Grafik besteht, entspricht der weißen aufgemalten Linie 32, welche die Erkennungslinie 34 schneidet, wie in 2 gezeigt. Obwohl eine kleine negative Spitze in der Grafik aus 3 zu sehen ist, entspricht dies einer Beleuchtungsänderung des Fahrbahnpflasters, wie etwa einem Schatten, der sich in dem Bild in der Nähe der linken Seite der Erkennungslinie 34 befindet (in 3 der Übersichtlichkeit halber nicht gezeigter Schatten). Da diese negative Spitze klein ist und ihr keine positive Spitze vorausgeht, d.h. der Algorithmus kein Paar erkennt, das aus einer positiven und einer negativen Spitze besteht, erkennt der Algorithmus, dass dies keine weiße aufgemalte Linie angibt, weil eine positive Spitze fehlt. Es ist der Unterschied zwischen der positiven Spitze und der negativen Spitze in einem bestimmten Paar, das aus einer positiven und einer negativen Spitze besteht, der eine weiße aufgemalte Linie angibt. Somit wird unter Verwendung des Linienfilteralgorithmus des Controllers 26, der den in Tabelle 1 gezeigten Linienfilterkern verwendet und der die Gleichung (1) verwendet, ein schneller und robuster Algorithmus zur Erkennung einer weißen aufgemalten Linie erreicht, der Faltungsergebnisse erzeugt, so dass alle weißen Linien in den Bildern, die von dem Controller 26 verarbeitet werden, gepaarte positive und negative Spitzen in den Ergebnissen aufweisen, wie in dem Beispiel aus 2 und 3 gezeigt.
  • Da die Haltelinienerkennung die Entnahme sowohl von waagerechten (Haltelinien-) Linien als auch von senkrechten (Spurstreifen-) Linien erfordert, muss die zuvor besprochene Linienfilterung unter Verwendung der folgenden Gleichung senkrecht gefiltert werden, um eine Haltelinie zu erkennen: V ( x , y ) = 1 n j = 0 n ( L ( x + i , j ) L ( x i , j ) )
    Figure DE102015111907B4_0003
    wobei V(x,y) das senkrechte Linienfilterergebnis am Pixel (x,y) ist.
  • Typische Faltungsberechnungen in der senkrechten Richtung benötigen viel mehr Zeit als Faltungsberechnungen in der waagerechten Richtung, weil Berechnungen in der waagerechten Richtung eine Anweisung für mehrere Daten (SIMD) verwenden können, was die Verarbeitung beschleunigt. Um die hier beschriebenen Berechnungen der senkrechten Spurstreifen 14 und 16 und der waagerechten Haltelinie 18 zu beschleunigen, dreht ein Algorithmus des Controllers 26 ein ursprüngliches Bild aus der Vogelperspektive um 90 im Uhrzeigersinn oder im Gegenuhrzeigersinn und fügt das gedrehte Bild mit dem ursprünglichen Bild zusammen, um ein zusammengesetztes Bild aus der Vogelperspektive zu erstellen.
  • 4 bildet eine Draufsicht eines zusammengesetzten Bildes ab, das ein ursprüngliches Bild aus der Vogelperspektive mit entnommenen senkrechten Linien 40 und 42, die Spurstreifen entsprechen, und ein gedrehtes Bild aus der Vogelperspektive mit einer entnommenen senkrechten Linie 44, die einer Haltelinie des Bildes entspricht, umfasst. Durch das Erstellen des zusammengesetzten Bildes, das die ursprüngliche Ansicht aus der Vogelperspektive und die gedrehte Ansicht aus der Vogelperspektive umfasst, ist der Linienfilteralgorithmus des Controllers 26 in der Lage, nur waagerechtes Linienfiltern auszuführen, so dass die bestimmten gepaarten Spitzen (d.h. eine positive Spitze gefolgt von einer negativen Spitze) mit einer Breitenbegrenzung von Spitze zu Spitze der gepaarten Spitzen entnommen werden, die der Breite von Spurstreifen und Haltelinien entspricht. Auf diese Art und Weise wird ein optimierter paralleler Verarbeitungsansatz verwendet, um sowohl Spurstreifen als auch Haltelinien schnell und robust auszufiltern und effizient zu bestimmen.
  • Unter Verwendung des zuvor besprochenen Linienfilters kann ein waagerechtes Linienfilter verwendet werden, um senkrechte Linien durch Drehen und Zusammenfügen eines Bildes, so dass die senkrechten Linien waagerecht sind, zu erkennen. Auch kann wie zuvor beschrieben ein senkrechtes Linienfilter verwendet werden, um waagerechte weiße Linien durch Drehen und Zusammenfügen eines Bildes, so dass die waagerechten Linien senkrecht sind, zu erkennen. Schließlich ist ein diagonales Linienfilter in der Lage, die rechtwinkligen weißen Linien durch Drehen eines Bildes um 45 und Zusammenfügen des Bildes, um ein zusammengesetztes Bild zu erstellen, wie zuvor besprochen, zu erkennen. Wenn beispielsweise der Linienfilteralgorithmus in der waagerechten Richtung verwendet wird, d.h. unter Verwendung der Gleichung (1), können auch senkrechte Fahrbahnlinien erkannt werden, weil das interessierende Bild um 90 gedreht ist. Alternativ können waagerechte Fahrbahnlinien unter Verwendung der Gleichung (2) durch Drehen eines Bildes, das senkrechte Linien umfasst, um 90 und Zusammenfügen des Bildes, um ein zusammengesetztes Bild zu erstellen, wie zuvor besprochen, erkannt werden. Um diagonale Linien zu erkennen, kann ein Bild beispielsweise um 45 gedreht werden, und der Linienfilteralgorithmus kann eine Faltungsmatrix verwenden, wobei die diagonalen Elemente 1-1, - 1, ..., 0, 1, 1, ..., 1} sind. Das Ergebnis dieses Linienfilterprozesses ist das gleiche, ein Paar, das eine positive und eine negative Spitze umfasst und das der Breite einer weißen Linie entspricht (wenn weiße aufgemalte Fahrbahnlinien in dem Bild vorhanden sind, das von dem Linienfilteralgorithmus analysiert wird). Alternativ können dunkle Linien von dem Linienfilteralgorithmus erkannt werden, was durch ein Paar angegeben würde, das eine negative Spitze gefolgt von einer positiven Spitze umfasst.
  • Die Nachbehandlung erfolgt, um eine senkrechte Verbindungsfähigkeit zu untersuchen. Alle möglichen Punkte werden entfernt, wenn der Algorithmus keinen senkrechten Nachbarn innerhalb von bestimmten Reihen in der Nähe finden kann. Wenn beispielsweise der Punkt (x, y) ein möglicher Punkt einer weißen Linie in einem Bild ist, besteht die Prüfung der senkrechten Verbindungsfähigkeit darin, zu überprüfen, ob seine benachbarten Pixel, z.B. (x, y-1), (x, y+1), (x-1, y-1), (x-1, y+1), (x+1, y-1), (x+1, y+1) und (x, y-2), (x, y+2) ebenfalls mögliche Punkte sind. Falls die benachbarten Punkte, wie etwa diejenigen, die zuvor beschrieben wurden, keine möglichen Punkte sind, wird der mögliche Punkt (x, y) entfernt, weil die senkrechte Verbindungsfähigkeit fehlt.
  • Die endgültige Linienentnahme kann einen Hough-Transformationsalgorithmus umfassen, der auf den Entnahmewinkel +/- 20 Grad eingeschränkt ist, und unter der Annahme, dass das Fahrzeug auf einer Fahrbahnspur fährt.
  • 5 ist ein Ablaufschema 46 eines Algorithmus, der Haltelinien schnell und robust erkennt. Der Algorithmus beginnt in dem Kästchen 48 und erstellt in dem Kästchen 50 ein Bild aus der Vogelperspektive, wie zuvor beschrieben. Das Ergebnis des Bildes aus der Vogelperspektive wird wie gewünscht in dem Kästchen 52 gedreht, und in dem Kästchen 54 wird ein zusammengesetzte Bild erstellt, das ein ursprüngliches Bild aus der Vogelperspektive und ein gedrehtes Bild aus der Vogelperspektive umfasst, wie zuvor ausführlich beschrieben. Das zuvor beschriebene waagerechte Linienfilter wird derart verarbeitet, dass mögliche Punkte in dem zusammengesetzten Bild in dem Kästchen 56 entnommen werden, und in dem Kästchen 58 eine Prüfung einer senkrechten Verbindungsfähigkeit ausgeführt wird. In dem Kästchen 60 wird ein modifizierter Hough-Transformationsalgorithmus verwendet, um beispielsweise nur senkrechte Linien zu entnehmen, und der Algorithmus verwendet das entnommene Ergebnis, um in der Entscheidungsraute 62 zu bestimmen, ob mögliche Linien sowohl in dem ursprünglichen Bild aus der Vogelperspektive als auch in dem gedrehten Bild aus der Vogelperspektive erkannt werden. Wenn ja, werden sowohl die Haltelinie als auch die Straßenspurstreifen in dem Kästchen 64 ausgegeben. Wenn nein, bestimmt der Algorithmus in der Entscheidungsraute 66, ob mögliche Linien nur in dem gedrehten Bild aus der Vogelperspektive erkannt werden. Wenn ja, wird in dem Kästchen 68 nur eine Haltelinie ausgegeben. Wenn nein, wird nichts ausgegeben.
  • Die Verwendung des Rundumsicht-Überwachungssystems, wie zuvor beschrieben, birgt gewisse Nachteile. Beispielsweise kann das Rundumsicht-Überwachungssystem einen begrenzten Haltelinien-Erkennungsabstand aufweisen, weil die Installationsposition der Frontkamera 20 sehr niedrig ist, und auch weil die Vogelperspektive im Fahrzeugfrontbereich über eine bestimmte Entfernung verschwommen ist. Da der Erkennungsabstand durch die Kameraposition, Linsenmerkmale und andere Faktoren bestimmt wird, ist der allgemeine Erkennungsabstand für Haltelinien kürzer als ungefähr 6 m. Dieser Abstand ist zu kurz, damit ein selbstständiges Fahrzeug anhalten könnte oder einen Fahrer zum Anhalten warnen könnte. Um dieses Problem zu lösen, umfasst der Controller 26 einen Projektionsalgorithmus, der einen oberen Teil eines ursprünglichen Frontbildes auf eine erweiterte Vogelperspektive projiziert, wie es nachstehend ausführlich beschrieben wird.
  • 6 bildet ein Frontbild von der Frontkamera 20 des Fahrzeugs 10 ab. Typischerweise ist nur ein Teil des Frontbildes in einer Vogelperspektive zu sehen. Eine gestrichelte sechseckige Form 70 gibt den Bereich des Frontbildes an, der typischerweise in einem Bild aus der Vogelperspektive zu sehen ist. Um den Haltelinien-Erkennungsabstand zu verbessern, verwendet der Projektionsalgorithmus des Controllers 25 den oberen Teil der unverzerrten Frontbilddaten, um eine erweiterte Haltelinien-Erkennungsfläche zu erstellen. 7 ist eine Abbildung eines unverzerrten Frontbildes von der Frontkamera 20, wobei ein gestricheltes Rechteck 72 der obere Teil des Bildes ist, der verwendet wird, um eine erweiterte Erkennungsfläche zu erstellen. 8 ist eine Ansicht des Bildes, die aus dem Rechteck 72 entnommen wird.
  • 9 ist ein Ablaufschema 80 eines Algorithmus des Controllers 26, der eine Haltelinienerkennung mit erweitertem Abstand bereitstellt. Der Algorithmus beginnt in dem Kästchen 82. Dann bestimmt der Algorithmus in der Entscheidungsraute 84, ob die Spurstreifen 14 und 16 aus der Vogelperspektive erfolgreich erkannt werden. Wenn die Spurstreifen 14 und 16 erfolgreich erkannt werden, wird die durchschnittliche Pixelintensität auf den Spurstreifen 14 und 16 als Referenzwert für eine obere Spurstreifenentnahme in dem Kästchen 86 berechnet. Wenn die Spurstreifen 14 und 16 nicht erkannt werden, wird in dem Kästchen 88 ein vorbestimmter sicherer Wert, Tw, ausgewählt, um als Schwelle für die obere Spurstreifenentnahme zu dienen. Tw = 1,2 × Imax, wobei Imax der Spitzenwert des Intensitätshistogramms der AVM-Vogelperspektive ist, welcher der Straßenflächenintensität entspricht.
  • Dann wird in dem Kästchen 90 ein oberer Bereich des Frontbildes von der Frontkamera 20 zur Bestimmung möglicher Haltelinien entnommen. Die Bestimmung verwendet weiße Linienpixel anhand eines einfachen Binarisierungsverfahrens, wobei die Schwelle die durchschnittliche Intensität der entnommenen Spurstreifen oder ein vorbestimmter sicherer Wert ist, wie zuvor beschrieben. Alle entnommenen weißen Linienpixel werden gemäß einer Kamerakalibrierungs-Suchtabelle (LUT) in dem Kästchen 92 auf eine Vogelperspektive erneut abgebildet, wie es dem Fachmann bekannt ist.
  • 10 ist eine Abbildung einer Verallgemeinerung, wie der Projektionsalgorithmus den oberen Bereich in dem Kästchen 90 entnimmt. Das Rechteck 102 ist der entnommene obere Bereich des Frontbildes, wie in 8 gezeigt. In dem Rechteck 104 werden Spurstreifen erkannt. In dem Rechteck 106 werden die entnommenen weißen Linienpixel gemäß der Kamerakalibrierungs-LUT auf der Vogelperspektive erneut abgebildet. In dem Kästchen 94 erkennt der Projektionsalgorithmus auch eine entnommene Spitze unter Verwendung eines gleitenden Mittelwertfilters. Beispielsweise werden für alle N Reihen Profilwerte hinzugefügt, um die Ausgabe zu glätten.
  • Ferner verfolgt der Algorithmus des Controllers 26 in dem Kästchen 96 die Position und Bewegung einer möglichen Haltelinie des aktuellen Einzelbildes in den folgenden Bildern. Die Wahrscheinlichkeit der Existenz einer Haltelinie nimmt in dem Maße zu, wie die Verfolgung fortfährt. In dem Kästchen 98 werden die Informationen über die verfolgte Haltelinie dem Algorithmus zum Erkennen einer Haltelinie bereitgestellt, wie in dem Ablaufschema aus 5 beschrieben, um die Position der verfolgten Haltelinie vorherzusagen.
  • Wie es der Fachmann sehr wohl verstehen wird, können sich die mehreren und diversen Schritte und Prozesse, die hier besprochen wurden, um die Erfindung zu beschreiben, auf Vorgänge beziehen, die von einem Computer, einem Prozessor oder einer anderen elektronischen Rechenvorrichtung ausgeführt werden, die Daten unter Verwendung eines elektrischen Phänomens manipuliert und/oder umformt. Derartige Computer und elektronische Vorrichtungen können diverse flüchtige und/oder nicht flüchtige Speicher verwenden, wozu ein nicht vorübergehendes computerlesbares Medium gehört, auf dem ein ausführbares Programm gespeichert ist, das diversen Code oder ausführbare Anweisungen umfasst, die von dem Computer oder Prozessor ausgeführt werden können, wobei der Speicher und/oder das computerlesbare Medium alle Formen und Arten von Speichern und anderen computerlesbaren Medien umfassen kann bzw. können.
  • Die vorstehende Diskussion offenbart und beschreibt rein beispielhafte Ausführungsformen der vorliegenden Erfindung. Der Fachmann wird aus dieser Diskussion und aus den beiliegenden Zeichnungen und Ansprüchen ohne Weiteres erkennen, dass diverse Änderungen, Modifikationen und Variationen daran vorgenommen werden können, ohne Geist und Umfang der Erfindung, wie sie in den nachstehenden Ansprüchen definiert wird, zu verlassen.

Claims (6)

  1. System in einem Fahrzeug (10), das einen erweiterten Erkennungsbereich einer Haltelinie auf einer Fahrbahn bereitstellt, wobei das System Folgendes umfasst: - eine Frontkamera (20) auf dem Fahrzeug (10), die Bilder der Fahrbahn vor dem Fahrzeug (10) bereitstellt; und - einen Controller (26), der programmiert ist, um die Bilder von der Frontkamera (20) zu empfangen, wobei der Controller (26) ferner programmiert ist, um einen oberen Abschnitt eines unverzerrten Frontbildes von der Frontkamera (20) zu entnehmen, wobei der obere Abschnitt auf ein erweitertes Bild aus der Vogelperspektive erneut abgebildet wird, so dass der Erkennungsbereich der Haltelinie erweitert ist, wobei der Controller (26) ferner programmiert ist, um Spurstreifen in dem unverzerrten Frontbild zu erkennen, um einen Referenzwert zu berechnen, wobei der Referenzwert verwendet wird, um einen Bereich des Frontkamerabildes zu bestimmen, der als der obere Abschnitt zu entnehmen ist und auf das erweiterte Bild aus der Vogelperspektive erneut abzubilden ist und ferner umfassend das Verwenden eines vorbestimmten sicheren Wertes als Referenzwert, wenn die Spurstreifen in den Bildern von der Frontkamera (20) nicht erkannt werden, wobei der Controller (26) ferner programmiert ist, um eine erweiterte Spitze aus dem entnommenen oberen Abschnitt des Frontbildes zu erkennen, die der Haltelinie entspricht.
  2. System nach Anspruch 1, wobei der Controller (26) ferner programmiert ist, um eine mögliche Position einer Haltelinie aus einem ersten entnommenen Bild in folgenden entnommenen Bildern zu verfolgen.
  3. System nach Anspruch 2, wobei eine Position der Haltelinie unter Verwendung der möglichen Position der Haltelinie, die in den folgenden entnommenen Bildern verfolgt wird, vorhergesagt wird.
  4. System nach Anspruch 2, wobei die mögliche Position der Haltelinie unter Verwendung von weißen Linienpixeln anhand eines Binarisierungsverfahrens und des erneuten Abbildens der weißen Linienpixel auf eine Vogelperspektive gemäß einer Kamerakalibrierungs-Suchtabelle (LUT) bestimmt wird.
  5. System nach Anspruch 1, wobei der Controller (26) ferner programmiert ist, um eine entnommene Spitze aus dem entnommenen oberen Abschnitt der Bilder unter Verwendung eines gleitenden Mittelwertfilters zu erkennen.
  6. Verfahren zum Bereitstellen eines erweiterten Erkennungsbereichs in einem Fahrzeug (10) für eine Haltelinie auf einer Fahrbahn, wobei das Verfahren folgende Schritte umfasst: - Bereitstellen einer Frontkamera (20) auf dem Fahrzeug (10), die Bilder der Fahrbahn vor dem Fahrzeug (10) bereitstellt; und - Verwenden eines Controllers (26), der programmiert ist, um die Bilder von der Frontkamera (20) zu empfangen, wobei der Controller (26) ferner programmiert ist, um einen oberen Abschnitt eines unverzerrten Frontbildes von der Frontkamera (20) zu entnehmen, wobei der obere Abschnitt auf ein erweitertes Bild aus der Vogelperspektive erneut abgebildet wird, so dass der Erkennungsbereich der Haltelinie erweitert ist, wobei der Controller (26) ferner programmiert ist, um Spurstreifen in dem unverzerrten Frontbild zu erkennen, um einen Referenzwert zu berechnen, wobei der Referenzwert verwendet wird, um einen Bereich des Frontkamerabildes zu bestimmen, der als der obere Abschnitt zu entnehmen ist und auf das erweiterte Bild aus der Vogelperspektive erneut abzubilden ist ferner umfassend das Verwenden eines vorbestimmten sicheren Wertes als Referenzwert, wenn die Spurstreifen in den Bildern von der Frontkamera (20) nicht erkannt werden, wobei der Controller (26) ferner programmiert ist, um eine erweiterte Spitze aus dem entnommenen oberen Abschnitt des Frontbildes zu erkennen, die der Haltelinie entspricht.
DE102015111907.2A 2014-07-23 2015-07-22 Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung Active DE102015111907B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201462027953P 2014-07-23 2014-07-23
US62/027,953 2014-07-23
US14/803,894 US10318824B2 (en) 2014-07-23 2015-07-20 Algorithm to extend detecting range for AVM stop line detection
US14/803,894 2015-07-20

Publications (2)

Publication Number Publication Date
DE102015111907A1 DE102015111907A1 (de) 2016-01-28
DE102015111907B4 true DE102015111907B4 (de) 2023-08-24

Family

ID=55065713

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015111907.2A Active DE102015111907B4 (de) 2014-07-23 2015-07-22 Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung

Country Status (3)

Country Link
US (1) US10318824B2 (de)
CN (1) CN105303157B (de)
DE (1) DE102015111907B4 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107891808B (zh) * 2016-09-30 2020-06-19 比亚迪股份有限公司 行车提醒方法、装置及车辆
US10594934B2 (en) * 2016-11-17 2020-03-17 Bendix Commercial Vehicle Systems Llc Vehicle display
US10214240B2 (en) * 2017-04-20 2019-02-26 GM Global Technology Operations LLC Parking scoring for autonomous vehicles
TWM554656U (zh) * 2017-10-03 2018-01-21 亨龍工業有限公司 剝線工具
US10748303B2 (en) * 2018-10-03 2020-08-18 Gentex Corporation Rear facing lane detection overlay
US11003920B2 (en) * 2018-11-13 2021-05-11 GM Global Technology Operations LLC Detection and planar representation of three dimensional lanes in a road scene
US11430226B2 (en) * 2019-01-14 2022-08-30 Boe Technology Group Co., Ltd. Lane line recognition method, lane line recognition device and non-volatile storage medium
KR102445635B1 (ko) * 2020-11-26 2022-09-21 주식회사 와이즈오토모티브 차량의 정지선 검출 방법
US11749000B2 (en) 2020-12-22 2023-09-05 Waymo Llc Stop location change detection

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030197660A1 (en) 2002-04-18 2003-10-23 Nissan Motor Co., Ltd. Image display apparatus, method, and program for automotive vehicle
US20040105579A1 (en) 2001-03-28 2004-06-03 Hirofumi Ishii Drive supporting device
EP2597614A1 (de) 2011-11-28 2013-05-29 Clarion Co., Ltd. Automobilkamerasystem und sein Kalibrierungsverfahren, und Kalibrierungsprogramm

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7466843B2 (en) * 2000-07-07 2008-12-16 Pryor Timothy R Multi-functional control and entertainment systems
US7406181B2 (en) * 2003-10-03 2008-07-29 Automotive Systems Laboratory, Inc. Occupant detection system
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
JP2007099261A (ja) * 2005-09-12 2007-04-19 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP5049300B2 (ja) * 2009-01-20 2012-10-17 クラリオン株式会社 障害物検出表示装置
US9843742B2 (en) * 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US8704653B2 (en) * 2009-04-02 2014-04-22 GM Global Technology Operations LLC Enhanced road vision on full windshield head-up display
CN103488976B (zh) * 2013-09-17 2017-02-08 北京联合大学 一种基于智能驾驶中停止线实时检测的距离测量的方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040105579A1 (en) 2001-03-28 2004-06-03 Hirofumi Ishii Drive supporting device
US20030197660A1 (en) 2002-04-18 2003-10-23 Nissan Motor Co., Ltd. Image display apparatus, method, and program for automotive vehicle
EP2597614A1 (de) 2011-11-28 2013-05-29 Clarion Co., Ltd. Automobilkamerasystem und sein Kalibrierungsverfahren, und Kalibrierungsprogramm

Also Published As

Publication number Publication date
DE102015111907A1 (de) 2016-01-28
CN105303157B (zh) 2019-01-01
CN105303157A (zh) 2016-02-03
US20160026878A1 (en) 2016-01-28
US10318824B2 (en) 2019-06-11

Similar Documents

Publication Publication Date Title
DE102015111907B4 (de) Algorithmus zum Erweitern des Erkennungsbereichs für eine AVM-Haltelinienerkennung
DE102007043164B4 (de) Nebelerkennungsvorrichtung für Kraftfahrzeuge
DE102005015837B4 (de) Fahrspurerfassungsvorrichtung
WO2019174682A1 (de) Verfahren und vorrichtung zur erkennung und bewertung von fahrbahnzuständen und witterungsbedingten umwelteinflüssen
DE102015205225A1 (de) Verfahren und Vorrichtung zum Erkennen eines Zielobjekts im toten Winkel eines Fahrzeugs
DE102011053002A1 (de) Fahrspurliniebeurteilungsvorrichtung
DE102009003697A1 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102012112104A1 (de) Verfahren und vorrichtung zur befahrbarkeitsanalyse
DE102017218366A1 (de) Verfahren und system zur fussgängererfassung in einem fahrzeug
DE102014112820A9 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102014112797A1 (de) Fahrzeugaußenumgebungerkennungsvorrichtung
DE102014012653A1 (de) Bildverarbeitungsverfahren für Fahrzeugkamera und dieses anwendende Bildverarbeitungsvorrichtung
EP3520023B1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera
DE102013012930A1 (de) Verfahren zum Bestimmen eines aktuellen Abstands und/oder einer aktuellen Geschwindigkeit eines Zielobjekts anhand eines Referenzpunkts in einem Kamerabild, Kamerasystem und Kraftfahrzeug
DE102013103952B4 (de) Spurerkennung bei voller Fahrt mit einem Rundumsichtsystem
DE102012024878A1 (de) Verfahren zum Detektieren eines Zielobjekts anhand eines Kamerabilds durch Clusterbildung aus mehreren benachbarten Bildzellen, Kameraeinrichtung und Kraftfahrzeug
DE102014113359B4 (de) Filtervorrichtung und Umgebungserkennungssystem
DE102017205630A1 (de) Kameravorrichtung und Verfahren zur Erfassung eines Umgebungsbereichs eines Fahrzeugs
DE102014109063A1 (de) Verfahren zur Detektion eines Objekts mit einer vorbestimmten geometrischen Form in einem Umgebungsbereich eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102013103953A1 (de) Spurerkennung bei voller Fahrt unter Verwendung mehrerer Kameras
DE102013022050A1 (de) Verfahren zum Verfolgen eines Zielfahrzeugs, insbesondere eines Motorrads, mittels eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
EP3520020B1 (de) Verkehrszeichenklassifikation in einem umgebungsbereich eines kraftfahrzeugs
EP3520025B1 (de) Detektion und validierung von objekten aus sequentiellen bildern einer kamera mittels homographien
DE102015111906A1 (de) Schneller und robuster Halteliniendetektor
DE102015204529A1 (de) Verfahren und Vorrichtung zur Objekterkennung in einem Fortbewegungsmittel

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: SCHWEIGER & PARTNERS, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final