[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102012018471A1 - Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug - Google Patents

Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug Download PDF

Info

Publication number
DE102012018471A1
DE102012018471A1 DE102012018471A DE102012018471A DE102012018471A1 DE 102012018471 A1 DE102012018471 A1 DE 102012018471A1 DE 102012018471 A DE102012018471 A DE 102012018471A DE 102012018471 A DE102012018471 A DE 102012018471A DE 102012018471 A1 DE102012018471 A1 DE 102012018471A1
Authority
DE
Germany
Prior art keywords
image
detected
images
boundaries
image region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102012018471A
Other languages
English (en)
Inventor
Carsten Knöppel
Markus Enzweiler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102012018471A priority Critical patent/DE102012018471A1/de
Publication of DE102012018471A1 publication Critical patent/DE102012018471A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Erkennung von Begrenzungen (G) eines Fahrbahnrandes für ein Fahrzeug, bei dem eine Umgebung des Fahrzeugs mittels zumindest einer Stereokameraanordnung (1) erfasst wird, wobei anhand erfasster Bilddaten Hypothesen (H1 bis Hm) zur Lage und/oder zum Verlauf der Begrenzungen (G) in den Bilddaten erzeugt werden. Erfindungsgemäß werden die Hypothesen (H1 bis Hm) in einem Trackingverfahren zeitlich nachverfolgt und zeitlich nachverfolgte Bildbereiche (BB1, BB2) werden klassifiziert, wobei die Klassifizierung in Bildbereichen (BB1) zumindest eines mittels zumindest einer Einzelkamera (1.1, 1.2) der Stereokameraanordnung (1) erfassten Einzelbildes (B1 bis Bn) und in Bildbereichen (BB2) zumindest eines aus den Bilddaten in einer stereoskopischen Bildverarbeitung erzeugten Disparitätsbilds (DB1 bis DBx) durchgeführt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Erkennung von Begrenzungen eines Fahrbahnrandes für ein Fahrzeug, bei dem eine Umgebung des Fahrzeugs mittels zumindest einer Stereokameraanordnung erfasst wird, wobei anhand erfasster Bilddaten Hypothesen zur Lage und/oder zum Verlauf der Begrenzungen in den Bilddaten erzeugt werden.
  • Aus der DE 10 2009 039 568 A1 sind ein Verfahren und eine Vorrichtung zur Erkennung von Objekten bekannt, wobei aus Bildern einer Szene Intensitätsdaten und Tiefendaten oder Intensitätsdaten und Disparitätsdaten erfasst werden. Anhand der Intensitätsdaten und Tiefendaten oder der Intensitätsdaten und Disparitätsdaten wird mittels zumindest eines Musterklassifikators zwischen verschiedenen Objektklassen in den Bildern unterschieden und ein jeweiliges Objekt wird einer Objektklasse zugeordnet. Als Objektklasse werden dabei Elemente einer Infrastruktur einer Umgebung eines Fahrzeugs vorgegeben, wobei die Elemente Fahrbahnbegrenzungen und verschiedene Randbebauungen der Fahrbahn umfassen. Die Intensitätsdaten und Tiefendaten oder die Intensitätsdaten und Disparitätsdaten werden anhand eines passiven Messverfahrens ermittelt, wobei die Intensitätsdaten aus einem mittels einer ersten Bildererfassungseinheit erfassten ersten Bild ermittelt werden. Die Tiefendaten oder Disparitätsdaten werden aus weiteren Bildern ermittelt, welche mittels zumindest zwei weiteren Bilderfassungseinheiten erfasst werden. Ferner werden die Intensitätsdaten und die Tiefendaten oder die Intensitätsdaten und Disparitätsdaten zu einem Merkmalsvektor extrahiert und verknüpft, wobei der Merkmalsvektor dem Musterklassifikator als Eingangsinformation zugeführt wird.
  • Weiterhin ist aus der DE 10 2004 057 296 A1 eine Fahrassistenzvorrichtung zur Warnung eines Führers eines Kraftfahrzeugs vor einem drohenden Abkommen von der Fahrbahn oder einem Verlassen der Fahrspur mit einem bildgebenden Sensor bekannt. Mit dem bildgebenden Sensor ist eine Auswertevorrichtung zur Erkennung von Fahrbahnrand- und Fahrbahnmarkierungen und Fahrbahnrändern in dem vom bildgebenden Sensor erfassten Bereich verbunden. Mit der Auswertevorrichtung ist eine Warnvorrichtung verbunden. Zusätzlich ist als abstandgebender Sensor eine Stereokamera mit der Auswertevorrichtung verbunden, mit der der Abstand zu gegenüber der Fahrbahnoberfläche erhabenen Objekten im Bereich des Fahrbahnrandes und zu einer Kante, an der die Fahrbahnoberfläche im Bereich des Fahrbahnrandes endet und zu einem tieferen Umland hin abfällt, bestimmbar ist. Bei den erhabenen Objekten im Bereich des Fahrbahnrandes handelt es sich um eine bauliche Begrenzung des Fahrbahnrandes, wobei die bauliche Begrenzung als Bordsteinkante ausgebildet ist.
  • Aus der EP 1 705 901 A2 sind ein Verfahren und eine Vorrichtung zur Bildverarbeitung bekannt, wobei mittels einer Erfassungseinheit anhand des so genannten Template-Matchings Bilder von Fahrbahnmarkierungen detektiert werden.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Erkennung von Begrenzungen eines Fahrbahnrandes für ein Fahrzeug anzugeben.
  • Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem Verfahren zur Erkennung von Begrenzungen eines Fahrbahnrandes für ein Fahrzeug wird eine Umgebung des Fahrzeugs mittels zumindest einer Stereokameraanordnung erfasst, wobei anhand erfasster Bilddaten Hypothesen zur Lage und/oder zum Verlauf der Begrenzungen in den Bilddaten erzeugt werden.
  • Erfindungsgemäß werden die Hypothesen in einem Trackingverfahren zeitlich nachverfolgt und zeitlich nachverfolgte Bildbereiche werden klassifiziert, wobei die Klassifizierung in Bildbereichen zumindest eines mittels zumindest einer Einzelkamera der Stereokameraanordnung erfassten Einzelbildes und in Bildbereichen zumindest eines aus den Bilddaten in einer stereoskopischen Bildverarbeitung erzeugten Disparitätsbilds durchgeführt wird.
  • Das erfindungsgemäße Verfahren ermöglicht in besonders vorteilhafter Weise eine zuverlässige und robuste Erkennung sowie Feinlokalisierung der Begrenzungen von Fahrbahnrändern, insbesondere von Spur- und Bordsteinverläufen in Grauwert- und Disparitätsbildern. Das Trackingverfahren ermöglicht die Detektion möglicher Hypothesen, d. h. möglicher Kandidaten von Spur- und Bordsteinverläufen. Auch ist eine Vorsteuerung anhand einer Groblokalisierung aus digitalen Karten möglich. Ferner ermöglicht das Verfahren zum einen eine Erweiterung bereits bestehender Funktionen zur Fahrspurerkennung im außerstädtischen und innerstädtischen Bereich und zum anderen eine verbesserte Eigenlokalisierung im innenstädtischen Bereich.
  • Weiterhin wird die Erhöhung der Robustheit der Spurerkennung in außerstädtischen und innerstädtischen Bereichen verbessert, da typische störende Signale, beispielsweise hervorgerufen durch Teerfugen oder Spiegelungen auf nasser Fahrbahn, welche von bekannten trackingbasierten Verfahren als Begrenzungen erkannt werden, von echten Begrenzungen unterschieden werden können.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 schematisch einen Ablauf des erfindungsgemäßen Verfahrens zur Erkennung von Begrenzungen eines Fahrbahnrandes für ein Fahrzeug, und
  • 2 schematisch mittels einer Stereokameraanordnung erfasste Bilddaten einer Umgebung des Fahrzeugs.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • In 1 ist ein möglicher Ablauf des erfindungsgemäßen Verfahrens zur Erkennung von Begrenzungen G eines Fahrbahnrandes für ein nicht gezeigtes Fahrzeug dargestellt.
  • Zunächst wird mittels einer fahrzeugfest angeordneten Stereokameraanordnung 1, welche zwei in einem bekannten Abstand und einem bekannten Winkel zueinander angeordnete Einzelkameras 1.1, 1.2 umfasst, eine Umgebung des Fahrzeugs erfasst.
  • Mittels der Stereokameraanordnung 1 werden erfasste Bilddaten, d. h. erfasste Einzelbilder B1 bis Bn der Einzelkameras 1.1, 1.2, einer ersten Auswerteeinheit 2 zugeführt, welche als so genannter Hypothesen-Tracker ausgebildet ist. Bei den Einzelbildern B1 bis Bn handelt es sich insbesondere um Grauwertbilder. Mittels der ersten Auswerteeinheit 2 werden anhand der Einzelbilder B1 bis Bn Hypothesen H1 bis Hm zur Lage und zum Verlauf der Begrenzungen G in den Einzelbildern B1 bis Bn erzeugt und die Hypothesen H1 bis Hm werden in einem Trackingverfahren, beispielsweise mittels eines Kalmanfilters, zeitlich nachverfolgt. Dabei wird insbesondere nach als Fahrbahnmarkierungen FM und Bordsteine BS ausgebildeten Begrenzungen G in den Einzelbildern B1 bis Bn gesucht. Das heißt, anhand der Hypothesen H1 bis Hm werden Bildbereiche BB1 in den Einzelbildern B1 bis Bn erzeugt, an welchen sich hypothetisch Begrenzungen G der Fahrbahn befinden, und zeitlich nachverfolgt. Ein solcher Bildbereich BB1 ist schematisch in 2 dargestellt.
  • Die erste Auswerteeinheit 2 ist mit einer digitalen Karte 3 gekoppelt, welche beispielsweise Bestandteil einer nicht dargestellten Navigationsvorrichtung des Fahrzeugs ist. Von der digitalen Karte 3 werden Kartendaten D an die erste Auswerteeinheit 2 übertragen.
  • Weiterhin ist die erste Auswerteeinheit 2 mit einer zweiten Auswerteeinheit 4 gekoppelt, welcher von der ersten Auswerteeinheit 2 die Einzelbilder B1 bis Bn und die Hypothesen H1 bis Hm zugeführt werden.
  • Auch die zweite Auswerteeinheit 4 ist mit der digitalen Karte 3 gekoppelt, von welcher Kartendaten D an die zweite Auswerteeinheit 2 übertragen werden. Ferner ist die zweite Auswerteeinheit 4 mit der Stereokameraanordnung 1 gekoppelt, wobei der zweiten Auswerteeinheit 4 von der Stereokameraanordnung 1 aus den Einzelbildern B1 bis Bn in einer stereoskopischen Bildverarbeitung erzeugte Disparitätsbilder DB1 bis DBx zugeführt werden. Mittels der zweiten Auswerteeinheit 4 wird in den Disparitätsbildern DB1 bis DBx nach als Fahrbahnmarkierungen FM und Bordsteine BS ausgebildeten Begrenzungen G gesucht. Das heißt, es werden Hypothesen H1 bis Hm zur Lage und zum Verlauf der Begrenzungen G in den Disparitätsbildern DB1 bis DBx erzeugt.
  • Diese Hypothesen H1 bis Hm werden ebenfalls in einem Trackingverfahren, beispielsweise mittels eines Kalmanfilters, zeitlich nachverfolgt. Anhand der Hypothesen H1 bis Hm werden Bildbereiche BB2 in den Disparitätsbildern DB1 bis DBx erzeugt, an welchen sich hypothetisch Begrenzungen G der Fahrbahn befinden, und zeitlich nachverfolgt. Ein solcher Bildbereich BB2 ist schematisch in 3 dargestellt.
  • Die Bildbereiche B81, BB2, in welchen sich die Begrenzungen G befinden, sind durch eine Erwartung der Existenz und Position von der als Fahrbahnmarkierungen FM sowie Bordsteine BS ausgebildeten Begrenzungen G bestimmt. Als Quelle für diese Erwartung werden zwei Verfahren verwendet.
  • In einem ersten Verfahren wird die Erwartung auf Basis eines Spurerkennungsmodells ermittelt. Dabei wird ein Straßenverlauf mittels Parametern, die beispielsweise eine Spurbreite, eine Krümmung und eine Krümmungsänderung umfassen, beschrieben. Dabei kommen Trackingverfahren im Grauwertbild zum Einsatz, die alle potenziellen Markierungs- und Bordsteinkandidaten verfolgen.
  • In einem zweiten alternativ oder zusätzlich durchgeführten Verfahren wird die Erwartung auf Basis einer Groblokalisation des eigenen Fahrzeugs anhand der Kartendaten D der digitalen Karte 3 erzeugt. Dabei sind die Positionen und Verläufe von Fahrbahnmarkierungen FM sowie Bordsteinen BS in dieser digitalen 3 Karte abgelegt. Im Fall der Ausbildung der Begrenzungen G als Bordsteine BS ist vorzugsweise zusätzlich das dreidimensionale Höhenprofil in der digitalen Karte 3 abgelegt, so dass besonders genaue Hypothesen H1 bis Hm erzeugbar sind.
  • Die zeitlich nachverfolgten Bildbereiche BB1, BB2 der Einzelbilder B1 bis Bn und Disparitätsbilder DB1 bis DBx werden mittels eines in der zweiten Auswerteeinheit 4 vorgesehenen Klassifikators 4.1 klassifiziert, welcher beispielsweise als neuronales Netz ausgebildet ist.
  • Dieser Klassifikator 4.1 hat in einem statistischen Lernprozess Modelle zur Unterscheidung von Fahrbahnmarkierungen FM sowie Bordsteinen BS von anderen Objekten gelernt. Dabei werden zur Klassifikation von als Fahrbahnmarkierungen FM ausgebildeten Begrenzungen G vorzugsweise ausschließlich die als Grauwertbilder ausgebildeten Einzelbilder B1 bis Bn verwendet.
  • Im Gegensatz zu Fahrbahnmarkierungen FM haben Bordsteine BS einen sehr charakteristischen Tiefenverlauf. Für die Klassifikation von als Bordsteine BS ausgebildeten Begrenzungen G des Fahrbahnrandes werden daher die Einzelbilder B1 bis Bn und die Disparitätsbilder DB1 bis DBx verwendet. Hierzu hat der Klassifikator 4.1 im Lernprozess aus den Disparitätsdaten implizit eine dreidimensionale Modellvorstellung von Bordsteinen BS gelernt.
  • Bei der Klassifikation werden die zeitlich nachverfolgten Bildbereiche BB1, BB2 mit hinterlegten Modelldaten der Begrenzungen G verglichen und diesen zugeordnet.
  • Bordsteinverläufe zeichnen sich im Grauwertbild durch niedrigere Kontraste als Fahrbahnmarkierungen aus und sind daher schwieriger bzw. ungenauer von dem trackingbasierten Spurerkennungssystem als Kandidaten zu identifizieren. Die Verwendung der Einzelbilder B1 bis Bn und Disparitätsbilder DB1 bis DBx ermöglicht eine Klassifikation im zweidimensionalen und dreidimensionalen Bereich, wodurch die Robustheit sowie die Lokalisierungsgenauigkeit des Straßenverlaufes deutlich erhöht werden.
  • Nach der Klassifikation mittels der zweiten Auswerteeinheit 4 erfolgt eine Auswertung dieser Klassifikation mittels einer dritten Auswerteeinheit 5, wobei bei der Auswertung zwischen als Fahrbahnmarkierung FM und als Bordstein BS ausgebildeten Begrenzungen G unterschieden wird. Auch werden weitere Objekte O klassifiziert und ausgewertet, welche weder Fahrbahnmarkierungen FM noch Bordsteine BS sind.
  • Die robuste Positionsbestimmung von Fahrbahnmarkierungen FM und Bordsteine BS sowie von deren Verlauf verbessert eine mögliche Eigenlokalisierung des Fahrzeugs mittels der digitalen Karte, welche Spur- und Bordsteinannotationen A enthält, deutlich. Hier erfolgt eine Rückkopplung, bei der eine noch ungenaue, beispielsweise anhand einer satellitengestützten Navigationsvorrichtung ermittelte Eigenposition genutzt wird, um eine grobe Erwartung der Position von Straßenverläufen zu generieren. Die folgende genaue Positionsbestimmung von Straßenverläufen durch das erfindungsgemäße Verfahren verbessert die Genauigkeit der Eigenpositionsbestimmung.
  • Hierzu wird mittels einer vierten Auswerteeinheit 6 nach der Klassifikation und der Auswertung anhand der klassifizierten Begrenzungen G und der Kartendaten D die Lokalisierung des Fahrzeugs durchgeführt, wobei die Lokalisierung aufgrund der sehr robusten Erkennung der Begrenzungen G in sehr zuverlässiger Weise möglich ist.
  • In nicht gezeigten Ausführungsbeispielen sind mehrere der Auswerteeinheiten 2, 4, 5 und 6 als eine gemeinsame oder mehrere gemeinsame Auswerteeinheiten ausgebildet.
  • 2 zeigt ein Einzelbild B1 mit einem Verlauf einer Begrenzung G des Fahrbahnrandes sowie einen zeitlich nachverfolgten Bildbereich BB1.
  • In 3 ist ein Disparitätsbild DB1 mit einem Verlauf einer Begrenzung G des Fahrbahnrandes sowie einem zeitlich nachverfolgten Bildbereich BB2 dargestellt.
  • Bezugszeichenliste
  • 1
    Stereokameraanordnung
    1.1
    Einzelkamera
    1.2
    Einzelkamera
    2
    erste Auswerteeinheit
    3
    digitale Karte
    4
    zweite Auswerteeinheit
    4.1
    Klassifikator
    5
    dritte Auswerteeinheit
    6
    vierte Auswerteeinheit
    A
    Spur- und Bordsteinannotationen
    B1 bis Bn
    Einzelbild
    BB1
    Bildbereich
    BB2
    Bildbereich
    BS
    Bordstein
    D
    Kartendaten
    DB1 bis DBx
    Disparitätsbild
    FM
    Fahrbahnmarkierung
    G
    Begrenzung
    H1 bis Hm
    Hypothese
    O
    Objekt
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102009039568 A1 [0002]
    • DE 102004057296 A1 [0003]
    • EP 1705901 A2 [0004]

Claims (7)

  1. Verfahren zur Erkennung von Begrenzungen (G) eines Fahrbahnrandes für ein Fahrzeug, bei dem eine Umgebung des Fahrzeugs mittels zumindest einer Stereokameraanordnung (1) erfasst wird, wobei anhand erfasster Bilddaten Hypothesen (H1 bis Hm) zur Lage und/oder zum Verlauf der Begrenzungen (G) in den Bilddaten erzeugt werden, dadurch gekennzeichnet, dass die Hypothesen (H1 bis Hm) in einem Trackingverfahren zeitlich nachverfolgt werden und zeitlich nachverfolgte Bildbereiche (BB1, BB2) klassifiziert werden, wobei die Klassifizierung in Bildbereichen (BB1) zumindest eines mittels zumindest einer Einzelkamera (1.1, 1.2) der Stereokameraanordnung (1) erfassten Einzelbildes (B1 bis Bn) und in Bildbereichen (BB2) zumindest eines aus den Bilddaten in einer stereoskopischen Bildverarbeitung erzeugten Disparitätsbilds (DB1 bis DBx) durchgeführt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass als Begrenzung (G) ein Bordstein (BS) erkannt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass bei der Klassifikation die zeitlich nachverfolgten Bildbereiche (BB1, BB2) mit hinterlegten Modelldaten der Begrenzungen (G) verglichen werden und diesen zugeordnet werden.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die hinterlegten Modelldaten in einem statistischen Lernprozess erlernt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Klassifikation mittels zumindest eines als neuronales Netz ausgebildeten Klassifikators (4.1) durchgeführt wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als Begrenzung (G) Fahrbahnmarkierungen (FM) erkannt werden.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die zeitliche Nachverfolgung der Fahrbahnmarkierungen (FM) mittels eines Kalman-Filters durchgeführt wird.
DE102012018471A 2012-09-19 2012-09-19 Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug Withdrawn DE102012018471A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102012018471A DE102012018471A1 (de) 2012-09-19 2012-09-19 Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012018471A DE102012018471A1 (de) 2012-09-19 2012-09-19 Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug

Publications (1)

Publication Number Publication Date
DE102012018471A1 true DE102012018471A1 (de) 2013-04-04

Family

ID=47878726

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012018471A Withdrawn DE102012018471A1 (de) 2012-09-19 2012-09-19 Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug

Country Status (1)

Country Link
DE (1) DE102012018471A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109635744A (zh) * 2018-12-13 2019-04-16 合肥工业大学 一种基于深度分割网络的车道线检测方法
DE102018109680A1 (de) * 2018-04-23 2019-10-24 Connaught Electronics Ltd. Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
DE102014107155B4 (de) * 2013-05-23 2021-01-28 GM Global Technology Operations LLC Verbessertes Frontbordstein-Visualisierungssystem
DE102021107904A1 (de) 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004057296A1 (de) 2004-11-26 2006-06-08 Daimlerchrysler Ag Lane-Departure-Warning mit Unterscheidung zwischen Fahrbahnrandmarkierung und baulicher Begrenzung des Fahrbahnrandes
EP1705901A2 (de) 2005-03-22 2006-09-27 Omron Corporation Bildverarbeitungsvorrichtung und Verfahren, Aufzeichnungsmedium und Programm
DE102009039568A1 (de) 2009-09-01 2010-05-06 Daimler Ag Verfahren und Vorrichtung zur Erkennung von Objekten

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004057296A1 (de) 2004-11-26 2006-06-08 Daimlerchrysler Ag Lane-Departure-Warning mit Unterscheidung zwischen Fahrbahnrandmarkierung und baulicher Begrenzung des Fahrbahnrandes
EP1705901A2 (de) 2005-03-22 2006-09-27 Omron Corporation Bildverarbeitungsvorrichtung und Verfahren, Aufzeichnungsmedium und Programm
DE102009039568A1 (de) 2009-09-01 2010-05-06 Daimler Ag Verfahren und Vorrichtung zur Erkennung von Objekten

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014107155B4 (de) * 2013-05-23 2021-01-28 GM Global Technology Operations LLC Verbessertes Frontbordstein-Visualisierungssystem
DE102018109680A1 (de) * 2018-04-23 2019-10-24 Connaught Electronics Ltd. Verfahren zum Unterscheiden von Fahrbahnmarkierungen und Bordsteinen durch parallele zweidimensionale und dreidimensionale Auswertung; Steuereinrichtung; Fahrassistenzsystem; sowie Computerprogrammprodukt
CN109635744A (zh) * 2018-12-13 2019-04-16 合肥工业大学 一种基于深度分割网络的车道线检测方法
DE102021107904A1 (de) 2021-03-29 2022-09-29 Conti Temic Microelectronic Gmbh Verfahren und System zur Bestimmung der Bodenebene mit einem künstlichen neuronalen Netz

Similar Documents

Publication Publication Date Title
EP2394234B1 (de) Verfahren und vorrichtung zum ermitteln einer geltenden fahrspurmarkierung
DE102012112724A1 (de) Verfahren zur Bestimmung eines Fahrbahnzustands aus Umfeldsensordaten
DE102012201724B4 (de) Verkehrszeichenerkennungsvorrichtung
EP3529561B1 (de) System und verfahren zur erzeugung von digitalen strassenmodellen aus luft- oder satellitenbildern und von fahrzeugen erfassten daten
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
DE102016203723A1 (de) Verfahren und System zum Bestimmen der Pose eines Fahrzeugs
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102015220252A1 (de) Spurhalte-Unterstützungssystem und Verfahren für dieses
DE102015220695A1 (de) Verfahren und Vorrichtung zum Bewerten des Inhalts einer Karte
WO2017194457A1 (de) Verfahren zur erfassung von verkehrszeichen
DE102011082379A1 (de) Verfahren zum Erfassen von Navigationsdaten
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102016205433A1 (de) Verfahren, Vorrichtung, Kartenverwaltungseinrichtung und System zum punktgenauen Lokalisieren eines Kraftfahrzeugs in einem Umfeld
DE102014212866A1 (de) Verfahren zum Ermitteln eines Parkplatzes aus einer Anzahl von Messpunkten
EP2033165A1 (de) Verfahren für die erfassung eines verkehrsraums
DE102010032063A1 (de) Verfahren zur Erfassung einer Umgebung eines Fahrzeugs
DE102012018471A1 (de) Verfahren zur Erkennung einer Begrenzung eines Fahrbahnrandes für ein Fahrzeug
DE102012023030A1 (de) Verfahren zur Ermittlung der Bewegung eines Kraftfahrzeugs
DE102010049214A1 (de) Verfahren zur Bestimmung eines Fahrspurverlaufs für ein Fahrzeug
DE102015006569A1 (de) Verfahren zur bildbasierten Erkennung des Straßentyps
DE102016011849A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs
WO2019057252A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug
WO2019037940A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
DE102013211027A1 (de) Verfahren und Vorrichtung zur Bestimmung der Beschaffenheit einer Fahrbahnoberfläche einer von einem Fahrzeug zu befahrenden Fahrspur
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee