Beschreibung
Titel
Farbmaske für einen Bildsensor einer Fahrzeugkamera Stand der Technik
Fahrzeugkameras werden insbesondere zur Erfassung einer Fahrzeugumgebung vor dem Fahrzeug und zur Darstellung eines Bildes auf einer Anzeigeeinrichtung, sowie zur Auswertung der erfassten Bilder und zur Verwendung in Fah- rerassistenzsystemen verwendet, wobei Objekte in dem erfassten Bild identifiziert werden. Somit können z. B. weitere Verkehrsteilnehmer, Spurmarkierungen, Verkehrszeichen sowie Verkehrsbeleuchtungen ermittelt werden. Für die Beurteilung der Relevanz von Objekten ist insbesondere auch deren Farbe von Bedeutung. So haben bei gleichzeitigem Auftreten von gelben und weißen Fahrspur- Markierungen, z. B. in einem Baustellenbereich, im Allgemeinen die gelben Markierungen Vorrang. Weiterhin können Lichtsignale entsprechend ihres Farbwertes zugeordnet werden, wobei z. B. Rücklichter mit rotem Farbwert von Frontscheinwerfern mit weißem oder gelbem Farbwert und Heckleuchten mit gelbem Farbwert unterschieden werden; auch Verkehrszeichen und Verkehrsbeleuch- tungen wie Ampeln und Blinklichter sind entsprechend ihrem jeweiligen Farbwert relevant.
Hierzu ist es bekannt, eine Farbklassifikation der detektierten Objekte durchzuführen. Die Farbe im erfassten Bild kann sich jedoch aufgrund der Farbtempera- tur der Umgebung, die von der Farbe der Beleuchtung bzw. dem Durchschnittsfarbwert abhängt, unterschiedlich darstellen. Unterschiedliche Farbtemperaturen des erfassten Bildes können sich zum einen durch unterschiedliche Beleuchtungen, z. B. in Abhängigkeit der Tageszeit, unterschiedliche Straßenbeleuchtungen und auch durch Tönungen der Fahrzeugscheiben, hinter denen die Fahr- zeugkameras im Allgemeinen angebracht sind, ergeben. Die Tönungen der
Fahrzeugscheiben sind zunächst unbekannt, da sie typabhängig sehr unter-
schiedlich sind und zum Teil in Abhängigkeit der Position an der Fahrzeugscheibe variieren. Im Allgemeinen ist somit die Annahme einer„grauen Welt", bei der die Histogramme (statistischen Belegungen) der Farbpixel und Intensitätspixel gleichmäßig besetzt sind, über das ganze Bild nicht korrekt. Hierzu wird bei kom- plexeren Systemen jeweils eine Farbtemperaturbestimmung des erfassten Bildbereichs durchgeführt, um einen Weißabgleich durchzuführen, bei dem die Farbtemperatur der Umgebung herausgerechnet bzw. korrigiert wird, um die Farbe des Objektes korrekt klassifizieren zu können. Zur Differenzierung der Farben werden im Allgemeinen vor die sensitive Sensorfläche Farbmasken angebracht, deren Filterpixel vor jedem Sensorpixel einen spezifischen Farbwert, d.h. ein spezifisches Transmissionsverhalten im optischen Wellenlängenbereich aufweisen. Hierbei weisen die Farbmasken im Allgemeinen spezifische Farb-Pattern bzw. Farb-Muster auf, die durch periodische Wiederho- lung spezifischer Grundmuster gebildet sind, z. B. als Blöcke aus vier Pixeln mit spezifischen Farbwerten, z. B. R (Rot), G (Grün), B (Blau). Die JP 2004304706 A und WO 2009/027134 A1 zeigen derartige Farbmasken mit spezifischen Farb- Pattern. Durch den Einsatz derartiger Farbpattern sinkt allerdings die örtliche Auflösung, da z. B. für einen Bildpunkt ein Block aus vier Pixeln mit unterschied- liehen Farbwerten eingesetzt wird. Weiterhin sinkt durch die Filterung die Intensität des einfallenden Lichts und somit die Empfindlichkeit. Bei Nachtanwendungen, wie z. B. einer Lichtsteuerungsfunktion zum selbstätigen Umschalten zwischen Fernlicht und Abblendlicht müssen zum Teil weit entfernte Lichtquellen de- tektiert werden, wozu eine hohe Auflösung und hohe Empfindlichkeit erforderlich sind. Insbesondere bei Vollfarb-Pattern wie z. B. RGGB wird jedoch die Ortsauflösung vermindert und die Intensität des ankommenden Lichts abgeschwächt. Teilfahr-Pattern wie in der WO 2009/027134 A1 beschrieben, bilden einen Kom- promiss aus Farbklassifikation durch die jeweiligen Farbfilterpixel und Auflösung bzw. hoher Empfindlichkeit durch die transparenten Filterpixel.
Somit sind neben der Genauigkeit der Farbbestimmung auch die Ortsauflösung und Lichtempfindlichkeit, weiterhin auch die Ortsauflösung der Farbwerte bzw. Chrominanz und die Orstauflösung der Helligkeit relevante Merkmale für Fahrzeugkameras und Fahrerassistenzsysteme.
Offenbarung der Erfindung
Erfindungsgemäß wird die Farbmaske in verschiedenen Bereichen mit unterschiedlichen Farbpattern ausgebildet. Hierbei wird eine Unterteilung im Wesentlichen in vertikaler Richtung vorgenommen, mit einem mittleren Bereich und ei- nem - vorzugsweise kleineren - oberen Bereich und/oder unteren Bereich.
Der Erfindung liegt hierbei die Erkenntis zu Grunde, dass in einem typischen Bild, das von einer z. B. hinter der Windschutzscheibe angeordneten Fahrzeugkamera erfasst wird, ein unterer Bildbereich die Straße bzw. Fahrbahn vor dem Fahrzeug erfasst, die im Allgemeinen aus Asphalt oder ggf. Beton ausgebildet ist und somit einen Grauwert ohne größere Färbung darstellt, der in Abhängigkeit der Fahrbahnzusammensetzung sowie der jeweiligen Beleuchtungssituation von anthra- zit-schwarz bis hellgrau reichen kann. Ein oberer Bildbereich gibt hingegen im Allgemeinen den Himmel wieder, der insbesondere in Tagessituationen auch die wesentliche Belichtungsquelle darstellt. Hierbei können diese Bereiche im allgemeinen als nicht so relevant für die Auswertung für Fahrerassistenzsysteme eingeschätzt werden, wobei der untere Bildbereich oftmals den Fahrbahnabschnitt unmittelbar vor dem Fahrzeug wiedergibt, der auch bei Einleitung sofortiger Fahrdynamikeingriffe befahren wird.
Aus diesem oberen und/oder unteren Bildbereich, insbesondere auch einer Kombination dieser Bildbereiche, kann somit eine Umgebungstemperatur bzw. Farbtemperatur der Umgebung bestimmt werden. Somit werden erfindungsgemäß für diese Bildbereiche Farbpattern mit geringerer relativer Anzahl von trans- parenten Filterpixeln eingesetzt, insbesondere Vollfarbpattern ohne transparente
Filterpixel, z. B. RGGB. Es wird erfindungsgemäß erkannt, dass die Ortsauflösung in diesen Bereichen im Allgemeinen nicht so relevant ist, da hier relevantere Objekte nicht so häufig zu erwarten sind bzw. nicht mit einer sehr hohen örtlichen Auflösung wiederzugeben sind.
Die Farbbestimmung in dem oberen Bereich und/oder unteren Bereich kann somit für den Weißabgleich bzw. die Farbkorrektur der Pixelsignale des mittleren Bildbereichs herangezogen werden. Für diesen mittleren Bildbereich ist ein Farbpattern mit einem höheren Anteil von transparenten Filterpixeln, d. h. insbe- sondere ein Teilfarbpattern vorgesehen, das einen Kompromiss bietet zwischen höherer Auflösung und Farbbestimmung, vorzugsweise auch bei hoher Ortsauf-
lösung der Chrominanz und Ortsauflösung der Luminanz, d. h. farbdifferenzierter Ortsauflösung und helligkeitsdifferenzierter Ortsauflösung.
Erfindungsgemäß ergeben sich somit einige Vorteile. Es wird durch das Teilfarb- pattern mit transparenten Filterpixeln eine Erfassung von Objekten in dem hierfür relevanten mittleren Bildbereich mit einer hohen Ortsauflösung und dennoch guter Farbbestimmung bzw. hoher ortsaufgelöster Chrominanz ermittelt, und eine Korrektur bzw. Weißabgleich der Farbwerte des mittleren Bildbereichs durch den oberen und/oder unteren Bildbereich ermöglicht. Dieser Abgleich kann jeweils dynamisch bzw. in den jeweiligen Fahrsituationen und Beleuchtungssituationen erfolgen, ohne zusätzliche Sensoren und ohne relevante Beeinträchtigung der Bildverarbeitung. Dieser Weißabgleich bzw. die Korrektur kann grundsätzlich rein softwaremäßig in der Steuer- und Auswerteeinrichtung vorgenommen werden und erfordert somit keinen zusätzlichen Hardwareaufwand. Weiterhin kann die eingesetzte Steuer- und Auswerteeinrichtung auch forwährend auftretende Tönungen und Färbungen als dauerhaft einschätzen, z. B. als Tönung der Fahrzeugscheibe oder einer langwierigen Verschmutzung.
Es entfällt somit vorzugsweise auch eine komplexere Berücksichtigung unter- schiedlicher Farbpattern bzw. Farbmuster in dem mittleren Bildbereich, da dort insbesondere ein einziges Teilfarbpattern vorgesehen sein kann, so dass die Histogrammerstellung für die Kameraregelung oder die Kantendetektion für die Fahrspurerkennung und Erkennung der Objekte auf dieses Teilfarbpattern eingestellt werden kann. Somit ist erfindungsgemäß eine schnelle Verarbeitung der Daten mit relativ geringem Hardware-Aufwand möglich.
Grundsätzlich kann das zweite Farb-Pattern des oberen Bereichs auch verschieden von einem zweiten Farb-Pattern des unteren Bereichs sein. Weiterhin können der obere und untere Bereiche der Farbmaske unterschiedlich groß sein. Sie können sich jeweils über vollständige Zeilen des Pixelarrays erstrecken, oder auch in horizontaler Richtung jeweils nur mittlere Pixel umfassen, so dass sich der mittlere Bereich seitlich bis neben den oberen Bereich und bis zu dem oberen Rand der Farbmaske, und/oder seitlich bis neben den unteren Bereich bis zu dem unteren Rand der Farbmaske erstrecken kann. Dem liegt die
Erkenntnis zu Grunde, dass in dem oberen und unteren Bildbereich in seitlichen
Abschnitten ggf. Objekte auftreten können, die zum einen relevant zur Erfassung und Klassifizierung sind und zum anderen auch die Ermittlung der Farbtemperatur der Umgebung beeinträchtigen können. Weiterhin können Objekte, die in dem mittleren Bildbereich erfasst und klassifiziert worden sind, in den oberen bzw. unteren Bildbereich extrapoliert werden, z. B. Fahrspur-Markierungen oder größere Objekte wie Gebäude und Bäume, so dass diese Teile des oberen und/oder unteren Bereichs für die Ermittlung der Farbtemperatur nicht herangezogen werden, wobei sie gegebenenfalls für nach- folgende Algorithmen mit berücksichtigt werden können.
Aus den zweiten Pixelsignalen des unteren und/oder oberen Bildbereichs kann ergänzend auch eine Lichtsensorikfunktion der Kamera dargestellt und für weitere Funktionen im Fahrzeug genutzt werden.
Kurze Beschreibung der Zeichnungen
Die Erfindung wird im Folgenden anhand der beiliegenden Zeichnungen an eini gen Ausführungsformen näher erläutert. Es zeigen:
Fig. 1 eine Straßenszene eines Fahrzeugs mit einer Kamera in
Draufsicht;
Fig. 2 die Kameraanordnung des Fahrzeugs;
Fig. 3 verschiedene Farbpattern; ein von der Kamera erfasstes Bild sowie das Pixel-Array der Farbmaske mit erfindungsgemäßer Unterteilung; ein Flussdiagramm eines erfindungsgemäßen Verfahrens.
Ein Fahrzeug 1 mit einer Kamera 2 fährt auf einer Fahrbahn 3. In einem Erfassungsbereich 4 der Kamera 2 werden verschiedene Objekte 10, 1 1 , 12, 13, 14, 15, 16 auf oder außerhalb der Fahrbahn 3 erfasst. Gemäß Figur 2 ist die Kamera
2 hinter einer Scheibe 5 des Fahrzeuges 1 , insbesondere der Windschutzscheibe
5, angebracht und weist neben einer hier nicht detaillierter gezeigten Abbildungsoptik 6 einen Bildsensor 7 mit einer sensitiven Sensorfläche auf, auf der eine hier nicht detaillierte gezeigte Matrixanordnung von Sensorpixeln (Imagerpi- xeln) 7a ausgebildet ist. Auf der sensitiven Sensorfläche mit den Sensorpixeln 7a ist eine Farbmaske (Filtermaske) 8 aufgesetzt, die gemäß Fig. 4 eine Matrixanordnung aus Filterpixeln Pij aufweist. Jedes Filter-Pixel Pij sitzt in an sich bekannter Weise direkt vor einem Sensorpixel 7a und filtert entsprechend seines Farbwertes, d. h. seines spektralen Transmissionsverhaltens, einfallendes Licht. Der Bildsensor 7 nimmt das durch die Farbmaske 8 einfallende optische Licht auf und gibt Bildsignale S1 an eine Steuer- und Auswerteeinrichtung 9 aus, die somit eine Auswertung in entsprechender örtlicher und farblicher Auflösung vornehmen kann, woraufhin die Anzeige des erfassten Bildes auf einer fahrzeuginternen Anzeigeeinrichtung erfolgen kann und/oder insbesondere durch Bildverarbeitung eine qualitative Auswertung vorgenommen werden kann, um z. B.
Warnmeldungen an den Fahrer auszugeben, und insbesondere auch Eingriff ins Fahrzeugmanagement vorzunehmen. Fig. 4 zeigt links die erfasste Fahrszene bzw. das aus den Bildsignalen S1 erstellte Bild 18. Somit können z. B. Abstands- regelsysteme zur Einstellung eines konstanten Abstandes zu einem vorausfahrenden Fahrzeug 10, sowie eine Fahrspurerkennung durch Identifizierung von Fahrspur- Markierungen 1 1 , 12, weiterhin eine Erkennung von Verkehrszeichen 13 und weiterer Verkehrsteilnehmer 15 erfolgen. Insbesondere können Farbwerte der erfassten Objekte 10, 1 1 , 12, 13, 15 ermittelt und zur Identifizierung dieser Objekte bzw. von Teilbereichen dieser Objekte herangezogen werden.
Die erfindungsgemäße Farbmaske 8 ist gemäß Fig. 4 in Bereiche 8a, 8b, 8c unterteilt, die somit Bildbereichen 18a, 18b und 18c des Bildes 18 entsprechen. Hierbei umfasst ein mittlerer Bereich 8a einen Großteil der Farbmaske 8, so dass in den entsprechenden mittleren Bildbereich 18a insbesondere relevante Objekte 10, 1 1 , 12, 13, 15 fallen, insbesondere weitere Verkehrsteilnehmer 10, 15, Verkehrszeichen 13 und Fahrspur-Markierungen 1 1 , 12. Ein unterer Bereich 8b der Farbmaske 8 entspricht einem unteren Bildbereich 18b, in dem ein Teil der Fahrbahn 3 bzw. Straße vor dem Fahrzeug 1 liegt. In diesem unteren Bereich 8b sind somit zunächst keine relevanten Objekte zu erwarten; ggf. können Teile der Fahrspur-Markierungen 1 1 , 12 sich bis in den unteren Bereich 8b erstrecken. Ein oberer Bereich 8c der Farbmaske 8 entspricht in dem Bild 18 einem oberen Bildbereich 18c, in dem im wesentlichen der Himmel abgebildet wird. Die Darstellung
der Fig. 4 ermöglicht die direkte Zuordnung des Bildes 18 zur Farbmaske 8, wobei tatsächlich bei einer invertierenden Abbildungsoptik 6 das Bild 18 auch invertiert bzw. spiegelsymmetrisch auf den Bildsensor 7 abgebildet werden kann und somit z. B. der untere Bereich 8b - physikalisch - oben auf der Farbmaske 8 angeordnet ist. Im folgenden wird jedoch als unterer Bereich 8b der Bereich verstanden, der dem unteren Bildbereich 18b entspricht, entsprechend auch für den oberen Bereich 8c.
Die Bereiche 8b und 8c können sich wie gezeigt über mehrere vollständige Zeilen der Farbmaske 8 erstrecken, oder jeweils mittlere Teile der oberen bzw. unteren Zeilen umfassen, da in den seitlichen Bereichen eines erfassten Bildes 18 mit gößerer Wahrscheinlichkeit weitere Objekte, z. B. Gebäude 14 oder Bäume 16 am Rand einer Straße auftreten, die sich bis zum oberen Rand des Bildes 18 erstrecken können.
Erfindungsgemäß dienen der untere Bereich 8b und/oder der obere Bereich 8c zur Ermittlung einer Farbtemperatur bzw. eines Durchschnittsfarbwertes Fa des Bildes 18. Hierbei wird erfindungsgemäß erkannt, dass der obere Bildbereich 18c den Himmel und somit eine gleichmäßig helle Ausleuchtung, ohne wesentliche Beeinträchtigung weiterer Objekte darstellt, und dessen Helligkeitswert und Spektralzusammensetzung die Helligkeit des gesamten Bildes 18 beeinflusst. Hierbei kann der im oberen Bildbereich 18c erfasste Himmel z. B. weiß, oder am Morgen oder am Abend auch rötlich sein, bei Nacht ggf. schwarz. Die im unteren Bildbereich 18b erfasste Fahrbahn 3 stellt im Allgemeinen einen Grauwert des Asphalts bzw. eines Straßenbelages dar, der je nach Zusammensetzung und Gesamthelligkeit zwischen hellgrau und schwarz variieren kann. Insbesondere Asphalt stellt hierbei einen geeigneten Gegenstand zur Ermittlung einer Farbtemperatur bzw. Durchschnittsfarbwerts Fa dar, die entsprechend auch Daten über die Gesamthelligkeit enthält. Hierbei werden auch Tönungen der Windschutzscheibe 5 und durch Verschmutzungen auf der Windschutzscheibe 5 und gegebenenfalls in der Abbildungsoptik 6 mit erfasst.
Erfindungsgemäß enthält der mittlere Bereich 8a der Farbmaske 8 ein anderes Farbpattern als die Bereiche 8b und 8c. Fig. 3 zeigt beispielhaft Farbpattern 20a bis 20f, wobei die jeweiligen Filterpixel Pij je nach Farbwert gekennzeichnet sind. Hierbei ist ein transparentes Pixel als Wert I, ein Rot-Pixel als R, ein Cyan-Pixel
als C, ein Blau-Pixel als B und ein Grün-Pixel als G dargestellt. Das Pattern 20a stellt ein 41-Pattern dar, das somit als Grau-Imager dient und lediglich die Ermittlung von Grauwerten zulässt. Die Farbpattern 20b, 20c, 20d und 20f stellen Teil- farbpattern mit sowohl Farbwerten , G, B, C als auch Intensitätspixeln I dar, wobei 20b ein R3I , 20c ein RC2I, 20d ein RGBl -Pattern darstellen. In 20e ist ein
Vollfarbpattern dargestellt, hier als RGGB bzw. Bayer-Pattern. 20f stellt wiederum ein Teilfarbpattern dar, das als Sparse Bayer-Pattern bekannt ist.
Der mittlere Bereich 8a enthält mehr Transparenzwerte I als die Bereiche 8b und 8c und kann insbesondere eines der Teilfarbpattern 20b bis 20d oder 20f sein.
Die Bereiche 8b und/oder 8c sind z. B. Vollfarbpattern 20f. Hierbei können in den Bereichen 8b und 8c auch unterschiedliche Vollfarbpattern vorgesehen sein, oder in einem der Bereiche 8b oder 8c das Pattern 20d, das einen geringen Anteil an Transparenzwerten I enthält.
Durch das verwendete Teilfarbpattern 20b, c, d oder f können somit in dem Bereich 18a Objekte erfasst und deren Farbwerte ermittelt werden. So können z. B. Rücklichter 10a, 15a als Rot-Werte, Frontscheinwerfer 15b als Weiß- oder Gelb- Werte, entsprechend auch Blinklichter für Abbiegevorgänge als zeitlich pulsie- rende Gelb-Werte ermittelt werden, weiterhin die Farben von Verkehrszeichen 13 und ggf. auch die Farbdarstellung einer Ampel erkannt werden. Weiterhin können Farbwerte der Fahrspur-Markierungen 1 1 und 12 erkannt werden, um z. B. einen Weiß-Ton von einem Gelb-Ton unterscheiden zu können. Bei vorübergehenden Fahrspuränderungen werden zum Teil gelbe Fahrspur-Markierungen 1 1 zusätz- lieh auf der Fahrbahn 3 angebracht, ohne die weißen Fahrspur-Markierungen zu entfernen, so dass dann die gelben Fahrspur-Markierungen 1 1 Vorrang haben sollen. Indem erfindungsgemäß in dem mittleren Bereich 8a eines der Teilfarbpattern 20b bis 20e angebracht ist, können die Farben weiß bzw. im Wesentlichen farblos und gelb differenziert werden. Dies kann z. B. durch das R3I- Farbpattern 20b erreicht werden.
Die Imager-Pixel 7a des Bildsensors 7 hinter dem mittleren Bereich 8a geben erste Pixelsignale S1 a, die Imager-Pixel 7a hinter den Bereichen 8b und 8c entsprechend zweite Pixelsignale S1 b und Si c aus, so dass die Bildsignale S1 die- se Pixelsignale S1 a, S1 b und Si c enthalten, wie in Figur 2 bei dem Signalpfeil von S1 angedeutet. Die Steuer- und Auswerteeinrichtung 9 benutzt die Pixelsig-
nale S1 b und Si c zur Ermittlung eines durchschnittlichen Farbwertes Fa und/oder eines durchschnittlichen Helligkeitswertes Ha für den Weißabgleich, d.h. für die Korrektur sämtlicher Bildsignale S1 und somit der Pixelsignale S1 a. Aufgrund dieser korrigierten Bildsignale S1 erfolgt eine Detektion und Erkennung der Objekte 10, 1 1 , 12, 13, 14, 15. Die Steuer- und Auswerteeinrichtung 9 gibt entsprechend Ausgangssignale S2 aus, die für Fahrmanagement-Eingriffe und weiterhin auch als Bildsignale zur grafischen Darstellung des Bildes 18 auf einer Anzeigeeinrichtung dienen können.
Hierbei können die Ausgangssignale S2 bzw. die erkannten Objekte in dem mittleren Bildbereich 18a ergänzend auch zur Auswertung der Bildbereiche 18b und 18c herangezogen werden. Insbesondere kann z. B. bei Detektieren einer Fahrspur-Markierung 1 1 oder 12 im mittleren Bildbereich 18a diese nach unten in den Bildbereich 18b extrapoliert werden, so dass ggf. im Bildbereich 18b erkannte Konturen diesen Fahrspur-Markierungen 1 1 und 12 zugeordnet werden können. Weiterhin kann in Fig. 4 erkannt werden, dass der rechte Baum 16 sich aus dem mittleren Bildbereich 18a nach oben erstreckt und somit ein entsprechender rechter Teilbereich 16-1 des oberen Bildbereichs 18c diesem Baum bzw. Objekt 16 zuzuordnen ist. Somit werden diese betreffenden Teilbereiche 16-1 nicht zur Ermittlung des Durchschnittsfarbwertes Fa und/oder des Durchschnittshelligkeitswertes Ha herangezogen. Weiterhin können die in diesen Teilbereichen de- tektierten Objekte ggf. auch für die Darstellung eines Bildes und Fahrzeugmanagement-Eingriffe mittels der Ausgangssignale S2 herangezogen werden.
Das erfindungsgemäße Verfahren startet gemäß Figur 5 somit in Schritt StO, insbesondere bei Einschalten der Kamera 2, woraufhin im Schritt St1 Bildsignale S1 mit den Pixelsignalen S1 a, S1 b, S1 c ausgegeben werden, in Schritt St2 eine Ermittlung einer Farbtemperatur, d.h. eines Durchschnitts-Farbwertes Fa und/oder eines Durchschnitts-Helligkeitswertes Ha für den Weißabgleich erfolgt, durch den in Schritt St3 dann korrigierte Pixelwerte bzw. Bildsignale gebildet werden können und Objekte 10, 1 1 , 12, 13, 14, 15, 16 im Bild 18 identifiziert werden können, so dass im Schritt St4 nachfolgend die Ausgangssignale S2 ausgegeben werden
Gemäß einer weitereh Ausführungsform kann in die Abbildungsoptik 6 z. B. ein Diffusor eingeführt werden, der spezifisch den oberen Bildbereich 18c und/oder unteren Bildbereich 18b unschärfer abbildet, so dass Strukturen in diesen Bildbe-
reichen nicht die Farbmessung und Ermittlung des Durchschnittsfarbwertes Fa stören.
Aus den zweiten Pixelsignalen S1 b und Si c kann ergänzend auch eine Licht- sensorikfunktion der Kamera dargestellt werden, d. h. diese zweiten Pixelsignale können als Lichtsensoren für weitere Funktionen im Fahrzeug genutzt werden.
Die Steuer- und Auswerteeinrichtung 9 kann dahingehend ausgelegt sein, dass sie aus längeren Messzeiträumen dauerhafte Farb-Grundwerte bzw. Färbungen erkennt, z. B. durch eine getönte Windschutzscheibe 5, und somit auch ohne aktuelle Pixelsignale S1 a und S1 b, z. B. bei einer Nachtfahrt mit dunklen Bildbereichen 18b und 18c, einen entsprechenden Weißabgleich vornehmen kann.