[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102012023299A1 - Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) - Google Patents

Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) Download PDF

Info

Publication number
DE102012023299A1
DE102012023299A1 DE102012023299.3A DE102012023299A DE102012023299A1 DE 102012023299 A1 DE102012023299 A1 DE 102012023299A1 DE 102012023299 A DE102012023299 A DE 102012023299A DE 102012023299 A1 DE102012023299 A1 DE 102012023299A1
Authority
DE
Germany
Prior art keywords
image
images
pixels
hdr
dynamic range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102012023299.3A
Other languages
English (en)
Inventor
Noam Levy
Guy Rapaport
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Zoran Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zoran Corp filed Critical Zoran Corp
Publication of DE102012023299A1 publication Critical patent/DE102012023299A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/743Bracketing, i.e. taking a series of images with varying exposure conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

Ausführungsformen betreffen das Ermöglichen, dass Digitalkameras eine erfasste Sequenz von Bildern mit niedrigem Dynamikumfang mit einer Echtzeitvideorate digital verarbeiten und die Bildsequenz in eine Bildsequenz mit hohem Dynamikumfang (HDR – High Dynamic Range) konvertieren unter Verwendung einer Pipeline-Architektur. Zwei oder mehr Einzelbilder werden unter Verwendung verschiedener Belichtungseinstellungen erfasst und dann kombiniert, um ein einzelnes HDR-Ausgabebild in einer Videosequenz auszubilden. Die Pipeline-Architektur bearbeitet benachbarte Einzelbilder durch Durchführen einer Bildausrichtung, einer Bildmischung und eines Tone-Mapping an den benachbarten Einzelbildern, um die HDR-Bildsequenz zu erzeugen.

Description

  • ERFINDUNGSGEBIET
  • Die vorliegenden Ausführungsformen betreffen allgemein die digitale Videobildverarbeitung und insbesondere, aber nicht ausschließlich, zumindest die Verwendung einer Digitalkamera zum Implementieren eines Einzelbild-Pipelining-Ansatzes, der mehrere eingegebene Einzelbilder kombiniert, um in Echtzeit während einer Videoerfassung für eine Videosequenz ein einzelnes HDR-Ausgabeeinzelbild (HDR – High Dynamic Range – hoher Dynamikumfang) auszubilden.
  • ALLGEMEINER STAND DER TECHNIK
  • Der Dynamikbereich einer Digitalbildeinrichtung wie etwa einer Digitalkamera ist das Verhältnis zwischen der größten Lichtmenge, die die Einrichtung ohne Sättigung einfangen kann, und der geringsten Lichtmenge, die die Einrichtung präzise messen und von intrinsischem Bildrauschen (elektrischem, thermischem usw.) unterscheiden kann. Die meisten im Handel erhältlichen Digitalkameras können nur einen kleinen Teil des natürlichen Beleuchtungsbereichs einer Szene aus der realen Welt einfangen.
  • Typische Digitalkameras, die auf CMOS-(Complementary Metal-Oxide-Silicon)- oder CCD(Charge Coupled Device – ladungsgekoppeltes Bauelement)-Technologien basieren, fangen Bilder als LDR-Bilder (Low Dynamic Range – geringer Dynamikumfang) ein. LDR-Bilder bedeuten oftmals, dass der Dynamikumfang von Farben eines eingefangenen Bildes begrenzt oder abgeschnitten ist. Ein Beispiel für solche resultierenden Bilder kann Bereiche enthalten, die zu dunkel sind, wobei sie ein Signal erzeugen, das unter dem intrinsischen Rauschpegel des Elektroniksensors liegt, und Bereiche, die als zu hell bestimmt werden, wobei sie auf weiß abgeschnitten werden (manchmal als Sättigung bezeichnet).
  • HDR-Bildlösungen versuchen den Beleuchtungsdynamikumfang, der eingefangen wird, zu vergrößern, um einen volleren Bereich von Bildfarben zu liefern. Beispielsweise könnten dunklere Bilder in verschiedenen Grauschattierungen erscheinen, um mehr Bilddetails zu liefern, die in einem Schattengebiet einer Szene vorliegen könnten. HDR-Lösungen versuchen dann, Details in einem Bild beizubehalten, die ansonsten aufgrund der Grenzen der Kontrastverhältnisse möglicherweise verloren gehen. Die vorliegende Erfindung erfolgte somit bezüglich dieser Überlegungen und anderer.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • Nichtbeschränkende und nichterschöpfende Ausführungsformen werden unter Bezugnahme auf die folgenden Zeichnungen beschrieben. In den Zeichnungen beziehen sich gleiche Bezugszahlen durch die verschiedenen Figuren hinweg auf gleiche Teile, sofern nicht etwas anderes angegeben ist.
  • Zu einem besseren Verständnis der vorliegenden Ausführungsformen wird auf die folgende ausführliche Beschreibung Bezug genommen, die in Verbindung mit den beiliegenden Zeichnungen zu lesen ist. Es zeigen:
  • 1 ein Systemdiagramm einer Ausführungsform eines Umfelds, in dem die Ausführungsformen praktiziert werden können;
  • 2 eine Ausführungsform eines verbesserten Bildprozessors mit einem Pipeline-HDR-Konverter, der für das Praktizieren verschiedener Ausführungsformen verwendet werden kann;
  • 3 eine Ausführungsform einer Pipeline-Architektur, die zum dynamischen Herstellen von HDR-Videosequenzen in Echtzeit verwendet werden kann;
  • 4 eine Ausführungsform eines Bildflusses innerhalb einer Pipeline-Architektur zum dynamischen Herstellen von HDR-Videosequenzen in Echtzeit aus erfassten benachbarten Eingabeeinzelbildern;
  • 5 eine Ausführungsform eines Pipeline-Prozessflusses zum Herstellen von HDR-Videosequenzen in Echtzeit; und
  • 6 ein nichtbeschränkendes, nichterschöpfendes eindimensionales Beispiel einer gewichtenden Nachschlagetabellenfunktion, die beim Mischen von Gewichten verwendet wird.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Verschiedene Ausführungsformen werden nun im Folgenden unter Bezugnahme auf die beiliegenden Zeichnungen ausführlicher beschrieben, die einen Teil hiervon bilden und die als Veranschaulichung spezieller Aspekte zeigen, in denen die Ausführungsformen praktiziert werden können. Diese Ausführungsformen können jedoch viele verschiedene Formen annehmen und sollten nicht so ausgelegt werden, als seien sie auf die hier dargelegten Ausführungsformen beschränkt; vielmehr werden diese Ausführungsformen vorgelegt, damit diese Offenbarung gründlich und vollständig ist und dem Fachmann den Schutzbereich umfassend übermittelt. Die vorliegenden Ausführungsformen können unter anderem Verfahren oder Einrichtungen enthalten. Dementsprechend können die vorliegenden Ausführungsformen die Form von ausschließlich Hardware- oder einer Kombination aus Software- und Hardwareaspekten annehmen. Die folgende ausführliche Beschreibung ist deshalb nicht in einem beschränkenden Sinne zu verstehen.
  • Im Verlauf der Spezifikation und der Ansprüche besitzen die folgenden Ausdrücke die explizit hier assoziierten Bedeutungen, sofern der Kontext nicht deutlich etwas anderes angibt. Die Phrase ”in einer Ausführungsform”, wie hier verwendet, bezieht sich nicht notwendigerweise auf die gleiche Ausführungsform, wenngleich sie dies kann. Ferner bezieht sich die Phrase ”in einer weiteren Ausführungsform”, wie sie hier verwendet wird, nicht notwendigerweise auf eine andere Ausführungsform, wenngleich sie dies kann. Somit können, wie unten beschrieben, verschiedene Ausführungsformen der Erfindung ohne Weiteres kombiniert werden, ohne von dem Schutzbereich oder Gedanken der Erfindung abzuweichen.
  • Außerdem ist der Ausdruck ”oder” ein inklusiver ”oder” – Operator und ist gleichwertig dem Ausdruck ”und/oder”, sofern der Kontext nicht deutlich etwas anderes angibt. Der Ausdruck ”auf der Basis von” ist nicht ausschließend und gestattet das Basiertsein auf nicht beschriebenen zusätzlichen Faktoren, sofern der Kontext nicht deutlich etwas anderes angibt. Außerdem beinhaltet durch die Spezifikation hinweg die Bedeutung von ”ein/eine” und ”der/die/das” mehrere Referenzen. Die Bedeutung von ”in” beinhaltet in ”in” und ”an”.
  • Der Ausdruck ”Bild” oder ”Bilddaten”, wie er hier verwendet wird, bezieht sich auf Daten, die ein in wenigstens zwei Dimensionen anzuzeigendes Bild definieren und können die Form einer einzelnen Anzeige des Bilds oder einer zeitlich variierenden Anzeige einer Sequenz von Bildern annehmen, die mehrere Videoeinzelbilder umfassen, die zeitlich beabstandet sein können. Weiterhin stellt der Ausdruck ”Einzelbild” nur ein Bild innerhalb einer Sequenz von Bildern dar.
  • Der Ausdruck ”Echtzeit”, wie er hier verwendet wird, bezieht sich auf die Verarbeitung eines Bildes (oder anderer Daten), sobald das Bild oder die Bilddaten erhalten oder eingefangen werden. Somit gibt Echtzeit an, dass das Bild wenigstens mit einer gleichen Rate verarbeitet wird, mit der das Bild erhalten (oder eingefangen) wird. Dies wird manchmal auch als ”Echtzeitvideorate” bezeichnet.
  • Das Folgende beschreibt kurz die Ausführungsform, um ein grundlegendes Verständnis von einigen Aspekten zu vermitteln. Diese kurze Beschreibung ist nicht als ein umfassender Überblick gedacht. Sie soll keine wichtigen oder entscheidenden Elemente identifizieren oder den Schutzbereich abgrenzen oder anderweitig verengen. Ihr Zweck besteht lediglich darin, einige Konzepte in einer vereinfachten Form vorzulegen als Auftakt für die ausführlichere Beschreibung, die später vorgelegt wird.
  • Kurz gesagt, dienen Ausführungsformen dazu, es handgehaltenen Digitalkameras oder anderen Mobileinrichtungen mit einer Digitalkamerakomponente zu ermöglichen, eine eingefangene LDR-Bildsequenz mit einer Echtzeitvideorate digital zu verarbeiten und die Bildsequenz unter Verwendung einer Pipeline-Architektur in eine HDR-Bildsequenz zu konvertieren. Bei einer Ausführungsform können Bilder schneller als mit einer gewünschten finalen (Ausgabe-)Einzelbildrate erfasst werden, wobei zwei oder mehr Bilder (Einzelbilder) einer Szene unter Verwendung verschiedener Belichtungseinstellungen erfasst werden. Die verschiedenen Belichtungseinstellungen könnten beispielsweise unterschiedliche Belichtungszeiten, unterschiedliche Blendenwerte oder dergleichen beinhalten. Die mehreren Einzelbilder werden dann kombiniert, um ein einzelnes HDR-Ausgabeeinzelbild auszubilden, das dann auf einer Videosequenz (oder einem Videostrom) aufgezeichnet werden kann. Bei einer Ausführungsform können dunkle Bereiche in einem Einzelbild durch Pixel von einem helleren Einzelbild ersetzt werden, um Details der Szene aufzuhellen und zu verbessern; während gesättigte Bereiche in einem Einzelbild durch Pixel von einem dunkleren Einzelbild ersetzt werden können, um ausgebrannte Details in dem Gesamtbild wiederherzustellen. Dies kann während des Pipelining der benachbarten Einzelbilder durch eine Bildausrichtungsstufe, eine Bildmischstufe und eine Tonmappingstufe durchgeführt werden, wie weiter unten beschrieben.
  • Veranschaulichende Arbeitsumfelder
  • 1 zeigt Komponenten eines Umfelds, in dem Ausführungsformen praktiziert werden können. Möglicherweise sind nicht alle die Komponenten zum Praktizieren der Ausführungsformen erforderlich, und Variationen bei der Anordnung und Art der Komponenten können vorgenommen werden, ohne von dem Gedanken oder Schutzbereich der Erfindung abzuweichen. Vielmehr können verschiedene Implementierungen des Systems viel mehr oder weniger Komponenten als jene in 1 gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform für das Praktizieren der vorliegenden Erfindung zu offenbaren.
  • Wie gezeigt, kann das System 100 von 1 eine Kamera oder eine beliebige einer Vielzahl anderer möglicher tragbarer Einrichtungen darstellen, einschließlich Mobiltelefonen, Smartphones, Displaypagers, Hochfrequenzeinrichtungen (HF-Einrichtungen), Infraroteinrichtungen (IR-Einrichtungen), PDAs (Personal Digital Assistants), handgehaltene Computer, Laptopcomputer, tragbare Computer, Tabletcomputer, integrierte Einrichtungen, die eine oder mehrere der vorausgegangenen Einrichtungen kombinieren, und dergleichen, die ausgelegt werden können, Bilder zu erfassen und zu verarbeiten, einschließlich Bildsequenzen. Bei einer Ausführungsform kann das System 100 nicht gezeigte Komponenten enthalten, wie etwa eine Linse oder andere optische Elemente, und einen oder mehrere Bildsensoren zum Empfangen von Bildern, die in ein digitales Bild zur Verarbeitung und nachfolgenden Speicherung in einer oder mehreren Speichereinrichtungen konvertiert werden können.
  • Wie gezeigt, kann das System 100 Komponenten auf einem einzelnen integrierten Schaltungschip oder auf mehreren verschiedenen Schaltungschips enthalten. Jedenfalls enthalten in 1 gezeigte Komponenten eine Taktschaltung 102 zum Liefern von Taktsignalen an die Schaltungschips und andere Komponenten. Wenngleich als eine separate Komponente dargestellt, ist zu verstehen, dass die Taktschaltung 102 auch auf einem Enhanced Image Processor (EIP) 200 oder dergleichen enthalten sein kann.
  • Ebenfalls gezeigt ist ein flüchtiger Direktzugriffsspeicher-(RAM – Random Access Memory)Schaltungschip 106, der an den EIP 200 gekoppelt sein kann, um eine temporäre Datenspeicherung bereitzustellen. Bei einer Ausführungsform kann der RAM 106 ausgelegt sein, Bilddaten zu empfangen und zu speichern, wie etwa ein oder mehrere Einzelbilder von Bilddaten zur Verwendung durch den EIP 200 oder zur Ausgabe von Daten von dem EIP 200 sowie zum Speichern von Skalierungsfaktoren, verschiedenen Statistiken über ein Bild, Verzeichnungsdaten, Tiefenschätzstatistiken, Disparitätskartendaten, Quantisierungsdaten und dergleichen. Ein separater nichtflüchtiger Festwertspeicher-(ROM – Read-Only Memory)Speicherchip 104 ist ebenfalls an den EIP 200 gekoppelt und kann für die Speicherung eines Prozessorprogramms, von Kalibrierungsdaten, von Nachschlagetabellen (LUIS Look-Up Tables), nichtlinearen Funktionen und einer Vielzahl anderer von dem System 100 verwendbarer Daten eingesetzt werden. Bei einer Ausführungsform kann der ROM 104 ein Flash-Speicher sein, der umprogrammiert werden kann, oder ein Speicher, der einmal programmiert werden kann, wie etwa ein programmierbarer Festwertspeicher (PROM – Programmable Read-Only Memory), ein elektrisch programmierbarer Festwertspeicher (EEPRO – Electrically Programmable Read-Only Memory) oder einer einer Vielzahl anderer Speichereinrichtungen.
  • Wenngleich dies nicht dargestellt ist, können in dem System 100 eine andere Art von Speicher- oder physischer Speichereinrichtungen enthalten sein, einschließlich beispielsweise Speicherkarten, die elektrisch löschbare und programmierbare Halbleiter-Flash-Festwertspeicher-, entfernbare sich drehende Magnetplattenspeicher-, entfernbare USB-(Universal Serial Bus)Einrichtungen oder eine beliebige einer Vielzahl anderer Speichereinrichtungen beinhalten können. Bei einer Ausführungsform kann das System 100 auch ausgelegt sein, durch eine Eingangs-/Ausgangs-Einrichtung (E/A) 108 auf Speichereinrichtungen zuzugreifen, die sich außerhalb des Systems 100 befinden können. Somit ist zu verstehen, dass der EIP 200 ausgelegt sein kann, ein oder mehrere Einzelbilder von Bilddaten zu erhalten, das eine oder die mehreren erhaltenen Einzelbilder unter Verwendung von Pipeline-Operationen zu bearbeiten, um Informationen von einem oder mehreren Einzelbildern einer Szene zu einem einzelnen ausgegebenen HDR-Einzelbild von Bilddaten zu verschmelzen und zusammenzuführen, die HDR-Bilddaten zu komprimieren und einen resultierenden komprimierten (codierten) Bitstrom von Daten unter Verwendung einer Vielzahl von Speichereinrichtungen und/oder Kommunikationsmechanismen zu speichern oder anderweitig zu senden. Es versteht sich, dass der Bitstrom auch über verschiedene Kommunikationsmechanismen zur Anzeige und/oder Speicherung auf einer anderen Einrichtung geschickt werden kann.
  • Die E/A-Einrichtung 108 enthält eine Schaltungsanordnung zum Koppeln des Systems 100 an eine oder mehrere externe Einrichtungen, Netzwerke und dergleichen, und ist zur Verwendung mit einem oder mehreren Kommunikationsprotokollen und -technologien konstruiert, einschließlich einem oder einer beliebigen einer Vielzahl von Kommunikationsprotokollen und -technologien, die zum Kommunizieren von Bildern verwendet werden können, einschließlich Bilder zu und/oder von dem System 100. Bei einer Ausführungsform ist die E/A-Einrichtung 108 manchmal als ein Sendeempfänger, eine Sendeempfangseinrichtung oder eine Netzwerkschnittstellenkarte (NIC – Network Interface Card) bekannt.
  • Die E/A-Einrichtung 108 kann auch für andere Kommunikationen sorgen, einschließlich zur Verwendung verschiedener Eingabeeinrichtungen wie etwa Tastenfelder, Touchscreens oder dergleichen sowie Ausgabeeinrichtungen einschließlich Schirmdisplays, Audioausgaben oder dergleichen. Somit kann das System 100, wenngleich nicht gezeigt, auch einen Lautsprecher und/oder ein Mikrofon enthalten, die an die E/A-Einrichtung 108 gekoppelt sein können, um Kommunikationen zu ermöglichen. Das System 100 kann auch ein Display enthalten, das ein Flüssigkristalldisplay (LCD – Liquid Crystal Display), ein Gasplasma, eine Leuchtdiode (LED – Light Emitting Diode) oder irgendeine andere Art von Display beinhalten kann, das zum Liefern von Text und/oder einem Bild zur Anzeige verwendet werden kann. Weiterhin kann das Display bei einer Ausführungsform auch einen berührungsempfindlichen Schirm enthalten, der ausgelegt ist zum Empfangen einer Eingabe von einem Objekt wie etwa einem Stift oder einem Finger von einer menschlichen Hand.
  • Dargestellt ist außerdem ein Bildsensor- und Analog-Digital-Wandler (A/W) 110, der ausgelegt sein kann, ein ein Bild darstellendes Analogsignal zu empfangen und das empfangene Signal in digitale Bilddaten zu konvertieren, bei denen es sich bei einer Ausführungsform um eine Sequenz von individuellen Blöcken von digitalen Bilddaten handeln kann, die eine Lichtintensität darstellen, die durch verschiedene Fotodetektoren eines Bildsensors und/oder einer Linsenanordnung (nicht gezeigt) empfangen werden können. Der Bildsensor- und A/D 110 kann dann die digitalen Daten an den EIP 200 zur Verarbeitung liefern. Bei einer Ausführungsform können die von dem EIP 200 empfangenen Daten in einem rohen Bayer-Format vorliegen. Es können jedoch auch andere Datenformate verwendet werden, beispielsweise können unter anderem die Bilddaten durch drei Komponenten des Bildsignals definiert werden; nämlich eine Luminanzkomponente (Y) und zwei komplementäre Chrominanz-(Farbdifferenzen)Komponenten (V = R – Y) und (U = B – Y).
  • Eine Ausführungsform des EIP 200 ist in 2 gezeigt. Der EIP 200 kann viel mehr oder weniger Komponenten als jene gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform zum Praktizieren verschiedener Ausführungsformen zu offenbaren.
  • Wie in 2 gezeigt, kann der EIP 200 einen Prozessor 208 umfassen, der eine Allzweck- oder spezialisierte zentrale Verarbeitungseinheit (CPU – Central Processing Unit) darstellen kann, die ausgelegt ist zum Durchführen einer Vielzahl von Berechnungen an einem Bild und/oder eine Sequenz von Bildern und zum Steuern verschiedener Operationen des Systems 100 als Reaktion auf computerlesbare Anweisungen, die in einer der Speichereinrichtungen von 1 wie etwa dem ROM 104 oder dergleichen gespeichert sein können. Bei einer Ausführungsform können digitale Daten von einem oder mehreren Bildern von der Eingabeschnittstellenschaltung 202 empfangen und durch eine Verbindung durch eine Speicherverwaltungseinrichtung 206 zu anderen Komponenten kommuniziert werden. Bei einer Ausführungsform kann der Pipeline-HDR-Konverter (PHC – Pipeline HDR Converter) 201 wie weiter unten beschrieben verwendet werden, um in Echtzeit erfasste Bilder innerhalb einer Sequenz von Bildern zu empfangen und sie in eine HDR-Bildsequenz zu konvertieren. Bei einer Ausführungsform werden die erfassten Bilder als LDR-Bilder erfasst. Bei einer Ausführungsform kann der PHC 201 verschiedene Operationen an zwei oder mehr Bildern, die in der Sequenz von erfassten Bildern benachbart sind, am Fließband durchführen. Der PHC 201 kann beispielsweise die benachbarten Bilder ausrichten und die ausgerichteten Bilder mischen, um ein HDR-Bild herzustellen. Der PHC 201 kann ferner das HDR-Ergebnis in einen begrenzten Bildbereich wie etwa einen 8-Bit-Bereich abbilden, der beispielsweise in einer Displayeinrichtung angezeigt werden kann. Die HDR-Bildsequenz kann auch als ein komprimierter Bitstrom codiert werden, der durch eine Ausgabeschnittstellenschaltung 204 zu verschiedenen Speichereinrichtungen, zur Anzeige oder sogar über ein Netzwerk einschließlich ein drahtloses und/oder ein verdrahtetes Netzwerk zu einer anderen Einrichtung ausgegeben werden kann.
  • Schnittstellen 210 können für verschiedene Mechanismen sorgen zum Kommunizieren mit dem Prozessor 208 und/oder der Speicherverwaltung 206, anderen Komponenten, um Modifikationen an verschiedenen Handlungen zu ermöglichen, einen Status einer Handlung zu liefern, oder dergleichen durch eine andere Einrichtung, einen Endbenutzer oder dergleichen.
  • 3 zeigt eine Ausführungsform einer Pipeline-Architektur, die verwendet werden kann, um HDR-Videosequenzen dynamisch in Echtzeit herzustellen. Die Architektur 300 von 3 kann viel mehr oder weniger Komponenten als die gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform zum Praktizieren verschiedener Ausführungsformen zu offenbaren.
  • Wie gezeigt, enthält die Architektur 300 einen Bildsensor- & A/D 110, den Prozessor 208, den PHC 201 und eine Speicherkomponente 320, die jeweils oben bezüglich 12 beschrieben sind. Beispielsweise kann die Speicherkomponente 320 einen ROM 104 und/oder einen RAM 106 von 1 darstellen. Die Architektur 300 enthält auch ein Display 307, das eine beliebige Einrichtung darstellt, das zum Anzeigen einer Videosequenz und/oder von Bildern verwendet werden kann. Bei einer Ausführungsform kann das Display 307 zum Anzeigen der Videosequenz als eine HDR-Videosequenz ausgelegt sein.
  • Der PHC 201 enthält auch eine Registrierungskomponente 302, eine Mischkomponente 303, eine Optische-Fluss-Komponente 304, eine Tone-Map-Komponente 305 und eine Bildcodierungskomponente 306, die jeweils integrierte Schaltungselemente oder Teilkomponenten auf einer integrierten Leiterplatte darstellen können, wie etwa eine applikationsspezifische integrierte Schaltung (ASIC – Application-Specific Integrated Circuit) oder dergleichen, wobei der Prozessor 208 ausgelegt ist zum Verwalten der Fließbandoperationen für die Architektur 300.
  • Kurz gesagt, enthält der Bildsensor- & A/D 110 einen Bildsensor, der ein empfangenes Bild in eine digitale Darstellung konvertiert. Bei einer Ausführungsform können benachbarte Bilder unter Verwendung verschiedener Belichtungseinstellungen erfasst werden. Die Ausdrücke ”Belichtung”, ”Belichtungswert” und ”ExpVal”, wie sie hier verwendet werden, beziehen sich auf eine auf dem Bildsensor treffende effektive Lichtmenge. Bei einer Ausführungsform, wo Exp Time eine Belichtungszeit ist, ISO eine Höhe der International Organization for Standardization (ISO) darstellt (z. B. eine ISO-Bewertung) und F die F-Zahl (Focal) des optischen Systems darstellt, dann kann die Belichtung proportional sein zu ISO·Exp Time/F2.
  • Bei einer Ausführungsform kann ein erstes Bild mit einer längeren (oder höheren) Belichtungszeit als ein nachfolgendes Bild erfasst werden. Verschiedene andere Einstellungen können jedoch zusätzlich oder anstelle von variierenden Belichtungszeiten variiert werden. Beispielsweise könnten Blendenzahlen variiert werden; ISO-Bewertungen könnten zwischen benachbarten Bildern variiert werden; oder dergleichen. Bei einem Beispiel könnte das erste Bild als überbelichtet angesehen werden, um ein helles Bild zu erzeugen, während ein benachbartes Bild in der Sequenz als ein unterbelichtetes Bild angesehen werden könnte, um ein dunkles Bild zu erzeugen. Bei einer weiteren Ausführungsform könnte jedes ungeradzahlige Einzelbild in einer Sequenz von Bildern einer Belichtungskompensation um eine Blende +1 unterzogen werden, während jedes geradzahlige Einzelbild einer Belichtungskompensation um eine Blende –1 unterzogen werden könnte. Es können jedoch auch andere Kombinationen verwendet werden. Zudem ist zu verstehen, dass das erste Bild in der Sequenz von benachbarten Bildern eine niedrigere oder kürzere Belichtungseinstellung als ein benachbartes Bild aufweisen könnte.
  • Bei einer Ausführungsform werden die Bilder in einem Rohformat (Bayer-Format) erfasst. Der Bildsensor- & A/D 110 kann jedoch auch die Bilder in ein anderes Format wie etwa YUV konvertieren. Jedenfalls können die erfassten Bilder in einer Speicherkomponente 320 platziert werden, damit die anderen Komponenten, wie angebracht, Zugang dazu haben. Bei einer weiteren Ausführungsform kann das erfasste Bild direkt an eine nächste Komponente in der Pipeline-Sequenz von Komponenten weitergegeben werden, anstatt in der Speicherkomponente 320 platziert zu werden.
  • In jedem Fall kann die Registrierungskomponente 302 eine Bildausrichtung durchführen, einschließlich eines Verziehens eines der benachbarten Bilder mit einem anderen Bild. Ferner könnte bei einer Ausführungsform das Verziehen auch eine Linsenverzeichnung und/oder andere Probleme korrigieren. Das verarbeitete Einzelbild kann wieder im Speicher 320 platziert werden oder an eine nächste Komponente in der Pipeline weitergegeben werden.
  • Die Optische-Fluss-Komponente 304 kann ausgelegt sein, eine Übereinstimmungsextraktion zwischen den benachbarten Bildern durchzuführen, einschließlich des Behandelns von Problemen einer möglichen unterschiedlichen Luminanz zwischen den Bildern. Die Mischkomponente 303 kann verschiedene Operationen durchführen, wie unten offenbart, um Abschnitte der benachbarten Bilder zu mischen und ein einzelnes HDR-Einzelbild herzustellen. Dieses HDR-Einzelbild kann dann der Tone-Map-Komponente 305 vorgelegt werden, um verschiedene Töne des Bildes auf einen Bereich zu komprimieren, der der Konfiguration einer erwarteten Ausgabeeinrichtung entspricht. Beispielsweise könnte bei einer Ausführungsform die Tone-Map-Komponente 305 das Bild für eine erwartete 8-Bit-Ausgabeeinrichtung komprimieren. Es können auch andere Bitgrößen verwendet werden, auch aus anderen Gründen, anstelle von oder zusätzlich zu einer erwarteten Ausgabeeinrichtung. Es ist jedoch anzumerken, dass dieser Schritt optional sein kann, wenn Ausgabeeinrichtungen mit einer höheren Bitzahl zur Verfügung stehen und/oder höhere Bitraten erwünscht sind.
  • Eine Bildcodierungskomponente 306 kann dann die HDR-getönten Bilder empfangen und eine unterschiedliche Codierung des HDR-Einzelbilds auf ein computerlesbares komprimiertes Videoformat durchführen, einschließlich unter anderem H.264, MPEG-4 oder dergleichen.
  • 4 zeigt eine Ausführungsform eines Bildflusses in der Pipeline-Architektur 300 von 3 zum dynamischen Herstellen von HDR-Videosequenzen in Echtzeit aus erfassten benachbarten eingegebenen Einzelbildern. Der Pipeline-Prozess 400 von 4 kann viel mehr oder weniger Komponenten als jene gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform zum Praktizieren verschiedener Ausführungsformen zu offenbaren. Wie in 4 gezeigt, entsprechen die Pipeline-Operationen den oben in Verbindung mit 3 erörterten verschiedenen Komponenten.
  • Der Pipeline-Prozess 400 zeigt eine Ausführungsform, wie die Architektur 300 von 3 in einem Zeitrafferdiagramm implementiert werden kann, wobei die Zeit als von links nach rechts zunehmend gezeigt ist und die Pipeline-Operationen auf der linken Seite gezeigt sind. Sätze von benachbarten Bildern sind durch die Blöcke dargestellt, wie etwa den Satz von benachbarten Bildern 402, während sie sich durch die Pipeline-Operationen bewegen. Beispielsweise veranschaulicht die Sequenz von Blöcken 410412 Sätze von benachbarten Bildern 402, die durch eine Operation bearbeitet werden und sich dann zu einer anderen Operation in der Pipeline bewegen.
  • Der Satz von benachbarten Bildern 402 kann zwei oder mehr erfasste Einzelbilder umfassen. Beispielsweise können, wie dargestellt, benachbarte Bilder 402 Einzelbilder 401 und 402 beinhalten. Wie gezeigt, kann ein Einzelbild alle 1/60 Sekunden erfasst werden, und Pipeline-Operationen können über die Zeit durchgeführt werden, die in Intervalle von 1/30 Sekunden unterteilt ist. Das heißt, bei einer Ausführungsform können Bilder mit dem Doppelten einer nominellen Einzelbildrate erfasst werden.
  • Wie gezeigt, wird das Einzelbild 401 zu einem ersten Zeitpunkt und mit einer ersten Belichtungseinstellung erfasst (mit einem Pfeil gezeigt). Das benachbarte Einzelbild 402 wird dann zu einem zweiten Zeitpunkt (z. B. 1/60 Sekunde später) mit einer zweiten Belichtungseinstellung erfasst (wie durch einen Pfeil mit einer unterschiedlichen Länge als der Pfeil für das Einzelbild 401 dargestellt). Es sei angemerkt, dass andere Zeiteinzelbilder gewählt werden können sowie mehr als zwei Bilder innerhalb des Satzes von benachbarten Bildern 402 enthalten sein können.
  • Jedenfalls können, während der Satz von benachbarten Bildern 402 durch den Bildsensor- & ND 110 empfangen wird, verschiedene Operationen an benachbarten Bildern 402 ausgeführt werden, wie gezeigt. Während benachbarte Bilder 402 in der Pipeline bearbeitet werden, werden zusätzliche Bilder als Sätze von Bildern erfasst und innerhalb der Pipeline-Architektur verarbeitet. Somit bewegt sich, wie gezeigt, der Satz von Bildern 402 durch die verschiedenen Operationen, um die Sequenz 410 herzustellen. Eine ähnliche Fließbandverarbeitung von benachbarten Bildern erfolgt für die Sequenz 411 sowie jeden der anderen Sätze von benachbarten Bildern, in 4 gezeigt, Sequenz 412, und so weiter.
  • Somit kann die Konvertierung von einer LDR-Bildsequenz zu einer HDR-Bildsequenz in zwei Teilaufgaben unterteilt werden, die jeweils in einer einzelnen Einzelbildzeit durchgeführt werden können; jede oben beschriebene Komponente kann ihre Aufgabe ausführen und dann die Ergebnisse zu einer nächsten Komponente transferieren. Bei einer Ausführungsform brauchen deshalb keine Zwischenergebnisse in einem Speicher gespeichert zu werden. Während eine einzelne Einzelbildverarbeitungszeit bis etwa 150 ms oder mehr benötigen könnte, gestattet der Pipeline-Ansatz wie hier beschrieben einen Durchsatz eines Einzelbilds in etwa 33 Millisekunden. Es können sich jedoch auch andere Zeitwerte ergeben. Beispielsweise könnte bei einer anderen Ausführungsform die Einzelbildrate (FPS) des HDR-Stroms etwa die gleiche sein wie der Eingabestrom, indem ein erstes und ein zweites Einzelbild zu einem ersten HDR-Einzelbild, ein zweites und drittes Einzelbild zu einem zweiten HDR-Einzelbild usw. kombiniert werden.
  • Verallgemeinerter Betrieb
  • Der Betrieb gewisser Aspekte der Erfindung wird nun bezüglich 5 beschrieben. 5 veranschaulicht eine Ausführungsform eines Pipeline-Prozessflusses zum Herstellen von HDR-Videosequenzen in Echtzeit. Wie oben erörtert, kann der Prozess 500 von 5 innerhalb der Pipeline-Architektur von 3 innerhalb des Systems 100 von 1 implementiert werden.
  • Es sei angemerkt, dass der Prozess 500 zwar einen sequentiellen Fluss mit einem Loopback darstellt (Entscheidungsblock 514), die Sätze von Bildern durch jeden Block gleichzeitig bearbeitet werden können. Beispielsweise kann unter Verwendung von in 4 dargestellten Sätzen von Bildern ein Satz von Bildern 402 bei Block 506 des Prozesses 500 bearbeitet werden, während gleichzeitig ein zweiter Satz von Bildern 403 in der Pipeline durch den Block 504 bearbeitet werden kann, und weiter kann ein dritter Satz von Bildern 404 gleichzeitig in der Pipeline durch Block 502 bearbeitet werden. Somit sollte der Prozess 500 nicht so ausgelegt werden, dass er einen einzelnen Satz von Bildern bearbeitet, bevor Operationen an anderen Sätzen von Bildern gestartet werden.
  • Der Prozess 500 ist so dargestellt, dass er drei Stadien umfasst, das Bildausrichtungsstadium 520, das Bildmischstadium 521 und das Tone-Mapping-Stadium 522. Kurz gesagt, betrifft die Bildausrichtung das Ausrichten der mehreren Bilder und beinhaltet das Messen des optischen Flusses und das Verziehen eines der Bilder, damit es zu dem anderen Bild passt. Das Bildmischen betrifft das Mischen der ausgerichteten Bilder miteinander, um das einzelne HDR-Bild aus den mehreren Bildern herzustellen, und das Tone-Mapping betrifft das Reduzieren eines Bitbereichs zur Verwendung beim Anzeigen oder Durchführen anderer Aktionen mit dem resultierenden HDR-Bild.
  • Somit beginnt der Prozess 500 bei Block 502, wo mehrere benachbarte Einzelbilder erhalten werden. In diesem Fall werden die benachbarten Einzelbilder beispielsweise von der Bildsensor- & A/D-110-Komponente von 1 erhalten. Wie oben erörtert, kann ein erstes Bild mit einer anderen Belichtungseinstellung als ein zweites Bild eingefangen worden sein. Wenngleich die obigen Erörterungen sich auf zwei Bilder bezogen, können zudem andere Ausführungsformen das Erhalten von mehr als zwei Bildern, jeweils mit anderen Belichtungseinstellungen, beinhalten.
  • Die Bearbeitung geht dann weiter zu Block 504, wo der optische Fluss bestimmt wird. Wie oben erörtert, kombiniert der Prozess 500 Pixelinformationen zwischen den empfangenen zwei oder mehr Einzelbildern, um eine einzelne HDR-Ausgabe zu erzeugen. Um unerwünschte Artefakte zu vermeiden, wie etwa Bildunschärfe und Ghostingbilder, werden die erhaltenen Einzelbilder ausgerichtet. Die Ausrichtung betrifft das Identifizieren eines gleichen Objekts innerhalb der in den mehreren Bildern eingefangenen Szene und Sicherstellen, dass sie sich innerhalb jedes der Einzelbilder an einer gleichen Position befinden.
  • Da die Bilder wahrscheinlich von einer handgehaltenen Kamera erfasst werden, kann sich die Kamera zwischen Einzelbildern geringfügig bewegen; dies wird bewirken, dass sich das Bild zwischen erfassten Einzelbildern bewegt oder dreht. Zum Kompensieren werden Schätzungen darüber durchgeführt, wie ein Bild bewegt wird, um auf ein anderes Bild ausgerichtet zu sein.
  • Bei einer Ausführungsform beinhaltet ein Ansatz zum Ausrichten der Bilder das Versuchen, eine parametrische Funktion T: R2 → R2 zu schätzen, die darauf ausgerichtet ist, die Beziehung zwischen Bildkoordinaten in einem Bild und Bildkoordinaten in wenigstens einem zweiten Bild darzustellen; bei einer Ausführungsform werden mehrere derartige Funktionen geschätzt – eine für jedes Objekt in dem Bild. Ein Beispiel dieser Funktion beinhaltet die affine Funktion: x' = a11x + a12y + a13 y' = a21x + a22y + a23
  • Um das Modell zu schätzen, werden zuerst die Bewegungsvektoren zwischen entsprechenden Pixeln in den zwei oder mehr Bildern extrahiert, und dann wird die globale Bewegungstransformation geschätzt.
  • Bewegunqsvektorextraktionen
  • Bei der Bewegungsvektorextraktion besteht ein erster Schritt darin, Übereinstimmungen zwischen den mehreren Bildern zu finden, und er beinhaltet das Finden, welche Orte in einem Bild Orten in einem anderen Bild entsprechen.
  • Es kann so gut wie jedes Bewegungssuchverfahren verwendet werden. Bei einer Ausführungsform jedoch kann ein Bewegungssuchverfahren verwendet werden, wie es in der am 25. Mai 2007 eingereichten US-Patentveröffentlichung mit der laufenden Nummer 2008/0291288 mit dem Titel ”Technique of Motion Estimation When Acquiring An Image of A Scene That May Be Illuminated With A Time Varying Luminance”, von Tzur; Meir; Pinto; Victor und Pinhasov; Eran (die hier durch Bezugnahme in ihrer Gänze aufgenommen ist) beschrieben ist. Es wird angemerkt, dass Ausführungsformen hierin nicht auf den Einsatz dieser Technik beschränkt sind und auch andere verwendet werden können.
  • Ebenfalls kann die Bewegungssuche bei einer Ausführungsform einen Ansatz auf der Basis einer mittelwertreduzierten Summe der absoluten Differenzen (MRSAD – Mean-Reduced Sum of Absolute Differences) verwendet werden. Das heißt, eine Bewegung eines Blocks von Pixeln in einem Einzelbild kann durch einen Ort eines Blocks in dem anderen Einzelbild bestimmt werden, für die die MRSAD als minimal bestimmt ist. Hierbei kann ein Einzelbild als ein ”Ziel” – IT und das andere Einzelbild als eine ”Referenz” – IR ausgedrückt sein. Dann gilt:
    Figure DE102012023299A1_0002
  • Wobei BX, BY eine Größe eines Blocks definieren und AX und AY einen Suchbereich definieren.
  • Bei einer Ausführungsform kann die Bewegungssuche unter Verwendung spezifischer, auf einer integrierten Schaltung implementierter Hardwarebeschleuniger relativ schnell durchgeführt werden, wie sie etwa im System 100 von 1 verwendet werden könnten, das die Referenz- und Zielbilder aufnimmt und eine Liste von ”Bewegungsvektoren” für jeden Block in den Bildern zurückschickt. Außerdem kann die Bewegungssuche auf einer niedrig aufgelösten Kopie der Bilder durchgeführt und dann durch Durchführen einer zusätzlichen Suche in höherer Auflösung verfeinert werden. Zudem kann die Bewegungssuche durch Anwenden einer Eckendetektion an den Bildern weiter verbessert werden, da Ecken mit größerer Wahrscheinlichkeit zuverlässige Bewegungsvektoren zurückschicken. Außerdem kann bei einer Ausführungsform ein Robustheitsmaß durch Beobachten des MRSAD-Kennfelds als Funktion des (u, v)-Bewegungsvektors und Bestimmen, ob das Minimum, das erzeugt wird, MV(x, y), einzigartig ist, extrahiert werden.
  • Globale Bewegungsschätzung
  • Block 504 kann dann fortgesetzt werden durch Durchführen einer globalen Bewegungsschätzung für die mehreren erhaltenen Einzelbilder. Somit wird nach der Bewegungssuche ein Satz von Übereinstimmungen in jedem Bildsatz erhalten als: (xi, yi) ↔ (xi', yi') = (xi + MVx(xi, yi), yi + MVy(xi, yi))
  • Bei einer Ausführungsform wird ein RANdom-Ansatz (RANdom Sample Consensus – Übereinstimmung mit einer zufälligen Stichprobe) verwendet, um aus diesen Übereinstimmungen eine Transformation zu schätzen. Es können jedoch stattdessen auch andere Ansätze verwendet werden. Deshalb wird angemerkt, dass Ausführungsformen nicht auf diesen Ansatz beschränkt sind. Jedenfalls könnten unter Verwendung dieses Ansatzes die Transformationsschätzungen iterativ aufgebaut werden, wobei Ausreißer zurückgewiesen werden. Eine finale Transformation kann berechnet werden, indem eine Gruppe aller Einlieger genommen wird (die mit ”I” bezeichnet werden können), und eine Transformation um eine Gleichung der kleinsten Quadrate (lineare Regression) geschätzt wird:
    Figure DE102012023299A1_0003
    wobei die Summierung über ∀i ∊ I und N = |I| ist.
  • Es wird angemerkt, dass alle die Summierungen in einer Festkomma-Arithmetik durchgeführt werden können, während die Matrixinversionen eine Fließkomma-Arithmetik verwenden, was einige Male geschehen kann. Sie kann auch in Software emuliert werden und erfordert möglicherweise keine Fließkomma-Hardwareunterstützung, wodurch die Komplexität weiter reduziert und die Geschwindigkeit erhöht wird.
  • Wie angemerkt, während die obige affine Transformation als ein beispielhafter Ansatz angegeben ist, sollte klar sein, dass viele andere parametrische Transformationsansätze ebenfalls verwendet werden können.
  • Die Verarbeitung kann als nächstes von Block 504 zu Block 506 fließen, wo unter Verwendung der geschätzten globalen Transformation ein beliebiger einer Vielzahl von Verziehungsmechanismen verwendet werden kann, um eines der Bilder auf die Koordinaten des anderen Bilds zu transformieren.
  • Der Prozess 500 fließt als nächstes zu Block 508, wo eine Bildmischung durchgeführt wird. Bei dem Bildmischstadium 521 werden die bereits ausgerichteten Bilder in einer Ausführungsform miteinander gemischt, indem eine intuitive Regel befolgt wird: Das dunkle Bild (wie oben erwähnt) soll die Informationen in überbelichteten Bereichen beitragen, und das helle Bild (wie oben erwähnt) unterstützt in unterbelichteten Bereichen des resultierenden gemischten Bilds.
  • Bei einer Ausführungsform nehmen die Bildmischoperationen die beiden Bilder mit verschiedenen Belichtungen und mischen sie zusammen gemäß einem pixelweisen Mischfaktor. Dieser Ansatz kann beschrieben werden, indem das Bild, das als weniger belichtet definiert ist, als I1 bezeichnet wird, und das Bild mit der größeren Belichtung als I2. Der Belichtungswert jedes Bildes kann als ExpVal1 bzw. ExpVal2 bezeichnet werden. Dies kann ohne Weiteres für mehr Bilder ausgeweitet werden.
  • Bei einer Ausführungsform können die Belichtungswerte ExpVal berechnet werden als:
    Figure DE102012023299A1_0004
    wobei ISO eine Höhe der International Organization for Standardization (ISO) darstellt, ExpTime die Belichtungszeit darstellt und F# die F-Zahl des optischen Systems darstellt.
  • Die folgenden Aktionen können dann innerhalb des Bildmischstadiums angewendet werden:
  • 1. In einem Vorverarbeitungsschritt:
    • a. Falls I1 oder I2 in einem gamma-Bereich angegeben sind, anstatt in einem linearen Bereich, dann wird eine De-gamma-Operation angewendet, um die eingegebenen Bilder in einem linearen Bereich darzustellen. Ein beliebiger einer Vielzahl von Mechanismen kann verwendet werden, um diese De-gamma-Operation durchzuführen.
    • b. Als Nächstes wird das hellere Bild I2 auf einen Belichtungswert des dunkleren Bilds I1 normiert. Bei einer Ausführungsform können die Manipulationen an dem eingegebenen Bild zusammengefasst werden als:
      Figure DE102012023299A1_0005
  • 2. Berechnen von Mischgewichten.
  • Um Gewichte zu bestimmen, werden Lichtstärkewerte, (wobei Luma als Y bezeichnet ist) des helleren Bilds, I2, als eine Eingabe zu einer gewichtenden Nachschlagetabelle (LUT – Lookup Table) verwendet. Dies kann formuliert werden als W = LUT (Y2). Die gewichtende LUT kann als eine allgemeine Abbildung beschrieben werden, kann aber auch als eine stückweise lineare Funktion implementiert werden. 6 veranschaulicht ein nichtbeschränkendes, nichterschöpfendes eindimensionales Beispiel einer gewichtenden Nachschlagetabellenfunktion als eine stückweise Linearfunktion. Es ist zu verstehen, dass auch andere Gewichtungsfunktionen verwendet werden können.
  • 3. Mischen.
  • Die eigentliche Mischoperation wird bei Block 508 durchgeführt durch Anwenden von: Iout = (1 – W)·I upd / 1 + W·I upd / 2 wobei W das Gewicht LUT wie etwa in 6 gezeigt darstellt. Die Mischoperation nimmt dann die dunklen Pixel von I2 upd, helle Pixel von I1 upd und führt eine pixelweise Mischung zwischen den beiden Bildern für mittlere Luma-Werte durch.
  • Bei einer Ausführungsform werden Fehlausrichtungen der Bilder (Fehler von Stadium 506) detektiert. Dies könnte beispielsweise geschehen durch Beobachten der Differenz zwischen den (normierten) Bildpixeln und Anwenden eines Schwellwerts. Wenn solche Fehlausrichtungen detektiert werden, kann der Gewichtungsfaktor W näher an 0 oder 1 geschoben werden (beispielsweise gerundet werden), um ein Mischen von fehlausgerichteten Objekten und das Erzeugen von ”Geistern” zu vermeiden – womit halbtransparente Objekte in dem ausgegebenen Bild oder dergleichen gemeint sind.
  • Bei einer Beendigung vom Block 508 ergibt sich ein HDR-Bild, das in einer Ausführungsform als ein lineares RGB-Bild dargestellt werden kann. Bei einer Ausführungsform kann das RGB-Bild 12 Bit pro Farbkomponente verwenden. Somit kann, wenn erwartet wird, dass die Ausgabeeinrichtung zur Verwendung von Bildern mit einer niedrigeren Anzahl von Bit pro Farbe ausgelegt ist, die Verarbeitung optional weitergehen zu Block 510, dem Tone-Mapping-Stadium 522, Block 510 von Prozess 500.
  • Bei dem Tone-Mapping kann die 12-Bit-Darstellung in eine Darstellung mit weniger Bit transformiert werden. Beispielsweise kann bei einer Ausführungsform die Transformation in eine Darstellung mit 8 Bit pro Farbdarstellung erfolgen. Bei dieser Handlung ist es wünschenswert, das Tone-Mapping durchzuführen, während der Wahrnehmungsmehrwert des obigen Bildfusionsprozesses beibehalten wird.
  • Wenngleich eine beliebige einer Vielzahl von Techniken verwendet werden kann, liefert Folgendes eine Ausführungsform eines Ansatzes unter Verwendung von zwei getrennten Transformationen, einer globalen Abbildung und einer lokalen Abbildung.
  • Somit kann bei Block 510 eine globale Abbildung unter Verwendung einer gammaartigen Abbildung an dem HDR-Fusionsergebnis durchgeführt werden, während immer noch 12 Bit pro Farbkomponente beibehalten werden. Die Abbildung kann ein Inverses der De-gamma-Operation beinhalten, die weiter oben bei Block 508 erörtert wurde. Wenngleich andere Ansätze verwendet werden können, ist es wünschenswert, eine Ähnlichkeit von Farben und Atmosphäre der eingegebenen Bilder beizubehalten.
  • Eine lokale Abbildung kann bei einer Ausführungsform das Durchführen einer nichtlinearen lokalen Abbildung beinhalten, wie etwa in der am 23. Mai 2007 eingereichten US-Patentveröffentlichung mit der laufenden Nummer 2008/0291287 mit dem Titel ”Dynamic Range Compensation by Filter Cascade” von Dvir; Itsik, die hier durch Bezugnahme in ihrer Gänze aufgenommen ist. Es können auch andere Ansätze verwendet werden; somit sind Ausführungsformen nicht auf diesen Ansatz beschränkt. Beispielsweise kann auch der Ansatz verwendet werden, der in der am 23. Mai 2007 eingereichten US-Patentveröffentlichung mit der laufenden Nummer 2008/0292206 mit dem Titel ”Highlight Recovery Using Digital Lighting Module” beschrieben wird, die ebenfalls hier durch Bezugnahme in ihrer Gänze aufgenommen ist.
  • Jedenfalls kann bei einer Ausführungsform eine nichtlineare Operation verwendet werden, die ein Pixel gemäß mittleren Helligkeitswerten ihres Nachbars in eine 8-Bit-Darstellung pro Farbkomponente abbildet. Diese Tone-Mapping-Operation liefert eine Kompression des Dynamikbereichs, während lokaler Kontrast beibehalten wird, um den Schaden am lokalen Kontrast zu minimieren.
  • Das HDR-Einzelbild von Block 510 kann dann an Block 512 geliefert werden, wo eine beliebige einer Vielzahl von Codiermechanismen verwendet werden kann, um das HDR-Einzelbild als einen komprimierten Bitstrom zu codieren, einschließlich unter anderem in H.264, MPEG-4 oder dergleichen.
  • Die Verarbeitung geht dann weiter zu Entscheidungsblock 514, wo eine Bestimmung erfolgt, ob weitere, unter Verwendung der Pipeline-Operationen zu bearbeitende Einzelbilder vorliegen. Falls dies der Fall ist, kann die Verarbeitung dann zu Block 502 zurückschleifen; ansonsten kann die Verarbeitung zu einem anderen Prozess zurückkehren. Wie oben angemerkt, weil der Prozess 500 Sätze von Bildern am Fließband verarbeitet, braucht der Prozess 500 nicht zurückzuschleifen, sondern kann Operationen verschiedener oben beschriebener Blöcke fortsetzen, bis alle der von der Digitalkamera erfassten Sätze von Bildern zu HDR-Einzelbildern verarbeitet worden sind.
  • Zudem versteht sich, dass jede Komponente der Flussdiagramme und Kombinationen von Komponenten in diesen Darstellungen durch Computerprogrammanweisungen implementiert werden können. Diese Programmanweisungen können an einen Prozessor geliefert werden, um eine Maschine herzustellen, so dass die Anweisungen, die auf dem Prozessor laufen, Mittel erzeugen zum Implementieren der in der oder den Flusskomponenten spezifizierten Handlungen. Die Computerprogrammanweisungen können durch einen Prozessor ausgeführt werden, um eine Reihe von Operationsschritten zu bewirken, die von dem Prozessor durchgeführt werden sollen, um einen computerimplementierten Prozess zu erzeugen, so dass die Anweisungen, die auf dem Prozessor ausgeführt werden, um Schritte zum Implementieren der in der oder in den Flusskomponenten spezifizierten Aktionen zu liefern. Die Computerprogrammanweisungen können auch bewirken, dass wenigstens einige der in den Komponenten des Flusses gezeigten Operationsschritte parallel/als Pipeline durchgeführt werden. Zudem können einige der Schritte auch über mehr als einen Prozessor ausgeführt werden, wie es in einem Multiprozessorcomputersystem erfolgen könnte. Außerdem können eine oder mehrere Komponenten oder Kombinationen von Komponenten in den Flussdarstellungen auch gleichzeitig mit anderen Komponenten oder Kombinationen von Komponenten oder sogar in einer anderen Sequenz als dargestellt durchgeführt werden.
  • Dementsprechend unterstützen Komponenten der Flussdarstellungen Kombinationen von Mitteln zum Durchführen der spezifizierten Handlungen, Kombinationen von Schritten zum Durchführen der spezifizierten Handlungen und Programmanweisungsmittel zum Durchführen der spezifizierten Handlungen. Es versteht sich auch, dass jede Komponente der Flussdarstellungen und Kombinationen von Komponenten in den Flussdarstellungen durch hardwarebasierte Spezialzwecksysteme implementiert werden können, die die spezifizierten Handlungen oder Schritte durchführen, oder Kombinationen von Spezialzweckhardware und Computeranweisungen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2008/0291288 [0055]
    • US 2008/0291287 [0075]
    • US 2008/0292206 [0075]

Claims (10)

  1. Prozessorbasiertes Verfahren, das umfasst: Pipeline-Verarbeiten einer Vielzahl von Handlungen mit einer Echtzeitvideorate zum Generieren eines Videoausgabestroms mit hohem Dynamikumfang durch: Erfassen mehrerer Bilder als Bilder mit niedrigem Dynamikumfang, wobei wenigstens ein Bild eine andere Belichtungseinstellung als wenigstens ein anderes Bild in den mehreren Bildern aufweist; Durchführen einer Bildausrichtung zwischen den Bildern in den mehreren Bildern; Erzeugen eines einzelnen HDR-Bilds (High Dynamic Range – hoher Dynamikumfang) durch Kombinieren der ausgerichteten Bilder; und Codieren des HDR-Bilds zu einem HDR-Videoausgabestrom.
  2. Prozessorbasiertes Verfahren nach Anspruch 1, wobei das Durchführen einer Bildausrichtung ferner umfasst: Durchführen einer Bewegungsvektorextraktion zwischen entsprechenden Pixeln zwischen den Bildern; und Verwenden eines Ergebnisses der Bewegungsvektorextraktion und Transformieren der Bilder auf Bildkoordinaten von wenigstens einem der Bilder in mehreren Bildern.
  3. Prozessorbasiertes Verfahren nach Anspruch 2, wobei die Bewegungsvektorextraktion ferner umfasst: Verwenden einer Bewegungssuche unter Verwendung einer Bewegung eines Blocks von Pixeln in wenigstens einem der Bilder zum Identifizieren eines anderen Blocks von Pixeln in wenigstens einem weiteren Bild in den mehreren auf der Basis dessen, wann eine mittelwertreduzierte Summe der absoluten Differenzen (MRSAD – Mean Reduced Sum Of Absolute Differences) als minimal bestimmt wird; Verwenden eines Ergebnisses der Bewegungssuche zum Identifizieren eines Satzes von Übereinstimmungen zwischen Pixeln in wenigstens einem der Bilder mit Pixeln in wenigstens einem anderen Bild; und Durchführen einer globalen Bewegungsschätzung an dem Satz von Übereinstimmungen zum Generieren einer geschätzten globalen Transformation.
  4. Prozessorbasiertes Verfahren nach Anspruch 1, wobei das Kombinieren der ausgerichteten Bilder ferner umfasst: für jedes Bild in den mehreren, das in einer nichtlinearen gamma-Domäne dargestellt wird, Durchführen einer De-gamma-Transformation auf dem Bild; Normieren des jeweiligen Bilds mit einer helleren Belichtungseinstellung als ein anderes Bild in den mehreren auf einem Belichtungswert des anderen dunkleren Bilds; Bestimmen von Gewichtungswerten teilweise auf der Basis von Helligkeitswerten des Bildes mit der helleren Belichtungseinstellung; und Verwenden der Gewichtungswerte zum Mischen von dunklen Pixeln von dem helleren Bild mit hellen Pixeln von dem dunkleren Bild, um das HDR-Bild zu erzeugen.
  5. Prozessorbasiertes Verfahren nach Anspruch 1, wobei die Pipeline-Verarbeitung mehrerer Handlungen ferner umfasst: Durchführen eines Tone-Mapping zum Reduzieren einer Anzahl von Bits, die zum Darstellen einer Farbkomponente in dem HDR-Bild verwendet wird, wobei das Tone-Mapping umfasst: Durchführen eines globalen gamma-Mapping an dem HDR-Bild und Durchführen eines nichtlinearen lokalen Mapping, das ein Pixel auf der Basis des mittleren Helligkeitswerts eines Nachbarn von Pixeln abbildet.
  6. Bildsystem, das umfasst: eine Bilderfassungseinrichtung, die ausgelegt ist zum Empfangen mehrerer Bilder als Bilder mit einem niedrigen Dynamikumfang; und eine oder mehrere Schaltungen mit mehreren Komponenten darauf, die in einer Pipeline-Architektur arbeiten, um mehrere Aktionen mit einer Echtzeitvideorate für eine Sequenz von erfassten Bildern durchzuführen, umfassend: Empfangen der mehreren Bilder, wobei wenigstens ein Bild eine andere Belichtungseinstellung aufweist, wenn es erfasst wird, als wenigstens ein anderes Bild bei den mehreren Bildern; Durchführen einer Bildausrichtung zwischen den Bildern; Erzeugen eines einzelnen Bilds mit hohem Dynamikumfang durch Kombinieren der ausgerichteten Bilder unter Verwendung eines pixelweisen Mischens; und Codieren des Bilds mit hohem Dynamikumfang zu einem Videoausgabestrom mit hohem Dynamikumfang.
  7. Bildsystem nach Anspruch 6, wobei das Durchführen einer Bildausrichtung ferner umfasst: Durchführen einer Bewegungsvektorextraktion zwischen entsprechenden Pixeln zwischen den Bildern; und Verwenden eines Ergebnisses der Bewegungsvektorextraktion und Transformieren der Bilder auf Bildkoordinaten von wenigstens einem Bild bei den mehreren.
  8. Bildsystem nach Anspruch 7, wobei die Bewegungsvektorextraktion ferner umfasst: Verwenden einer Bewegungssuche unter Verwendung einer Bewegung eines Blocks von Pixeln in wenigstens einem der Bilder zum Identifizieren eines anderen Blocks von Pixeln in wenigstens einem weiteren Bild auf der Basis dessen, wann eine mittelwertreduzierte Summe der absoluten Differenzen (MRSAD – Mean Reduced Sum Of Absolute Differences) als minimal bestimmt wird; Verwenden eines Ergebnisses der Bewegungssuche zum Identifizieren eines Satzes von Übereinstimmungen zwischen Pixeln in den Bildern, und Durchführen einer globalen Bewegungsschätzung an dem Satz von Übereinstimmungen zum Generieren einer geschätzten globalen Transformation.
  9. Bildsystem nach Anspruch 6, wobei das Mischen weiterhin für gesättigte Bereiche in einem der Bilder das Verwenden von Pixeln von einem dunkleren Bild in den mehreren umfasst, um beim Herstellen des HDR-Bilds ausgebrannte Details in einer Szene wiederherzustellen.
  10. Bildsystem nach Anspruch 6, wobei die Pipeline-Verarbeitung mehrerer Handlungen ferner umfasst: Durchführen eines Tone-Mapping zum Reduzieren einer Anzahl von Bits, die zum Darstellen einer Farbkomponente in dem HDR-Bild verwendet wird, wobei das Tone-Mapping umfasst: Durchführen eines globalen gamma-Mapping an dem HDR-Bild; und Durchführen eines nichtlinearen lokalen Mapping, das ein Pixel auf der Basis des mittleren Helligkeitswerts eines Nachbarn von Pixeln abbildet.
DE102012023299.3A 2012-07-02 2012-11-28 Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) Pending DE102012023299A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/540,476 US9489706B2 (en) 2012-07-02 2012-07-02 Device and algorithm for capturing high dynamic range (HDR) video
US13/540,476 2012-07-02

Publications (1)

Publication Number Publication Date
DE102012023299A1 true DE102012023299A1 (de) 2014-01-02

Family

ID=48746912

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012023299.3A Pending DE102012023299A1 (de) 2012-07-02 2012-11-28 Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang)

Country Status (3)

Country Link
US (1) US9489706B2 (de)
DE (1) DE102012023299A1 (de)
GB (1) GB2505276B (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9955084B1 (en) 2013-05-23 2018-04-24 Oliver Markus Haynold HDR video camera
US9432647B2 (en) * 2013-09-09 2016-08-30 Apple Inc. Adaptive auto exposure and dynamic range compensation
US9973723B2 (en) * 2014-02-24 2018-05-15 Apple Inc. User interface and graphics composition with high dynamic range video
US9729801B2 (en) 2014-10-02 2017-08-08 Dolby Laboratories Licensing Corporation Blending images using mismatched source and display electro-optical transfer functions
WO2016165967A1 (en) 2015-04-14 2016-10-20 Fotonation Limited Image acquisition method and apparatus
KR102337159B1 (ko) 2015-05-21 2021-12-08 삼성전자주식회사 컨텐츠 출력 장치 및 방법과, 디스플레이 장치
US9819873B2 (en) * 2015-06-25 2017-11-14 Canon Kabushiki Kaisha Image-processing apparatus and image-processing method
US10264196B2 (en) 2016-02-12 2019-04-16 Contrast, Inc. Systems and methods for HDR video capture with a mobile device
US10257394B2 (en) 2016-02-12 2019-04-09 Contrast, Inc. Combined HDR/LDR video streaming
US20190052793A1 (en) * 2016-02-22 2019-02-14 Koninklijke Philips N.V. Apparatus for generating a synthetic 2d image with an enhanced depth of field of an object
JP7081835B2 (ja) 2016-08-09 2022-06-07 コントラスト, インコーポレイテッド 車両制御のためのリアルタイムhdrビデオ
US10218952B2 (en) 2016-11-28 2019-02-26 Microsoft Technology Licensing, Llc Architecture for rendering high dynamic range video on enhanced dynamic range display devices
US10187584B2 (en) 2016-12-20 2019-01-22 Microsoft Technology Licensing, Llc Dynamic range extension to produce high dynamic range images
US10176561B2 (en) 2017-01-27 2019-01-08 Microsoft Technology Licensing, Llc Content-adaptive adjustments to tone mapping operations for high dynamic range content
US10104334B2 (en) * 2017-01-27 2018-10-16 Microsoft Technology Licensing, Llc Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content
US10334141B2 (en) 2017-05-25 2019-06-25 Denso International America, Inc. Vehicle camera system
US11265530B2 (en) 2017-07-10 2022-03-01 Contrast, Inc. Stereoscopic camera
JP7147199B2 (ja) * 2018-03-16 2022-10-05 ソニーグループ株式会社 信号処理装置及び信号処理方法
US10951888B2 (en) 2018-06-04 2021-03-16 Contrast, Inc. Compressed high dynamic range video
US10855964B2 (en) 2018-08-29 2020-12-01 Apple Inc. Hue map generation for highlight recovery
US11100620B2 (en) 2018-09-04 2021-08-24 Apple Inc. Hue preservation post processing for highlight recovery
US10957024B2 (en) 2018-10-30 2021-03-23 Microsoft Technology Licensing, Llc Real time tone mapping of high dynamic range image data at time of playback on a lower dynamic range display
US11503310B2 (en) * 2018-10-31 2022-11-15 Ati Technologies Ulc Method and apparatus for an HDR hardware processor inline to hardware encoder and decoder
US11095829B2 (en) * 2019-06-11 2021-08-17 Samsung Electronics Co., Ltd. Apparatus and method for high dynamic range (HDR) image creation of dynamic scenes using graph cut-based labeling
CN110428362B (zh) * 2019-07-29 2023-12-15 深圳市商汤科技有限公司 图像hdr转换方法及装置、存储介质
US20210185214A1 (en) * 2019-12-13 2021-06-17 Sony Corporation Trans-spectral feature detection for volumetric image alignment and colorization
EP3902240B1 (de) * 2020-04-22 2022-03-30 Axis AB Verfahren, vorrichtung, kamera und software zur durchführung einer elektronischen bildstabilisierung eines bildes mit hohem dynamikbereich
US11595589B2 (en) 2021-07-22 2023-02-28 Arthrex, Inc. Surgical camera system with high dynamic range
CN113516689B (zh) * 2021-09-10 2022-03-22 北京理工大学 一种基于关联帧约束的纹影特征可视化增强方法
CN117793544B (zh) * 2024-02-28 2024-10-15 荣耀终端有限公司 一种图像处理方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080292206A1 (en) 2007-05-23 2008-11-27 Itsik Dvir Highlight Recovery Using Digital Lighting Module
US20080291288A1 (en) 2007-05-25 2008-11-27 Meir Tzur Technique of Motion Estimation When Acquiring An Image of A Scene That May Be Illuminated With A Time Varying Luminance
US20080291287A1 (en) 2007-05-23 2008-11-27 Itsik Dvir Dynamic Range Compensation by Filter Cascade

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084905B1 (en) 2000-02-23 2006-08-01 The Trustees Of Columbia University In The City Of New York Method and apparatus for obtaining high dynamic range images
US7199837B2 (en) * 2001-11-13 2007-04-03 Ati Technologies, Inc. System for improved ratiometric expansion and method thereof
JP2004088234A (ja) * 2002-08-23 2004-03-18 Matsushita Electric Ind Co Ltd ノイズ低減装置
US6879731B2 (en) 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
KR20070020994A (ko) * 2005-08-17 2007-02-22 삼성전자주식회사 영상신호 변환장치 및 그 방법
US7623683B2 (en) * 2006-04-13 2009-11-24 Hewlett-Packard Development Company, L.P. Combining multiple exposure images to increase dynamic range
US8339475B2 (en) 2008-12-19 2012-12-25 Qualcomm Incorporated High dynamic range image combining
US8406569B2 (en) * 2009-01-19 2013-03-26 Sharp Laboratories Of America, Inc. Methods and systems for enhanced dynamic range images and video from multiple exposures
ES2383318T3 (es) * 2009-03-31 2012-06-20 Sony Corporation Método y unidad para generar una trama de vídeo e imagen de vídeo con alta gama dinámica
US8111300B2 (en) * 2009-04-22 2012-02-07 Qualcomm Incorporated System and method to selectively combine video frame image data
WO2010123923A1 (en) 2009-04-23 2010-10-28 Zoran Corporation Multiple exposure high dynamic range image capture
EP2489180A1 (de) 2009-10-14 2012-08-22 CSR Technology Inc. Verfahren und vorrichtung zur bildstabilisierung
US8798388B2 (en) * 2009-12-03 2014-08-05 Qualcomm Incorporated Digital image combining to produce optical effects
US8750645B2 (en) * 2009-12-10 2014-06-10 Microsoft Corporation Generating a composite image from video frames
JP5387905B2 (ja) * 2009-12-25 2014-01-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
US8564724B2 (en) * 2010-04-04 2013-10-22 Texas Instruments Incorporated Ghosting artifact reduction in temporal noise filtering
CN101888487B (zh) 2010-06-02 2012-03-14 中国科学院深圳先进技术研究院 高动态范围视频成像系统和图像生成方法
KR20120000485A (ko) * 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
US8711248B2 (en) * 2011-02-25 2014-04-29 Microsoft Corporation Global alignment for high-dynamic range image generation
TWI624182B (zh) * 2011-04-15 2018-05-11 杜比實驗室特許公司 高動態範圍影像的編碼、解碼及表示
KR101699919B1 (ko) * 2011-07-28 2017-01-26 삼성전자주식회사 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법
US9338349B2 (en) * 2013-04-15 2016-05-10 Qualcomm Incorporated Generation of ghost-free high dynamic range images

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080292206A1 (en) 2007-05-23 2008-11-27 Itsik Dvir Highlight Recovery Using Digital Lighting Module
US20080291287A1 (en) 2007-05-23 2008-11-27 Itsik Dvir Dynamic Range Compensation by Filter Cascade
US20080291288A1 (en) 2007-05-25 2008-11-27 Meir Tzur Technique of Motion Estimation When Acquiring An Image of A Scene That May Be Illuminated With A Time Varying Luminance

Also Published As

Publication number Publication date
GB201308910D0 (en) 2013-07-03
GB2505276B (en) 2020-01-15
US20140002694A1 (en) 2014-01-02
GB2505276A (en) 2014-02-26
US9489706B2 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
DE102012023299A1 (de) Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang)
DE102011078662B4 (de) Erfassen und Erzeugen von Bildern mit hohem Dynamikbereich
DE102013017122B4 (de) Verfahren zum Herstellen automatischer Cinemagramme auf einer Bildgebungsvorrichtung
DE112006001017B4 (de) Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur
JP6351903B1 (ja) 画像処理装置、画像処理方法、及び撮影装置
CN105049718A (zh) 一种图像处理方法及终端
DE102019106252A1 (de) Verfahren und System für Lichtquellenschätzung zur Bildverarbeitung
CN106920221B (zh) 兼顾亮度分布和细节呈现的曝光融合方法
DE102016115292A1 (de) Verfahren und Vorrichtung zur automatischen Belichtungswerterfassung für High Dynamic Range Imaging
DE102018119625A1 (de) Reduzieren von strukturierten IR-Mustern bei der Stereoskopischen Tiefensensorbildgebung
CN105684412A (zh) 用于扩展动态范围图像的引导颜色分级
WO2019056549A1 (zh) 图像增强方法以及图像处理装置
Lee et al. Image contrast enhancement using classified virtual exposure image fusion
CN113632134B (zh) 用于生成高动态范围图像的方法、计算机可读存储介质和hdr相机
DE202015003717U1 (de) "System zur dynamischen Wahl der Kompressionsrate"
CN102339461A (zh) 图像增强方法和设备
EP3381012A1 (de) Verfahren und system zur erzeugung eines ausgangsbildes aus einer vielzahl entsprechender eingangsbildkanäle
DE10344397A1 (de) Vorrichtung und Verfahren zur Kantenhervorhebung bei der Bildverarbeitung
Pan et al. Multi-exposure high dynamic range imaging with informative content enhanced network
Huang et al. A color multi-exposure image fusion approach using structural patch decomposition
Kao High dynamic range imaging by fusing multiple raw images and tone reproduction
US10511786B2 (en) Image acquisition method and apparatus
DE102016121426A1 (de) Verfahren und Vorrichtung zum Interpolieren von Pixelfarben aus Farb- und panchromatischen Kanälen auf Farbkanäle
CN110807735A (zh) 图像处理方法、装置、终端设备及计算机可读存储介质
CN104010134B (zh) 用于形成具有宽动态范围的系统和方法

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: OLSWANG GERMANY LLP, DE

R081 Change of applicant/patentee

Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US

Free format text: FORMER OWNER: ZORAN CORP., SUNNYVALE, CALIF., US

Effective date: 20141112

Owner name: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATE, US

Free format text: FORMER OWNER: ZORAN CORP., SUNNYVALE, CALIF., US

Effective date: 20141112

R082 Change of representative

Representative=s name: MAUCHER JENKINS, DE

Effective date: 20141112

Representative=s name: OLSWANG GERMANY LLP, DE

Effective date: 20141112

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

Effective date: 20141112

R081 Change of applicant/patentee

Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US

Free format text: FORMER OWNER: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATES DELAWARE), SAN DIEGO, CALIF., US

R082 Change of representative

Representative=s name: MAUCHER JENKINS, DE

Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE

R012 Request for examination validly filed