DE102012023299A1 - Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) - Google Patents
Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) Download PDFInfo
- Publication number
- DE102012023299A1 DE102012023299A1 DE102012023299.3A DE102012023299A DE102012023299A1 DE 102012023299 A1 DE102012023299 A1 DE 102012023299A1 DE 102012023299 A DE102012023299 A DE 102012023299A DE 102012023299 A1 DE102012023299 A1 DE 102012023299A1
- Authority
- DE
- Germany
- Prior art keywords
- image
- images
- pixels
- hdr
- dynamic range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 35
- 238000013507 mapping Methods 0.000 claims abstract description 20
- 230000009471 action Effects 0.000 claims description 14
- 238000002156 mixing Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 8
- 229920006395 saturated elastomer Polymers 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000008569 process Effects 0.000 abstract description 23
- 238000013459 approach Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 239000003086 colorant Substances 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012886 linear function Methods 0.000 description 3
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 2
- 241000023320 Luma <angiosperm> Species 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/35—Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/38—Registration of image sequences
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/743—Bracketing, i.e. taking a series of images with varying exposure conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/50—Control of the SSIS exposure
- H04N25/57—Control of the dynamic range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/28—Indexing scheme for image data processing or generation, in general involving image processing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
- ERFINDUNGSGEBIET
- Die vorliegenden Ausführungsformen betreffen allgemein die digitale Videobildverarbeitung und insbesondere, aber nicht ausschließlich, zumindest die Verwendung einer Digitalkamera zum Implementieren eines Einzelbild-Pipelining-Ansatzes, der mehrere eingegebene Einzelbilder kombiniert, um in Echtzeit während einer Videoerfassung für eine Videosequenz ein einzelnes HDR-Ausgabeeinzelbild (HDR – High Dynamic Range – hoher Dynamikumfang) auszubilden.
- ALLGEMEINER STAND DER TECHNIK
- Der Dynamikbereich einer Digitalbildeinrichtung wie etwa einer Digitalkamera ist das Verhältnis zwischen der größten Lichtmenge, die die Einrichtung ohne Sättigung einfangen kann, und der geringsten Lichtmenge, die die Einrichtung präzise messen und von intrinsischem Bildrauschen (elektrischem, thermischem usw.) unterscheiden kann. Die meisten im Handel erhältlichen Digitalkameras können nur einen kleinen Teil des natürlichen Beleuchtungsbereichs einer Szene aus der realen Welt einfangen.
- Typische Digitalkameras, die auf CMOS-(Complementary Metal-Oxide-Silicon)- oder CCD(Charge Coupled Device – ladungsgekoppeltes Bauelement)-Technologien basieren, fangen Bilder als LDR-Bilder (Low Dynamic Range – geringer Dynamikumfang) ein. LDR-Bilder bedeuten oftmals, dass der Dynamikumfang von Farben eines eingefangenen Bildes begrenzt oder abgeschnitten ist. Ein Beispiel für solche resultierenden Bilder kann Bereiche enthalten, die zu dunkel sind, wobei sie ein Signal erzeugen, das unter dem intrinsischen Rauschpegel des Elektroniksensors liegt, und Bereiche, die als zu hell bestimmt werden, wobei sie auf weiß abgeschnitten werden (manchmal als Sättigung bezeichnet).
- HDR-Bildlösungen versuchen den Beleuchtungsdynamikumfang, der eingefangen wird, zu vergrößern, um einen volleren Bereich von Bildfarben zu liefern. Beispielsweise könnten dunklere Bilder in verschiedenen Grauschattierungen erscheinen, um mehr Bilddetails zu liefern, die in einem Schattengebiet einer Szene vorliegen könnten. HDR-Lösungen versuchen dann, Details in einem Bild beizubehalten, die ansonsten aufgrund der Grenzen der Kontrastverhältnisse möglicherweise verloren gehen. Die vorliegende Erfindung erfolgte somit bezüglich dieser Überlegungen und anderer.
- KURZE BESCHREIBUNG DER ZEICHNUNGEN
- Nichtbeschränkende und nichterschöpfende Ausführungsformen werden unter Bezugnahme auf die folgenden Zeichnungen beschrieben. In den Zeichnungen beziehen sich gleiche Bezugszahlen durch die verschiedenen Figuren hinweg auf gleiche Teile, sofern nicht etwas anderes angegeben ist.
- Zu einem besseren Verständnis der vorliegenden Ausführungsformen wird auf die folgende ausführliche Beschreibung Bezug genommen, die in Verbindung mit den beiliegenden Zeichnungen zu lesen ist. Es zeigen:
-
1 ein Systemdiagramm einer Ausführungsform eines Umfelds, in dem die Ausführungsformen praktiziert werden können; -
2 eine Ausführungsform eines verbesserten Bildprozessors mit einem Pipeline-HDR-Konverter, der für das Praktizieren verschiedener Ausführungsformen verwendet werden kann; -
3 eine Ausführungsform einer Pipeline-Architektur, die zum dynamischen Herstellen von HDR-Videosequenzen in Echtzeit verwendet werden kann; -
4 eine Ausführungsform eines Bildflusses innerhalb einer Pipeline-Architektur zum dynamischen Herstellen von HDR-Videosequenzen in Echtzeit aus erfassten benachbarten Eingabeeinzelbildern; -
5 eine Ausführungsform eines Pipeline-Prozessflusses zum Herstellen von HDR-Videosequenzen in Echtzeit; und -
6 ein nichtbeschränkendes, nichterschöpfendes eindimensionales Beispiel einer gewichtenden Nachschlagetabellenfunktion, die beim Mischen von Gewichten verwendet wird. - AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
- Verschiedene Ausführungsformen werden nun im Folgenden unter Bezugnahme auf die beiliegenden Zeichnungen ausführlicher beschrieben, die einen Teil hiervon bilden und die als Veranschaulichung spezieller Aspekte zeigen, in denen die Ausführungsformen praktiziert werden können. Diese Ausführungsformen können jedoch viele verschiedene Formen annehmen und sollten nicht so ausgelegt werden, als seien sie auf die hier dargelegten Ausführungsformen beschränkt; vielmehr werden diese Ausführungsformen vorgelegt, damit diese Offenbarung gründlich und vollständig ist und dem Fachmann den Schutzbereich umfassend übermittelt. Die vorliegenden Ausführungsformen können unter anderem Verfahren oder Einrichtungen enthalten. Dementsprechend können die vorliegenden Ausführungsformen die Form von ausschließlich Hardware- oder einer Kombination aus Software- und Hardwareaspekten annehmen. Die folgende ausführliche Beschreibung ist deshalb nicht in einem beschränkenden Sinne zu verstehen.
- Im Verlauf der Spezifikation und der Ansprüche besitzen die folgenden Ausdrücke die explizit hier assoziierten Bedeutungen, sofern der Kontext nicht deutlich etwas anderes angibt. Die Phrase ”in einer Ausführungsform”, wie hier verwendet, bezieht sich nicht notwendigerweise auf die gleiche Ausführungsform, wenngleich sie dies kann. Ferner bezieht sich die Phrase ”in einer weiteren Ausführungsform”, wie sie hier verwendet wird, nicht notwendigerweise auf eine andere Ausführungsform, wenngleich sie dies kann. Somit können, wie unten beschrieben, verschiedene Ausführungsformen der Erfindung ohne Weiteres kombiniert werden, ohne von dem Schutzbereich oder Gedanken der Erfindung abzuweichen.
- Außerdem ist der Ausdruck ”oder” ein inklusiver ”oder” – Operator und ist gleichwertig dem Ausdruck ”und/oder”, sofern der Kontext nicht deutlich etwas anderes angibt. Der Ausdruck ”auf der Basis von” ist nicht ausschließend und gestattet das Basiertsein auf nicht beschriebenen zusätzlichen Faktoren, sofern der Kontext nicht deutlich etwas anderes angibt. Außerdem beinhaltet durch die Spezifikation hinweg die Bedeutung von ”ein/eine” und ”der/die/das” mehrere Referenzen. Die Bedeutung von ”in” beinhaltet in ”in” und ”an”.
- Der Ausdruck ”Bild” oder ”Bilddaten”, wie er hier verwendet wird, bezieht sich auf Daten, die ein in wenigstens zwei Dimensionen anzuzeigendes Bild definieren und können die Form einer einzelnen Anzeige des Bilds oder einer zeitlich variierenden Anzeige einer Sequenz von Bildern annehmen, die mehrere Videoeinzelbilder umfassen, die zeitlich beabstandet sein können. Weiterhin stellt der Ausdruck ”Einzelbild” nur ein Bild innerhalb einer Sequenz von Bildern dar.
- Der Ausdruck ”Echtzeit”, wie er hier verwendet wird, bezieht sich auf die Verarbeitung eines Bildes (oder anderer Daten), sobald das Bild oder die Bilddaten erhalten oder eingefangen werden. Somit gibt Echtzeit an, dass das Bild wenigstens mit einer gleichen Rate verarbeitet wird, mit der das Bild erhalten (oder eingefangen) wird. Dies wird manchmal auch als ”Echtzeitvideorate” bezeichnet.
- Das Folgende beschreibt kurz die Ausführungsform, um ein grundlegendes Verständnis von einigen Aspekten zu vermitteln. Diese kurze Beschreibung ist nicht als ein umfassender Überblick gedacht. Sie soll keine wichtigen oder entscheidenden Elemente identifizieren oder den Schutzbereich abgrenzen oder anderweitig verengen. Ihr Zweck besteht lediglich darin, einige Konzepte in einer vereinfachten Form vorzulegen als Auftakt für die ausführlichere Beschreibung, die später vorgelegt wird.
- Kurz gesagt, dienen Ausführungsformen dazu, es handgehaltenen Digitalkameras oder anderen Mobileinrichtungen mit einer Digitalkamerakomponente zu ermöglichen, eine eingefangene LDR-Bildsequenz mit einer Echtzeitvideorate digital zu verarbeiten und die Bildsequenz unter Verwendung einer Pipeline-Architektur in eine HDR-Bildsequenz zu konvertieren. Bei einer Ausführungsform können Bilder schneller als mit einer gewünschten finalen (Ausgabe-)Einzelbildrate erfasst werden, wobei zwei oder mehr Bilder (Einzelbilder) einer Szene unter Verwendung verschiedener Belichtungseinstellungen erfasst werden. Die verschiedenen Belichtungseinstellungen könnten beispielsweise unterschiedliche Belichtungszeiten, unterschiedliche Blendenwerte oder dergleichen beinhalten. Die mehreren Einzelbilder werden dann kombiniert, um ein einzelnes HDR-Ausgabeeinzelbild auszubilden, das dann auf einer Videosequenz (oder einem Videostrom) aufgezeichnet werden kann. Bei einer Ausführungsform können dunkle Bereiche in einem Einzelbild durch Pixel von einem helleren Einzelbild ersetzt werden, um Details der Szene aufzuhellen und zu verbessern; während gesättigte Bereiche in einem Einzelbild durch Pixel von einem dunkleren Einzelbild ersetzt werden können, um ausgebrannte Details in dem Gesamtbild wiederherzustellen. Dies kann während des Pipelining der benachbarten Einzelbilder durch eine Bildausrichtungsstufe, eine Bildmischstufe und eine Tonmappingstufe durchgeführt werden, wie weiter unten beschrieben.
- Veranschaulichende Arbeitsumfelder
-
1 zeigt Komponenten eines Umfelds, in dem Ausführungsformen praktiziert werden können. Möglicherweise sind nicht alle die Komponenten zum Praktizieren der Ausführungsformen erforderlich, und Variationen bei der Anordnung und Art der Komponenten können vorgenommen werden, ohne von dem Gedanken oder Schutzbereich der Erfindung abzuweichen. Vielmehr können verschiedene Implementierungen des Systems viel mehr oder weniger Komponenten als jene in1 gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform für das Praktizieren der vorliegenden Erfindung zu offenbaren. - Wie gezeigt, kann das System
100 von1 eine Kamera oder eine beliebige einer Vielzahl anderer möglicher tragbarer Einrichtungen darstellen, einschließlich Mobiltelefonen, Smartphones, Displaypagers, Hochfrequenzeinrichtungen (HF-Einrichtungen), Infraroteinrichtungen (IR-Einrichtungen), PDAs (Personal Digital Assistants), handgehaltene Computer, Laptopcomputer, tragbare Computer, Tabletcomputer, integrierte Einrichtungen, die eine oder mehrere der vorausgegangenen Einrichtungen kombinieren, und dergleichen, die ausgelegt werden können, Bilder zu erfassen und zu verarbeiten, einschließlich Bildsequenzen. Bei einer Ausführungsform kann das System100 nicht gezeigte Komponenten enthalten, wie etwa eine Linse oder andere optische Elemente, und einen oder mehrere Bildsensoren zum Empfangen von Bildern, die in ein digitales Bild zur Verarbeitung und nachfolgenden Speicherung in einer oder mehreren Speichereinrichtungen konvertiert werden können. - Wie gezeigt, kann das System
100 Komponenten auf einem einzelnen integrierten Schaltungschip oder auf mehreren verschiedenen Schaltungschips enthalten. Jedenfalls enthalten in1 gezeigte Komponenten eine Taktschaltung102 zum Liefern von Taktsignalen an die Schaltungschips und andere Komponenten. Wenngleich als eine separate Komponente dargestellt, ist zu verstehen, dass die Taktschaltung102 auch auf einem Enhanced Image Processor (EIP)200 oder dergleichen enthalten sein kann. - Ebenfalls gezeigt ist ein flüchtiger Direktzugriffsspeicher-(RAM – Random Access Memory)Schaltungschip
106 , der an den EIP200 gekoppelt sein kann, um eine temporäre Datenspeicherung bereitzustellen. Bei einer Ausführungsform kann der RAM106 ausgelegt sein, Bilddaten zu empfangen und zu speichern, wie etwa ein oder mehrere Einzelbilder von Bilddaten zur Verwendung durch den EIP200 oder zur Ausgabe von Daten von dem EIP200 sowie zum Speichern von Skalierungsfaktoren, verschiedenen Statistiken über ein Bild, Verzeichnungsdaten, Tiefenschätzstatistiken, Disparitätskartendaten, Quantisierungsdaten und dergleichen. Ein separater nichtflüchtiger Festwertspeicher-(ROM – Read-Only Memory)Speicherchip104 ist ebenfalls an den EIP200 gekoppelt und kann für die Speicherung eines Prozessorprogramms, von Kalibrierungsdaten, von Nachschlagetabellen (LUIS Look-Up Tables), nichtlinearen Funktionen und einer Vielzahl anderer von dem System100 verwendbarer Daten eingesetzt werden. Bei einer Ausführungsform kann der ROM104 ein Flash-Speicher sein, der umprogrammiert werden kann, oder ein Speicher, der einmal programmiert werden kann, wie etwa ein programmierbarer Festwertspeicher (PROM – Programmable Read-Only Memory), ein elektrisch programmierbarer Festwertspeicher (EEPRO – Electrically Programmable Read-Only Memory) oder einer einer Vielzahl anderer Speichereinrichtungen. - Wenngleich dies nicht dargestellt ist, können in dem System
100 eine andere Art von Speicher- oder physischer Speichereinrichtungen enthalten sein, einschließlich beispielsweise Speicherkarten, die elektrisch löschbare und programmierbare Halbleiter-Flash-Festwertspeicher-, entfernbare sich drehende Magnetplattenspeicher-, entfernbare USB-(Universal Serial Bus)Einrichtungen oder eine beliebige einer Vielzahl anderer Speichereinrichtungen beinhalten können. Bei einer Ausführungsform kann das System100 auch ausgelegt sein, durch eine Eingangs-/Ausgangs-Einrichtung (E/A)108 auf Speichereinrichtungen zuzugreifen, die sich außerhalb des Systems100 befinden können. Somit ist zu verstehen, dass der EIP200 ausgelegt sein kann, ein oder mehrere Einzelbilder von Bilddaten zu erhalten, das eine oder die mehreren erhaltenen Einzelbilder unter Verwendung von Pipeline-Operationen zu bearbeiten, um Informationen von einem oder mehreren Einzelbildern einer Szene zu einem einzelnen ausgegebenen HDR-Einzelbild von Bilddaten zu verschmelzen und zusammenzuführen, die HDR-Bilddaten zu komprimieren und einen resultierenden komprimierten (codierten) Bitstrom von Daten unter Verwendung einer Vielzahl von Speichereinrichtungen und/oder Kommunikationsmechanismen zu speichern oder anderweitig zu senden. Es versteht sich, dass der Bitstrom auch über verschiedene Kommunikationsmechanismen zur Anzeige und/oder Speicherung auf einer anderen Einrichtung geschickt werden kann. - Die E/A-Einrichtung
108 enthält eine Schaltungsanordnung zum Koppeln des Systems100 an eine oder mehrere externe Einrichtungen, Netzwerke und dergleichen, und ist zur Verwendung mit einem oder mehreren Kommunikationsprotokollen und -technologien konstruiert, einschließlich einem oder einer beliebigen einer Vielzahl von Kommunikationsprotokollen und -technologien, die zum Kommunizieren von Bildern verwendet werden können, einschließlich Bilder zu und/oder von dem System100 . Bei einer Ausführungsform ist die E/A-Einrichtung108 manchmal als ein Sendeempfänger, eine Sendeempfangseinrichtung oder eine Netzwerkschnittstellenkarte (NIC – Network Interface Card) bekannt. - Die E/A-Einrichtung
108 kann auch für andere Kommunikationen sorgen, einschließlich zur Verwendung verschiedener Eingabeeinrichtungen wie etwa Tastenfelder, Touchscreens oder dergleichen sowie Ausgabeeinrichtungen einschließlich Schirmdisplays, Audioausgaben oder dergleichen. Somit kann das System100 , wenngleich nicht gezeigt, auch einen Lautsprecher und/oder ein Mikrofon enthalten, die an die E/A-Einrichtung108 gekoppelt sein können, um Kommunikationen zu ermöglichen. Das System100 kann auch ein Display enthalten, das ein Flüssigkristalldisplay (LCD – Liquid Crystal Display), ein Gasplasma, eine Leuchtdiode (LED – Light Emitting Diode) oder irgendeine andere Art von Display beinhalten kann, das zum Liefern von Text und/oder einem Bild zur Anzeige verwendet werden kann. Weiterhin kann das Display bei einer Ausführungsform auch einen berührungsempfindlichen Schirm enthalten, der ausgelegt ist zum Empfangen einer Eingabe von einem Objekt wie etwa einem Stift oder einem Finger von einer menschlichen Hand. - Dargestellt ist außerdem ein Bildsensor- und Analog-Digital-Wandler (A/W)
110 , der ausgelegt sein kann, ein ein Bild darstellendes Analogsignal zu empfangen und das empfangene Signal in digitale Bilddaten zu konvertieren, bei denen es sich bei einer Ausführungsform um eine Sequenz von individuellen Blöcken von digitalen Bilddaten handeln kann, die eine Lichtintensität darstellen, die durch verschiedene Fotodetektoren eines Bildsensors und/oder einer Linsenanordnung (nicht gezeigt) empfangen werden können. Der Bildsensor- und A/D110 kann dann die digitalen Daten an den EIP200 zur Verarbeitung liefern. Bei einer Ausführungsform können die von dem EIP200 empfangenen Daten in einem rohen Bayer-Format vorliegen. Es können jedoch auch andere Datenformate verwendet werden, beispielsweise können unter anderem die Bilddaten durch drei Komponenten des Bildsignals definiert werden; nämlich eine Luminanzkomponente (Y) und zwei komplementäre Chrominanz-(Farbdifferenzen)Komponenten (V = R – Y) und (U = B – Y). - Eine Ausführungsform des EIP
200 ist in2 gezeigt. Der EIP200 kann viel mehr oder weniger Komponenten als jene gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform zum Praktizieren verschiedener Ausführungsformen zu offenbaren. - Wie in
2 gezeigt, kann der EIP200 einen Prozessor208 umfassen, der eine Allzweck- oder spezialisierte zentrale Verarbeitungseinheit (CPU – Central Processing Unit) darstellen kann, die ausgelegt ist zum Durchführen einer Vielzahl von Berechnungen an einem Bild und/oder eine Sequenz von Bildern und zum Steuern verschiedener Operationen des Systems100 als Reaktion auf computerlesbare Anweisungen, die in einer der Speichereinrichtungen von1 wie etwa dem ROM104 oder dergleichen gespeichert sein können. Bei einer Ausführungsform können digitale Daten von einem oder mehreren Bildern von der Eingabeschnittstellenschaltung202 empfangen und durch eine Verbindung durch eine Speicherverwaltungseinrichtung206 zu anderen Komponenten kommuniziert werden. Bei einer Ausführungsform kann der Pipeline-HDR-Konverter (PHC – Pipeline HDR Converter)201 wie weiter unten beschrieben verwendet werden, um in Echtzeit erfasste Bilder innerhalb einer Sequenz von Bildern zu empfangen und sie in eine HDR-Bildsequenz zu konvertieren. Bei einer Ausführungsform werden die erfassten Bilder als LDR-Bilder erfasst. Bei einer Ausführungsform kann der PHC201 verschiedene Operationen an zwei oder mehr Bildern, die in der Sequenz von erfassten Bildern benachbart sind, am Fließband durchführen. Der PHC201 kann beispielsweise die benachbarten Bilder ausrichten und die ausgerichteten Bilder mischen, um ein HDR-Bild herzustellen. Der PHC201 kann ferner das HDR-Ergebnis in einen begrenzten Bildbereich wie etwa einen 8-Bit-Bereich abbilden, der beispielsweise in einer Displayeinrichtung angezeigt werden kann. Die HDR-Bildsequenz kann auch als ein komprimierter Bitstrom codiert werden, der durch eine Ausgabeschnittstellenschaltung204 zu verschiedenen Speichereinrichtungen, zur Anzeige oder sogar über ein Netzwerk einschließlich ein drahtloses und/oder ein verdrahtetes Netzwerk zu einer anderen Einrichtung ausgegeben werden kann. - Schnittstellen
210 können für verschiedene Mechanismen sorgen zum Kommunizieren mit dem Prozessor208 und/oder der Speicherverwaltung206 , anderen Komponenten, um Modifikationen an verschiedenen Handlungen zu ermöglichen, einen Status einer Handlung zu liefern, oder dergleichen durch eine andere Einrichtung, einen Endbenutzer oder dergleichen. -
3 zeigt eine Ausführungsform einer Pipeline-Architektur, die verwendet werden kann, um HDR-Videosequenzen dynamisch in Echtzeit herzustellen. Die Architektur300 von3 kann viel mehr oder weniger Komponenten als die gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform zum Praktizieren verschiedener Ausführungsformen zu offenbaren. - Wie gezeigt, enthält die Architektur
300 einen Bildsensor- & A/D110 , den Prozessor208 , den PHC201 und eine Speicherkomponente320 , die jeweils oben bezüglich1 –2 beschrieben sind. Beispielsweise kann die Speicherkomponente320 einen ROM104 und/oder einen RAM106 von1 darstellen. Die Architektur300 enthält auch ein Display307 , das eine beliebige Einrichtung darstellt, das zum Anzeigen einer Videosequenz und/oder von Bildern verwendet werden kann. Bei einer Ausführungsform kann das Display307 zum Anzeigen der Videosequenz als eine HDR-Videosequenz ausgelegt sein. - Der PHC
201 enthält auch eine Registrierungskomponente302 , eine Mischkomponente303 , eine Optische-Fluss-Komponente304 , eine Tone-Map-Komponente305 und eine Bildcodierungskomponente306 , die jeweils integrierte Schaltungselemente oder Teilkomponenten auf einer integrierten Leiterplatte darstellen können, wie etwa eine applikationsspezifische integrierte Schaltung (ASIC – Application-Specific Integrated Circuit) oder dergleichen, wobei der Prozessor208 ausgelegt ist zum Verwalten der Fließbandoperationen für die Architektur300 . - Kurz gesagt, enthält der Bildsensor- & A/D
110 einen Bildsensor, der ein empfangenes Bild in eine digitale Darstellung konvertiert. Bei einer Ausführungsform können benachbarte Bilder unter Verwendung verschiedener Belichtungseinstellungen erfasst werden. Die Ausdrücke ”Belichtung”, ”Belichtungswert” und ”ExpVal”, wie sie hier verwendet werden, beziehen sich auf eine auf dem Bildsensor treffende effektive Lichtmenge. Bei einer Ausführungsform, wo Exp Time eine Belichtungszeit ist, ISO eine Höhe der International Organization for Standardization (ISO) darstellt (z. B. eine ISO-Bewertung) und F die F-Zahl (Focal) des optischen Systems darstellt, dann kann die Belichtung proportional sein zu ISO·Exp Time/F2. - Bei einer Ausführungsform kann ein erstes Bild mit einer längeren (oder höheren) Belichtungszeit als ein nachfolgendes Bild erfasst werden. Verschiedene andere Einstellungen können jedoch zusätzlich oder anstelle von variierenden Belichtungszeiten variiert werden. Beispielsweise könnten Blendenzahlen variiert werden; ISO-Bewertungen könnten zwischen benachbarten Bildern variiert werden; oder dergleichen. Bei einem Beispiel könnte das erste Bild als überbelichtet angesehen werden, um ein helles Bild zu erzeugen, während ein benachbartes Bild in der Sequenz als ein unterbelichtetes Bild angesehen werden könnte, um ein dunkles Bild zu erzeugen. Bei einer weiteren Ausführungsform könnte jedes ungeradzahlige Einzelbild in einer Sequenz von Bildern einer Belichtungskompensation um eine Blende +1 unterzogen werden, während jedes geradzahlige Einzelbild einer Belichtungskompensation um eine Blende –1 unterzogen werden könnte. Es können jedoch auch andere Kombinationen verwendet werden. Zudem ist zu verstehen, dass das erste Bild in der Sequenz von benachbarten Bildern eine niedrigere oder kürzere Belichtungseinstellung als ein benachbartes Bild aufweisen könnte.
- Bei einer Ausführungsform werden die Bilder in einem Rohformat (Bayer-Format) erfasst. Der Bildsensor- & A/D
110 kann jedoch auch die Bilder in ein anderes Format wie etwa YUV konvertieren. Jedenfalls können die erfassten Bilder in einer Speicherkomponente320 platziert werden, damit die anderen Komponenten, wie angebracht, Zugang dazu haben. Bei einer weiteren Ausführungsform kann das erfasste Bild direkt an eine nächste Komponente in der Pipeline-Sequenz von Komponenten weitergegeben werden, anstatt in der Speicherkomponente320 platziert zu werden. - In jedem Fall kann die Registrierungskomponente
302 eine Bildausrichtung durchführen, einschließlich eines Verziehens eines der benachbarten Bilder mit einem anderen Bild. Ferner könnte bei einer Ausführungsform das Verziehen auch eine Linsenverzeichnung und/oder andere Probleme korrigieren. Das verarbeitete Einzelbild kann wieder im Speicher320 platziert werden oder an eine nächste Komponente in der Pipeline weitergegeben werden. - Die Optische-Fluss-Komponente
304 kann ausgelegt sein, eine Übereinstimmungsextraktion zwischen den benachbarten Bildern durchzuführen, einschließlich des Behandelns von Problemen einer möglichen unterschiedlichen Luminanz zwischen den Bildern. Die Mischkomponente303 kann verschiedene Operationen durchführen, wie unten offenbart, um Abschnitte der benachbarten Bilder zu mischen und ein einzelnes HDR-Einzelbild herzustellen. Dieses HDR-Einzelbild kann dann der Tone-Map-Komponente305 vorgelegt werden, um verschiedene Töne des Bildes auf einen Bereich zu komprimieren, der der Konfiguration einer erwarteten Ausgabeeinrichtung entspricht. Beispielsweise könnte bei einer Ausführungsform die Tone-Map-Komponente305 das Bild für eine erwartete 8-Bit-Ausgabeeinrichtung komprimieren. Es können auch andere Bitgrößen verwendet werden, auch aus anderen Gründen, anstelle von oder zusätzlich zu einer erwarteten Ausgabeeinrichtung. Es ist jedoch anzumerken, dass dieser Schritt optional sein kann, wenn Ausgabeeinrichtungen mit einer höheren Bitzahl zur Verfügung stehen und/oder höhere Bitraten erwünscht sind. - Eine Bildcodierungskomponente
306 kann dann die HDR-getönten Bilder empfangen und eine unterschiedliche Codierung des HDR-Einzelbilds auf ein computerlesbares komprimiertes Videoformat durchführen, einschließlich unter anderem H.264, MPEG-4 oder dergleichen. -
4 zeigt eine Ausführungsform eines Bildflusses in der Pipeline-Architektur300 von3 zum dynamischen Herstellen von HDR-Videosequenzen in Echtzeit aus erfassten benachbarten eingegebenen Einzelbildern. Der Pipeline-Prozess400 von4 kann viel mehr oder weniger Komponenten als jene gezeigten enthalten. Die gezeigten Komponenten reichen jedoch aus, um eine veranschaulichende Ausführungsform zum Praktizieren verschiedener Ausführungsformen zu offenbaren. Wie in4 gezeigt, entsprechen die Pipeline-Operationen den oben in Verbindung mit3 erörterten verschiedenen Komponenten. - Der Pipeline-Prozess
400 zeigt eine Ausführungsform, wie die Architektur300 von3 in einem Zeitrafferdiagramm implementiert werden kann, wobei die Zeit als von links nach rechts zunehmend gezeigt ist und die Pipeline-Operationen auf der linken Seite gezeigt sind. Sätze von benachbarten Bildern sind durch die Blöcke dargestellt, wie etwa den Satz von benachbarten Bildern402 , während sie sich durch die Pipeline-Operationen bewegen. Beispielsweise veranschaulicht die Sequenz von Blöcken410 –412 Sätze von benachbarten Bildern402 , die durch eine Operation bearbeitet werden und sich dann zu einer anderen Operation in der Pipeline bewegen. - Der Satz von benachbarten Bildern
402 kann zwei oder mehr erfasste Einzelbilder umfassen. Beispielsweise können, wie dargestellt, benachbarte Bilder402 Einzelbilder401 und402 beinhalten. Wie gezeigt, kann ein Einzelbild alle 1/60 Sekunden erfasst werden, und Pipeline-Operationen können über die Zeit durchgeführt werden, die in Intervalle von 1/30 Sekunden unterteilt ist. Das heißt, bei einer Ausführungsform können Bilder mit dem Doppelten einer nominellen Einzelbildrate erfasst werden. - Wie gezeigt, wird das Einzelbild
401 zu einem ersten Zeitpunkt und mit einer ersten Belichtungseinstellung erfasst (mit einem Pfeil gezeigt). Das benachbarte Einzelbild402 wird dann zu einem zweiten Zeitpunkt (z. B. 1/60 Sekunde später) mit einer zweiten Belichtungseinstellung erfasst (wie durch einen Pfeil mit einer unterschiedlichen Länge als der Pfeil für das Einzelbild401 dargestellt). Es sei angemerkt, dass andere Zeiteinzelbilder gewählt werden können sowie mehr als zwei Bilder innerhalb des Satzes von benachbarten Bildern402 enthalten sein können. - Jedenfalls können, während der Satz von benachbarten Bildern
402 durch den Bildsensor- & ND110 empfangen wird, verschiedene Operationen an benachbarten Bildern402 ausgeführt werden, wie gezeigt. Während benachbarte Bilder402 in der Pipeline bearbeitet werden, werden zusätzliche Bilder als Sätze von Bildern erfasst und innerhalb der Pipeline-Architektur verarbeitet. Somit bewegt sich, wie gezeigt, der Satz von Bildern402 durch die verschiedenen Operationen, um die Sequenz410 herzustellen. Eine ähnliche Fließbandverarbeitung von benachbarten Bildern erfolgt für die Sequenz411 sowie jeden der anderen Sätze von benachbarten Bildern, in4 gezeigt, Sequenz412 , und so weiter. - Somit kann die Konvertierung von einer LDR-Bildsequenz zu einer HDR-Bildsequenz in zwei Teilaufgaben unterteilt werden, die jeweils in einer einzelnen Einzelbildzeit durchgeführt werden können; jede oben beschriebene Komponente kann ihre Aufgabe ausführen und dann die Ergebnisse zu einer nächsten Komponente transferieren. Bei einer Ausführungsform brauchen deshalb keine Zwischenergebnisse in einem Speicher gespeichert zu werden. Während eine einzelne Einzelbildverarbeitungszeit bis etwa 150 ms oder mehr benötigen könnte, gestattet der Pipeline-Ansatz wie hier beschrieben einen Durchsatz eines Einzelbilds in etwa 33 Millisekunden. Es können sich jedoch auch andere Zeitwerte ergeben. Beispielsweise könnte bei einer anderen Ausführungsform die Einzelbildrate (FPS) des HDR-Stroms etwa die gleiche sein wie der Eingabestrom, indem ein erstes und ein zweites Einzelbild zu einem ersten HDR-Einzelbild, ein zweites und drittes Einzelbild zu einem zweiten HDR-Einzelbild usw. kombiniert werden.
- Verallgemeinerter Betrieb
- Der Betrieb gewisser Aspekte der Erfindung wird nun bezüglich
5 beschrieben.5 veranschaulicht eine Ausführungsform eines Pipeline-Prozessflusses zum Herstellen von HDR-Videosequenzen in Echtzeit. Wie oben erörtert, kann der Prozess500 von5 innerhalb der Pipeline-Architektur von3 innerhalb des Systems100 von1 implementiert werden. - Es sei angemerkt, dass der Prozess
500 zwar einen sequentiellen Fluss mit einem Loopback darstellt (Entscheidungsblock514 ), die Sätze von Bildern durch jeden Block gleichzeitig bearbeitet werden können. Beispielsweise kann unter Verwendung von in4 dargestellten Sätzen von Bildern ein Satz von Bildern402 bei Block506 des Prozesses500 bearbeitet werden, während gleichzeitig ein zweiter Satz von Bildern403 in der Pipeline durch den Block504 bearbeitet werden kann, und weiter kann ein dritter Satz von Bildern404 gleichzeitig in der Pipeline durch Block502 bearbeitet werden. Somit sollte der Prozess500 nicht so ausgelegt werden, dass er einen einzelnen Satz von Bildern bearbeitet, bevor Operationen an anderen Sätzen von Bildern gestartet werden. - Der Prozess
500 ist so dargestellt, dass er drei Stadien umfasst, das Bildausrichtungsstadium520 , das Bildmischstadium521 und das Tone-Mapping-Stadium522 . Kurz gesagt, betrifft die Bildausrichtung das Ausrichten der mehreren Bilder und beinhaltet das Messen des optischen Flusses und das Verziehen eines der Bilder, damit es zu dem anderen Bild passt. Das Bildmischen betrifft das Mischen der ausgerichteten Bilder miteinander, um das einzelne HDR-Bild aus den mehreren Bildern herzustellen, und das Tone-Mapping betrifft das Reduzieren eines Bitbereichs zur Verwendung beim Anzeigen oder Durchführen anderer Aktionen mit dem resultierenden HDR-Bild. - Somit beginnt der Prozess
500 bei Block502 , wo mehrere benachbarte Einzelbilder erhalten werden. In diesem Fall werden die benachbarten Einzelbilder beispielsweise von der Bildsensor- & A/D-110 -Komponente von1 erhalten. Wie oben erörtert, kann ein erstes Bild mit einer anderen Belichtungseinstellung als ein zweites Bild eingefangen worden sein. Wenngleich die obigen Erörterungen sich auf zwei Bilder bezogen, können zudem andere Ausführungsformen das Erhalten von mehr als zwei Bildern, jeweils mit anderen Belichtungseinstellungen, beinhalten. - Die Bearbeitung geht dann weiter zu Block
504 , wo der optische Fluss bestimmt wird. Wie oben erörtert, kombiniert der Prozess500 Pixelinformationen zwischen den empfangenen zwei oder mehr Einzelbildern, um eine einzelne HDR-Ausgabe zu erzeugen. Um unerwünschte Artefakte zu vermeiden, wie etwa Bildunschärfe und Ghostingbilder, werden die erhaltenen Einzelbilder ausgerichtet. Die Ausrichtung betrifft das Identifizieren eines gleichen Objekts innerhalb der in den mehreren Bildern eingefangenen Szene und Sicherstellen, dass sie sich innerhalb jedes der Einzelbilder an einer gleichen Position befinden. - Da die Bilder wahrscheinlich von einer handgehaltenen Kamera erfasst werden, kann sich die Kamera zwischen Einzelbildern geringfügig bewegen; dies wird bewirken, dass sich das Bild zwischen erfassten Einzelbildern bewegt oder dreht. Zum Kompensieren werden Schätzungen darüber durchgeführt, wie ein Bild bewegt wird, um auf ein anderes Bild ausgerichtet zu sein.
- Bei einer Ausführungsform beinhaltet ein Ansatz zum Ausrichten der Bilder das Versuchen, eine parametrische Funktion T: R2 → R2 zu schätzen, die darauf ausgerichtet ist, die Beziehung zwischen Bildkoordinaten in einem Bild und Bildkoordinaten in wenigstens einem zweiten Bild darzustellen; bei einer Ausführungsform werden mehrere derartige Funktionen geschätzt – eine für jedes Objekt in dem Bild. Ein Beispiel dieser Funktion beinhaltet die affine Funktion:
x' = a11x + a12y + a13 y' = a21x + a22y + a23 - Um das Modell zu schätzen, werden zuerst die Bewegungsvektoren zwischen entsprechenden Pixeln in den zwei oder mehr Bildern extrahiert, und dann wird die globale Bewegungstransformation geschätzt.
- Bewegunqsvektorextraktionen
- Bei der Bewegungsvektorextraktion besteht ein erster Schritt darin, Übereinstimmungen zwischen den mehreren Bildern zu finden, und er beinhaltet das Finden, welche Orte in einem Bild Orten in einem anderen Bild entsprechen.
- Es kann so gut wie jedes Bewegungssuchverfahren verwendet werden. Bei einer Ausführungsform jedoch kann ein Bewegungssuchverfahren verwendet werden, wie es in der am 25. Mai 2007 eingereichten
US-Patentveröffentlichung mit der laufenden Nummer 2008/0291288 - Ebenfalls kann die Bewegungssuche bei einer Ausführungsform einen Ansatz auf der Basis einer mittelwertreduzierten Summe der absoluten Differenzen (MRSAD – Mean-Reduced Sum of Absolute Differences) verwendet werden. Das heißt, eine Bewegung eines Blocks von Pixeln in einem Einzelbild kann durch einen Ort eines Blocks in dem anderen Einzelbild bestimmt werden, für die die MRSAD als minimal bestimmt ist. Hierbei kann ein Einzelbild als ein ”Ziel” – IT und das andere Einzelbild als eine ”Referenz” – IR ausgedrückt sein. Dann gilt:
- Wobei BX, BY eine Größe eines Blocks definieren und AX und AY einen Suchbereich definieren.
- Bei einer Ausführungsform kann die Bewegungssuche unter Verwendung spezifischer, auf einer integrierten Schaltung implementierter Hardwarebeschleuniger relativ schnell durchgeführt werden, wie sie etwa im System
100 von1 verwendet werden könnten, das die Referenz- und Zielbilder aufnimmt und eine Liste von ”Bewegungsvektoren” für jeden Block in den Bildern zurückschickt. Außerdem kann die Bewegungssuche auf einer niedrig aufgelösten Kopie der Bilder durchgeführt und dann durch Durchführen einer zusätzlichen Suche in höherer Auflösung verfeinert werden. Zudem kann die Bewegungssuche durch Anwenden einer Eckendetektion an den Bildern weiter verbessert werden, da Ecken mit größerer Wahrscheinlichkeit zuverlässige Bewegungsvektoren zurückschicken. Außerdem kann bei einer Ausführungsform ein Robustheitsmaß durch Beobachten des MRSAD-Kennfelds als Funktion des (u, v)-Bewegungsvektors und Bestimmen, ob das Minimum, das erzeugt wird, MV(x, y), einzigartig ist, extrahiert werden. - Globale Bewegungsschätzung
- Block
504 kann dann fortgesetzt werden durch Durchführen einer globalen Bewegungsschätzung für die mehreren erhaltenen Einzelbilder. Somit wird nach der Bewegungssuche ein Satz von Übereinstimmungen in jedem Bildsatz erhalten als:(xi, yi) ↔ (xi', yi') = (xi + MVx(xi, yi), yi + MVy(xi, yi)) - Bei einer Ausführungsform wird ein RANdom-Ansatz (RANdom Sample Consensus – Übereinstimmung mit einer zufälligen Stichprobe) verwendet, um aus diesen Übereinstimmungen eine Transformation zu schätzen. Es können jedoch stattdessen auch andere Ansätze verwendet werden. Deshalb wird angemerkt, dass Ausführungsformen nicht auf diesen Ansatz beschränkt sind. Jedenfalls könnten unter Verwendung dieses Ansatzes die Transformationsschätzungen iterativ aufgebaut werden, wobei Ausreißer zurückgewiesen werden. Eine finale Transformation kann berechnet werden, indem eine Gruppe aller Einlieger genommen wird (die mit ”I” bezeichnet werden können), und eine Transformation um eine Gleichung der kleinsten Quadrate (lineare Regression) geschätzt wird: wobei die Summierung über ∀i ∊ I und N = |I| ist.
- Es wird angemerkt, dass alle die Summierungen in einer Festkomma-Arithmetik durchgeführt werden können, während die Matrixinversionen eine Fließkomma-Arithmetik verwenden, was einige Male geschehen kann. Sie kann auch in Software emuliert werden und erfordert möglicherweise keine Fließkomma-Hardwareunterstützung, wodurch die Komplexität weiter reduziert und die Geschwindigkeit erhöht wird.
- Wie angemerkt, während die obige affine Transformation als ein beispielhafter Ansatz angegeben ist, sollte klar sein, dass viele andere parametrische Transformationsansätze ebenfalls verwendet werden können.
- Die Verarbeitung kann als nächstes von Block
504 zu Block506 fließen, wo unter Verwendung der geschätzten globalen Transformation ein beliebiger einer Vielzahl von Verziehungsmechanismen verwendet werden kann, um eines der Bilder auf die Koordinaten des anderen Bilds zu transformieren. - Der Prozess
500 fließt als nächstes zu Block508 , wo eine Bildmischung durchgeführt wird. Bei dem Bildmischstadium521 werden die bereits ausgerichteten Bilder in einer Ausführungsform miteinander gemischt, indem eine intuitive Regel befolgt wird: Das dunkle Bild (wie oben erwähnt) soll die Informationen in überbelichteten Bereichen beitragen, und das helle Bild (wie oben erwähnt) unterstützt in unterbelichteten Bereichen des resultierenden gemischten Bilds. - Bei einer Ausführungsform nehmen die Bildmischoperationen die beiden Bilder mit verschiedenen Belichtungen und mischen sie zusammen gemäß einem pixelweisen Mischfaktor. Dieser Ansatz kann beschrieben werden, indem das Bild, das als weniger belichtet definiert ist, als I1 bezeichnet wird, und das Bild mit der größeren Belichtung als I2. Der Belichtungswert jedes Bildes kann als ExpVal1 bzw. ExpVal2 bezeichnet werden. Dies kann ohne Weiteres für mehr Bilder ausgeweitet werden.
-
- Die folgenden Aktionen können dann innerhalb des Bildmischstadiums angewendet werden:
- 1. In einem Vorverarbeitungsschritt:
-
- a. Falls I1 oder I2 in einem gamma-Bereich angegeben sind, anstatt in einem linearen Bereich, dann wird eine De-gamma-Operation angewendet, um die eingegebenen Bilder in einem linearen Bereich darzustellen. Ein beliebiger einer Vielzahl von Mechanismen kann verwendet werden, um diese De-gamma-Operation durchzuführen.
- b. Als Nächstes wird das hellere Bild I2 auf einen Belichtungswert des dunkleren Bilds I1 normiert. Bei einer Ausführungsform können die Manipulationen an dem eingegebenen Bild zusammengefasst werden als:
- 2. Berechnen von Mischgewichten.
- Um Gewichte zu bestimmen, werden Lichtstärkewerte, (wobei Luma als Y bezeichnet ist) des helleren Bilds, I2, als eine Eingabe zu einer gewichtenden Nachschlagetabelle (LUT – Lookup Table) verwendet. Dies kann formuliert werden als W = LUT (Y2). Die gewichtende LUT kann als eine allgemeine Abbildung beschrieben werden, kann aber auch als eine stückweise lineare Funktion implementiert werden.
6 veranschaulicht ein nichtbeschränkendes, nichterschöpfendes eindimensionales Beispiel einer gewichtenden Nachschlagetabellenfunktion als eine stückweise Linearfunktion. Es ist zu verstehen, dass auch andere Gewichtungsfunktionen verwendet werden können. - 3. Mischen.
- Die eigentliche Mischoperation wird bei Block
508 durchgeführt durch Anwenden von:Iout = (1 – W)·I upd / 1 + W·I upd / 2 6 gezeigt darstellt. Die Mischoperation nimmt dann die dunklen Pixel von I2 upd, helle Pixel von I1 upd und führt eine pixelweise Mischung zwischen den beiden Bildern für mittlere Luma-Werte durch. - Bei einer Ausführungsform werden Fehlausrichtungen der Bilder (Fehler von Stadium
506 ) detektiert. Dies könnte beispielsweise geschehen durch Beobachten der Differenz zwischen den (normierten) Bildpixeln und Anwenden eines Schwellwerts. Wenn solche Fehlausrichtungen detektiert werden, kann der Gewichtungsfaktor W näher an 0 oder 1 geschoben werden (beispielsweise gerundet werden), um ein Mischen von fehlausgerichteten Objekten und das Erzeugen von ”Geistern” zu vermeiden – womit halbtransparente Objekte in dem ausgegebenen Bild oder dergleichen gemeint sind. - Bei einer Beendigung vom Block
508 ergibt sich ein HDR-Bild, das in einer Ausführungsform als ein lineares RGB-Bild dargestellt werden kann. Bei einer Ausführungsform kann das RGB-Bild 12 Bit pro Farbkomponente verwenden. Somit kann, wenn erwartet wird, dass die Ausgabeeinrichtung zur Verwendung von Bildern mit einer niedrigeren Anzahl von Bit pro Farbe ausgelegt ist, die Verarbeitung optional weitergehen zu Block510 , dem Tone-Mapping-Stadium522 , Block510 von Prozess500 . - Bei dem Tone-Mapping kann die 12-Bit-Darstellung in eine Darstellung mit weniger Bit transformiert werden. Beispielsweise kann bei einer Ausführungsform die Transformation in eine Darstellung mit 8 Bit pro Farbdarstellung erfolgen. Bei dieser Handlung ist es wünschenswert, das Tone-Mapping durchzuführen, während der Wahrnehmungsmehrwert des obigen Bildfusionsprozesses beibehalten wird.
- Wenngleich eine beliebige einer Vielzahl von Techniken verwendet werden kann, liefert Folgendes eine Ausführungsform eines Ansatzes unter Verwendung von zwei getrennten Transformationen, einer globalen Abbildung und einer lokalen Abbildung.
- Somit kann bei Block
510 eine globale Abbildung unter Verwendung einer gammaartigen Abbildung an dem HDR-Fusionsergebnis durchgeführt werden, während immer noch 12 Bit pro Farbkomponente beibehalten werden. Die Abbildung kann ein Inverses der De-gamma-Operation beinhalten, die weiter oben bei Block508 erörtert wurde. Wenngleich andere Ansätze verwendet werden können, ist es wünschenswert, eine Ähnlichkeit von Farben und Atmosphäre der eingegebenen Bilder beizubehalten. - Eine lokale Abbildung kann bei einer Ausführungsform das Durchführen einer nichtlinearen lokalen Abbildung beinhalten, wie etwa in der am 23. Mai 2007 eingereichten
US-Patentveröffentlichung mit der laufenden Nummer 2008/0291287 US-Patentveröffentlichung mit der laufenden Nummer 2008/0292206 - Jedenfalls kann bei einer Ausführungsform eine nichtlineare Operation verwendet werden, die ein Pixel gemäß mittleren Helligkeitswerten ihres Nachbars in eine 8-Bit-Darstellung pro Farbkomponente abbildet. Diese Tone-Mapping-Operation liefert eine Kompression des Dynamikbereichs, während lokaler Kontrast beibehalten wird, um den Schaden am lokalen Kontrast zu minimieren.
- Das HDR-Einzelbild von Block
510 kann dann an Block512 geliefert werden, wo eine beliebige einer Vielzahl von Codiermechanismen verwendet werden kann, um das HDR-Einzelbild als einen komprimierten Bitstrom zu codieren, einschließlich unter anderem in H.264, MPEG-4 oder dergleichen. - Die Verarbeitung geht dann weiter zu Entscheidungsblock
514 , wo eine Bestimmung erfolgt, ob weitere, unter Verwendung der Pipeline-Operationen zu bearbeitende Einzelbilder vorliegen. Falls dies der Fall ist, kann die Verarbeitung dann zu Block502 zurückschleifen; ansonsten kann die Verarbeitung zu einem anderen Prozess zurückkehren. Wie oben angemerkt, weil der Prozess500 Sätze von Bildern am Fließband verarbeitet, braucht der Prozess500 nicht zurückzuschleifen, sondern kann Operationen verschiedener oben beschriebener Blöcke fortsetzen, bis alle der von der Digitalkamera erfassten Sätze von Bildern zu HDR-Einzelbildern verarbeitet worden sind. - Zudem versteht sich, dass jede Komponente der Flussdiagramme und Kombinationen von Komponenten in diesen Darstellungen durch Computerprogrammanweisungen implementiert werden können. Diese Programmanweisungen können an einen Prozessor geliefert werden, um eine Maschine herzustellen, so dass die Anweisungen, die auf dem Prozessor laufen, Mittel erzeugen zum Implementieren der in der oder den Flusskomponenten spezifizierten Handlungen. Die Computerprogrammanweisungen können durch einen Prozessor ausgeführt werden, um eine Reihe von Operationsschritten zu bewirken, die von dem Prozessor durchgeführt werden sollen, um einen computerimplementierten Prozess zu erzeugen, so dass die Anweisungen, die auf dem Prozessor ausgeführt werden, um Schritte zum Implementieren der in der oder in den Flusskomponenten spezifizierten Aktionen zu liefern. Die Computerprogrammanweisungen können auch bewirken, dass wenigstens einige der in den Komponenten des Flusses gezeigten Operationsschritte parallel/als Pipeline durchgeführt werden. Zudem können einige der Schritte auch über mehr als einen Prozessor ausgeführt werden, wie es in einem Multiprozessorcomputersystem erfolgen könnte. Außerdem können eine oder mehrere Komponenten oder Kombinationen von Komponenten in den Flussdarstellungen auch gleichzeitig mit anderen Komponenten oder Kombinationen von Komponenten oder sogar in einer anderen Sequenz als dargestellt durchgeführt werden.
- Dementsprechend unterstützen Komponenten der Flussdarstellungen Kombinationen von Mitteln zum Durchführen der spezifizierten Handlungen, Kombinationen von Schritten zum Durchführen der spezifizierten Handlungen und Programmanweisungsmittel zum Durchführen der spezifizierten Handlungen. Es versteht sich auch, dass jede Komponente der Flussdarstellungen und Kombinationen von Komponenten in den Flussdarstellungen durch hardwarebasierte Spezialzwecksysteme implementiert werden können, die die spezifizierten Handlungen oder Schritte durchführen, oder Kombinationen von Spezialzweckhardware und Computeranweisungen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- US 2008/0291288 [0055]
- US 2008/0291287 [0075]
- US 2008/0292206 [0075]
Claims (10)
- Prozessorbasiertes Verfahren, das umfasst: Pipeline-Verarbeiten einer Vielzahl von Handlungen mit einer Echtzeitvideorate zum Generieren eines Videoausgabestroms mit hohem Dynamikumfang durch: Erfassen mehrerer Bilder als Bilder mit niedrigem Dynamikumfang, wobei wenigstens ein Bild eine andere Belichtungseinstellung als wenigstens ein anderes Bild in den mehreren Bildern aufweist; Durchführen einer Bildausrichtung zwischen den Bildern in den mehreren Bildern; Erzeugen eines einzelnen HDR-Bilds (High Dynamic Range – hoher Dynamikumfang) durch Kombinieren der ausgerichteten Bilder; und Codieren des HDR-Bilds zu einem HDR-Videoausgabestrom.
- Prozessorbasiertes Verfahren nach Anspruch 1, wobei das Durchführen einer Bildausrichtung ferner umfasst: Durchführen einer Bewegungsvektorextraktion zwischen entsprechenden Pixeln zwischen den Bildern; und Verwenden eines Ergebnisses der Bewegungsvektorextraktion und Transformieren der Bilder auf Bildkoordinaten von wenigstens einem der Bilder in mehreren Bildern.
- Prozessorbasiertes Verfahren nach Anspruch 2, wobei die Bewegungsvektorextraktion ferner umfasst: Verwenden einer Bewegungssuche unter Verwendung einer Bewegung eines Blocks von Pixeln in wenigstens einem der Bilder zum Identifizieren eines anderen Blocks von Pixeln in wenigstens einem weiteren Bild in den mehreren auf der Basis dessen, wann eine mittelwertreduzierte Summe der absoluten Differenzen (MRSAD – Mean Reduced Sum Of Absolute Differences) als minimal bestimmt wird; Verwenden eines Ergebnisses der Bewegungssuche zum Identifizieren eines Satzes von Übereinstimmungen zwischen Pixeln in wenigstens einem der Bilder mit Pixeln in wenigstens einem anderen Bild; und Durchführen einer globalen Bewegungsschätzung an dem Satz von Übereinstimmungen zum Generieren einer geschätzten globalen Transformation.
- Prozessorbasiertes Verfahren nach Anspruch 1, wobei das Kombinieren der ausgerichteten Bilder ferner umfasst: für jedes Bild in den mehreren, das in einer nichtlinearen gamma-Domäne dargestellt wird, Durchführen einer De-gamma-Transformation auf dem Bild; Normieren des jeweiligen Bilds mit einer helleren Belichtungseinstellung als ein anderes Bild in den mehreren auf einem Belichtungswert des anderen dunkleren Bilds; Bestimmen von Gewichtungswerten teilweise auf der Basis von Helligkeitswerten des Bildes mit der helleren Belichtungseinstellung; und Verwenden der Gewichtungswerte zum Mischen von dunklen Pixeln von dem helleren Bild mit hellen Pixeln von dem dunkleren Bild, um das HDR-Bild zu erzeugen.
- Prozessorbasiertes Verfahren nach Anspruch 1, wobei die Pipeline-Verarbeitung mehrerer Handlungen ferner umfasst: Durchführen eines Tone-Mapping zum Reduzieren einer Anzahl von Bits, die zum Darstellen einer Farbkomponente in dem HDR-Bild verwendet wird, wobei das Tone-Mapping umfasst: Durchführen eines globalen gamma-Mapping an dem HDR-Bild und Durchführen eines nichtlinearen lokalen Mapping, das ein Pixel auf der Basis des mittleren Helligkeitswerts eines Nachbarn von Pixeln abbildet.
- Bildsystem, das umfasst: eine Bilderfassungseinrichtung, die ausgelegt ist zum Empfangen mehrerer Bilder als Bilder mit einem niedrigen Dynamikumfang; und eine oder mehrere Schaltungen mit mehreren Komponenten darauf, die in einer Pipeline-Architektur arbeiten, um mehrere Aktionen mit einer Echtzeitvideorate für eine Sequenz von erfassten Bildern durchzuführen, umfassend: Empfangen der mehreren Bilder, wobei wenigstens ein Bild eine andere Belichtungseinstellung aufweist, wenn es erfasst wird, als wenigstens ein anderes Bild bei den mehreren Bildern; Durchführen einer Bildausrichtung zwischen den Bildern; Erzeugen eines einzelnen Bilds mit hohem Dynamikumfang durch Kombinieren der ausgerichteten Bilder unter Verwendung eines pixelweisen Mischens; und Codieren des Bilds mit hohem Dynamikumfang zu einem Videoausgabestrom mit hohem Dynamikumfang.
- Bildsystem nach Anspruch 6, wobei das Durchführen einer Bildausrichtung ferner umfasst: Durchführen einer Bewegungsvektorextraktion zwischen entsprechenden Pixeln zwischen den Bildern; und Verwenden eines Ergebnisses der Bewegungsvektorextraktion und Transformieren der Bilder auf Bildkoordinaten von wenigstens einem Bild bei den mehreren.
- Bildsystem nach Anspruch 7, wobei die Bewegungsvektorextraktion ferner umfasst: Verwenden einer Bewegungssuche unter Verwendung einer Bewegung eines Blocks von Pixeln in wenigstens einem der Bilder zum Identifizieren eines anderen Blocks von Pixeln in wenigstens einem weiteren Bild auf der Basis dessen, wann eine mittelwertreduzierte Summe der absoluten Differenzen (MRSAD – Mean Reduced Sum Of Absolute Differences) als minimal bestimmt wird; Verwenden eines Ergebnisses der Bewegungssuche zum Identifizieren eines Satzes von Übereinstimmungen zwischen Pixeln in den Bildern, und Durchführen einer globalen Bewegungsschätzung an dem Satz von Übereinstimmungen zum Generieren einer geschätzten globalen Transformation.
- Bildsystem nach Anspruch 6, wobei das Mischen weiterhin für gesättigte Bereiche in einem der Bilder das Verwenden von Pixeln von einem dunkleren Bild in den mehreren umfasst, um beim Herstellen des HDR-Bilds ausgebrannte Details in einer Szene wiederherzustellen.
- Bildsystem nach Anspruch 6, wobei die Pipeline-Verarbeitung mehrerer Handlungen ferner umfasst: Durchführen eines Tone-Mapping zum Reduzieren einer Anzahl von Bits, die zum Darstellen einer Farbkomponente in dem HDR-Bild verwendet wird, wobei das Tone-Mapping umfasst: Durchführen eines globalen gamma-Mapping an dem HDR-Bild; und Durchführen eines nichtlinearen lokalen Mapping, das ein Pixel auf der Basis des mittleren Helligkeitswerts eines Nachbarn von Pixeln abbildet.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/540,476 US9489706B2 (en) | 2012-07-02 | 2012-07-02 | Device and algorithm for capturing high dynamic range (HDR) video |
US13/540,476 | 2012-07-02 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102012023299A1 true DE102012023299A1 (de) | 2014-01-02 |
Family
ID=48746912
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102012023299.3A Pending DE102012023299A1 (de) | 2012-07-02 | 2012-11-28 | Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) |
Country Status (3)
Country | Link |
---|---|
US (1) | US9489706B2 (de) |
DE (1) | DE102012023299A1 (de) |
GB (1) | GB2505276B (de) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9955084B1 (en) | 2013-05-23 | 2018-04-24 | Oliver Markus Haynold | HDR video camera |
US9432647B2 (en) * | 2013-09-09 | 2016-08-30 | Apple Inc. | Adaptive auto exposure and dynamic range compensation |
US9973723B2 (en) * | 2014-02-24 | 2018-05-15 | Apple Inc. | User interface and graphics composition with high dynamic range video |
US9729801B2 (en) | 2014-10-02 | 2017-08-08 | Dolby Laboratories Licensing Corporation | Blending images using mismatched source and display electro-optical transfer functions |
WO2016165967A1 (en) | 2015-04-14 | 2016-10-20 | Fotonation Limited | Image acquisition method and apparatus |
KR102337159B1 (ko) | 2015-05-21 | 2021-12-08 | 삼성전자주식회사 | 컨텐츠 출력 장치 및 방법과, 디스플레이 장치 |
US9819873B2 (en) * | 2015-06-25 | 2017-11-14 | Canon Kabushiki Kaisha | Image-processing apparatus and image-processing method |
US10264196B2 (en) | 2016-02-12 | 2019-04-16 | Contrast, Inc. | Systems and methods for HDR video capture with a mobile device |
US10257394B2 (en) | 2016-02-12 | 2019-04-09 | Contrast, Inc. | Combined HDR/LDR video streaming |
US20190052793A1 (en) * | 2016-02-22 | 2019-02-14 | Koninklijke Philips N.V. | Apparatus for generating a synthetic 2d image with an enhanced depth of field of an object |
JP7081835B2 (ja) | 2016-08-09 | 2022-06-07 | コントラスト, インコーポレイテッド | 車両制御のためのリアルタイムhdrビデオ |
US10218952B2 (en) | 2016-11-28 | 2019-02-26 | Microsoft Technology Licensing, Llc | Architecture for rendering high dynamic range video on enhanced dynamic range display devices |
US10187584B2 (en) | 2016-12-20 | 2019-01-22 | Microsoft Technology Licensing, Llc | Dynamic range extension to produce high dynamic range images |
US10176561B2 (en) | 2017-01-27 | 2019-01-08 | Microsoft Technology Licensing, Llc | Content-adaptive adjustments to tone mapping operations for high dynamic range content |
US10104334B2 (en) * | 2017-01-27 | 2018-10-16 | Microsoft Technology Licensing, Llc | Content-adaptive adjustment of display device brightness levels when rendering high dynamic range content |
US10334141B2 (en) | 2017-05-25 | 2019-06-25 | Denso International America, Inc. | Vehicle camera system |
US11265530B2 (en) | 2017-07-10 | 2022-03-01 | Contrast, Inc. | Stereoscopic camera |
JP7147199B2 (ja) * | 2018-03-16 | 2022-10-05 | ソニーグループ株式会社 | 信号処理装置及び信号処理方法 |
US10951888B2 (en) | 2018-06-04 | 2021-03-16 | Contrast, Inc. | Compressed high dynamic range video |
US10855964B2 (en) | 2018-08-29 | 2020-12-01 | Apple Inc. | Hue map generation for highlight recovery |
US11100620B2 (en) | 2018-09-04 | 2021-08-24 | Apple Inc. | Hue preservation post processing for highlight recovery |
US10957024B2 (en) | 2018-10-30 | 2021-03-23 | Microsoft Technology Licensing, Llc | Real time tone mapping of high dynamic range image data at time of playback on a lower dynamic range display |
US11503310B2 (en) * | 2018-10-31 | 2022-11-15 | Ati Technologies Ulc | Method and apparatus for an HDR hardware processor inline to hardware encoder and decoder |
US11095829B2 (en) * | 2019-06-11 | 2021-08-17 | Samsung Electronics Co., Ltd. | Apparatus and method for high dynamic range (HDR) image creation of dynamic scenes using graph cut-based labeling |
CN110428362B (zh) * | 2019-07-29 | 2023-12-15 | 深圳市商汤科技有限公司 | 图像hdr转换方法及装置、存储介质 |
US20210185214A1 (en) * | 2019-12-13 | 2021-06-17 | Sony Corporation | Trans-spectral feature detection for volumetric image alignment and colorization |
EP3902240B1 (de) * | 2020-04-22 | 2022-03-30 | Axis AB | Verfahren, vorrichtung, kamera und software zur durchführung einer elektronischen bildstabilisierung eines bildes mit hohem dynamikbereich |
US11595589B2 (en) | 2021-07-22 | 2023-02-28 | Arthrex, Inc. | Surgical camera system with high dynamic range |
CN113516689B (zh) * | 2021-09-10 | 2022-03-22 | 北京理工大学 | 一种基于关联帧约束的纹影特征可视化增强方法 |
CN117793544B (zh) * | 2024-02-28 | 2024-10-15 | 荣耀终端有限公司 | 一种图像处理方法及相关装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080292206A1 (en) | 2007-05-23 | 2008-11-27 | Itsik Dvir | Highlight Recovery Using Digital Lighting Module |
US20080291288A1 (en) | 2007-05-25 | 2008-11-27 | Meir Tzur | Technique of Motion Estimation When Acquiring An Image of A Scene That May Be Illuminated With A Time Varying Luminance |
US20080291287A1 (en) | 2007-05-23 | 2008-11-27 | Itsik Dvir | Dynamic Range Compensation by Filter Cascade |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7084905B1 (en) | 2000-02-23 | 2006-08-01 | The Trustees Of Columbia University In The City Of New York | Method and apparatus for obtaining high dynamic range images |
US7199837B2 (en) * | 2001-11-13 | 2007-04-03 | Ati Technologies, Inc. | System for improved ratiometric expansion and method thereof |
JP2004088234A (ja) * | 2002-08-23 | 2004-03-18 | Matsushita Electric Ind Co Ltd | ノイズ低減装置 |
US6879731B2 (en) | 2003-04-29 | 2005-04-12 | Microsoft Corporation | System and process for generating high dynamic range video |
KR20070020994A (ko) * | 2005-08-17 | 2007-02-22 | 삼성전자주식회사 | 영상신호 변환장치 및 그 방법 |
US7623683B2 (en) * | 2006-04-13 | 2009-11-24 | Hewlett-Packard Development Company, L.P. | Combining multiple exposure images to increase dynamic range |
US8339475B2 (en) | 2008-12-19 | 2012-12-25 | Qualcomm Incorporated | High dynamic range image combining |
US8406569B2 (en) * | 2009-01-19 | 2013-03-26 | Sharp Laboratories Of America, Inc. | Methods and systems for enhanced dynamic range images and video from multiple exposures |
ES2383318T3 (es) * | 2009-03-31 | 2012-06-20 | Sony Corporation | Método y unidad para generar una trama de vídeo e imagen de vídeo con alta gama dinámica |
US8111300B2 (en) * | 2009-04-22 | 2012-02-07 | Qualcomm Incorporated | System and method to selectively combine video frame image data |
WO2010123923A1 (en) | 2009-04-23 | 2010-10-28 | Zoran Corporation | Multiple exposure high dynamic range image capture |
EP2489180A1 (de) | 2009-10-14 | 2012-08-22 | CSR Technology Inc. | Verfahren und vorrichtung zur bildstabilisierung |
US8798388B2 (en) * | 2009-12-03 | 2014-08-05 | Qualcomm Incorporated | Digital image combining to produce optical effects |
US8750645B2 (en) * | 2009-12-10 | 2014-06-10 | Microsoft Corporation | Generating a composite image from video frames |
JP5387905B2 (ja) * | 2009-12-25 | 2014-01-15 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
US8564724B2 (en) * | 2010-04-04 | 2013-10-22 | Texas Instruments Incorporated | Ghosting artifact reduction in temporal noise filtering |
CN101888487B (zh) | 2010-06-02 | 2012-03-14 | 中国科学院深圳先进技术研究院 | 高动态范围视频成像系统和图像生成方法 |
KR20120000485A (ko) * | 2010-06-25 | 2012-01-02 | 삼성전자주식회사 | 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법 |
US8711248B2 (en) * | 2011-02-25 | 2014-04-29 | Microsoft Corporation | Global alignment for high-dynamic range image generation |
TWI624182B (zh) * | 2011-04-15 | 2018-05-11 | 杜比實驗室特許公司 | 高動態範圍影像的編碼、解碼及表示 |
KR101699919B1 (ko) * | 2011-07-28 | 2017-01-26 | 삼성전자주식회사 | 다중 노출 퓨전 기반에서 고스트 흐림을 제거한 hdr 영상 생성 장치 및 방법 |
US9338349B2 (en) * | 2013-04-15 | 2016-05-10 | Qualcomm Incorporated | Generation of ghost-free high dynamic range images |
-
2012
- 2012-07-02 US US13/540,476 patent/US9489706B2/en active Active
- 2012-11-28 DE DE102012023299.3A patent/DE102012023299A1/de active Pending
-
2013
- 2013-05-17 GB GB1308910.7A patent/GB2505276B/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080292206A1 (en) | 2007-05-23 | 2008-11-27 | Itsik Dvir | Highlight Recovery Using Digital Lighting Module |
US20080291287A1 (en) | 2007-05-23 | 2008-11-27 | Itsik Dvir | Dynamic Range Compensation by Filter Cascade |
US20080291288A1 (en) | 2007-05-25 | 2008-11-27 | Meir Tzur | Technique of Motion Estimation When Acquiring An Image of A Scene That May Be Illuminated With A Time Varying Luminance |
Also Published As
Publication number | Publication date |
---|---|
GB201308910D0 (en) | 2013-07-03 |
GB2505276B (en) | 2020-01-15 |
US20140002694A1 (en) | 2014-01-02 |
GB2505276A (en) | 2014-02-26 |
US9489706B2 (en) | 2016-11-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012023299A1 (de) | Einrichtung und Algorithmus zum Erfassen von HDR-Video (High Dynamic Range - hoher Dynamikumfang) | |
DE102011078662B4 (de) | Erfassen und Erzeugen von Bildern mit hohem Dynamikbereich | |
DE102013017122B4 (de) | Verfahren zum Herstellen automatischer Cinemagramme auf einer Bildgebungsvorrichtung | |
DE112006001017B4 (de) | Verfahren und Vorrichtung zum Eingliedern von Irisfarbe in eine Rotes-Auge-Korrektur | |
JP6351903B1 (ja) | 画像処理装置、画像処理方法、及び撮影装置 | |
CN105049718A (zh) | 一种图像处理方法及终端 | |
DE102019106252A1 (de) | Verfahren und System für Lichtquellenschätzung zur Bildverarbeitung | |
CN106920221B (zh) | 兼顾亮度分布和细节呈现的曝光融合方法 | |
DE102016115292A1 (de) | Verfahren und Vorrichtung zur automatischen Belichtungswerterfassung für High Dynamic Range Imaging | |
DE102018119625A1 (de) | Reduzieren von strukturierten IR-Mustern bei der Stereoskopischen Tiefensensorbildgebung | |
CN105684412A (zh) | 用于扩展动态范围图像的引导颜色分级 | |
WO2019056549A1 (zh) | 图像增强方法以及图像处理装置 | |
Lee et al. | Image contrast enhancement using classified virtual exposure image fusion | |
CN113632134B (zh) | 用于生成高动态范围图像的方法、计算机可读存储介质和hdr相机 | |
DE202015003717U1 (de) | "System zur dynamischen Wahl der Kompressionsrate" | |
CN102339461A (zh) | 图像增强方法和设备 | |
EP3381012A1 (de) | Verfahren und system zur erzeugung eines ausgangsbildes aus einer vielzahl entsprechender eingangsbildkanäle | |
DE10344397A1 (de) | Vorrichtung und Verfahren zur Kantenhervorhebung bei der Bildverarbeitung | |
Pan et al. | Multi-exposure high dynamic range imaging with informative content enhanced network | |
Huang et al. | A color multi-exposure image fusion approach using structural patch decomposition | |
Kao | High dynamic range imaging by fusing multiple raw images and tone reproduction | |
US10511786B2 (en) | Image acquisition method and apparatus | |
DE102016121426A1 (de) | Verfahren und Vorrichtung zum Interpolieren von Pixelfarben aus Farb- und panchromatischen Kanälen auf Farbkanäle | |
CN110807735A (zh) | 图像处理方法、装置、终端设备及计算机可读存储介质 | |
CN104010134B (zh) | 用于形成具有宽动态范围的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R082 | Change of representative |
Representative=s name: OLSWANG GERMANY LLP, DE |
|
R081 | Change of applicant/patentee |
Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US Free format text: FORMER OWNER: ZORAN CORP., SUNNYVALE, CALIF., US Effective date: 20141112 Owner name: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATE, US Free format text: FORMER OWNER: ZORAN CORP., SUNNYVALE, CALIF., US Effective date: 20141112 |
|
R082 | Change of representative |
Representative=s name: MAUCHER JENKINS, DE Effective date: 20141112 Representative=s name: OLSWANG GERMANY LLP, DE Effective date: 20141112 Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE Effective date: 20141112 |
|
R081 | Change of applicant/patentee |
Owner name: QUALCOMM INC. (N.D.GES.D. STAATES DELAWARE), S, US Free format text: FORMER OWNER: QUALCOMM TECHNOLOGIES, INC. (N.D.GES.D. STAATES DELAWARE), SAN DIEGO, CALIF., US |
|
R082 | Change of representative |
Representative=s name: MAUCHER JENKINS, DE Representative=s name: MAUCHER JENKINS PATENTANWAELTE & RECHTSANWAELT, DE |
|
R012 | Request for examination validly filed |