[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE102020127964B4 - Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene - Google Patents

Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene Download PDF

Info

Publication number
DE102020127964B4
DE102020127964B4 DE102020127964.7A DE102020127964A DE102020127964B4 DE 102020127964 B4 DE102020127964 B4 DE 102020127964B4 DE 102020127964 A DE102020127964 A DE 102020127964A DE 102020127964 B4 DE102020127964 B4 DE 102020127964B4
Authority
DE
Germany
Prior art keywords
camera
spatio
images
spectral
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102020127964.7A
Other languages
German (de)
Other versions
DE102020127964A1 (en
Inventor
Mathias Beyerlein
Malte Gienow-Broers
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Hochschule Luebeck
Original Assignee
Technische Hochschule Luebeck
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Hochschule Luebeck filed Critical Technische Hochschule Luebeck
Priority to DE102020127964.7A priority Critical patent/DE102020127964B4/en
Publication of DE102020127964A1 publication Critical patent/DE102020127964A1/en
Application granted granted Critical
Publication of DE102020127964B4 publication Critical patent/DE102020127964B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0272Handheld
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J3/18Generating the spectrum; Monochromators using diffraction elements, e.g. grating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/221Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • G01J2003/2826Multispectral imaging, e.g. filter imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Verfahren zur Ermittlung eines hyperspektralen (HS-)Kubus eines Objekts oder einer Szene mit den Schritten:a. Bereitstellen einer mobilen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz und wenigstens einem starr mit der Kamera verbundenen Inertialsensor;b. Bewegen der mobilen Kamera entlang einer Trajektorie und/oder Verdrehen der Kamera um wenigstens eine Kameraachse, derart dass das Objekt oder die Szene wenigstens teilweise im Sichtfeld der Kamera verbleibt, wobeic. während des Bewegens und/oder Verdrehens fortlaufend spatio-spektrale Bilder und Inertialsensormesswerte von der Kamera zeitlich indiziert erfasst werden;d. Ermitteln von Verschiebungstransformationen aus Paaren von zeitlich indizierten Bildern unter Verwenden der für jedes Paar von Bildern aus den zeitlich indizierten Inertialsensormesswerten ermittelten relativen Bewegung und Verdrehung der Kamera;e. Rekonstruieren des HS-Kubus durch Belegen eines dreidimensionalen Datenarrays mit gemessenen Intensitätswerten aus den spatio-spektralen Bildern unter Verwenden der ermittelten Verschiebungstransformationen.A method of determining a hyperspectral (HS) cube of an object or scene, comprising the steps of:a. Providing a mobile electronic camera with a static, spatio-spectral camera attachment and at least one inertial sensor rigidly connected to the camera;b. Moving the mobile camera along a trajectory and/or rotating the camera about at least one camera axis such that the object or the scene remains at least partially in the field of view of the camera, whereinc. continuously time-indexed spatio-spectral images and inertial sensor readings are captured by the camera during movement and/or twisting;d. determining displacement transformations from pairs of time-indexed images using the relative motion and rotation of the camera determined for each pair of images from the time-indexed inertial sensor readings;e. Reconstructing the HS cube by populating a three-dimensional data array with measured intensity values from the spatio-spectral images using the determined shift transformations.

Description

Die Erfindung betrifft ein Verfahren zur ortsaufgelösten, elektronischen Erfassung der von einem Objekt oder einer Szene ausgehenden elektromagnetischen Strahlung in einem Spektralbereich, der ultraviolette, sichtbare und infrarote Wellenlängen umfassen kann. Die Erfindung betrifft weiter einen die Durchführung des Verfahrens ermöglichenden Kameraaufsatz für eine herkömmliche elektronische Kamera.The invention relates to a method for spatially resolved, electronic detection of the electromagnetic radiation emanating from an object or a scene in a spectral range that can include ultraviolet, visible and infrared wavelengths. The invention further relates to a camera attachment for a conventional electronic camera that enables the method to be carried out.

Die Farbfotographie eines beliebigen Objekts (oder einer Szene, diese wird i. F. zur Abkürzung nicht mehr oft erwähnt) ist der Allgemeinheit bekannt als ein probates Mittel, dem Betrachter eine durchaus komplexe Bildinformation zu vermitteln. Jedem Bildpunkt ist neben seiner Lage im Bild - den Bildkoordinaten - auch noch eine Farbinformation zugeordnet, nämlich beispielsweise eine Klassifizierung als Rot, Grün oder Blau (RGB-Farbraum) oder einer Mischung dieser Farben. Der Mensch übersetzt Wellenlängenbereiche des VIS-Spektralbereichs in Farben, doch für eine Maschine, insbesondere für einen Computer, ist das Farbfoto nichts anderes als ein dreidimensionaler Datensatz von Intensitätswerten in Zuordnung zu Bildkoordinaten und Wellenlängen. Die Rechenmaschine erhält diese Intensitätswerte als Messwerte einer elektronischen Kamera, wobei die Kamera auch die 3D-Koordinaten mitliefert.The color photograph of any object (or of a scene, this is not often mentioned anymore for the sake of brevity) is known to the general public as a tried and tested means of conveying quite complex pictorial information to the viewer. In addition to its position in the image - the image coordinates - each pixel is also assigned color information, namely, for example, a classification as red, green or blue (RGB color space) or a mixture of these colors. Humans translate wavelength ranges of the VIS spectral range into colors, but for a machine, especially a computer, the color photograph is nothing more than a three-dimensional data set of intensity values associated with image coordinates and wavelengths. The computing machine receives these intensity values as measured values from an electronic camera, with the camera also supplying the 3D coordinates.

Das „Sehvermögen“ von elektronischen Kameras übertrifft dabei das menschliche Auge in der Breite des erfassbaren Spektrums. Die lichtsensitiven Pixel des Kamerachips reagieren nicht nur auf sichtbares (VIS) Licht, sondern auch auf ultraviolettes (UV) und infrarotes (IR) Licht, und gestatten dadurch kontakt- und zerstörungsfreie Einblicke in physikalische und chemische Eigenschaften eines Objekts.The "sight" of electronic cameras surpasses the human eye in the width of the detectable spectrum. The light-sensitive pixels of the camera chip react not only to visible (VIS) light, but also to ultraviolet (UV) and infrared (IR) light, thereby allowing non-contact and non-destructive insights into an object's physical and chemical properties.

Wenn die Kamera überdies dazu ausgebildet ist, ein Kontinuum von Wellenlängen zu erfassen, dann kann mit ihr ein hyperspektraler (HS-) Kubus eines Objektes ermittelt werden. Ein HS-Kubus ist ein gemessener 3D-Datensatz zu einem Objekt, der genau wie ein Foto von der Perspektive der Kamera auf das Objekt, von - i. d. R. einstellbaren - Kameraparametern und von der Beleuchtung des Objekts abhängig ist. Er ist dabei als zwangsläufig endlich großer Datensatz genau wie ein Foto in seiner Auflösung begrenzt, sowohl bezüglich Bildkoordinaten als auch bezüglich Wellenlängen. Der HS-Kubus ist ein Abbild der realen Lichtemission eines Objekts, welches zur Speicherung und zur Weiterverarbeitung einer Recheneinheit, üblich einem Mikroprozessor, zugeführt werden kann.Furthermore, if the camera is configured to capture a continuum of wavelengths, then it can be used to determine a hyperspectral (HS) cube of an object. An HS cube is a measured 3D dataset about an object, just like a photograph, from the camera's perspective of the object, from - i. i.e. R. adjustable - camera parameters and depends on the lighting of the object. As an inevitably finite data set, it is limited in its resolution, just like a photo, both in terms of image coordinates and wavelengths. The HS cube is an image of the real light emission of an object, which can be fed to a computing unit, usually a microprocessor, for storage and further processing.

Der Begriff HS-Kubus ist in der Literatur gängig und soll hier nicht einschränkend als geometrischer Würfel verstanden werden. Insbesondere können die beiden Bildkoordinaten auch über unterschiedlich lange Längenintervalle laufen. Sogar ein kreisförmiger Bildkoordinatenbereich, der nach der Anschauung zu einem HS-Zylinder führen würde, soll im Kontext dieser Beschreibung als HS-Kubus bezeichnet werden. Überdies können die Grenzen der erfassten Wellenlängen über den Bereich der Bildkoordinaten hinweg auch dann variieren, wenn von einem HS-Kubus die Rede ist.The term HS cube is common in the literature and should not be understood here as a limiting geometric cube. In particular, the two image coordinates can also run over length intervals of different lengths. Even a circular image coordinate area, which would lead to an HS cylinder after viewing, should be referred to as an HS cube in the context of this description. Furthermore, the boundaries of the detected wavelengths can vary across the range of image coordinates even when dealing with an HS cube.

Ein numerisch erfasster HS-Kubus ist Datenbasis und notwendige Voraussetzung für eine Vielzahl interpretierender Anwendungen. Beispielsweise befasst sich die Arbeit von Zhao et al., 2009, „Nondestructive measurement of sugar content of apple using hyperspectral imaging technique“, Maejo International Journal of Science and Technology Vol. 3, pp. 130-142, mit der Untersuchung der Haltbarkeit von Früchten und der Ermittlung ihres Reifegrades. Weitere Arbeiten untersuchen die Pestizidbelastung von Pflanzen, die Entwicklung von Bakterienkulturen in Lebensmitteln oder den Fäulnisprozess in Fleischprodukten. Medizinische Anwendungsmöglichkeiten liegen in der nichtinvasiven Diagnose etwa von Tumorzellen, wie z.B. aus Fei et al., 2017, Label-free reflectance hyperspectral imaging for tumor margin assessment: a pilot study on surgical specimens of cancer patient, J. of Biomedical Optics, 22(8), 086009 (2017) zu entnehmen ist.A numerically recorded HS cube is a database and a necessary prerequisite for a large number of interpretive applications. For example, the work of Zhao et al., 2009, "Nondestructive measurement of sugar content of apple using hyperspectral imaging technique", Maejo International Journal of Science and Technology Vol. 3, pp. 130-142 deals with the study of the shelf life of fruits and determining their degree of ripeness. Further work examines the pesticide load on plants, the development of bacterial cultures in food and the putrefaction process in meat products. Medical applications lie in the non-invasive diagnosis of tumor cells, e.g. from Fei et al., 2017, Label-free reflectance hyperspectral imaging for tumor margin assessment: a pilot study on surgical specimens of cancer patient, J. of Biomedical Optics, 22( 8), 086009 (2017).

Das Erfassen eines HS-Kubus birgt das inhärente Problem, eine Intensitätsfunktion, die für drei unabhängige Koordinatenachsen - hier: Bildkoordinaten x, y und Wellenlänge λ - erklärt ist, mit einem 2D-Detektor - dem Kamerachip - zu messen. Die übliche Lösung besteht darin, eine Mehrzahl von parallel verlaufenden Schnittflächen (gewöhnlich Schnittebenen) durch den 3D-Datensatz zu erfassen und den so tatsächlich erfassten Anteil der 3D-Daten im Nachhinein durch geschätzte oder interpolierte Daten zu ergänzen.Capturing an HS cube harbors the inherent problem of measuring an intensity function, which is explained for three independent coordinate axes - here: image coordinates x, y and wavelength λ - with a 2D detector - the camera chip. The usual solution consists in capturing a plurality of parallel cutting surfaces (usually cutting planes) through the 3D data set and subsequently supplementing the portion of the 3D data actually captured in this way with estimated or interpolated data.

Beispielsweise aus der Druckschrift US 4455087 A geht eine Apparatur hervor, die das von einem Objekt kommenden polychromatische Licht mittels eines verstellbaren Doppel-Gitter-Monochromators so filtert, dass ein monochromatisches Abbild des Objekts erfasst werden kann. Das monochromatische Bild ist dabei eine Schnittebene durch einen HS-Kubus zu einer festen, vorbestimmten Wellenlänge. Durch synchrones Verkippen der Beugungsgitter in der Vorrichtung lässt sich die Wellenlänge auswählen, die zur Kameraerfassung gelangen soll. Im Zuge eines Scans über die Wellenlängen kann eine vorbestimmte Anzahl von Bildern erfasst werden, deren Zusammenschau zur Rekonstruktion eines HS-Kubus geeignet ist.For example from the publication US4455087A is an apparatus that filters the polychromatic light coming from an object using an adjustable double-grating monochromator in such a way that a monochromatic image of the object can be captured. The monochromatic image is a sectional plane through an HS cube at a fixed, predetermined wavelength. The wavelength that is to be captured by the camera can be selected by synchronously tilting the diffraction gratings in the device. In the course of a scan across the wavelengths, a predetermined number of images can be acquired, which when viewed together is suitable for the reconstruction of an HS cube.

Unter anderem aus der Arbeit von Meng et al. „Double-pass grating imaging spectrometer“, CHINESE OPTICS LETTERS, 17(1), 011202(2019), ist ein optischer Aufbau bekannt, der das Erfassen einer diagonal durch einen HS-Kubus verlaufenden Schnittebene in einem Kamerabild erlaubt. Dabei wird eine der beiden Bildkoordinaten mit der Wellenlänge optisch verknüpft, so dass ein Bild eines Objekts erfasst wird, in dem entlang einer der Bildachsen die Wellenlänge variiert. Die Verknüpfung erfolgt bei Meng et al. durch ein transmittierendes Beugungsgitter, dem das von jedem Objektpunkt ausgehende polychromatische Licht kollimiert zugeführt wird. Das Gitter zerlegt das Licht spektral und verteilt es auf ein Kontinuum von Austrittswinkeln entlang seiner Dispersionsrichtung. Hiernach wird das Licht unter einem der Austrittswinkel auf einen Schlitzspiegel fokussiert und zum Gitter kollimiert reflektiert. Auf dem Spiegel trifft dabei jedoch nur der Anteil des Objektlichts ein, für den der Einfallswinkel auf das Gitter und die Wellenlänge gerade jene Beugungsbedingung erfüllen, die zum Lichtaustritt aus dem Gitter in Richtung Spiegel führen. Eben dieses Licht wird beim zweiten Durchgang durch das Gitter wieder auf seine ursprünglichen Eintrittswinkel verteilt und auf die Kamera abgebildet. Wenn die Dispersionsrichtung des Gitters entlang einer Bildkoordinate orientiert ist, so bringt dies eine lineare Wellenlängenverteilung auf eben diese Bildkoordinate mit sich.Among other things, from the work of Meng et al. "Double-pass grating imaging spectrometer", CHINESE OPTICS LETTERS, 17(1), 011202(2019), an optical structure is known that allows the detection of a sectional plane running diagonally through an HS cube in a camera image. One of the two image coordinates is optically linked to the wavelength, so that an image of an object is captured in which the wavelength varies along one of the image axes. The link is made by Meng et al. through a transmitting diffraction grating, to which the collimated polychromatic light emanating from each object point is fed. The grating spectrally disperses the light and distributes it to a continuum of exit angles along its direction of dispersion. The light is then focused at one of the exit angles onto a slit mirror and collimated onto the grating. However, only that part of the object light arrives at the mirror for which the angle of incidence on the grating and the wavelength fulfill exactly those diffraction conditions that lead to the light exiting the grating in the direction of the mirror. It is precisely this light that is redistributed to its original entry angles on the second pass through the grating and imaged on the camera. If the dispersion direction of the grating is oriented along an image coordinate, this entails a linear wavelength distribution on this very image coordinate.

Man erhält direkt einen Diagonalschnitt durch einen HS-Kubus als Bild. Ein solches Bild wird auch als spatio-spektrales Bild oder manchmal intuitiver als Regenbogenfarben-Bild bezeichnet. Meng et al. zeigen Beispielbilder, bei denen Szenen mit entlang einer Bildkoordinate im VIS-Spektrum variierender Wellenlänge - eben in Regenbogenfarben - zu sehen sind.A diagonal section through an HS cube is obtained directly as an image. Such an image is also called a spatio-spectral image, or sometimes more intuitively, a rainbow color image. Meng et al. show sample images in which scenes with wavelengths that vary along an image coordinate in the VIS spectrum - in rainbow colors - can be seen.

Bei Meng et al. ist vorgesehen, einen HS-Kubus dadurch zu bestimmen, dass die Zuordnung von Wellenlänge und Bildkoordinate verändert wird, indem der Spiegel verschwenkt wird, um andere Austrittswinkel hinter dem Gitter zu erfassen. So kann eine Sequenz von spatio-spektralen Bildern erzeugt werden, wobei in jedem Bild jeder Bildpunkt die Emission einer anderen Wellenlänge zeigt. Aus der Zusammenschau der Bildsequenz kann dann ein HS-Kubus rekonstruiert werden.In Meng et al. is intended to determine an HS cube by changing the assignment of wavelength and image coordinates by pivoting the mirror in order to detect other exit angles behind the grating. In this way, a sequence of spatio-spectral images can be generated, with each pixel in each image showing the emission of a different wavelength. An HS cube can then be reconstructed from the synopsis of the image sequence.

Es ist aber anzumerken, dass eine spatio-spektrale Kamera auch eine monochrome Kamera sein kann, bei der die Kamerapixel selbst keine Farben zu unterscheiden vermögen. Monochrome Kameras besitzen in der Regel eine höhere Auflösung als Farbkameras. Die Wellenlängeninformation steht gleichwohl zur Verfügung, da die Abbildungsparameter des Objektivs (bei Meng et al.: Telescope), die Gitterkonstante und der Austrittswinkel, unter dem der Spiegel angeordnet ist, bekannt sind. Überdies kann ein Referenzobjekt, das eine oder mehrere definierte Wellenlängen aussendet, am Objekt angeordnet werden. Im Zuge eines Scans erscheint das Referenzobjekt besonders hell, wenn seine Position im Bild und seine vorbekannte Emission gerade zur spatio-spektralen Codierung des Kamerasystems passen. Anhand eines oder mehrerer solcher bekannten Fixpunkte im HS-Kubus kann man dessen numerische Rekonstruktion auch aus monochrom erfassten Bilddaten bewerkstelligen und die Wellenlängen nachträglich ermitteln.However, it should be noted that a spatio-spectral camera can also be a monochrome camera in which the camera pixels themselves cannot distinguish colors. Monochrome cameras usually have a higher resolution than color cameras. The wavelength information is nevertheless available, since the imaging parameters of the lens (in Meng et al.: Telescope), the grating constant and the exit angle at which the mirror is arranged are known. In addition, a reference object that emits one or more defined wavelengths can be arranged on the object. In the course of a scan, the reference object appears particularly bright if its position in the image and its previously known emission just match the spatio-spectral coding of the camera system. Using one or more such known fixed points in the HS cube, its numerical reconstruction can also be accomplished from monochrome image data and the wavelengths can be subsequently determined.

Die Arbeit von Kim et al., „Smartphone-based multispectral imaging: system development and potential for mobile skin diagnosis“, Biomed. Opt. Express 7, 5294-5307 (2016), weist darauf hin, dass heute großes Interesse an neuen Technologien für die Telemedizin und/oder die Gesundheitsvorsorge zu Hause („healthcare at home“) besteht. Sie schlägt vor, ein herkömmliches Smartphone so umzurüsten, dass es aussagekräftige Bilder von lebender Haut zur Früherkennung von Hauterkrankungen aufnehmen kann. Das Mittel der Wahl ist für die Autoren das Erfassen eines multispektralen Kubus der Haut in einem interessierenden lokalen Bereich, z.B. an einem Akne-Pickel. Sie verwenden dabei zur Beleuchtung die im Smartphone integrierte LED, deren Spektrum vorbekannt ist, und ein Filterrad aufweisend neun engbandige Farbfilter. Das farbgefilterte Licht wird aufgefächert auf die Haut appliziert, wobei reflektierte - nicht in die Haut eindringende - Lichtanteile durch gekreuzte Polarisatoren ausgeblendet werden. Das von der Haut gestreute Licht wird detektiert, wobei je eine Bildaufzeichnung für jeden der Farbfilter erfolgt, indem das Filterrad zwischen den Aufnahmen weitergedreht wird. Aufgrund der begrenzten und diskontinuierlichen Auswahl an erfassbaren Wellenlängen spricht man von einem multispektralen Kubus anstelle eines hyperspektralen, für den die Wellenlängen kontinuierlich über ein Intervall gescannt werden.The work of Kim et al., "Smartphone-based multispectral imaging: system development and potential for mobile skin diagnosis", Biomed. Opt. Express 7, 5294-5307 (2016) points out that there is a lot of interest today in new technologies for telemedicine and/or healthcare at home. She suggests converting a conventional smartphone so that it can take meaningful pictures of living skin for the early detection of skin diseases. The method of choice for the authors is to acquire a multispectral cube of the skin in a local area of interest, e.g. at an acne pimple. They use the LED integrated in the smartphone for lighting, the spectrum of which is already known, and a filter wheel with nine narrow-band color filters. The color-filtered light is applied to the skin in a fanned-out pattern, with reflected light that does not penetrate the skin being blocked out by crossed polarizers. The light scattered by the skin is detected, with one image being recorded for each of the color filters by turning the filter wheel further between the recordings. Due to the limited and discontinuous range of wavelengths that can be detected, one speaks of a multispectral cube instead of a hyperspectral one, for which the wavelengths are continuously scanned over an interval.

Kim et al. haben einen Aufsatz für ein handelsübliches Smartphone konstruiert, mit dem sich das übliche System aus integriertem Kamerachip und integrierter LED des Smartphones zu einem Multispektral-Messsystem aufwerten lässt. Dies ist eine gute Idee, um der multi- oder hyperspektralen Bilderfassung größere Verbreitung und damit neue Anwendungspotenziale zu verschaffen, was derzeit noch durch hohe Anschaffungskosten für kommerzielle Expertensysteme behindert wird.Kim et al. have designed an attachment for a standard smartphone, with which the usual system of integrated camera chip and integrated LED of the smartphone can be upgraded to a multispectral measurement system. This is a good idea to make multi- or hyperspectral image acquisition more widespread and thus new potential applications, which is currently still being hampered by the high acquisition costs for commercial expert systems.

Weiterhin beschreibt Wilcox C. C., Montes M., Yetzbacher M., Edelberg J., Schlupf J., „An ultracompact hyperspectral imaging system for use with an unmanned aerial vehicle with smartphonesensor technology“, Proc. SPIE 10639, Micro- and Nanotechnology Sensors, Systems, and Applications X, 1063919 (8 May 2018); https://doi.org/10.1117/12.2303914 einen kompakten hyperspektralen Bildsensor mit mehreren Fabry-Perot-Etalon-Arrays verwendet. Mit Hilfe dieses Sensors ist es möglich, den Boden Zeile für Zeile in einer Reihe von Pixeln abzutasten, sodass ein hyperspektraler Datenwürfel erzeugt wird und eine Georeferenzierung auf ein digitales Oberflächenmodell des Bodens mit GPS-INS-Parametern für Standort (Breitengrad, Längengrad, Höhe) und Lage (Azimut, Neigung, Drehung) mit 6 Freiheitsgraden erfolgt.Furthermore, Wilcox CC, Montes M., Yetzbacher M., Edelberg J., Schlupf J., "An ultracompact hyperspectral imaging system for use with an unmanned aerial vehicle with smartphone sensor technology", Proc. SPIE 10639, Micro- and Nanotechnology Sensors, Systems, and Applications X, 1063919 (8 May 2018); https://doi.org/10.1117/12.2303914 used a compact hyperspectral image sensor with multiple Fabry-Perot etalon arrays. Using this sensor it is possible to scan the ground line by line in a series of pixels, creating a hyperspectral data cube and georeferencing to a digital surface model of the ground with GPS INS parameters for location (latitude, longitude, altitude) and attitude (azimuth, pitch, roll) is done with 6 degrees of freedom.

US 2017/0264833 A1 beschreibt ein Verfahren zur Erfassung und Konsolidierung von multispektralen Bilddaten für spezifische Regionen unter Verwendung eines oder mehrerer spektraler Verstärkungsmechanismen. Mit Hilfe einer rechnergestützten Abbildungsvorrichtung werden in einem ersten multi- oder hyperspektralen Arbeitsablauf mit Zeitstempeln versehene zweidimensionale Pixelbilder einer spezifischen Region erzeugt. Jedes der Bilder basiert auf Bilddaten, die für ein bestimmtes Frequenzband aus einer Vielzahl von Frequenzbändern erfasst wurden. U.S. 2017/0264833 A1 describes a method for acquiring and consolidating multispectral image data for specific regions using one or more spectral enhancement mechanisms. In a first multispectral or hyperspectral workflow, time-stamped two-dimensional pixel images of a specific region are generated with the aid of a computer-assisted imaging device. Each of the images is based on image data acquired for a specific frequency band from a plurality of frequency bands.

Ferner offenbart US 2021/0093257 A1 ein Verfahren und ein System zur Diagnose eines medizinischen Zustands eines Zielbereichs eines Patienten unter Verwendung eines mobilen Geräts. Es werden ein oder mehrere Magnetfeldbilder sowie hyperspektrale Bilder des Zielgebiets des Patienten erzeugt und für jedes der Bilder eine Position des mobilen Geräts relativ zum Zielbereich des Patienten im Raum erfasst. Basierend auf den gewonnenen Bildern und Daten wird ein 3D-Bild des Zielgebiets erzeugt, das für eine Diagnostik oder Überwachung des Patienten nutzbar ist.lm Übrigen ist aus der US 6 166 373 A ein Brennebenen-Scanner bekannt, der über eine vordere Objektivlinse, ein räumliches Fenster zum selektiven Durchlassen eines Teils eines Bildes und über ein CCD-Array zum Empfang des durchgelassenen Teils des Bildes verfügt. Wesentlich für die beschriebene technische Lösung ist, dass das räumliche Fenster und das CCD-Array für eine gleichzeitige Bewegung relativ zur vorderen Objektivlinse ausgebildet sind und dass das räumliche Fenster innerhalb der Brennebene des vorderen Objektivs angeordnet ist.Further disclosed US 2021/0093257 A1 a method and system for diagnosing a medical condition of a target area of a patient using a mobile device. One or more magnetic field images and hyperspectral images of the patient's target area are generated and a spatial position of the mobile device relative to the patient's target area is recorded for each of the images. Based on the images and data obtained, a 3D image of the target area is generated, which can be used for diagnostics or monitoring of the patient U.S. 6,166,373 A discloses a focal plane scanner having a front objective lens, a spatial window for selectively transmitting a portion of an image, and a CCD array for receiving the transmitted portion of the image. It is essential for the technical solution described that the spatial window and the CCD array are designed for simultaneous movement relative to the front objective lens and that the spatial window is arranged within the focal plane of the front objective.

Die CN 105865624 A offenbart ein Verfahren und eine Vorrichtung zur Spektralextraktion für ein hyperspektrales Sammelsystem, wobei das hyperspektrale Sammelsystem einen Spalt, ein Smartphone, ein Lichtspaltungsmodul und ein Kollimationsmodul umfasst.the CN 105865624A discloses a spectral extraction method and apparatus for a hyperspectral collection system, the hyperspectral collection system including a slit, a smartphone, a light splitting module, and a collimation module.

Aber allen vorgenannten Systemen ist zu eigen, dass sie zur Durchführung eines Wellenlängenscans Veränderungen im optischen Aufbau vor dem Kamerachip vornehmen müssen, typisch das präzise Verdrehen oder Verschwenken wenigstens einer optischen Komponente mittels geeigneter elektrischer Antriebe, z.B. Schrittmotoren. Überdies müssen die Antriebe mit dem Kameraverschluss synchronisiert sein, so dass zu jeder Bilderfassung die Einstellungen der optischen Komponenten wohldefiniert und bekannt sind. Ein handelsübliches Smartphone weist in der Regel keine Schnittstelle zur Ansteuerung solcher Antriebe auf (Kim et al. haben eine gebaut) und stellt auch keine Energieversorgung dafür bereit. Wünschenswert wäre somit ein statischer Kameraaufsatz, der auf bewegte Bauteile, Antriebe und Ansteuerung verzichten kann.However, all of the above systems have the feature that in order to carry out a wavelength scan, they have to make changes to the optical structure in front of the camera chip, typically the precise rotation or pivoting of at least one optical component using suitable electrical drives, e.g. stepper motors. In addition, the drives must be synchronized with the camera shutter so that the settings of the optical components are well-defined and known for each image capture. A standard smartphone usually does not have an interface for controlling such drives (Kim et al. built one) and also does not provide a power supply for it. A static camera attachment that can do without moving components, drives and controls would therefore be desirable.

Der Artikel von Sima et al., COMPACT HYPERSPECTRAL IMAGING SYSTEM (COSI) FOR SMALL REMOTELY PILOTED AIRCRAFT SYSTEMS (RPAS) - SYSTEM OVERVIEW AND FIRST PERFORMANCE EVALUATION RESULTS, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XLI-B1, 2016, XXIII ISPRS Congress, 12-19 July 2016, Prague, stellt ein Kamerasystem vor, das einen Kamerachip mit einem linear veränderlichen Interferenzfilter fixiert auf den Kamerapixeln aufweist. Auf diese Weise erfassen die Pixel spaltenweise unterschiedliche Wellenlängen, d.h. auch hier entstehen Regenbogenfarben-Bilder. Die Kamera ist an einer Flugdrohne nach unten blickend montiert und erfasst während des Fluges eine Bildsequenz mit 72 Wellenlängenbändern des Lichts im Intervall 600 - 900 nm für jeden überflogenen Objektpunkt. Der Wellenlängenscan erfolgt somit durch Kamerabewegung entlang des Objekts oder der Szene, wobei Korrespondenzen zwischen den Bildern der Sequenz ermittelt und genutzt werden, um die spektralen Intensitäten jeweils Orten in den Bildern zuzuordnen. Solche Korrespondenzen können an Landmarken in den Bildern, z.B. prominente Kantenverläufe („features“), oder an Flächenähnlichkeiten, z.B. zweidimensionaler Kreuzkorrelation zwischen Bildern, festgemacht werden.The article by Sima et al., COMPACT HYPERSPECTRAL IMAGING SYSTEM (COSI) FOR SMALL REMOTELY PILOTED AIRCRAFT SYSTEMS (RPAS) - SYSTEM OVERVIEW AND FIRST PERFORMANCE EVALUATION RESULTS, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XLI- B1, 2016, XXIII ISPRS Congress, 12-19 July 2016, Prague, presents a camera system that has a camera chip with a linearly variable interference filter fixed on the camera pixels. In this way, the pixels capture different wavelengths in columns, i.e. here, too, rainbow-colored images are created. The camera is mounted on a flying drone looking down and captures an image sequence with 72 wavelength bands of light in the interval 600 - 900 nm for each object point flown over during the flight. The wavelength scan is thus carried out by moving the camera along the object or the scene, with correspondences between the images in the sequence being determined and used in order to allocate the spectral intensities to locations in the images. Such correspondences can be determined by landmarks in the images, e.g. prominent edges (“features”), or by area similarities, e.g. two-dimensional cross-correlation between images.

Bei den Landmarken-basierten Algorithmen werden die Intensitätskanten in den jeweiligen Spektralbereichen zum Auffinden der Ortskoordinaten der jeweiligen Landmarke genutzt. Die Bildkoordinaten derselben Landmarken in zwei verschiedenen Bildern werden einander zugeordnet und hieraus Verschiebungstransformationen berechnet. Dies ist im einfachsten Fall ein einfacher Vektor zuzüglich Rotation und ggf. Skalierung, kann aber auch ein Vektorfeld mit den Verschiebungsvektoren der Verzeichnung zwischen den beiden betrachteten Bildern sein. Algorithmen, die die Kreuzkorrelation nutzen, verwerten ebenfalls Intensitätsvariationen über die Bildfläche, ohne Landmarken einzeln zu berücksichtigen. Man gewinnt damit ebenfalls Information über die Verschiebung, Rotation und ggf. Skalierung, zusammengefasst hier bezeichnet als Verschiebungstransformationen zwischen Bildpaaren.In the case of the landmark-based algorithms, the intensity edges in the respective spectral ranges are used to find the location coordinates of the respective landmark. The image coordinates of the same landmarks in two different images are assigned to one another and displacement transformations are calculated therefrom. In the simplest case, this is a simple vector plus rotation and, if necessary, scaling, but it can also be a vector field with the displacement vectors of the distortion between the two images under consideration. Algorithms that use cross-correlation also exploit intensity variations across the image area without considering landmarks individually. Information about the displacement, rotation and, if applicable, scaling is thus also obtained, collectively referred to here as Displacement transformations between pairs of images.

Dabei wird für beide grundsätzlich verschiedenen Auswertemöglichkeiten davon ausgegangen, dass spektral benachbarte Bildinformationen ähnliche Intensitätsvariationen wie beispielsweise Kanten haben und die beiden betrachteten Bilder eine nicht zu große wechselseitige Verschiebung aufweisen. Sollte die Bildszenerie zu wenig Intensitätsvariationen enthalten bzw. diese im Ortfrequenzspektrum ungünstig verteilt und zu kontrastarm sein, kann durch Beilegen eines zusätzlichen kontrastreichen Referenzobjekts beispielsweise mit starkem Schwarz-Weiß-Kontrast in allen Spektralbändern und nicht wiederholendem Muster für beide Auswertemöglichkeiten ausreichend Information in der Bildfläche zur Verfügung gestellt werden.For the two fundamentally different evaluation options, it is assumed that spectrally adjacent image information has similar intensity variations such as edges, for example, and that the two images under consideration do not have too great a mutual shift. If the image scenery contains too few intensity variations or if these are unfavorably distributed in the spatial frequency spectrum and have too little contrast, adding an additional high-contrast reference object, for example with strong black-and-white contrast in all spectral bands and non-repeating pattern for both evaluation options, can provide sufficient information in the image area for Will be provided.

Wenngleich die Kamera von Sima et al. mit dem linear veränderlichen Filter auf den Kamerapixeln ein kompaktes und zweckmäßiges Design zur Erfassung spatio-spektraler Bilder darstellt, hat sie doch Nachteile. Zum einen ist sie eine Sonderkonstruktion, die sich nicht mit wenigen Handgriffen - z.B. durch einen Kameraaufsatz - aus einer herkömmlichen Kamera schaffen lässt, sondern eine sorgfältige Beschichtung des Kamerachips verlangt. Die Umrüstung lässt sich auch nicht ohne Weiteres rückgängig machen, d.h. normale Bilder kann sie nicht mehr aufnehmen. Überdies sind die Wellenlängen, die jeder einzelne Pixel detektieren kann, auf je ein vorbestimmtes, schmales Intervall endgültig fixiert.Although the Sima et al. with the linearly variable filter on the camera pixels, is a compact and convenient design for capturing spatio-spectral images, but it has disadvantages. On the one hand, it is a special construction that cannot be created from a conventional camera in a few simple steps - e.g. with a camera attachment - but requires a careful coating of the camera chip. The conversion cannot be easily reversed either, i.e. it can no longer take normal pictures. In addition, the wavelengths that each individual pixel can detect are each finally fixed to a predetermined, narrow interval.

Die Erfindung stellt sich die Aufgabe, ein Verfahren zur Erfassung eines hyperspektralen Kubus eines Objekts zu formulieren, das die Verwendung einer handelsüblichen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz vorsieht.The object of the invention is to formulate a method for capturing a hyperspectral cube of an object that provides for the use of a commercially available electronic camera with a static, spatio-spectral camera attachment.

Die Aufgabe wird gelöst durch ein Verfahren zur Ermittlung eines hyperspektralen Kubus eines Objekts oder einer Szene mit den Schritten:

  1. a. Bereitstellen einer mobilen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz und wenigstens einem starr mit der Kamera verbundenen Inertialsensor;
  2. b. Bewegen der mobilen Kamera entlang einer Trajektorie und/oder Verdrehen der Kamera um wenigstens eine Kameraachse, derart dass das Objekt oder die Szene wenigstens teilweise im Sichtfeld der Kamera verbleibt, wobei
  3. c. während des Bewegens und/oder Verdrehens fortlaufend spatio-spektrale Bilder und Inertialsensormesswerte von der Kamera zeitlich indiziert erfasst werden;
  4. d. Ermitteln von Verschiebungstransformationen aus Paaren von zeitlich indizierten Bildern unter Verwenden der für jedes Paar von Bildern aus den zeitlich indizierten Inertialsensormesswerten ermittelten relativen Bewegung und Verdrehung der Kamera;
  5. e. Rekonstruieren des HS-Kubus durch Belegen eines dreidimensionalen Datenarrays mit gemessenen Intensitätswerten aus den spatio-spektralen Bildern unter Verwenden der ermittelten Verschiebungstransformationen.
The object is solved by a method for determining a hyperspectral cube of an object or a scene with the steps:
  1. a. Providing a mobile electronic camera with a static, spatio-spectral camera attachment and at least one inertial sensor rigidly connected to the camera;
  2. b. Moving the mobile camera along a trajectory and/or rotating the camera about at least one camera axis such that the object or the scene remains at least partially in the camera's field of view, wherein
  3. c. continuously time-indexed spatio-spectral images and inertial sensor readings are captured by the camera while moving and/or twisting;
  4. i.e. determining displacement transformations from pairs of time-indexed images using the relative motion and rotation of the camera determined for each pair of images from the time-indexed inertial sensor readings;
  5. e. Reconstructing the HS cube by populating a three-dimensional data array with measured intensity values from the spatio-spectral images using the determined shift transformations.

Ein Nebenanspruch ist auf die Ausgestaltung eines statischen, spatio-spektralen Objektivs gerichtet. Die Unteransprüche geben vorteilhafte Ausgestaltungen des Verfahrens und der Vorrichtung an.A secondary claim is directed to the design of a static, spatio-spectral lens. The subclaims specify advantageous configurations of the method and the device.

Als Inertialsensor wird hier eine Einrichtung bezeichnet, die eine Änderungen der Position und/oder Orientierung zeitlich Schritt haltend erfasst und quantitativ als elektronisches Signal ausgibt. Beispielsweise sind Beschleunigungssensoren und Gyrosensoren solche Inertialsensoren.An inertial sensor is used here to refer to a device that keeps track of changes in position and/or orientation over time and outputs them quantitatively as an electronic signal. For example, acceleration sensors and gyro sensors are such inertial sensors.

Das erfindungsgemäße Verfahren ist mit einem handelsüblichen Smartphone besonders vorteilhaft ausführbar. Ein gängiges Smartphone weist eine elektronische Kamera, ein Display für erfasste Bilder und Videosequenzen (Bildrate ≥ 25 Hz), einen integrierten Inertialsensor zur Erfassung von Translations- und Rotationsbewegungen, einen elektronischen Datenspeicher und eine üblich leistungsfähige Recheneinheit als Mikroprozessor auf, die alle baulich kompakt zu einer Geräteeinheit zusammengefasst sind. Die Recheneinheit ist programmierbar, und die erfindungsgemäßen Verfahrensschritte c. bis e. lassen sich automatisch durch ein Programm - eine App - ausführen.The method according to the invention can be carried out particularly advantageously with a commercially available smartphone. A common smartphone has an electronic camera, a display for captured images and video sequences (frame rate ≥ 25 Hz), an integrated inertial sensor for capturing translational and rotational movements, an electronic data memory and a usually powerful computing unit as a microprocessor, all of which are structurally compact are combined in one device unit. The arithmetic unit is programmable, and the method steps according to the invention c. to e. can be executed automatically by a program - an app.

Ein erster wesentlicher Erfindungsaspekt ist die Verwendung eines statischen, spatio-spektralen Kameraufsatzes, der weiter unten näher beschrieben wird. Dieser ermöglicht es überhaupt erst, die kompakte Smartphone-Technologie ohne Umbauaufwand und jederzeit reversibel zu nutzen, um auch hyperspektrale Bilderfassung durchzuführen.A first essential aspect of the invention is the use of a static, spatio-spectral camera attachment, which is described in more detail below. This makes it possible in the first place to use the compact smartphone technology without any conversion effort and reversibly at any time in order to also carry out hyperspectral image acquisition.

Ein zweiter wesentlicher Erfindungsaspekt besteht darin, dass in Verfahrensschritt b. keine Trajektorie oder Verdrehung vorbestimmt werden muss. Zwar kann das Verfahren auch bei exakt bekannten Bewegungen der Kamera - z.B. durch einen Roboterarm - verwendet werden, aber Smartphones werden zumeist in der Hand gehalten und vom Nutzer händisch geführt. Die Kenntnis der während der Bilderfassung durchgeführten Kamerabewegung aus den Inertialsensormesswerten vereinfacht die Zuordnung von zeitlich nacheinander erfassten Bildinformationen desselben Objekts ganz erheblich. Dies ist bereits aus der Computer Vision und Augmented Reality bekannt, vgl. z.B. DE 10 2005 045 973 A1 , und wird hier erstmals auf hyperspektrale Bilderfassung angewandt.A second essential aspect of the invention is that in method step b. no trajectory or rotation has to be predetermined. Although the method can also be used with exactly known movements of the camera - eg by a robot arm - smartphones are usually held in the hand and guided by the user. Knowing the camera movement performed during image acquisition from the inertial sensor measurement values simplifies the assignment of image information of the same object acquired sequentially in time quite considerably. This is already known from computer vision and augmented reality, see eg DE 10 2005 045 973 A1 , and is applied here for the first time to hyperspectral imaging.

Die freie Positionswahl und freie Beweglichkeit der Kamera erfordern, dass ein zu ermittelnder HS-Kubus eines Objekts bei jeder Aufnahme einer Bildsequenz neu definiert wird. Vor Beginn der Bilderfassung wird der HS-Kubus als ein leeres dreidimensionales Datenarray mit zunächst noch undefinierten Koordinatenintervallen in der Recheneinheit initialisiert.The free choice of position and free mobility of the camera require that an HS cube of an object to be determined is redefined each time an image sequence is recorded. Before the start of image acquisition, the HS cube is initialized in the computing unit as an empty three-dimensional data array with initially undefined coordinate intervals.

In einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens werden sodann die Koordinatenintervalle durch das erste Bild der fortlaufend erfassten Sequenz von spatio-spektralen Bildern des Objekts oder der Szene bestimmt, d.h. das erste erfasste spatio-spektrale Bild wird als Diagonalfläche des HS-Kubus angesehen und legt dadurch die Eckpunkte des HS-Kubus fest, namentlich die Koordinatenintervalle für Bildkoordinaten und Wellenlängen, in denen das Datenarray mit Intensitätswerten belegt werden soll. Die Bildkoordinaten des ersten Bildes werden dadurch zu Quasi-Objektkoordinaten uminterpretiert, zu denen alle später erfassten Bilder der Sequenz mit ihren jeweiligen Bildkoordinaten in Bezug zu bringen sind. Durch das Bewegen und Verdrehen der Kamera während der Bilderfassung lassen sich fortwährend neue Wellenlängeninformationen über jeden Objektpunkt erfassen, der sich innerhalb des anfangs gesetzten Rahmens der Quasi-Objektkoordinaten befindet. Objektpunkte außerhalb dieses Rahmens sind dann nicht Gegenstand der HS-Kubus-Bestimmung und müssen auch nicht bearbeitet werden. Insofern ist es von Bedeutung, dass während der Bilderfassung das Objekt oder die Szene - jetzt konkret ausgewählt durch das erste Bild der Sequenz und beschrieben durch das zweidimensionale Intervall der Quasi-Objektkoordinaten - wenigstens teilweise im Sichtfeld der Kamera verbleibt. Falls Bilder erfasst werden, die diese Bedingung nicht erfüllen, dann können diese aber schadlos aus der Bildsequenz herausgenommen werden. Die Messdaten des Inertialsensors können auch dazu benutzt werden, solche Bilder auszusortieren, die das im ersten Bild der Sequenz erfasste Objekt schon aufgrund der Kameraposition und/oder Blickrichtung gar nicht mehr zeigen können.In a preferred embodiment of the method according to the invention, the coordinate intervals are then determined by the first image of the continuously acquired sequence of spatio-spectral images of the object or the scene, i.e. the first acquired spatio-spectral image is viewed as the diagonal surface of the HS cube and is thereby defined the corner points of the HS cube, namely the coordinate intervals for image coordinates and wavelengths in which the data array is to be assigned intensity values. The image coordinates of the first image are thereby reinterpreted as quasi-object coordinates, to which all images of the sequence recorded later are to be related with their respective image coordinates. By moving and rotating the camera during image acquisition, new wavelength information can be continuously acquired for each object point that is located within the initially set framework of quasi-object coordinates. Object points outside of this frame are then not part of the HS cube determination and do not have to be processed. In this respect it is important that during image acquisition the object or scene - now specifically selected by the first image of the sequence and described by the two-dimensional interval of quasi-object coordinates - remains at least partially in the camera's field of view. If images are captured that do not meet this condition, they can be removed from the image sequence without harm. The measurement data of the inertial sensor can also be used to sort out those images that can no longer show the object captured in the first image of the sequence due to the camera position and/or viewing direction.

Es kann von Vorteil sein, wenn das Objekt oder die Szene mit Licht mit einer vorbekannten Spektralverteilung beleuchtet wird. Insbesondere Smartphones verfügen in der Regel über eine eingebaute LED, die beispielsweise in einem abgedunkelten Raum als Hauptlichtquelle dienen kann. Wie bereits erwähnt kann es auch vorkommen, dass Objekte oder Szenen einen zu schwachen Kontrast oder anderweitig ungünstige Response auf die Beleuchtung zeigen. Dann kann vorzugsweise dadurch Abhilfe geschaffen werden, dass am Objekt oder in der Szene wenigstens ein vorbekannter Referenzmarker angeordnet wird, der bei Beleuchtung mit der vorbestimmten Spektralverteilung eine vorbekannte spektrale Antwort aussendet.It can be advantageous if the object or scene is illuminated with light having a previously known spectral distribution. Smartphones in particular usually have a built-in LED that can serve as the main light source in a darkened room, for example. As already mentioned, it can also happen that objects or scenes show a too weak contrast or otherwise unfavorable response to the lighting. A remedy can then preferably be created by arranging at least one previously known reference marker on the object or in the scene, which emits a previously known spectral response when illuminated with the predetermined spectral distribution.

Algorithmen zum Matching von Bildkoordinaten aus Bildern eines aus verschiedenen Perspektiven aufgenommenen Objekts anhand von Bildstrukturen sind an sich bekannt. Mittels bestimmbarer Verschiebungstransformationen lassen sich die Intensitätswerte jedes erfassten Bildes von den Bildkoordinaten auf Objektkoordinaten - hier die Quasi-Objektkoordinaten - zuweisen. Dabei ist bei der spatio-spektralen Kamera auch die erfasste Wellenlänge durch die Bildkoordinaten festgelegt, so dass hier eine Übertragung der Intensitätswerte in das leer initialisierte dreidimensionale Datenarray erfolgen kann.Algorithms for matching image coordinates from images of an object recorded from different perspectives using image structures are known per se. The intensity values of each recorded image can be assigned from the image coordinates to object coordinates—here the quasi-object coordinates—by means of determinable displacement transformations. In the case of the spatio-spectral camera, the recorded wavelength is also defined by the image coordinates, so that the intensity values can be transferred to the empty, initialized three-dimensional data array.

Es kann dabei vorteilhaft sein, wenn das Datenarray, das in der praktischen Programmierung endlich groß ist und eine natürliche Zahl von Dateneinträgen umfasst, mit Werten von -1 initialisiert wird, um den Intensitätswert 0 als eine valide Zuweisung zu identifizieren. Dadurch sind Einträge mit Wert-1 als Datenlücken im zu belegenden Datenarray zu erkennen. Besonders interessant kann dies werden, wenn vorzugsweise die Rekonstruktion des hyperspektralen Kubus zeitlich Schritt haltend mit der Erfassung der spatio-spektralen Bilder und der Inertialsensormesswerte erfolgt. Die Rekonstruktion in Echtzeit setzt die unabhängige Verfügbarkeit von Information über die Bewegung der Kamera während der Bilderfassung voraus und liegt somit im Rahmen der Möglichkeiten des erfindungsgemäßen Verfahrens. Zugleich gestattet die Echtzeit-Rekonstruktion das Erzeugen eines Feedbacks an den Nutzer darüber, wie vollständig er den gesuchten HS-Kubus bestimmt hat. Vorzugsweise können durch die Recheneinheit sogar aus vorhandenen Datenlücken im dreidimensionalen Datenarray Anweisungen zum Bewegen und/oder Verkippen der Kamera errechnet werden, deren Ausführung spatio-spektrale Bilder erfasst, aus denen die Datenlücken befüllt werden. Diese Anweisungen können dem Nutzer beispielsweise als Pfeile auf dem Display des Smartphones angezeigt werden. Er hat dann die Gelegenheit, seine Messung des HS-Kubus unmittelbar durch entsprechendes Bewegen der Kamera zu vervollständigen.It can be advantageous if the data array, which is finite in size in practical programming and includes a natural number of data entries, is initialized with values of -1 in order to identify the intensity value 0 as a valid assignment. This means that entries with a value of 1 can be recognized as data gaps in the data array to be occupied. This can be of particular interest if the reconstruction of the hyperspectral cube preferably takes place in step with the acquisition of the spatio-spectral images and the inertial sensor measurement values. The real-time reconstruction requires the independent availability of information about the movement of the camera during image acquisition and is therefore within the scope of the possibilities of the method according to the invention. At the same time, the real-time reconstruction allows the generation of feedback to the user on how completely he has determined the searched HS cube. Preferably, instructions for moving and/or tilting the camera can even be calculated from existing data gaps in the three-dimensional data array by the computing unit, the execution of which captures spatio-spectral images from which the data gaps are filled. These instructions can be shown to the user as arrows on the smartphone display, for example. He then has the opportunity to immediately complete his measurement of the HS cube by moving the camera accordingly.

Um das erfindungsgemäße Verfahren mit einem Smartphone auszuführen, ist ein statischer, spatio-spektraler Kameraaufsatz erforderlich, der vor dem im Smartphone verbauten Kameraobjektiv anzuordnen ist. Dessen optischer Aufbau wird nachfolgend näher erläutert anhand von Figuren. Dabei zeigt:

  • 1 eine Skizze des optischen Aufbaus mit einer Darstellung der Wellenlängenselektion des von einem Objektpunkt ausgehenden Lichts im zugehörigen Bildpunkt;
  • 2 eine Skizze des optischen Aufbaus mit zwei verschiedenen Wellenlängen ausgehend von zwei Objektpunkten, die gleichzeitig abgebildet werden.
In order to carry out the method according to the invention with a smartphone, a static, spatio-spectral camera attachment is required, which is to be arranged in front of the camera lens installed in the smartphone. Its optical structure is after explained in more detail below with reference to figures. It shows:
  • 1 a sketch of the optical structure with a representation of the wavelength selection of the light emanating from an object point in the associated pixel;
  • 2 a sketch of the optical setup with two different wavelengths starting from two object points that are imaged simultaneously.

Grundsätzlich wird als Kameraaufsatz zur Erfassung spatio-spektraler Bilder vorgeschlagen, diesen als eine starre Anordnung mit wenigstens den folgenden optischen Komponenten entlang des optischen Pfades auszubilden:

  1. a. eine Fokussierlinse und eine Kollimierlinse hintereinander angeordnet, so dass die Linsen eine gemeinsame Brennebene besitzen,
  2. b. eine in der gemeinsamen Brennebene der Linsen angeordnete Schlitzblende mit einem vorbestimmten Schlitzverlauf,
  3. c. ein erstes dispersives optisches Element mit Dispersionsrichtung senkrecht zum Schlitzverlauf angeordnet vor der Fokussierlinse,
  4. d. ein zweites dispersives optisches Element mit Dispersionsrichtung senkrecht zum Schlitzverlauf angeordnet hinter der Kollimierlinse.
In principle, it is proposed as a camera attachment for capturing spatio-spectral images to be designed as a rigid arrangement with at least the following optical components along the optical path:
  1. a. a focusing lens and a collimating lens arranged one behind the other so that the lenses have a common focal plane,
  2. b. a slit diaphragm arranged in the common focal plane of the lenses with a predetermined slit course,
  3. c. a first dispersive optical element with the direction of dispersion perpendicular to the course of the slit arranged in front of the focusing lens,
  4. i.e. a second dispersive optical element with the direction of dispersion perpendicular to the course of the slit is arranged behind the collimating lens.

Dabei ist verstanden, dass das von jedem Objektpunkt ausgehende Licht kollimiert mit einem von der Lage des Objektpunkts abhängigen Einfallswinkel am ersten dispersiven optischen Element eintreffen soll. Dies erfordert in der Regel ein vorgeschaltetes Objektiv.It is understood here that the light emanating from each object point should arrive at the first dispersive optical element collimated with an angle of incidence dependent on the position of the object point. This usually requires an upstream lens.

In den 1 und 2 sind die dispersiven optischen Elemente als Transmissionsgitter T1 und T2 dargestellt. Es wird zur Vereinfachung weiter angenommen, dass die Linsen keine chromatische Aberration aufweisen.In the 1 and 2 the dispersive optical elements are shown as transmission gratings T 1 and T 2 . It is further assumed for the sake of simplicity that the lenses have no chromatic aberration.

In 1 wird das vom Objektpunkt x ausgehende Licht durch das vorgeschaltete Objektiv L1 kollimiert auf das Gitter T1 geführt. Die Strichrichtung des Gitters T1 liegt parallel zum Schlitzverlauf der Schlitzblende S, d.h. das durch Gitter T1 durchtretende Licht wird senkrecht zum Schlitzverlauf spektral zerlegt. Die Fokussierlinse L2 fokussiert alle Wellenlängen in die Brennebene mit der Schlitzblende S, aber nur das rote Licht gelangt auch durch den Schlitz S zur Kollimierlinse L3. Das kollimierte rote Licht wird schließlich beim Durchgang durch das Gitter T2, das wie das Gitter T1 die Dispersionsrichtung senkrecht zum Schlitzverlauf aufweist, erneut durch Beugung abgelenkt und durch das auf unendlich eingestellte Kameraobjektiv L4 auf den Bildpunkt x' gelenkt. Ebendort trifft nur die Wellenlänge λr ein.In 1 the light emanating from the object point x is collimated by the upstream lens L 1 and guided onto the grating T 1 . The line direction of the grating T 1 is parallel to the slit profile of the slit diaphragm S, ie the light passing through the grating T 1 is spectrally broken down perpendicularly to the slit profile. The focusing lens L 2 focuses all wavelengths into the focal plane with the slit S, but only the red light also passes through the slit S to the collimating lens L 3 . The collimated red light is finally deflected again by diffraction when passing through the grating T 2 , which, like the grating T 1 , has the dispersion direction perpendicular to the course of the slit, and directed to the image point x' by the camera lens L 4 , which is set to infinity. Only the wavelength λ r arrives there.

Das Licht von allen Objektpunkten mit Bildkoordinate x kann die Schlitzblende S in gleicher Weise passieren, d.h. die ganze Objektpunktzeile bei x wird auf die Bildpunktzeile bei x' abgebildet. Die Bildstruktur parallel zum Schlitzverlauf bleibt erhalten, nur die Wellenlänge λr für die ganze Bildzeile wird selektiert.The light from all object points with image coordinate x can pass through the slit diaphragm S in the same way, ie the entire object point line at x is imaged onto the image point line at x'. The image structure parallel to the course of the slit is retained, only the wavelength λ r for the entire image line is selected.

In 2 ist der Fall skizziert, dass blaues Licht λb ausgehend vom Objektpunkt x1 im Bildpunkt x1' fokussiert wird, während gleichzeitig rotes Licht λr vom Objektpunkt x2 in den Bildpunkt x2' gelangt. Bezogen auf Bildzeilen wird ein Regenbogenfarben-Bild generiert, bei dem der Bildzeilenindex sowohl die örtliche Lage der Objektpunktzeile als auch die von dort ausgesendete Wellenlänge codiert, eben ein spatio-spektrales Bild.In 2 the case is sketched in which blue light λ b starting from the object point x 1 is focused in the image point x 1 ', while at the same time red light λ r from the object point x 2 enters the image point x 2 '. A rainbow color image is generated in relation to image lines, in which the image line index encodes both the local position of the object point line and the wavelength emitted from there, in other words a spatio-spectral image.

Es ist bekannt, dass rote Wellenlängen durch Transmissionsgitter stärker (durch Beugung) abgelenkt werden als blaue. Anstelle von Gittern kann man auch Prismen als dispersive Elemente verwenden bei denen dies (durch Brechung) gerade umgekehrt ist. Die Gitterkonstanten und Prismenformen bestimmen dabei, wie weit die Wellenlängen dispergiert werden, und somit auch die Breite des im Bild erfassbaren Spektralbereichs bzw. die spektrale Auflösung. Es wird daher als vorteilhaft angesehen, wenn die starre Anordnung der unter a. bis d. genannten Komponenten als modulares System ausgeführt ist, so dass wenigstens die dispersiven optischen Elemente als Module austauschbar ausgebildet sind. Auf diese Weise sind unterschiedlichste Konfigurationen des Kameraaufsatzes mit wenigen Handgriffen möglich, z.B. die Verwendung von Transmissionsgittern mit beliebig verschiedenen Gitterkonstanten oder auch Kombinationen aus Gittern und Prismen. It is known that red wavelengths are deflected (by diffraction) more than blue ones by transmission gratings. Instead of gratings, one can also use prisms as dispersive elements in which this is exactly the opposite (due to refraction). The grating constants and prism shapes determine how far the wavelengths are dispersed and thus also the width of the spectral range that can be captured in the image or the spectral resolution. It is therefore considered advantageous if the rigid arrangement under a. until d. mentioned components is designed as a modular system, so that at least the dispersive optical elements are designed as interchangeable modules. In this way, a wide variety of configurations of the camera attachment are possible with just a few simple steps, e.g. the use of transmission gratings with any number of different grating constants or combinations of gratings and prisms.

Abschließend ist anzumerken, dass der Fachmann sicherlich im Kameraaufsatz gemäß den 1 und 2 die enge Verwandtschaft z.B. zum Doppel-Gitter-Monochromator der US 4455087 A oder auch zu anderen Spektroskopen mit einer zentralen Schlitzblende erkennt. Allein, als ein starrer Aufbau ohne bewegte Teile und die dadurch gegebene Möglichkeit des Wellenlängenscans ist der Kameraaufsatz für sich genommen eher nicht brauchbar zur Erfassung eines HS-Kubus. Er wäre im Prinzip verwendbar an einer Flugdrohne von Sami et al., aber da der erfindungsgemäße Kameraaufsatz nicht beliebig miniaturisiert werden kann, wird dort eine kompaktere Lösung gewählt, die nicht mehr als einfacher Kameraaufsatz darstellbar ist. Und bemerkenswerterweise ist es anscheinend selbst Kim et al. beim Umbau eines Smartphones zur multispektralen Bilderfassung nicht eingefallen, die Beweglichkeit des Smartphones während der Bilderfassung auszunutzen.Finally, it should be noted that the person skilled in the camera attachment according to the 1 and 2 the close relationship, for example, to the double-grating monochromator US4455087A or to other spectroscopes with a central slit diaphragm. Alone, as a rigid structure without moving parts and the possibility of wavelength scanning that this gives, the camera attachment is not really usable for capturing an HS cube. In principle, it could be used on a flying drone by Sami et al., but since the camera attachment according to the invention cannot be miniaturized at will, a more compact solution is chosen there that can no longer be represented as a simple camera attachment. And remarkably, even Kim et al. not occurred to when converting a smartphone for multispectral image acquisition, exploit the mobility of the smartphone during image capture.

Claims (8)

Verfahren zur Ermittlung eines hyperspektralen (HS-)Kubus eines Objekts oder einer Szene mit den Schritten: a. Bereitstellen einer mobilen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz und wenigstens einem starr mit der Kamera verbundenen Inertialsensor; b. Bewegen der mobilen Kamera entlang einer Trajektorie und/oder Verdrehen der Kamera um wenigstens eine Kameraachse, derart dass das Objekt oder die Szene wenigstens teilweise im Sichtfeld der Kamera verbleibt, wobei c. während des Bewegens und/oder Verdrehens fortlaufend spatio-spektrale Bilder und Inertialsensormesswerte von der Kamera zeitlich indiziert erfasst werden; d. Ermitteln von Verschiebungstransformationen aus Paaren von zeitlich indizierten Bildern unter Verwenden der für jedes Paar von Bildern aus den zeitlich indizierten Inertialsensormesswerten ermittelten relativen Bewegung und Verdrehung der Kamera; e. Rekonstruieren des HS-Kubus durch Belegen eines dreidimensionalen Datenarrays mit gemessenen Intensitätswerten aus den spatio-spektralen Bildern unter Verwenden der ermittelten Verschiebungstransformationen.A method of determining a hyperspectral (HS) cube of an object or scene, comprising the steps of: a. Providing a mobile electronic camera with a static, spatio-spectral camera attachment and at least one inertial sensor rigidly connected to the camera; b. Moving the mobile camera along a trajectory and/or rotating the camera about at least one camera axis such that the object or the scene remains at least partially in the camera's field of view, wherein c. continuously time-indexed spatio-spectral images and inertial sensor readings are captured by the camera while moving and/or twisting; i.e. determining displacement transformations from pairs of time-indexed images using the relative motion and rotation of the camera determined for each pair of images from the time-indexed inertial sensor readings; e. Reconstructing the HS cube by populating a three-dimensional data array with measured intensity values from the spatio-spectral images using the determined shift transformations. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass durch das erste Bild der fortlaufend erfassten Sequenz von spatio-spektralen Bildern des Objekts oder der Szene die Koordinatenintervalle des dreidimensionalen Datenarrays vorbestimmt werden.procedure after claim 1 , characterized in that the coordinate intervals of the three-dimensional data array are predetermined by the first image of the continuously recorded sequence of spatio-spectral images of the object or the scene. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass das Objekt oder die Szene mit Licht mit einer vorbekannten Spektralverteilung beleuchtet wird.Method according to one of the preceding claims, characterized in that the object or the scene is illuminated with light having a previously known spectral distribution. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass am Objekt oder in der Szene wenigstens ein vorbekannter Referenzmarker angeordnet wird, der bei Beleuchtung mit der vorbestimmten Spektralverteilung eine vorbekannte spektrale Antwort aussendet.procedure after claim 3 , characterized in that at least one known reference marker is arranged on the object or in the scene, which emits a known spectral response when illuminated with the predetermined spectral distribution. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Rekonstruktion des hyperspektralen Kubus zeitlich Schritt haltend mit der Erfassung der spatio-spektralen Bilder und der Inertialsensormesswerte erfolgt.Method according to one of the preceding claims, characterized in that the reconstruction of the hyperspectral cube takes place in step with the acquisition of the spatio-spectral images and the inertial sensor measurement values. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass aus vorhandenen Datenlücken im dreidimensionalen Datenarray Anweisungen zum Bewegen und/oder Verkippen der Kamera errechnet werden, deren Ausführung spatio-spektrale Bilder erfasst, aus denen die Datenlücken befüllt werden.procedure after claim 5 , characterized in that instructions for moving and/or tilting the camera are calculated from existing data gaps in the three-dimensional data array, the execution of which captures spatio-spectral images from which the data gaps are filled. Kameraaufsatz zur Erfassung spatio-spektraler Bilder ausgebildet als eine starre Anordnung aufweisend a. eine Fokussierlinse und eine Kollimierlinse hintereinander angeordnet, so dass die Linsen eine gemeinsame Brennebene besitzen, b. eine in der gemeinsamen Brennebene der Linsen angeordnete Schlitzblende mit einem vorbestimmten Schlitzverlauf, c. ein erstes dispersives optisches Element mit Dispersionsrichtung senkrecht zum Schlitzverlauf angeordnet vor der Fokussierlinse, d. ein zweites dispersives optisches Element mit Dispersionsrichtung senkrecht zum Schlitzverlauf angeordnet hinter der Kollimierlinse.Camera attachment for capturing spatio-spectral images designed as having a rigid arrangement a. a focusing lens and a collimating lens arranged one behind the other so that the lenses have a common focal plane, b. a slit diaphragm arranged in the common focal plane of the lenses with a predetermined slit course, c. a first dispersive optical element with the direction of dispersion perpendicular to the course of the slit arranged in front of the focusing lens, i.e. a second dispersive optical element with the direction of dispersion perpendicular to the course of the slit is arranged behind the collimating lens. Kameraaufsatz nach Anspruch 7, dadurch gekennzeichnet, dass wenigstens die dispersiven optischen Elemente als Module austauschbar ausgebildet sind.Camera attachment after claim 7 , characterized in that at least the dispersive optical elements are designed as interchangeable modules.
DE102020127964.7A 2020-10-23 2020-10-23 Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene Active DE102020127964B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020127964.7A DE102020127964B4 (en) 2020-10-23 2020-10-23 Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020127964.7A DE102020127964B4 (en) 2020-10-23 2020-10-23 Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene

Publications (2)

Publication Number Publication Date
DE102020127964A1 DE102020127964A1 (en) 2022-04-28
DE102020127964B4 true DE102020127964B4 (en) 2022-10-27

Family

ID=81077170

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020127964.7A Active DE102020127964B4 (en) 2020-10-23 2020-10-23 Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene

Country Status (1)

Country Link
DE (1) DE102020127964B4 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4455087A (en) 1981-04-06 1984-06-19 Hamamatsu Systems Inc. Monochromatic imaging apparatus
US6166373A (en) 1998-07-21 2000-12-26 The Institute For Technology Development Focal plane scanner with reciprocating spatial window
DE102005045973A1 (en) 2005-09-26 2007-04-05 Siemens Ag Device for camera-based tracking has processing arrangement for determining movement information for evaluating images, whereby information characterizes object position change within time interval
WO2007128832A1 (en) 2006-05-10 2007-11-15 Abb Schweiz Ag Bulk material analyzer system
CN105865624A (en) 2016-03-22 2016-08-17 清华大学 Spectrum extraction method and device for hyperspectral collection system
US20170264833A1 (en) 2016-03-09 2017-09-14 Galileo Group Inc. Spectral Enhancements to Mobile Devices
EP3760992A1 (en) 2020-03-31 2021-01-06 Universität Stuttgart Method and fourier transform spectrometer with dual beam interferometer for single-shot-imaging fourier spectroscopy
US20210093257A1 (en) 2019-09-30 2021-04-01 International Business Machines Corporation Personalized Monitoring of Injury Rehabilitation Through Mobile Device Imaging

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4455087A (en) 1981-04-06 1984-06-19 Hamamatsu Systems Inc. Monochromatic imaging apparatus
US6166373A (en) 1998-07-21 2000-12-26 The Institute For Technology Development Focal plane scanner with reciprocating spatial window
DE102005045973A1 (en) 2005-09-26 2007-04-05 Siemens Ag Device for camera-based tracking has processing arrangement for determining movement information for evaluating images, whereby information characterizes object position change within time interval
WO2007128832A1 (en) 2006-05-10 2007-11-15 Abb Schweiz Ag Bulk material analyzer system
US20170264833A1 (en) 2016-03-09 2017-09-14 Galileo Group Inc. Spectral Enhancements to Mobile Devices
CN105865624A (en) 2016-03-22 2016-08-17 清华大学 Spectrum extraction method and device for hyperspectral collection system
US20210093257A1 (en) 2019-09-30 2021-04-01 International Business Machines Corporation Personalized Monitoring of Injury Rehabilitation Through Mobile Device Imaging
EP3760992A1 (en) 2020-03-31 2021-01-06 Universität Stuttgart Method and fourier transform spectrometer with dual beam interferometer for single-shot-imaging fourier spectroscopy

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
FEI, Baowei [u.a.]: Label-free reflectance hyperspectral imaging for tumor margin assessment: a pilot study on surgical specimens of cancer patients. In: Journal of Biomedical Optics (JBO), Vol. 22, 2017, No. 8, Artikelnummer: 086009 (S. 1-7). - ISSN 1083-3668 (P); 1560-2281 (E). DOI: 10.1117/1.JBO.22.8.086009.
KIM, Sewoong [u.a.]: Smartphone-based multispectral imaging: system development and potential for mobile skin diagnosis. In: Biomedical Optics Express (BOEx), Vol. 7, 2016, No. 12, S. 5294-5307. - ISSN 2156-7085. DOI: 10.1364/BOE.7.005294.
MENG, Xin [u.a.]: Double-pass grating imaging spectrometer. In: Chinese Optics Letters (COL), Vol. 17, 2019, No. 1, Artikelnummer: 011202 (S. 1-4). - ISSN 1671-7694. DOI: 10.1364/COL.17.011202
SIMA, A. A. [u.a.]: Compact hyperspectral imaging system (COSI) for small remotely piloted aircraft systems (RPAS) - System overview and first performance evaluation results. In: The international archives of the photogrammetry, remote sensing and spatial information sciences. XXIII ISPRS Congress, 12-19 July 2016, Prague, Vol. XLI-B1, 2016, S. 1157-1164. - ISSN 1682-1750 (P), ISSN 2194-9034 (E). DOI: 10.5194/isprs-archives-XLI-B1-1157-2016.
Stuart MB, McGonigle AJS, Willmott JR. Hyperspectral Imaging in Environmental Monitoring: A Review of Recent Developments and Technological Advances in Compact Field Deployable Systems. Sensors. 2019; 19(14):3071. https://doi.org/10.3390/s19143071
Wilcox C. C., Montes M., Yetzbacher M., Edelberg J., Schlupf J., "An ultra-compact hyperspectral imaging system for use with an unmanned aerial vehicle with smartphone-sensor technology," Proc. SPIE 10639, Micro- and Nanotechnology Sensors, Systems, and Applications X, 1063919 (8 May 2018); doi: 10.1117/12.2303914
ZHAO, Jiewen [u.a.]: Nondestructive measurement of sugar content of apple using hyperspectral imaging technique. In: Maejo International Journal of Science and Technology, Vol. 3, 2009, No. 1, S. 130-142. - ISSN 1905-7873.

Also Published As

Publication number Publication date
DE102020127964A1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
CN112789495B (en) Hybrid spectral imager
DE202014010558U1 (en) Device for receiving a hyperspectral image
DE60133026T2 (en) ACCURATE ALIGNMENT OF IMAGES IN DIGITAL PICTURE SYSTEMS BY ADJUSTING POINTS IN THE PICTURES
EP2944930A2 (en) Hyperspectral camera with spatial and spectral resolution and method
DE102012112321A1 (en) Device for optically scanning and measuring an environment
DE102012112322A1 (en) Method for optically scanning and measuring an environment
DE212010000184U1 (en) System for scanning a human body
DE202012104890U1 (en) Device for optically scanning and measuring an environment
DE102010037169A1 (en) Unlimited spatially oriented field of view display device
DE3905591A1 (en) DEVICE FOR OBTAINING CONTRAST HIGH IMAGES
DE112012004055T5 (en) Imaging device
DE112016005019B4 (en) Endoscope system
EP2766702A2 (en) Miniaturized optoelectronic system for spectral analysis
DE102019008472B4 (en) Multi-lens camera system and method for hyperspectral imaging
DE102017130772A1 (en) Spectrometer arrangement, method for generating a two-dimensional spectrum by means of such
DE102020127964B4 (en) Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene
EP2907105A2 (en) Image processing method and method for tracking missiles
DE102012020922A1 (en) Laser scanner for panorama image pick-up application, has single-channels provided in optical receiving section, where spectral single sensitivities are adapted selectively to single-spectrums of laser light source
DE102019133515B3 (en) Method and device for parallax determination of recordings of a multi-lens camera system
EP3540507B1 (en) Imaging apparatus and method for taking an image of a document and use thereof
DE102012221580A1 (en) Method for detecting living organism i.e. wild animals, from air in agricultural field, involves determining image light and shadow areas in examining region, and checking image characteristic areas in detected light and shadow areas
DE102017117212A1 (en) System and method for stereotriangulation
DE102021203812B4 (en) Optical measuring device and method for determining a multidimensional surface model
DE102019133516B4 (en) Method and device for determining wavelength deviations from recordings of a multi-lens camera system
DE102023101964A1 (en) Medical imaging device, endoscope device, endoscope and method for manufacturing a medical imaging device

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final