DE102020127964B4 - Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene - Google Patents
Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene Download PDFInfo
- Publication number
- DE102020127964B4 DE102020127964B4 DE102020127964.7A DE102020127964A DE102020127964B4 DE 102020127964 B4 DE102020127964 B4 DE 102020127964B4 DE 102020127964 A DE102020127964 A DE 102020127964A DE 102020127964 B4 DE102020127964 B4 DE 102020127964B4
- Authority
- DE
- Germany
- Prior art keywords
- camera
- spatio
- images
- spectral
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000033001 locomotion Effects 0.000 claims abstract description 9
- 230000009466 transformation Effects 0.000 claims abstract description 9
- 238000000844 transformation Methods 0.000 claims abstract description 9
- 238000006073 displacement reaction Methods 0.000 claims abstract description 8
- 230000003068 static effect Effects 0.000 claims abstract description 8
- 230000003287 optical effect Effects 0.000 claims description 17
- 230000003595 spectral effect Effects 0.000 claims description 15
- 239000006185 dispersion Substances 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 3
- 239000003550 marker Substances 0.000 claims description 2
- 238000000701 chemical imaging Methods 0.000 description 6
- 239000003086 colorant Substances 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 206010028980 Neoplasm Diseases 0.000 description 2
- 206010000496 acne Diseases 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 2
- 238000011144 upstream manufacturing Methods 0.000 description 2
- 208000002874 Acne Vulgaris Diseases 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001580 bacterial effect Effects 0.000 description 1
- BJQHLKABXJIVAM-UHFFFAOYSA-N bis(2-ethylhexyl) phthalate Chemical compound CCCCC(CC)COC(=O)C1=CC=CC=C1C(=O)OCC(CC)CCCC BJQHLKABXJIVAM-UHFFFAOYSA-N 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000013622 meat product Nutrition 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000037368 penetrate the skin Effects 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 208000017520 skin disease Diseases 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
- 210000004881 tumor cell Anatomy 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0272—Handheld
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/12—Generating the spectrum; Monochromators
- G01J3/18—Generating the spectrum; Monochromators using diffraction elements, e.g. grating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/221—Image signal generators using stereoscopic image cameras using a single 2D image sensor using the relative movement between cameras and objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/257—Colour aspects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/296—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
- G01J2003/2826—Multispectral imaging, e.g. filter imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0205—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
- G01J3/0208—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Physics & Mathematics (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Verfahren zur Ermittlung eines hyperspektralen (HS-)Kubus eines Objekts oder einer Szene mit den Schritten:a. Bereitstellen einer mobilen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz und wenigstens einem starr mit der Kamera verbundenen Inertialsensor;b. Bewegen der mobilen Kamera entlang einer Trajektorie und/oder Verdrehen der Kamera um wenigstens eine Kameraachse, derart dass das Objekt oder die Szene wenigstens teilweise im Sichtfeld der Kamera verbleibt, wobeic. während des Bewegens und/oder Verdrehens fortlaufend spatio-spektrale Bilder und Inertialsensormesswerte von der Kamera zeitlich indiziert erfasst werden;d. Ermitteln von Verschiebungstransformationen aus Paaren von zeitlich indizierten Bildern unter Verwenden der für jedes Paar von Bildern aus den zeitlich indizierten Inertialsensormesswerten ermittelten relativen Bewegung und Verdrehung der Kamera;e. Rekonstruieren des HS-Kubus durch Belegen eines dreidimensionalen Datenarrays mit gemessenen Intensitätswerten aus den spatio-spektralen Bildern unter Verwenden der ermittelten Verschiebungstransformationen.A method of determining a hyperspectral (HS) cube of an object or scene, comprising the steps of:a. Providing a mobile electronic camera with a static, spatio-spectral camera attachment and at least one inertial sensor rigidly connected to the camera;b. Moving the mobile camera along a trajectory and/or rotating the camera about at least one camera axis such that the object or the scene remains at least partially in the field of view of the camera, whereinc. continuously time-indexed spatio-spectral images and inertial sensor readings are captured by the camera during movement and/or twisting;d. determining displacement transformations from pairs of time-indexed images using the relative motion and rotation of the camera determined for each pair of images from the time-indexed inertial sensor readings;e. Reconstructing the HS cube by populating a three-dimensional data array with measured intensity values from the spatio-spectral images using the determined shift transformations.
Description
Die Erfindung betrifft ein Verfahren zur ortsaufgelösten, elektronischen Erfassung der von einem Objekt oder einer Szene ausgehenden elektromagnetischen Strahlung in einem Spektralbereich, der ultraviolette, sichtbare und infrarote Wellenlängen umfassen kann. Die Erfindung betrifft weiter einen die Durchführung des Verfahrens ermöglichenden Kameraaufsatz für eine herkömmliche elektronische Kamera.The invention relates to a method for spatially resolved, electronic detection of the electromagnetic radiation emanating from an object or a scene in a spectral range that can include ultraviolet, visible and infrared wavelengths. The invention further relates to a camera attachment for a conventional electronic camera that enables the method to be carried out.
Die Farbfotographie eines beliebigen Objekts (oder einer Szene, diese wird i. F. zur Abkürzung nicht mehr oft erwähnt) ist der Allgemeinheit bekannt als ein probates Mittel, dem Betrachter eine durchaus komplexe Bildinformation zu vermitteln. Jedem Bildpunkt ist neben seiner Lage im Bild - den Bildkoordinaten - auch noch eine Farbinformation zugeordnet, nämlich beispielsweise eine Klassifizierung als Rot, Grün oder Blau (RGB-Farbraum) oder einer Mischung dieser Farben. Der Mensch übersetzt Wellenlängenbereiche des VIS-Spektralbereichs in Farben, doch für eine Maschine, insbesondere für einen Computer, ist das Farbfoto nichts anderes als ein dreidimensionaler Datensatz von Intensitätswerten in Zuordnung zu Bildkoordinaten und Wellenlängen. Die Rechenmaschine erhält diese Intensitätswerte als Messwerte einer elektronischen Kamera, wobei die Kamera auch die 3D-Koordinaten mitliefert.The color photograph of any object (or of a scene, this is not often mentioned anymore for the sake of brevity) is known to the general public as a tried and tested means of conveying quite complex pictorial information to the viewer. In addition to its position in the image - the image coordinates - each pixel is also assigned color information, namely, for example, a classification as red, green or blue (RGB color space) or a mixture of these colors. Humans translate wavelength ranges of the VIS spectral range into colors, but for a machine, especially a computer, the color photograph is nothing more than a three-dimensional data set of intensity values associated with image coordinates and wavelengths. The computing machine receives these intensity values as measured values from an electronic camera, with the camera also supplying the 3D coordinates.
Das „Sehvermögen“ von elektronischen Kameras übertrifft dabei das menschliche Auge in der Breite des erfassbaren Spektrums. Die lichtsensitiven Pixel des Kamerachips reagieren nicht nur auf sichtbares (VIS) Licht, sondern auch auf ultraviolettes (UV) und infrarotes (IR) Licht, und gestatten dadurch kontakt- und zerstörungsfreie Einblicke in physikalische und chemische Eigenschaften eines Objekts.The "sight" of electronic cameras surpasses the human eye in the width of the detectable spectrum. The light-sensitive pixels of the camera chip react not only to visible (VIS) light, but also to ultraviolet (UV) and infrared (IR) light, thereby allowing non-contact and non-destructive insights into an object's physical and chemical properties.
Wenn die Kamera überdies dazu ausgebildet ist, ein Kontinuum von Wellenlängen zu erfassen, dann kann mit ihr ein hyperspektraler (HS-) Kubus eines Objektes ermittelt werden. Ein HS-Kubus ist ein gemessener 3D-Datensatz zu einem Objekt, der genau wie ein Foto von der Perspektive der Kamera auf das Objekt, von - i. d. R. einstellbaren - Kameraparametern und von der Beleuchtung des Objekts abhängig ist. Er ist dabei als zwangsläufig endlich großer Datensatz genau wie ein Foto in seiner Auflösung begrenzt, sowohl bezüglich Bildkoordinaten als auch bezüglich Wellenlängen. Der HS-Kubus ist ein Abbild der realen Lichtemission eines Objekts, welches zur Speicherung und zur Weiterverarbeitung einer Recheneinheit, üblich einem Mikroprozessor, zugeführt werden kann.Furthermore, if the camera is configured to capture a continuum of wavelengths, then it can be used to determine a hyperspectral (HS) cube of an object. An HS cube is a measured 3D dataset about an object, just like a photograph, from the camera's perspective of the object, from - i. i.e. R. adjustable - camera parameters and depends on the lighting of the object. As an inevitably finite data set, it is limited in its resolution, just like a photo, both in terms of image coordinates and wavelengths. The HS cube is an image of the real light emission of an object, which can be fed to a computing unit, usually a microprocessor, for storage and further processing.
Der Begriff HS-Kubus ist in der Literatur gängig und soll hier nicht einschränkend als geometrischer Würfel verstanden werden. Insbesondere können die beiden Bildkoordinaten auch über unterschiedlich lange Längenintervalle laufen. Sogar ein kreisförmiger Bildkoordinatenbereich, der nach der Anschauung zu einem HS-Zylinder führen würde, soll im Kontext dieser Beschreibung als HS-Kubus bezeichnet werden. Überdies können die Grenzen der erfassten Wellenlängen über den Bereich der Bildkoordinaten hinweg auch dann variieren, wenn von einem HS-Kubus die Rede ist.The term HS cube is common in the literature and should not be understood here as a limiting geometric cube. In particular, the two image coordinates can also run over length intervals of different lengths. Even a circular image coordinate area, which would lead to an HS cylinder after viewing, should be referred to as an HS cube in the context of this description. Furthermore, the boundaries of the detected wavelengths can vary across the range of image coordinates even when dealing with an HS cube.
Ein numerisch erfasster HS-Kubus ist Datenbasis und notwendige Voraussetzung für eine Vielzahl interpretierender Anwendungen. Beispielsweise befasst sich die Arbeit von Zhao et al., 2009, „Nondestructive measurement of sugar content of apple using hyperspectral imaging technique“, Maejo International Journal of Science and Technology Vol. 3, pp. 130-142, mit der Untersuchung der Haltbarkeit von Früchten und der Ermittlung ihres Reifegrades. Weitere Arbeiten untersuchen die Pestizidbelastung von Pflanzen, die Entwicklung von Bakterienkulturen in Lebensmitteln oder den Fäulnisprozess in Fleischprodukten. Medizinische Anwendungsmöglichkeiten liegen in der nichtinvasiven Diagnose etwa von Tumorzellen, wie z.B. aus Fei et al., 2017, Label-free reflectance hyperspectral imaging for tumor margin assessment: a pilot study on surgical specimens of cancer patient, J. of Biomedical Optics, 22(8), 086009 (2017) zu entnehmen ist.A numerically recorded HS cube is a database and a necessary prerequisite for a large number of interpretive applications. For example, the work of Zhao et al., 2009, "Nondestructive measurement of sugar content of apple using hyperspectral imaging technique", Maejo International Journal of Science and Technology Vol. 3, pp. 130-142 deals with the study of the shelf life of fruits and determining their degree of ripeness. Further work examines the pesticide load on plants, the development of bacterial cultures in food and the putrefaction process in meat products. Medical applications lie in the non-invasive diagnosis of tumor cells, e.g. from Fei et al., 2017, Label-free reflectance hyperspectral imaging for tumor margin assessment: a pilot study on surgical specimens of cancer patient, J. of Biomedical Optics, 22( 8), 086009 (2017).
Das Erfassen eines HS-Kubus birgt das inhärente Problem, eine Intensitätsfunktion, die für drei unabhängige Koordinatenachsen - hier: Bildkoordinaten x, y und Wellenlänge λ - erklärt ist, mit einem 2D-Detektor - dem Kamerachip - zu messen. Die übliche Lösung besteht darin, eine Mehrzahl von parallel verlaufenden Schnittflächen (gewöhnlich Schnittebenen) durch den 3D-Datensatz zu erfassen und den so tatsächlich erfassten Anteil der 3D-Daten im Nachhinein durch geschätzte oder interpolierte Daten zu ergänzen.Capturing an HS cube harbors the inherent problem of measuring an intensity function, which is explained for three independent coordinate axes - here: image coordinates x, y and wavelength λ - with a 2D detector - the camera chip. The usual solution consists in capturing a plurality of parallel cutting surfaces (usually cutting planes) through the 3D data set and subsequently supplementing the portion of the 3D data actually captured in this way with estimated or interpolated data.
Beispielsweise aus der Druckschrift
Unter anderem aus der Arbeit von Meng et al. „Double-pass grating imaging spectrometer“, CHINESE OPTICS LETTERS, 17(1), 011202(2019), ist ein optischer Aufbau bekannt, der das Erfassen einer diagonal durch einen HS-Kubus verlaufenden Schnittebene in einem Kamerabild erlaubt. Dabei wird eine der beiden Bildkoordinaten mit der Wellenlänge optisch verknüpft, so dass ein Bild eines Objekts erfasst wird, in dem entlang einer der Bildachsen die Wellenlänge variiert. Die Verknüpfung erfolgt bei Meng et al. durch ein transmittierendes Beugungsgitter, dem das von jedem Objektpunkt ausgehende polychromatische Licht kollimiert zugeführt wird. Das Gitter zerlegt das Licht spektral und verteilt es auf ein Kontinuum von Austrittswinkeln entlang seiner Dispersionsrichtung. Hiernach wird das Licht unter einem der Austrittswinkel auf einen Schlitzspiegel fokussiert und zum Gitter kollimiert reflektiert. Auf dem Spiegel trifft dabei jedoch nur der Anteil des Objektlichts ein, für den der Einfallswinkel auf das Gitter und die Wellenlänge gerade jene Beugungsbedingung erfüllen, die zum Lichtaustritt aus dem Gitter in Richtung Spiegel führen. Eben dieses Licht wird beim zweiten Durchgang durch das Gitter wieder auf seine ursprünglichen Eintrittswinkel verteilt und auf die Kamera abgebildet. Wenn die Dispersionsrichtung des Gitters entlang einer Bildkoordinate orientiert ist, so bringt dies eine lineare Wellenlängenverteilung auf eben diese Bildkoordinate mit sich.Among other things, from the work of Meng et al. "Double-pass grating imaging spectrometer", CHINESE OPTICS LETTERS, 17(1), 011202(2019), an optical structure is known that allows the detection of a sectional plane running diagonally through an HS cube in a camera image. One of the two image coordinates is optically linked to the wavelength, so that an image of an object is captured in which the wavelength varies along one of the image axes. The link is made by Meng et al. through a transmitting diffraction grating, to which the collimated polychromatic light emanating from each object point is fed. The grating spectrally disperses the light and distributes it to a continuum of exit angles along its direction of dispersion. The light is then focused at one of the exit angles onto a slit mirror and collimated onto the grating. However, only that part of the object light arrives at the mirror for which the angle of incidence on the grating and the wavelength fulfill exactly those diffraction conditions that lead to the light exiting the grating in the direction of the mirror. It is precisely this light that is redistributed to its original entry angles on the second pass through the grating and imaged on the camera. If the dispersion direction of the grating is oriented along an image coordinate, this entails a linear wavelength distribution on this very image coordinate.
Man erhält direkt einen Diagonalschnitt durch einen HS-Kubus als Bild. Ein solches Bild wird auch als spatio-spektrales Bild oder manchmal intuitiver als Regenbogenfarben-Bild bezeichnet. Meng et al. zeigen Beispielbilder, bei denen Szenen mit entlang einer Bildkoordinate im VIS-Spektrum variierender Wellenlänge - eben in Regenbogenfarben - zu sehen sind.A diagonal section through an HS cube is obtained directly as an image. Such an image is also called a spatio-spectral image, or sometimes more intuitively, a rainbow color image. Meng et al. show sample images in which scenes with wavelengths that vary along an image coordinate in the VIS spectrum - in rainbow colors - can be seen.
Bei Meng et al. ist vorgesehen, einen HS-Kubus dadurch zu bestimmen, dass die Zuordnung von Wellenlänge und Bildkoordinate verändert wird, indem der Spiegel verschwenkt wird, um andere Austrittswinkel hinter dem Gitter zu erfassen. So kann eine Sequenz von spatio-spektralen Bildern erzeugt werden, wobei in jedem Bild jeder Bildpunkt die Emission einer anderen Wellenlänge zeigt. Aus der Zusammenschau der Bildsequenz kann dann ein HS-Kubus rekonstruiert werden.In Meng et al. is intended to determine an HS cube by changing the assignment of wavelength and image coordinates by pivoting the mirror in order to detect other exit angles behind the grating. In this way, a sequence of spatio-spectral images can be generated, with each pixel in each image showing the emission of a different wavelength. An HS cube can then be reconstructed from the synopsis of the image sequence.
Es ist aber anzumerken, dass eine spatio-spektrale Kamera auch eine monochrome Kamera sein kann, bei der die Kamerapixel selbst keine Farben zu unterscheiden vermögen. Monochrome Kameras besitzen in der Regel eine höhere Auflösung als Farbkameras. Die Wellenlängeninformation steht gleichwohl zur Verfügung, da die Abbildungsparameter des Objektivs (bei Meng et al.: Telescope), die Gitterkonstante und der Austrittswinkel, unter dem der Spiegel angeordnet ist, bekannt sind. Überdies kann ein Referenzobjekt, das eine oder mehrere definierte Wellenlängen aussendet, am Objekt angeordnet werden. Im Zuge eines Scans erscheint das Referenzobjekt besonders hell, wenn seine Position im Bild und seine vorbekannte Emission gerade zur spatio-spektralen Codierung des Kamerasystems passen. Anhand eines oder mehrerer solcher bekannten Fixpunkte im HS-Kubus kann man dessen numerische Rekonstruktion auch aus monochrom erfassten Bilddaten bewerkstelligen und die Wellenlängen nachträglich ermitteln.However, it should be noted that a spatio-spectral camera can also be a monochrome camera in which the camera pixels themselves cannot distinguish colors. Monochrome cameras usually have a higher resolution than color cameras. The wavelength information is nevertheless available, since the imaging parameters of the lens (in Meng et al.: Telescope), the grating constant and the exit angle at which the mirror is arranged are known. In addition, a reference object that emits one or more defined wavelengths can be arranged on the object. In the course of a scan, the reference object appears particularly bright if its position in the image and its previously known emission just match the spatio-spectral coding of the camera system. Using one or more such known fixed points in the HS cube, its numerical reconstruction can also be accomplished from monochrome image data and the wavelengths can be subsequently determined.
Die Arbeit von Kim et al., „Smartphone-based multispectral imaging: system development and potential for mobile skin diagnosis“, Biomed. Opt. Express 7, 5294-5307 (2016), weist darauf hin, dass heute großes Interesse an neuen Technologien für die Telemedizin und/oder die Gesundheitsvorsorge zu Hause („healthcare at home“) besteht. Sie schlägt vor, ein herkömmliches Smartphone so umzurüsten, dass es aussagekräftige Bilder von lebender Haut zur Früherkennung von Hauterkrankungen aufnehmen kann. Das Mittel der Wahl ist für die Autoren das Erfassen eines multispektralen Kubus der Haut in einem interessierenden lokalen Bereich, z.B. an einem Akne-Pickel. Sie verwenden dabei zur Beleuchtung die im Smartphone integrierte LED, deren Spektrum vorbekannt ist, und ein Filterrad aufweisend neun engbandige Farbfilter. Das farbgefilterte Licht wird aufgefächert auf die Haut appliziert, wobei reflektierte - nicht in die Haut eindringende - Lichtanteile durch gekreuzte Polarisatoren ausgeblendet werden. Das von der Haut gestreute Licht wird detektiert, wobei je eine Bildaufzeichnung für jeden der Farbfilter erfolgt, indem das Filterrad zwischen den Aufnahmen weitergedreht wird. Aufgrund der begrenzten und diskontinuierlichen Auswahl an erfassbaren Wellenlängen spricht man von einem multispektralen Kubus anstelle eines hyperspektralen, für den die Wellenlängen kontinuierlich über ein Intervall gescannt werden.The work of Kim et al., "Smartphone-based multispectral imaging: system development and potential for mobile skin diagnosis", Biomed. Opt. Express 7, 5294-5307 (2016) points out that there is a lot of interest today in new technologies for telemedicine and/or healthcare at home. She suggests converting a conventional smartphone so that it can take meaningful pictures of living skin for the early detection of skin diseases. The method of choice for the authors is to acquire a multispectral cube of the skin in a local area of interest, e.g. at an acne pimple. They use the LED integrated in the smartphone for lighting, the spectrum of which is already known, and a filter wheel with nine narrow-band color filters. The color-filtered light is applied to the skin in a fanned-out pattern, with reflected light that does not penetrate the skin being blocked out by crossed polarizers. The light scattered by the skin is detected, with one image being recorded for each of the color filters by turning the filter wheel further between the recordings. Due to the limited and discontinuous range of wavelengths that can be detected, one speaks of a multispectral cube instead of a hyperspectral one, for which the wavelengths are continuously scanned over an interval.
Kim et al. haben einen Aufsatz für ein handelsübliches Smartphone konstruiert, mit dem sich das übliche System aus integriertem Kamerachip und integrierter LED des Smartphones zu einem Multispektral-Messsystem aufwerten lässt. Dies ist eine gute Idee, um der multi- oder hyperspektralen Bilderfassung größere Verbreitung und damit neue Anwendungspotenziale zu verschaffen, was derzeit noch durch hohe Anschaffungskosten für kommerzielle Expertensysteme behindert wird.Kim et al. have designed an attachment for a standard smartphone, with which the usual system of integrated camera chip and integrated LED of the smartphone can be upgraded to a multispectral measurement system. This is a good idea to make multi- or hyperspectral image acquisition more widespread and thus new potential applications, which is currently still being hampered by the high acquisition costs for commercial expert systems.
Weiterhin beschreibt Wilcox C. C., Montes M., Yetzbacher M., Edelberg J., Schlupf J., „An ultracompact hyperspectral imaging system for use with an unmanned aerial vehicle with smartphonesensor technology“, Proc. SPIE 10639, Micro- and Nanotechnology Sensors, Systems, and Applications X, 1063919 (8 May 2018); https://doi.org/10.1117/12.2303914 einen kompakten hyperspektralen Bildsensor mit mehreren Fabry-Perot-Etalon-Arrays verwendet. Mit Hilfe dieses Sensors ist es möglich, den Boden Zeile für Zeile in einer Reihe von Pixeln abzutasten, sodass ein hyperspektraler Datenwürfel erzeugt wird und eine Georeferenzierung auf ein digitales Oberflächenmodell des Bodens mit GPS-INS-Parametern für Standort (Breitengrad, Längengrad, Höhe) und Lage (Azimut, Neigung, Drehung) mit 6 Freiheitsgraden erfolgt.Furthermore, Wilcox CC, Montes M., Yetzbacher M., Edelberg J., Schlupf J., "An ultracompact hyperspectral imaging system for use with an unmanned aerial vehicle with smartphone sensor technology", Proc. SPIE 10639, Micro- and Nanotechnology Sensors, Systems, and Applications X, 1063919 (8 May 2018); https://doi.org/10.1117/12.2303914 used a compact hyperspectral image sensor with multiple Fabry-Perot etalon arrays. Using this sensor it is possible to scan the ground line by line in a series of pixels, creating a hyperspectral data cube and georeferencing to a digital surface model of the ground with GPS INS parameters for location (latitude, longitude, altitude) and attitude (azimuth, pitch, roll) is done with 6 degrees of freedom.
Ferner offenbart
Die
Aber allen vorgenannten Systemen ist zu eigen, dass sie zur Durchführung eines Wellenlängenscans Veränderungen im optischen Aufbau vor dem Kamerachip vornehmen müssen, typisch das präzise Verdrehen oder Verschwenken wenigstens einer optischen Komponente mittels geeigneter elektrischer Antriebe, z.B. Schrittmotoren. Überdies müssen die Antriebe mit dem Kameraverschluss synchronisiert sein, so dass zu jeder Bilderfassung die Einstellungen der optischen Komponenten wohldefiniert und bekannt sind. Ein handelsübliches Smartphone weist in der Regel keine Schnittstelle zur Ansteuerung solcher Antriebe auf (Kim et al. haben eine gebaut) und stellt auch keine Energieversorgung dafür bereit. Wünschenswert wäre somit ein statischer Kameraaufsatz, der auf bewegte Bauteile, Antriebe und Ansteuerung verzichten kann.However, all of the above systems have the feature that in order to carry out a wavelength scan, they have to make changes to the optical structure in front of the camera chip, typically the precise rotation or pivoting of at least one optical component using suitable electrical drives, e.g. stepper motors. In addition, the drives must be synchronized with the camera shutter so that the settings of the optical components are well-defined and known for each image capture. A standard smartphone usually does not have an interface for controlling such drives (Kim et al. built one) and also does not provide a power supply for it. A static camera attachment that can do without moving components, drives and controls would therefore be desirable.
Der Artikel von Sima et al., COMPACT HYPERSPECTRAL IMAGING SYSTEM (COSI) FOR SMALL REMOTELY PILOTED AIRCRAFT SYSTEMS (RPAS) - SYSTEM OVERVIEW AND FIRST PERFORMANCE EVALUATION RESULTS, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XLI-B1, 2016, XXIII ISPRS Congress, 12-19 July 2016, Prague, stellt ein Kamerasystem vor, das einen Kamerachip mit einem linear veränderlichen Interferenzfilter fixiert auf den Kamerapixeln aufweist. Auf diese Weise erfassen die Pixel spaltenweise unterschiedliche Wellenlängen, d.h. auch hier entstehen Regenbogenfarben-Bilder. Die Kamera ist an einer Flugdrohne nach unten blickend montiert und erfasst während des Fluges eine Bildsequenz mit 72 Wellenlängenbändern des Lichts im Intervall 600 - 900 nm für jeden überflogenen Objektpunkt. Der Wellenlängenscan erfolgt somit durch Kamerabewegung entlang des Objekts oder der Szene, wobei Korrespondenzen zwischen den Bildern der Sequenz ermittelt und genutzt werden, um die spektralen Intensitäten jeweils Orten in den Bildern zuzuordnen. Solche Korrespondenzen können an Landmarken in den Bildern, z.B. prominente Kantenverläufe („features“), oder an Flächenähnlichkeiten, z.B. zweidimensionaler Kreuzkorrelation zwischen Bildern, festgemacht werden.The article by Sima et al., COMPACT HYPERSPECTRAL IMAGING SYSTEM (COSI) FOR SMALL REMOTELY PILOTED AIRCRAFT SYSTEMS (RPAS) - SYSTEM OVERVIEW AND FIRST PERFORMANCE EVALUATION RESULTS, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XLI- B1, 2016, XXIII ISPRS Congress, 12-19 July 2016, Prague, presents a camera system that has a camera chip with a linearly variable interference filter fixed on the camera pixels. In this way, the pixels capture different wavelengths in columns, i.e. here, too, rainbow-colored images are created. The camera is mounted on a flying drone looking down and captures an image sequence with 72 wavelength bands of light in the interval 600 - 900 nm for each object point flown over during the flight. The wavelength scan is thus carried out by moving the camera along the object or the scene, with correspondences between the images in the sequence being determined and used in order to allocate the spectral intensities to locations in the images. Such correspondences can be determined by landmarks in the images, e.g. prominent edges (“features”), or by area similarities, e.g. two-dimensional cross-correlation between images.
Bei den Landmarken-basierten Algorithmen werden die Intensitätskanten in den jeweiligen Spektralbereichen zum Auffinden der Ortskoordinaten der jeweiligen Landmarke genutzt. Die Bildkoordinaten derselben Landmarken in zwei verschiedenen Bildern werden einander zugeordnet und hieraus Verschiebungstransformationen berechnet. Dies ist im einfachsten Fall ein einfacher Vektor zuzüglich Rotation und ggf. Skalierung, kann aber auch ein Vektorfeld mit den Verschiebungsvektoren der Verzeichnung zwischen den beiden betrachteten Bildern sein. Algorithmen, die die Kreuzkorrelation nutzen, verwerten ebenfalls Intensitätsvariationen über die Bildfläche, ohne Landmarken einzeln zu berücksichtigen. Man gewinnt damit ebenfalls Information über die Verschiebung, Rotation und ggf. Skalierung, zusammengefasst hier bezeichnet als Verschiebungstransformationen zwischen Bildpaaren.In the case of the landmark-based algorithms, the intensity edges in the respective spectral ranges are used to find the location coordinates of the respective landmark. The image coordinates of the same landmarks in two different images are assigned to one another and displacement transformations are calculated therefrom. In the simplest case, this is a simple vector plus rotation and, if necessary, scaling, but it can also be a vector field with the displacement vectors of the distortion between the two images under consideration. Algorithms that use cross-correlation also exploit intensity variations across the image area without considering landmarks individually. Information about the displacement, rotation and, if applicable, scaling is thus also obtained, collectively referred to here as Displacement transformations between pairs of images.
Dabei wird für beide grundsätzlich verschiedenen Auswertemöglichkeiten davon ausgegangen, dass spektral benachbarte Bildinformationen ähnliche Intensitätsvariationen wie beispielsweise Kanten haben und die beiden betrachteten Bilder eine nicht zu große wechselseitige Verschiebung aufweisen. Sollte die Bildszenerie zu wenig Intensitätsvariationen enthalten bzw. diese im Ortfrequenzspektrum ungünstig verteilt und zu kontrastarm sein, kann durch Beilegen eines zusätzlichen kontrastreichen Referenzobjekts beispielsweise mit starkem Schwarz-Weiß-Kontrast in allen Spektralbändern und nicht wiederholendem Muster für beide Auswertemöglichkeiten ausreichend Information in der Bildfläche zur Verfügung gestellt werden.For the two fundamentally different evaluation options, it is assumed that spectrally adjacent image information has similar intensity variations such as edges, for example, and that the two images under consideration do not have too great a mutual shift. If the image scenery contains too few intensity variations or if these are unfavorably distributed in the spatial frequency spectrum and have too little contrast, adding an additional high-contrast reference object, for example with strong black-and-white contrast in all spectral bands and non-repeating pattern for both evaluation options, can provide sufficient information in the image area for Will be provided.
Wenngleich die Kamera von Sima et al. mit dem linear veränderlichen Filter auf den Kamerapixeln ein kompaktes und zweckmäßiges Design zur Erfassung spatio-spektraler Bilder darstellt, hat sie doch Nachteile. Zum einen ist sie eine Sonderkonstruktion, die sich nicht mit wenigen Handgriffen - z.B. durch einen Kameraaufsatz - aus einer herkömmlichen Kamera schaffen lässt, sondern eine sorgfältige Beschichtung des Kamerachips verlangt. Die Umrüstung lässt sich auch nicht ohne Weiteres rückgängig machen, d.h. normale Bilder kann sie nicht mehr aufnehmen. Überdies sind die Wellenlängen, die jeder einzelne Pixel detektieren kann, auf je ein vorbestimmtes, schmales Intervall endgültig fixiert.Although the Sima et al. with the linearly variable filter on the camera pixels, is a compact and convenient design for capturing spatio-spectral images, but it has disadvantages. On the one hand, it is a special construction that cannot be created from a conventional camera in a few simple steps - e.g. with a camera attachment - but requires a careful coating of the camera chip. The conversion cannot be easily reversed either, i.e. it can no longer take normal pictures. In addition, the wavelengths that each individual pixel can detect are each finally fixed to a predetermined, narrow interval.
Die Erfindung stellt sich die Aufgabe, ein Verfahren zur Erfassung eines hyperspektralen Kubus eines Objekts zu formulieren, das die Verwendung einer handelsüblichen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz vorsieht.The object of the invention is to formulate a method for capturing a hyperspectral cube of an object that provides for the use of a commercially available electronic camera with a static, spatio-spectral camera attachment.
Die Aufgabe wird gelöst durch ein Verfahren zur Ermittlung eines hyperspektralen Kubus eines Objekts oder einer Szene mit den Schritten:
- a. Bereitstellen einer mobilen elektronischen Kamera mit einem statischen, spatio-spektralen Kameraaufsatz und wenigstens einem starr mit der Kamera verbundenen Inertialsensor;
- b. Bewegen der mobilen Kamera entlang einer Trajektorie und/oder Verdrehen der Kamera um wenigstens eine Kameraachse, derart dass das Objekt oder die Szene wenigstens teilweise im Sichtfeld der Kamera verbleibt, wobei
- c. während des Bewegens und/oder Verdrehens fortlaufend spatio-spektrale Bilder und Inertialsensormesswerte von der Kamera zeitlich indiziert erfasst werden;
- d. Ermitteln von Verschiebungstransformationen aus Paaren von zeitlich indizierten Bildern unter Verwenden der für jedes Paar von Bildern aus den zeitlich indizierten Inertialsensormesswerten ermittelten relativen Bewegung und Verdrehung der Kamera;
- e. Rekonstruieren des HS-Kubus durch Belegen eines dreidimensionalen Datenarrays mit gemessenen Intensitätswerten aus den spatio-spektralen Bildern unter Verwenden der ermittelten Verschiebungstransformationen.
- a. Providing a mobile electronic camera with a static, spatio-spectral camera attachment and at least one inertial sensor rigidly connected to the camera;
- b. Moving the mobile camera along a trajectory and/or rotating the camera about at least one camera axis such that the object or the scene remains at least partially in the camera's field of view, wherein
- c. continuously time-indexed spatio-spectral images and inertial sensor readings are captured by the camera while moving and/or twisting;
- i.e. determining displacement transformations from pairs of time-indexed images using the relative motion and rotation of the camera determined for each pair of images from the time-indexed inertial sensor readings;
- e. Reconstructing the HS cube by populating a three-dimensional data array with measured intensity values from the spatio-spectral images using the determined shift transformations.
Ein Nebenanspruch ist auf die Ausgestaltung eines statischen, spatio-spektralen Objektivs gerichtet. Die Unteransprüche geben vorteilhafte Ausgestaltungen des Verfahrens und der Vorrichtung an.A secondary claim is directed to the design of a static, spatio-spectral lens. The subclaims specify advantageous configurations of the method and the device.
Als Inertialsensor wird hier eine Einrichtung bezeichnet, die eine Änderungen der Position und/oder Orientierung zeitlich Schritt haltend erfasst und quantitativ als elektronisches Signal ausgibt. Beispielsweise sind Beschleunigungssensoren und Gyrosensoren solche Inertialsensoren.An inertial sensor is used here to refer to a device that keeps track of changes in position and/or orientation over time and outputs them quantitatively as an electronic signal. For example, acceleration sensors and gyro sensors are such inertial sensors.
Das erfindungsgemäße Verfahren ist mit einem handelsüblichen Smartphone besonders vorteilhaft ausführbar. Ein gängiges Smartphone weist eine elektronische Kamera, ein Display für erfasste Bilder und Videosequenzen (Bildrate ≥ 25 Hz), einen integrierten Inertialsensor zur Erfassung von Translations- und Rotationsbewegungen, einen elektronischen Datenspeicher und eine üblich leistungsfähige Recheneinheit als Mikroprozessor auf, die alle baulich kompakt zu einer Geräteeinheit zusammengefasst sind. Die Recheneinheit ist programmierbar, und die erfindungsgemäßen Verfahrensschritte c. bis e. lassen sich automatisch durch ein Programm - eine App - ausführen.The method according to the invention can be carried out particularly advantageously with a commercially available smartphone. A common smartphone has an electronic camera, a display for captured images and video sequences (frame rate ≥ 25 Hz), an integrated inertial sensor for capturing translational and rotational movements, an electronic data memory and a usually powerful computing unit as a microprocessor, all of which are structurally compact are combined in one device unit. The arithmetic unit is programmable, and the method steps according to the invention c. to e. can be executed automatically by a program - an app.
Ein erster wesentlicher Erfindungsaspekt ist die Verwendung eines statischen, spatio-spektralen Kameraufsatzes, der weiter unten näher beschrieben wird. Dieser ermöglicht es überhaupt erst, die kompakte Smartphone-Technologie ohne Umbauaufwand und jederzeit reversibel zu nutzen, um auch hyperspektrale Bilderfassung durchzuführen.A first essential aspect of the invention is the use of a static, spatio-spectral camera attachment, which is described in more detail below. This makes it possible in the first place to use the compact smartphone technology without any conversion effort and reversibly at any time in order to also carry out hyperspectral image acquisition.
Ein zweiter wesentlicher Erfindungsaspekt besteht darin, dass in Verfahrensschritt b. keine Trajektorie oder Verdrehung vorbestimmt werden muss. Zwar kann das Verfahren auch bei exakt bekannten Bewegungen der Kamera - z.B. durch einen Roboterarm - verwendet werden, aber Smartphones werden zumeist in der Hand gehalten und vom Nutzer händisch geführt. Die Kenntnis der während der Bilderfassung durchgeführten Kamerabewegung aus den Inertialsensormesswerten vereinfacht die Zuordnung von zeitlich nacheinander erfassten Bildinformationen desselben Objekts ganz erheblich. Dies ist bereits aus der Computer Vision und Augmented Reality bekannt, vgl. z.B.
Die freie Positionswahl und freie Beweglichkeit der Kamera erfordern, dass ein zu ermittelnder HS-Kubus eines Objekts bei jeder Aufnahme einer Bildsequenz neu definiert wird. Vor Beginn der Bilderfassung wird der HS-Kubus als ein leeres dreidimensionales Datenarray mit zunächst noch undefinierten Koordinatenintervallen in der Recheneinheit initialisiert.The free choice of position and free mobility of the camera require that an HS cube of an object to be determined is redefined each time an image sequence is recorded. Before the start of image acquisition, the HS cube is initialized in the computing unit as an empty three-dimensional data array with initially undefined coordinate intervals.
In einer bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens werden sodann die Koordinatenintervalle durch das erste Bild der fortlaufend erfassten Sequenz von spatio-spektralen Bildern des Objekts oder der Szene bestimmt, d.h. das erste erfasste spatio-spektrale Bild wird als Diagonalfläche des HS-Kubus angesehen und legt dadurch die Eckpunkte des HS-Kubus fest, namentlich die Koordinatenintervalle für Bildkoordinaten und Wellenlängen, in denen das Datenarray mit Intensitätswerten belegt werden soll. Die Bildkoordinaten des ersten Bildes werden dadurch zu Quasi-Objektkoordinaten uminterpretiert, zu denen alle später erfassten Bilder der Sequenz mit ihren jeweiligen Bildkoordinaten in Bezug zu bringen sind. Durch das Bewegen und Verdrehen der Kamera während der Bilderfassung lassen sich fortwährend neue Wellenlängeninformationen über jeden Objektpunkt erfassen, der sich innerhalb des anfangs gesetzten Rahmens der Quasi-Objektkoordinaten befindet. Objektpunkte außerhalb dieses Rahmens sind dann nicht Gegenstand der HS-Kubus-Bestimmung und müssen auch nicht bearbeitet werden. Insofern ist es von Bedeutung, dass während der Bilderfassung das Objekt oder die Szene - jetzt konkret ausgewählt durch das erste Bild der Sequenz und beschrieben durch das zweidimensionale Intervall der Quasi-Objektkoordinaten - wenigstens teilweise im Sichtfeld der Kamera verbleibt. Falls Bilder erfasst werden, die diese Bedingung nicht erfüllen, dann können diese aber schadlos aus der Bildsequenz herausgenommen werden. Die Messdaten des Inertialsensors können auch dazu benutzt werden, solche Bilder auszusortieren, die das im ersten Bild der Sequenz erfasste Objekt schon aufgrund der Kameraposition und/oder Blickrichtung gar nicht mehr zeigen können.In a preferred embodiment of the method according to the invention, the coordinate intervals are then determined by the first image of the continuously acquired sequence of spatio-spectral images of the object or the scene, i.e. the first acquired spatio-spectral image is viewed as the diagonal surface of the HS cube and is thereby defined the corner points of the HS cube, namely the coordinate intervals for image coordinates and wavelengths in which the data array is to be assigned intensity values. The image coordinates of the first image are thereby reinterpreted as quasi-object coordinates, to which all images of the sequence recorded later are to be related with their respective image coordinates. By moving and rotating the camera during image acquisition, new wavelength information can be continuously acquired for each object point that is located within the initially set framework of quasi-object coordinates. Object points outside of this frame are then not part of the HS cube determination and do not have to be processed. In this respect it is important that during image acquisition the object or scene - now specifically selected by the first image of the sequence and described by the two-dimensional interval of quasi-object coordinates - remains at least partially in the camera's field of view. If images are captured that do not meet this condition, they can be removed from the image sequence without harm. The measurement data of the inertial sensor can also be used to sort out those images that can no longer show the object captured in the first image of the sequence due to the camera position and/or viewing direction.
Es kann von Vorteil sein, wenn das Objekt oder die Szene mit Licht mit einer vorbekannten Spektralverteilung beleuchtet wird. Insbesondere Smartphones verfügen in der Regel über eine eingebaute LED, die beispielsweise in einem abgedunkelten Raum als Hauptlichtquelle dienen kann. Wie bereits erwähnt kann es auch vorkommen, dass Objekte oder Szenen einen zu schwachen Kontrast oder anderweitig ungünstige Response auf die Beleuchtung zeigen. Dann kann vorzugsweise dadurch Abhilfe geschaffen werden, dass am Objekt oder in der Szene wenigstens ein vorbekannter Referenzmarker angeordnet wird, der bei Beleuchtung mit der vorbestimmten Spektralverteilung eine vorbekannte spektrale Antwort aussendet.It can be advantageous if the object or scene is illuminated with light having a previously known spectral distribution. Smartphones in particular usually have a built-in LED that can serve as the main light source in a darkened room, for example. As already mentioned, it can also happen that objects or scenes show a too weak contrast or otherwise unfavorable response to the lighting. A remedy can then preferably be created by arranging at least one previously known reference marker on the object or in the scene, which emits a previously known spectral response when illuminated with the predetermined spectral distribution.
Algorithmen zum Matching von Bildkoordinaten aus Bildern eines aus verschiedenen Perspektiven aufgenommenen Objekts anhand von Bildstrukturen sind an sich bekannt. Mittels bestimmbarer Verschiebungstransformationen lassen sich die Intensitätswerte jedes erfassten Bildes von den Bildkoordinaten auf Objektkoordinaten - hier die Quasi-Objektkoordinaten - zuweisen. Dabei ist bei der spatio-spektralen Kamera auch die erfasste Wellenlänge durch die Bildkoordinaten festgelegt, so dass hier eine Übertragung der Intensitätswerte in das leer initialisierte dreidimensionale Datenarray erfolgen kann.Algorithms for matching image coordinates from images of an object recorded from different perspectives using image structures are known per se. The intensity values of each recorded image can be assigned from the image coordinates to object coordinates—here the quasi-object coordinates—by means of determinable displacement transformations. In the case of the spatio-spectral camera, the recorded wavelength is also defined by the image coordinates, so that the intensity values can be transferred to the empty, initialized three-dimensional data array.
Es kann dabei vorteilhaft sein, wenn das Datenarray, das in der praktischen Programmierung endlich groß ist und eine natürliche Zahl von Dateneinträgen umfasst, mit Werten von -1 initialisiert wird, um den Intensitätswert 0 als eine valide Zuweisung zu identifizieren. Dadurch sind Einträge mit Wert-1 als Datenlücken im zu belegenden Datenarray zu erkennen. Besonders interessant kann dies werden, wenn vorzugsweise die Rekonstruktion des hyperspektralen Kubus zeitlich Schritt haltend mit der Erfassung der spatio-spektralen Bilder und der Inertialsensormesswerte erfolgt. Die Rekonstruktion in Echtzeit setzt die unabhängige Verfügbarkeit von Information über die Bewegung der Kamera während der Bilderfassung voraus und liegt somit im Rahmen der Möglichkeiten des erfindungsgemäßen Verfahrens. Zugleich gestattet die Echtzeit-Rekonstruktion das Erzeugen eines Feedbacks an den Nutzer darüber, wie vollständig er den gesuchten HS-Kubus bestimmt hat. Vorzugsweise können durch die Recheneinheit sogar aus vorhandenen Datenlücken im dreidimensionalen Datenarray Anweisungen zum Bewegen und/oder Verkippen der Kamera errechnet werden, deren Ausführung spatio-spektrale Bilder erfasst, aus denen die Datenlücken befüllt werden. Diese Anweisungen können dem Nutzer beispielsweise als Pfeile auf dem Display des Smartphones angezeigt werden. Er hat dann die Gelegenheit, seine Messung des HS-Kubus unmittelbar durch entsprechendes Bewegen der Kamera zu vervollständigen.It can be advantageous if the data array, which is finite in size in practical programming and includes a natural number of data entries, is initialized with values of -1 in order to identify the intensity value 0 as a valid assignment. This means that entries with a value of 1 can be recognized as data gaps in the data array to be occupied. This can be of particular interest if the reconstruction of the hyperspectral cube preferably takes place in step with the acquisition of the spatio-spectral images and the inertial sensor measurement values. The real-time reconstruction requires the independent availability of information about the movement of the camera during image acquisition and is therefore within the scope of the possibilities of the method according to the invention. At the same time, the real-time reconstruction allows the generation of feedback to the user on how completely he has determined the searched HS cube. Preferably, instructions for moving and/or tilting the camera can even be calculated from existing data gaps in the three-dimensional data array by the computing unit, the execution of which captures spatio-spectral images from which the data gaps are filled. These instructions can be shown to the user as arrows on the smartphone display, for example. He then has the opportunity to immediately complete his measurement of the HS cube by moving the camera accordingly.
Um das erfindungsgemäße Verfahren mit einem Smartphone auszuführen, ist ein statischer, spatio-spektraler Kameraaufsatz erforderlich, der vor dem im Smartphone verbauten Kameraobjektiv anzuordnen ist. Dessen optischer Aufbau wird nachfolgend näher erläutert anhand von Figuren. Dabei zeigt:
-
1 eine Skizze des optischen Aufbaus mit einer Darstellung der Wellenlängenselektion des von einem Objektpunkt ausgehenden Lichts im zugehörigen Bildpunkt; -
2 eine Skizze des optischen Aufbaus mit zwei verschiedenen Wellenlängen ausgehend von zwei Objektpunkten, die gleichzeitig abgebildet werden.
-
1 a sketch of the optical structure with a representation of the wavelength selection of the light emanating from an object point in the associated pixel; -
2 a sketch of the optical setup with two different wavelengths starting from two object points that are imaged simultaneously.
Grundsätzlich wird als Kameraaufsatz zur Erfassung spatio-spektraler Bilder vorgeschlagen, diesen als eine starre Anordnung mit wenigstens den folgenden optischen Komponenten entlang des optischen Pfades auszubilden:
- a. eine Fokussierlinse und eine Kollimierlinse hintereinander angeordnet, so dass die Linsen eine gemeinsame Brennebene besitzen,
- b. eine in der gemeinsamen Brennebene der Linsen angeordnete Schlitzblende mit einem vorbestimmten Schlitzverlauf,
- c. ein erstes dispersives optisches Element mit Dispersionsrichtung senkrecht zum Schlitzverlauf angeordnet vor der Fokussierlinse,
- d. ein zweites dispersives optisches Element mit Dispersionsrichtung senkrecht zum Schlitzverlauf angeordnet hinter der Kollimierlinse.
- a. a focusing lens and a collimating lens arranged one behind the other so that the lenses have a common focal plane,
- b. a slit diaphragm arranged in the common focal plane of the lenses with a predetermined slit course,
- c. a first dispersive optical element with the direction of dispersion perpendicular to the course of the slit arranged in front of the focusing lens,
- i.e. a second dispersive optical element with the direction of dispersion perpendicular to the course of the slit is arranged behind the collimating lens.
Dabei ist verstanden, dass das von jedem Objektpunkt ausgehende Licht kollimiert mit einem von der Lage des Objektpunkts abhängigen Einfallswinkel am ersten dispersiven optischen Element eintreffen soll. Dies erfordert in der Regel ein vorgeschaltetes Objektiv.It is understood here that the light emanating from each object point should arrive at the first dispersive optical element collimated with an angle of incidence dependent on the position of the object point. This usually requires an upstream lens.
In den
In
Das Licht von allen Objektpunkten mit Bildkoordinate x kann die Schlitzblende S in gleicher Weise passieren, d.h. die ganze Objektpunktzeile bei x wird auf die Bildpunktzeile bei x' abgebildet. Die Bildstruktur parallel zum Schlitzverlauf bleibt erhalten, nur die Wellenlänge λr für die ganze Bildzeile wird selektiert.The light from all object points with image coordinate x can pass through the slit diaphragm S in the same way, ie the entire object point line at x is imaged onto the image point line at x'. The image structure parallel to the course of the slit is retained, only the wavelength λ r for the entire image line is selected.
In
Es ist bekannt, dass rote Wellenlängen durch Transmissionsgitter stärker (durch Beugung) abgelenkt werden als blaue. Anstelle von Gittern kann man auch Prismen als dispersive Elemente verwenden bei denen dies (durch Brechung) gerade umgekehrt ist. Die Gitterkonstanten und Prismenformen bestimmen dabei, wie weit die Wellenlängen dispergiert werden, und somit auch die Breite des im Bild erfassbaren Spektralbereichs bzw. die spektrale Auflösung. Es wird daher als vorteilhaft angesehen, wenn die starre Anordnung der unter a. bis d. genannten Komponenten als modulares System ausgeführt ist, so dass wenigstens die dispersiven optischen Elemente als Module austauschbar ausgebildet sind. Auf diese Weise sind unterschiedlichste Konfigurationen des Kameraaufsatzes mit wenigen Handgriffen möglich, z.B. die Verwendung von Transmissionsgittern mit beliebig verschiedenen Gitterkonstanten oder auch Kombinationen aus Gittern und Prismen. It is known that red wavelengths are deflected (by diffraction) more than blue ones by transmission gratings. Instead of gratings, one can also use prisms as dispersive elements in which this is exactly the opposite (due to refraction). The grating constants and prism shapes determine how far the wavelengths are dispersed and thus also the width of the spectral range that can be captured in the image or the spectral resolution. It is therefore considered advantageous if the rigid arrangement under a. until d. mentioned components is designed as a modular system, so that at least the dispersive optical elements are designed as interchangeable modules. In this way, a wide variety of configurations of the camera attachment are possible with just a few simple steps, e.g. the use of transmission gratings with any number of different grating constants or combinations of gratings and prisms.
Abschließend ist anzumerken, dass der Fachmann sicherlich im Kameraaufsatz gemäß den
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020127964.7A DE102020127964B4 (en) | 2020-10-23 | 2020-10-23 | Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020127964.7A DE102020127964B4 (en) | 2020-10-23 | 2020-10-23 | Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102020127964A1 DE102020127964A1 (en) | 2022-04-28 |
DE102020127964B4 true DE102020127964B4 (en) | 2022-10-27 |
Family
ID=81077170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020127964.7A Active DE102020127964B4 (en) | 2020-10-23 | 2020-10-23 | Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102020127964B4 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4455087A (en) | 1981-04-06 | 1984-06-19 | Hamamatsu Systems Inc. | Monochromatic imaging apparatus |
US6166373A (en) | 1998-07-21 | 2000-12-26 | The Institute For Technology Development | Focal plane scanner with reciprocating spatial window |
DE102005045973A1 (en) | 2005-09-26 | 2007-04-05 | Siemens Ag | Device for camera-based tracking has processing arrangement for determining movement information for evaluating images, whereby information characterizes object position change within time interval |
WO2007128832A1 (en) | 2006-05-10 | 2007-11-15 | Abb Schweiz Ag | Bulk material analyzer system |
CN105865624A (en) | 2016-03-22 | 2016-08-17 | 清华大学 | Spectrum extraction method and device for hyperspectral collection system |
US20170264833A1 (en) | 2016-03-09 | 2017-09-14 | Galileo Group Inc. | Spectral Enhancements to Mobile Devices |
EP3760992A1 (en) | 2020-03-31 | 2021-01-06 | Universität Stuttgart | Method and fourier transform spectrometer with dual beam interferometer for single-shot-imaging fourier spectroscopy |
US20210093257A1 (en) | 2019-09-30 | 2021-04-01 | International Business Machines Corporation | Personalized Monitoring of Injury Rehabilitation Through Mobile Device Imaging |
-
2020
- 2020-10-23 DE DE102020127964.7A patent/DE102020127964B4/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4455087A (en) | 1981-04-06 | 1984-06-19 | Hamamatsu Systems Inc. | Monochromatic imaging apparatus |
US6166373A (en) | 1998-07-21 | 2000-12-26 | The Institute For Technology Development | Focal plane scanner with reciprocating spatial window |
DE102005045973A1 (en) | 2005-09-26 | 2007-04-05 | Siemens Ag | Device for camera-based tracking has processing arrangement for determining movement information for evaluating images, whereby information characterizes object position change within time interval |
WO2007128832A1 (en) | 2006-05-10 | 2007-11-15 | Abb Schweiz Ag | Bulk material analyzer system |
US20170264833A1 (en) | 2016-03-09 | 2017-09-14 | Galileo Group Inc. | Spectral Enhancements to Mobile Devices |
CN105865624A (en) | 2016-03-22 | 2016-08-17 | 清华大学 | Spectrum extraction method and device for hyperspectral collection system |
US20210093257A1 (en) | 2019-09-30 | 2021-04-01 | International Business Machines Corporation | Personalized Monitoring of Injury Rehabilitation Through Mobile Device Imaging |
EP3760992A1 (en) | 2020-03-31 | 2021-01-06 | Universität Stuttgart | Method and fourier transform spectrometer with dual beam interferometer for single-shot-imaging fourier spectroscopy |
Non-Patent Citations (7)
Title |
---|
FEI, Baowei [u.a.]: Label-free reflectance hyperspectral imaging for tumor margin assessment: a pilot study on surgical specimens of cancer patients. In: Journal of Biomedical Optics (JBO), Vol. 22, 2017, No. 8, Artikelnummer: 086009 (S. 1-7). - ISSN 1083-3668 (P); 1560-2281 (E). DOI: 10.1117/1.JBO.22.8.086009. |
KIM, Sewoong [u.a.]: Smartphone-based multispectral imaging: system development and potential for mobile skin diagnosis. In: Biomedical Optics Express (BOEx), Vol. 7, 2016, No. 12, S. 5294-5307. - ISSN 2156-7085. DOI: 10.1364/BOE.7.005294. |
MENG, Xin [u.a.]: Double-pass grating imaging spectrometer. In: Chinese Optics Letters (COL), Vol. 17, 2019, No. 1, Artikelnummer: 011202 (S. 1-4). - ISSN 1671-7694. DOI: 10.1364/COL.17.011202 |
SIMA, A. A. [u.a.]: Compact hyperspectral imaging system (COSI) for small remotely piloted aircraft systems (RPAS) - System overview and first performance evaluation results. In: The international archives of the photogrammetry, remote sensing and spatial information sciences. XXIII ISPRS Congress, 12-19 July 2016, Prague, Vol. XLI-B1, 2016, S. 1157-1164. - ISSN 1682-1750 (P), ISSN 2194-9034 (E). DOI: 10.5194/isprs-archives-XLI-B1-1157-2016. |
Stuart MB, McGonigle AJS, Willmott JR. Hyperspectral Imaging in Environmental Monitoring: A Review of Recent Developments and Technological Advances in Compact Field Deployable Systems. Sensors. 2019; 19(14):3071. https://doi.org/10.3390/s19143071 |
Wilcox C. C., Montes M., Yetzbacher M., Edelberg J., Schlupf J., "An ultra-compact hyperspectral imaging system for use with an unmanned aerial vehicle with smartphone-sensor technology," Proc. SPIE 10639, Micro- and Nanotechnology Sensors, Systems, and Applications X, 1063919 (8 May 2018); doi: 10.1117/12.2303914 |
ZHAO, Jiewen [u.a.]: Nondestructive measurement of sugar content of apple using hyperspectral imaging technique. In: Maejo International Journal of Science and Technology, Vol. 3, 2009, No. 1, S. 130-142. - ISSN 1905-7873. |
Also Published As
Publication number | Publication date |
---|---|
DE102020127964A1 (en) | 2022-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112789495B (en) | Hybrid spectral imager | |
DE202014010558U1 (en) | Device for receiving a hyperspectral image | |
DE60133026T2 (en) | ACCURATE ALIGNMENT OF IMAGES IN DIGITAL PICTURE SYSTEMS BY ADJUSTING POINTS IN THE PICTURES | |
EP2944930A2 (en) | Hyperspectral camera with spatial and spectral resolution and method | |
DE102012112321A1 (en) | Device for optically scanning and measuring an environment | |
DE102012112322A1 (en) | Method for optically scanning and measuring an environment | |
DE212010000184U1 (en) | System for scanning a human body | |
DE202012104890U1 (en) | Device for optically scanning and measuring an environment | |
DE102010037169A1 (en) | Unlimited spatially oriented field of view display device | |
DE3905591A1 (en) | DEVICE FOR OBTAINING CONTRAST HIGH IMAGES | |
DE112012004055T5 (en) | Imaging device | |
DE112016005019B4 (en) | Endoscope system | |
EP2766702A2 (en) | Miniaturized optoelectronic system for spectral analysis | |
DE102019008472B4 (en) | Multi-lens camera system and method for hyperspectral imaging | |
DE102017130772A1 (en) | Spectrometer arrangement, method for generating a two-dimensional spectrum by means of such | |
DE102020127964B4 (en) | Method and apparatus for rapidly capturing a hyperspectral cube of an object or scene | |
EP2907105A2 (en) | Image processing method and method for tracking missiles | |
DE102012020922A1 (en) | Laser scanner for panorama image pick-up application, has single-channels provided in optical receiving section, where spectral single sensitivities are adapted selectively to single-spectrums of laser light source | |
DE102019133515B3 (en) | Method and device for parallax determination of recordings of a multi-lens camera system | |
EP3540507B1 (en) | Imaging apparatus and method for taking an image of a document and use thereof | |
DE102012221580A1 (en) | Method for detecting living organism i.e. wild animals, from air in agricultural field, involves determining image light and shadow areas in examining region, and checking image characteristic areas in detected light and shadow areas | |
DE102017117212A1 (en) | System and method for stereotriangulation | |
DE102021203812B4 (en) | Optical measuring device and method for determining a multidimensional surface model | |
DE102019133516B4 (en) | Method and device for determining wavelength deviations from recordings of a multi-lens camera system | |
DE102023101964A1 (en) | Medical imaging device, endoscope device, endoscope and method for manufacturing a medical imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |