[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE19919584A1 - Verfahren und Anordnung zur 3D-Aufnahme - Google Patents

Verfahren und Anordnung zur 3D-Aufnahme

Info

Publication number
DE19919584A1
DE19919584A1 DE1999119584 DE19919584A DE19919584A1 DE 19919584 A1 DE19919584 A1 DE 19919584A1 DE 1999119584 DE1999119584 DE 1999119584 DE 19919584 A DE19919584 A DE 19919584A DE 19919584 A1 DE19919584 A1 DE 19919584A1
Authority
DE
Germany
Prior art keywords
array
luminous
structured
receiver
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE1999119584
Other languages
English (en)
Inventor
Klaus Koerner
H Tiziani
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE1999119584 priority Critical patent/DE19919584A1/de
Priority to AU43913/00A priority patent/AU4391300A/en
Priority to PCT/DE2000/000991 priority patent/WO2000066972A1/de
Priority to DE10081176T priority patent/DE10081176D2/de
Priority to EP00925063A priority patent/EP1188035A1/de
Publication of DE19919584A1 publication Critical patent/DE19919584A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft Verfahren und Anordnungen zur 3-D-Aufnahme mindestens einer Objektoberfläche eines Objektes in einer Szene mit einer Strahlungsquelle zur Beleuchtung eines Arrays, wodurch ein strukturiert leuchtendes Array mit mindestens einem leuchtenden Flächenelement gebildet ist, einem Beleuchtungsobjektiv zur Abbildung des leuchtenden Arrays in den Objektraum und einem Empfänger-Array und einem Aufnahmeobjektiv zur Abbildung von Elementen der mindestens einen Objektoberfläche auf das Empfänger-Array. Dabei werden das Schärfevolumen eines Bildes des mindestens einen leuchtenden Flächenelementes des strukturiert leuchtenden Arrays, wobei dieses Schärfevolumen im Objektraum gebildet ist, und das Schärfevolumen eines Bildes mindestens eines Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen mit Hilfe des Aufnahmeobjektivs ebenfalls im Objektraum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest näherungsweise einmal, aufgrund der Druchführung einer vorbestimmten Verschiebung des mindestens einen leuchtenden Flächenelementes des strukturiert leuchtenden Arrays auf einer Verschiebungsstrecke im Array-Raum mit einer Verschiebunsgkomponente parallel und einer Verschiebungskomponente senkrecht zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht, wobei das durch das Beleuchtungsobjektiv erzeugte Bild dieser Verschiebungsstrecke im Objektraum mit dem zugehörigen Hauptstrahl des Abbildungsstrahlenbündels ...

Description

1. Technisches Anwendungsgebiet
Das technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet. Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die 3D-Punktwolke von Objektoberflächen in einer Szene als digital vorliegender Datensatz mit Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.
Eine weitere, mögliche meßtechnische Applikation stellt die Positionsbestimmung eines Fahrzeuges im Freien dar, ohne die Notwendigkeit das Fahrzeug durch eine interne oder externe Beleuchtungseinrichtung der 3D-Aufnahme-Anordnung beleuchten zu müssen.
Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern als Punktwolke von Objektoberflächen in einer Szene im Nah- und im Fernbereich für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dabei können auch die Farben der Objektoberflächen erfaßt werden. Dieses Verfahren betrifft vor allem den Multimedia- und Fernsehbereich im Studio. Es kann aber auch bei Außenaufnahmen eingesetzt werden.
Weiterhin kann das Verfahren und die Anordnung zur digitalen 3D-Schwarzweiß- und zur digitalen 3D-Farbaufnahme im Nah- und im Fernbereich im Sinne der Fotografie angewendet werden, wobei ein digitaler Datensatz erzeugt wird, der zu einem 3D-Bild weiterverarbeitet werden kann.
2. Stand der Technik
Die 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren vermessen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von Details von Objektoberflächen in der Szene.
Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des Speckle-Phänomens begrenzt jedoch den Einsatz dieser Verfahren. Dies wurde von H. J. Tiziani in der Arbeit "Automatisierung der optischen Qualitätsprüfung" in Technisches Messen, 55. Jahrgang, Heft 1211988, S. 481-491 auf Seite 488 dargestellt. Es werden auch Interferenzstreifen-Felder für die Streifen-Projektionstechnik eingesetzt. Diese werden durch die Überlagerung kohärenter Planwellen erzeugt und weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als 1/40 der effektiven Wellenlänge.
Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflächen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem eine Folge von Binär-Bildern aufprojiziert wird. Zusätzlich werden anschließend - besonders bei höheren Genauigkeitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet, wobei die bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische 3D-Meßsystem optoTOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Optotechnik GmbH in D-83115 Neubeuern zu nennen.
Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojektoren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projektoren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifenkontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf Glasplatten.
Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von beleuchteten Mikrospiegeln, Digital Light Mirror Devices, auch als DMD bekannt, an. Es können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend. Weiterhin werden bei der Messung Flächenelemente gleicher relativer Leuchtdichte innerhalb eines Musters leuchtender Streifen verschoben. Diese Flächenelemente werden nacheinander durch verschiedene beleuchtete Mikrospiegel dargestellt und bilden eine strukturiert leuchtenden Fläche. Die relative Leuchtdichte ist auf die mittlere Leuchtdichte des Umfeldes bezogen. Für die Flächenelemente gleicher relativer Leuchtdichte werden kurze Verschiebungsstrecken, beispielsweise von der Länge von vier oder acht Mikrospiegelabmessungen, realisiert, die einer Streifenperiode in der Ebene des Digital Light Mirror Devices entsprechen. Durch die senkrechte Ausrichtung des Digital Light Mirror Devices zur optischen Achse des Beleuchtungsobjektivs werden die Flächenelemente oder die Orte gleicher Leuchtdichte in einer ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs auf Verschiebungsstrecken verschoben. Dabei entspricht die Verschiebung um einen Streifen einer Änderung der Phase im abgebildeten Streifenfeld um 360°. Dieser Wert ist für die phasenauswertende Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation für die Bestimmung der Punktwolke einer Objektoberfläche geeignet. Jedoch können keine Objekte mit einer in Bezug zur Brennweite des Beleuchtungsobjektivs großen Tiefe vermessen werden, wenn sehr feine Streifen zum Erreichen eines hohen Tiefenauflösungsvermögens abgebildet werden. Der Tiefenmeßbereich ist hierbei durch die Ausdehnung der Öffnungsblende DB des Beleuchtungsobjektivs begrenzt.
Um einen großen Schärfentiefebereich bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblendet, sowohl bei der Beleuchtung als auch bei der abbildung der Objektoberfläche. Es wird meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8 bis 1 : 22 gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuchtung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis 500 mm × 500 mm.
Auf dem 2. ABW-Workshop 3-DBVITAE vom 25.-26.1.1996 wurde von R. Lampalzer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.
In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Problemen mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führten zu einer Serie von 3D-Sensoren auf der Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blickwinkeln. Jedoch es bleibt das Problem einer begrenzten Tiefenausdehnung des Meßraumes bestehen, wenn zum Erreichen einer hohen Tiefenauflösung Gitter mit einer kleinen Gitterperiode abgebildet werden.
Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner, s.VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Ruine". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der baulichen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs-Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolumen dieser Anordnung ist durch die drei Kameras vergleichsweise groß.
Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP - VDINDE-GMA Fachtagung 28./29. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren, R. Schwarte, H. Heinol, z.Xu, J. OIk und W. Tai darauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m-Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht. Diese Aussage gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufweisen. Die in oben genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet angesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt.
Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbsteinmessendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dargestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meßwerten. Es wird eine hohe Meßgenauigkeit für die Objektkoordinaten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehrmalige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeitnahe 3D-Erfassung von Objekten.
Die Grundzüge dieses optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensystem liegt dabei im Bereich des Objektes. In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zentralperspektivischen Abbildung dargestellt. Jedoch läßt sich abgeschätzen, daß sich hierbei aufgrund des angegebenen Apparates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit-Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum möglich ist.
Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes 3D-Meßmoduls nicht möglich.
Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei etwa 2% des Meßbereiches und wird damit für meßtechnische Applikationen im Nahbereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.
In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.
Eine 3D-Echtzeitkamera wurde im Poster P28 der 99. Tagung der Deutschen Gesellschaft für angewandte Optik vom 2.6. bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Raumes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichbare Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.
In der Patentschrift WO9214118 wird eine 3D-Meßanordnung beschrieben, die als "konfokal" bezeichnet wird, die den Kontrast eines auf die Objektoberfläche projizierten Streifenmusters auswertet. Dabei werden sowohl das Beleuchtungs- als auch das Abbildungsobjektiv oder ein gemeinsames Objektiv jeweils auf die gleiche Ebene im Raum des Objektes fokussiert. Es ist jedoch keine Möglichkeit angegeben, für Objektabstände im Dezimeter- und im Meterbereich eine hohe Genauigkeit zu erzielen. Mit der Auswertung des Kontrastes des projizierten Streifenmusters läßt sich bei mittleren und großen Objektabständen mit handelsüblichen Projektionsobjektiven mit einem Öffnungsblendendurchmesser von bis zu 30 mmbekannterweise keine hohe Genauigkeit in der Tiefe erreichen. Dabei wird ein beleuchtetes Transmissionsgitters auf einer Verschiebungsstrecke, beispielsweise von der Länge von einigen Millimetern verschoben. Dies erfolgt in Richtung parallel zur optischen Achse des Beleuchtungsobjektivs, um die Lage der Schärfefläche im Raum des Objektes zu verändern, im Sinne eines Scannens. Dadurch ändert sich auch die Streifenbreite im abgebildeten Streifenfeld. Zusätzlich wird durch einen Piezo-Aktuator, der mit dem beleuchteten Gitter verbunden ist, das beleuchtete Gitter in Schritten der halben Gitterkonstante gestellt. So detektieren die Elemente eines Bildempfängers, die zu diesen Gitterelementen optische konjugiert liegen, eine Hell-Dunkel-Verteilung. Die Größe der Amplitude des entstehenden Signals wird zur Bestimmung der Kontrastfunktion benutzt. Das Bestimmung des Ortes des Maximums der Kontrastfunktion über der z-Position des beleuchteten Gitters dient der Bestimmung der z-Position eines jeden Objektpunktes. Diese Methode der Bestimmung der z-Position von Objektpunkten für die Gewinnung der Punktwolke ermöglicht jedoch keine sehr hohe Tiefenauflösung.
Zur Verbesserung der lateralen Auflösung bei der Abbildung der Objektoberfläche kann gemäß der Patentschrift WO 92 14 118 der Empfänger als Zeilen- oder Matrix-Empfänger auch in Schritten unterhalb des mittleren Bildelementabstandes, also des Pixel Pitch', lateral bewegt werden. Dies ist keine mit der Verschiebung des Bildempfängers in z-Richtung, also in achsparalleler Richtung, gekoppelte Bewegung. Die laterale Bewegung wird allein mit dem Ziel durchgeführt, die laterale Auflösung bei der Aufnahme der Objektoberflächen zu erhöhen.
Allgemein läßt sich feststellen, daß in der phasenauswertenden Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation stets die Öffnungsblende oder die Pupille des Beleuchtunggsobjektivs von der Öffnungsblende oder Pupille des Abbildungsobjektivs räumlich getrennt ist. Die Öffnungsblende mit einem Zentrum kann im Objektraum des körperlich vorhanden sein oder als Bild der Öffnungsblende. Das Bild der Öffnungsblende wird als Pupille bezeichnet. Der Abstand d der Blenden- oder Pupillenzentren im Raum des Objektes kann 5 mm, aber auch durchaus auch einen Meter betragen.
Es sind Arrays mit vertikal abstrahlenden Laserdioden bekannt geworden, die als ein adressierbares, strukturiert leuchtendes Array anzusehen sind. Die Elemente, hier die vertikal abstrahlenden Laserdioden, sind einzeln elektronisch in ihrer Leuchtdichte, bzw. Helligkeit steuerbar.
3. Mit der Erfindung gelöste Aufgabe
Die Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt technischer und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objektoberflächen in einer Szene kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwindigkeit gemessen werden.
Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung von Objektoberflächen in einer Szene zum Teil stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht werden. Durch das Auswerteverfahren wird eine hohe Auflösung der effektiven Wellenlänge in der Tiefe erreichbar.
Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschinenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bauwesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Menschen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder Stuckwerken gegeben.
Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. Labyrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innenräume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Roboter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwimmende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unterwassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich möglich.
Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientierung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich.
Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altgeräten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer für den Menschen gefährlichen Umgebung gegeben.
Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.
Die Erfindung ermöglicht das schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen durch aktive Beleuchtung mittels strukturiertem Licht und die schnelle, praktisch gleichzeitige Erfassung von selbstleuchtenden oder künstlich oder natürlich beleuchteten Objekten und Szenen mittels einer einzigen 3D-Aufnahme-Anordnung. Die schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen kann bei Verwendung geeigneter Hardware und Software im Videotakt erfolgen.
4. Erreichte Verbesserungen und Vorteile gegenüber dem Stand der Technik
Die Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern in Szenen mit großer Tiefenausdehnung in Bezug zu deren Ausdehnung, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters.
Die Beleuchtung des Objektes erfolgt unter einem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder kleiner. Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden so weitgehend vermieden. Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vorzugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das ermöglicht, aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.
Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt werden, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dynamik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewegende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen werden. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen gleichzeitig einsetzbar, und es kann die Farbe der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet werden. Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindigkeit bei der 3D-Erfassung dar. Es besteht die technische Möglichkeit, die 3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.
Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt. Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle-Rauschen in den Pixeln der Kamera.
Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photometrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe erfaßbare Raum kann bei geeigneter Beleuchtung durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. im Bildempfänger.
Durch die zusätzliche Erfassung von selbstleuchtenden Objekten und Szenen, beispielsweise im Hintergrund eines künstlich beleuchteten Objektes, können Objektoberflächen in einer Szene von einem Nahpunkt bis zur Unendlich-Position in einem Aufnahmevorgang in Echtzeit und in Farbe aufgenommen werden, wobei die 3D-Daten als Punktwolke berechnet werden können, so daß ein 3D-Datensatz zur Verfügung steht.
5. Grundzüge des Lösungsweges
Es werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer transmissiven oder reflektierenden, gerasterten Struktur mit mehreren Maxima und Minima der Transmission oder Reflexion und einer Strahlungsquelle wird ein strukturiert leuchtendes Array mit lokalen Extrema der Leuchtdichte erzeugt. Diese gerasterte Struktur wird im weiteren als strukturiert leuchtendes Array bezeichnet. Dem strukturiert leuchtenden Array ist mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zu dessen Abbildung nachgeordnet. So entsteht durch die Abbildung des strukturiert leuchtenden Arrays im Objektraum auf dessen Oberfläche eine strukturierte Beleuchtung.
Grundsätzlich kann das strukturiert leuchtende Array auch selbstleuchtend sein und lokale Extrema der Leuchtdichte aufweisen.
Zu dem erfinderischem Zweck ist bei der Abbildung des strukturiert leuchtenden Arrays in die Tiefe des Objektraumes eine möglichst geringe Ausdehnung des Schärfebereiches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein Objektiv zur Abbildung des Objektes oder der Szenen, das Abbildungsobjektiv angeordnet. Beleuchtungs- und Abbildungsobjektiv sind vorzugsweise von gleicher Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der beiden Objektive im Objektraum vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vorzugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem gemeinsamen Gehäuse untergebracht sein.
Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Das Objektiv sollte jeweils in einem großen Tiefenbereich gut korrigiert sein. Durch die Koinzidenz der Brennebenen im Objektraum können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Abstand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deutlich unterhalb des einhundertfachen Pupillendurchmessers des Beleuchtungsobjektivs - typisch ist der dreifache bis zehnfache Pupillendurchmesser - zumindest einen identischen Teil des Objektfeldes im Objektraum, in der Regel verkleinernd, in den Array-Raum ab. In diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemeinsamen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die Schärfeflächen der beiden Objektive im Objektraum fallen vorzugsweise in einem möglichst großen Bereich zusammen.
Das Abbildungsobjektiv weist im Array-Raum einen vorzugsweise telezentrischen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um 100 m. Dagegen fallen objektseitig der Brennpunkt und das Zentrum der Eintrittspupille zusammen. Das Beleuchtungsobjektiv weist im Array-Raum vorzugsweise einen ebenfalls gut korrigierten telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuchtungsobjektiv im Array-Raum einen parallelen Strahlengang mit einer dezentrierten Eintrittspupille aufweist.
In der Bildebene des Abbildungsobjektivs ist ein weiteres Array, das Empfänger-Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentrischen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugsweise ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.
Die Telezentrie des Abbildungsobjektiv im Array-Raum sichert, daß beim Bewegen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbildungsstrahlen nicht lateral auswandern. Im Objektraum weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralperspektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.
Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, beispielsweise ein Bildempfänger, nachgeordnet.
Durch das gemeinsame Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungsobjektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebildet. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des strukturiert leuchtenden Arrays, welche durch das Abbildungsobjektiv scharf auf das Empfänger-Array abgebildet wird. Durch die Anpassung der Leuchtdichte der Strahlungsquelle an die jeweilige Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von deren Entfernung ausgeglichen.
Dabei wird das folgende Bewegungsregime für das strukturiert leuchtende Array und das Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse des Beleuchtungs- und des Abbildungsobjektivs, die zA-Richtung, sind bei einem Beleuchtungs- und Abbildungsobjektiv mit gleicher Brennweite gleich.
Das strukturiert leuchtende Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeitgleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.
Bei einem elektronisch steuerbaren strukturiert leuchtenden Array erfolgt die laterale Verschiebung der Elemente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmission, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - jeweils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Array, welches ein elektronisch steuerbares Liniengitter darstellen kann, werden die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion - oder durch eine direkte Steuerung der Leuchtdichteverteilung bei einem selbstleuchtenden Array - erzeugt.
Für die Gitterelemente oder die Elemente gleicher Leuchtdichte, bzw. die Orte der lokalen Extrema der Leuchtdichte des strukturiert leuchtenden Arrays, bzw. auch der Orte gleicher Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist, die beispielsweise in dessen Brennebene im Array-Raum liegt.
Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv dem Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs.
Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Achsen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuchtungsobjektivs auf der Seite des strukturiert leuchtenden Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden werden in diesem Fall auf eine zur Objektivachse des Beleuchtungsobjektivs parallele Gerade gO abgebildet.
Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des strukturiert leuchtenden Arrays enthalten, bilden im Objektraum mit der Geraden gO ein Geradenbündel, wobei der Schnittpunkt aller Geraden dieses Bündels bei der beschriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Objektraum liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungsobjektivs bei Telezentrie im Array-Raum ebenfalls den Brennpunkt des Abbildungsobjektiv im Objektraum und bilden so ein Strahlenbündel. Die Geraden des Geradenbündels und die Strahlen des Strahlenbündels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im Array-Raum und einer Bewegung des strukturiert leuchtenden Arrays in Richtung der Geraden gA die zu den jeweiligen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung entspricht der Verschiebung von leuchtenden Flächenelementen des strukturiert leuchtenden Arrays oder der Verschiebung der Leuchtdichteverteilung auf dem strukturiert leuchtenden Array. Ein paralleles Verschieben dieser Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signalen, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achssenkrechten Ebene im Objektraum eine Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlänge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge wird hier als der Betrag der Verschiebung Δz2 π eines Objektpunktes auf einem Abbildungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungsstrahl verändert hat, mit zOB als der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Objektraum.
Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfindlichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen besonders schnell erfolgen. Es können straight forward-Algorithmen zur Anwendung kommen.
Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Genauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen realisierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb zunächst vorzugsweise dargestellt.
Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem strukturiert leuchtenden Array ist ein Beleuchtungsobjektiv zum Zweck der Abbildung zugeordnet, wobei das strukturiert leuchtende Array schiefwinklig zur Achse des Beleuchtungsobjektivs bewegbar ist. Die geradlinige Bewegungsrichtung des strukturiert leuchtenden Arrays definiert die Lage einer Geraden gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die Anordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endlichen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Geraden gA durch das Beleuchtungsobjektiv in den Objektraum erzeugt die zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die Brennebene des Beleuchtungsobjektivs im Objektraum. Der objektseitige Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuchtungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf, wobei dieser Anstieg auf eine senkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.
Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein System mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linearbewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Komponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA -Richtung. Diese beiden Linearführungen erzeugen so die Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten dieser zweiten Linearführung das strukturiert leuchtende Array.
Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleichzeitig auf diesem Schlitten das strukturiert leuchtende Array und das Empfänger-Array trägt, eingesetzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztgenannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem Empfänger-Array eine Verschiebung des Bildes zu den Pixeln des Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelweise zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetretenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein bestimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgelegten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des strukturiert leuchtenden Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder jedem Datenfeld des gesamten Bilddatensatzes zugeordnet.
Damit sich bei dem Verfahren mit nur einer Linearführung die effektiv erfaßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays nicht verringert, wird in Abhängigkeit von der Verschiebungslänge ein längeres Empfänger-Array eingesetzt. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von der Anzahl der aufgenommenen Bilder pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, abhängig.
Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen: Die laterale und lineare Bewegung des strukturiert leuchtenden Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Nullpunkt. Das strukturiert leuchtende Array kann ein beleuchtetes Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruchteilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der inkrementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Referenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufgenommenen optischen Signale darstellen. So kann die Phase dieser Signale hochgenau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signale in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.
Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vorzugsweise in der gleichen Ebene wie die Fläche des strukturiert leuchtenden Arrays. Außerdem führt das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, durch das Bewegungssystem oder bei einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte führen zusätzlich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewegung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunktes beobachtet werden kann.
Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie der Objektive im Array-Raum erreicht, daß ein Beleuchtungsstrahl eines leuchtenden Elementes einer bestimmten Phase und ein Abbildungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Arrays die Bilder der leuchtenden Elemente gleicher Phase und die der empfangenden Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr geringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objektive und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand können innerhalb gewisser Grenzen toleriert werden.
Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopplung der Schärfeflächen" der beiden Objektive im Objektraum zu einer gemeinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des Array-Raums ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispielsweise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehörigen Bildpunkt detektiert wird.
Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des beleuchteten Liniengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Signal selbst und durch seine Lage in Bezug auf die Phase des beleuchteten Liniengitters ist die Information über die aktuelle zOB-Position dieses Objektpunktes im Objektraum eindeutig enthalten.
Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem Objektpunkt und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objektphase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestimmen. Dies wird durch die Detektion eines modulierten periodischen Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehörigen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.
Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Objektraum so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des strukturiert leuchtenden Arrays, bzw. des beleuchteten Liniengitters, ergibt.
Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Objektraum durch konstante Schritte eines bewegten Liniengitters, welches ein beleuchtetes Liniengitter mit konstanter Gitterperiode darstellt, im Array-Raum. Unter Array-Raum wird immer der Raum verstanden, wo sich das Empfänger-Array und das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, befinden.
Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Objektraum gibt.
Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position ZObj desselben und der Geometrie der optischen Anordnung abhängig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Objektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander parallelen Objektivachsen und die Gitterkonstante p des strukturiert leuchtenden Arrays, hier ein Liniengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs beschreibt.
Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, absolute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB entspricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruchteile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO liegen.
Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objektphase ϕObj = ϕfB und es gilt
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objektive voneinander und mit p als der Gitterkonstanten des beleuchteten Liniengitters, welches als strukturiert leuchtendes Array verwendet wird.
Mit einer ebenen und achssenkrechten Referenzplatte kann im Objektraum die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kenntnis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hochgenaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Justierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte - genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der optischen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.
Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase ϕObj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungsstrahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Empfängerfläche treffen.
Die Objektphase ϕObj eines Objektpunktes wird in Bezug auf eine Referenzfläche bestimmt. Die absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenommenen, vorzeichenbehafteten Abstand zOB = ZOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des strukturiert leuchtenden Arrays, beziehungsweise des beleuchteten Gitters, darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung der Objektoberflächen in der Szene genutzten Abbildungsstrahlen auch auf die Referenzplatte.
Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobachtenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter dieser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulationsmaximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Liniengitters ϕGitter oder dem zugeordneten Verschiebeweg des Liniengitters ist abhängig vom Achsabstand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.
Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zugehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf möglichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendifferenz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Liniengitters ΔϕGitter.
Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt eines Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zweitens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei jeweils der absoluten Phase des Liniengitters ϕGitter zugeordnet und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasenwerte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objektpunkt. Mit der Differenz
ΔϕGitter = ϕGitterObj - ϕGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert aufweist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzphase ϕR wird die absolute Objektphase ϕObj dann mit
ΔϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate eines Objektpunktes zOB = zObj kann dann mit der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen negativen Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des beleuchteten Liniengitters dar.
Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Objektraum, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Objektraum den Nullpunkt der 3D-Aufnahme-Anordnung dar.
Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des beleuchteten Liniengitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.
Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte gleicher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Liniengitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.
Grundsätzlich kann auch über ein Längenmeßsystem, welches die Bewegung oder Verschiebung des Liniengitters hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Liniengitters kann aus der gemessenen Ortsdifferenz die zugehörige Phasendifferenz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die phasenmäßige Abtastung des Liniengitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit einem Gegengitter technisch besonders schwierig ist.
Mit der vorzugsweise hochebenen Referenzplatte muß die 3D-Aufnahme-Anordnung in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem experimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die gemessene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochgenau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.
Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem strukturiert leuchtenden Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Raumes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche laterale Bewegung des Liniengitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Liniengitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemeinsamen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Liniengitters in zA-Richtung, die Phasenlage des Liniengitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elektronisch steuerbaren Liniengitter verändert wird.
Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Array-raum und im Objektraum betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Array-raum aus der xAB-Position im Gitterelement GAB bestimmt werden, welches sich im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Array-Raum mit
mit xAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konjugierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.
Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefenauflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Array-Raum in einer zum strukturiert leuchtenden Array optisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Objektiv nachgeordnet. Dieses Objektivist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivsbefindet sich der Bildaufnehmer.
Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vorzugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen: Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mittleren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine geeignete Aussteuerung in den Bildelementen eines nachgeordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch möglich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem strukturiert leuchtenden Array zugeordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.
Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe-Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des strukturiert leuchtenden Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementargleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des strukturiert leuchtenden Arrays, hier des Liniengitters, erfolgen.
Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßgenauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswerten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Modulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Beispiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei Kurzkohärenz-Methoden angewendet.
Da die Gitterkonstante, des strukturiert leuchtenden Arrays vorzugsweise konstant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des strukturiert leuchtenden Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das bekannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die Anzahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine hohe Geschwindigkeit der Bewegung des Liniengitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Digitale Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter vertieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperationen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.
Es ist vorteilhaft, wenn das strukturiert leuchtende Array, hier das Liniengitter, zusätzlich eine Nullpunktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter phasenmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes bestimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert.
Bei einem unbekannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Liniengitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz-Anfangsphase im Bereich des Maximums der Modulation entspricht.
Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Liniengitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Liniengitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.
In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Objektraum erfolgte in der bisherigen Darstellung jeweils über das Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.
Im Fall des Veränderns der Lage der Schärfeflächen im Objektraum über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein.
Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dieser Fall betrachtet.
Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.
Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise durch die optische Modulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.
Es muß realisiert werden, daß die Bewegung des Punktes des strukturiert leuchtenden Arrays, welcher in der Brennebenenlage des strukturiert leuchtenden Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des strukturiert leuchtenden Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Beleuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des strukturiert leuchtenden Arrays auf einer Geraden gA, noch eine zusätzliche Bewegung des strukturiert leuchtenden Arrays senkrecht zur optischen Achse erforderlich. Bei einem elektronisch steuerbaren Liniengitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.
Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr genau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen Lageabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung bewegten optischen Komponenten im Beleuchtungsobjektiv unterstützt werden.
Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Objektraum möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Abbildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.
Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbildungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann.
So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Liniengitter als strukturiert leuchtendes Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem strukturiert leuchtenden Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem strukturiert leuchtendes Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.
Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt FOA des Abbildungsobjektivs im Objektraum in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes FOA definiert den Ort der Geraden gO, die als Bild der Geraden gA definitionsgemäß diesen Brennpunkt FOA enthalten und parallel zur Achse des Beleuchtungsobjektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrechten Ebene im Objektraum eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.
Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Objektraum, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Objektraum bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsobjektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden können. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann.
Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechnergesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wodurch die Koinzidenz der Schärfeflächen im Objektraum erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Beleuchtungsobjektivs im Objektraum befindet.
Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Die Mikrostruktur bewirkt eine für die Erfassung der Fläche der Referenzplatte ausreichende Rückstreuung in die 3D-Aufnahme-Anordnung. Die Einmessung kann beliebig oft kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und thermisch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Objektraum möglich, wobei der Luftspalt konstant und dessen Geometrie bekannt ist.
Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Rerenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.
Es ist auch möglich, Verzeichnungen der Objektive und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden.
Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight forward-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wodurch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.
Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Strahlungsquelle in Abhängigkeit von der Position des strukturiert leuchtenden Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den einzelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren, strukturiert leuchtenden Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare strukturiert leuchtende Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitterlinien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.
Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblendet werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der notwendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisationsblenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Objektraum. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder ausgeblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.
Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kontinuierlichen, rotatorischen Bewegung eines strukturiert leuchtenden Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgittes das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, welches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmodul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens eines hochgenauen Nullpunkt-Signals.
Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatorischen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des strukturiert leuchtenden Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linearführung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das strukturiert leuchtende Array einen kontinuierlichen Lauf erfährt, der durch die phasenmäßige Abtastung hochgenau geregelt werden kann. Bei dieser Lösung tritt wegen der Struktur des Radialgitters eine Variation der Gitterkonstante entlang der Koordinate xA auf. Für Radialgitter mit einem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Methoden akzeptierbar.
Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv rechnergesteuerte Zoom-Objektive einzusetzen, die vorzugsweise jeweils mit der gleichen Brennweiteneinstellung arbeiten.
Um vom strukturiert leuchtenden Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das strukturiert leuchtende Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem strukturiert leuchtendes Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das strukturiert leuchtende Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.
Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am strukturiert leuchtenden Array abgenommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der optischen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei gemessen wird.
Es ist mit einem elektronisch gesteuerten, strukturiert leuchtenden Array möglich, die durch Telezentriefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfehler durch Dehnen oder Stauchen des elektronisch gesteuerten strukturiert leuchtenden Arrays auszugleichen.
Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trägerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Trägerplatte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In verschiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlichkeit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.
Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm aufgebaut. Dieser Schirm kann näherungsweise die Grobform des zu vermessenden Objektes, beispielsweise die Form einer kompletten Automobilkarosserie, aufweisen. Die erfaßten Objekträume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbereich erfaßt werden.
Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils andersfarbigen Strahlungsquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Strahlungsquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.
Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zugeordnet sein, beispielsweise zwei. Dabei kann jedem Beuchtungsobjektiv eine andersfarbige Strahlungsquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektronisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Strahlungsquelle auf den Bildempfänger gelangen zu lassen.
Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbeiten. So können verschiedene Beleuchtungsrichtungen im Objektraum realisiert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.
Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.
Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern kann wie folgt vorgegangen werden:
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.
Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB-Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.
Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiterhangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist. Die jeweils erfaßten Objekträume werden numerisch zusammengesetzt.
Das Abbildungsobjektiv kann fest angeordnet sein. Dabei ist mindestens ein Beleuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und der kompletten Beleuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar angeordnet, wobei vorteilhafterweise die optische Achse des Abbildungsobjektivs die Drehachse für das Beleuchtungsobjektiv darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.
Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermessen und nach erfolgter Vermessung der Planspiegel zurückgeschwenkt wird.
Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildaufnahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errechneten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaximum aufweisen. Anschließend kann das strukturiert leuchtende Array um einen Bruchteil der Gitterperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasenänderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird. Vorzugsweise entspricht die beschriebene Verschiebung des strukturiert leuchtenden Arrays dem Betrag der viertel Gitterperiode.
Im folgenden werden weitere Merkmale des Verfahrens und der Anordnung zur 3D-Aufnahme von Objekt­ oberflächen in Szenen dargestellt.
Weiterhin ist in einem Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mindestens eine elektromagnetischen Strahlungsquelle angeordnet und die Strahlungsquelle ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet.
Dabei leuchtet mindestens ein Flächenelement, so daß mindestens ein leuchtendes Flächenelement ge­ bildet ist. Dabei ist jedes leuchtende Flächenelement FELj des strukturiert leuchtenden Arrays selbst, oder deren Bilder, in einer Leuchtdichteverteilung durch eine zumindest näherungsweise vorbestimmte Leuchtdichte und durch einen zumindest näherungsweise vorbestimmten Ort definiert, welches im weite­ ren als leuchtendes Flächenelement FELj bezeichnet wird. Der Begriff "Leuchten" wird hier als das Ab­ strahlen von elektromagnetischer Strahlung verstanden.
Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente FEL können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das struktu­ riert leuchtende Array dabei ein Array aus äquidistanten steuerbaren Mikro-Lichtquellen, beispielsweise Mikro-Laser oder auch Mikro-Leuchtdioden darstellen. So ist es auch möglich, ein strukturiert leuchtendes Array beispielsweise mit vertikal abstrahlenden Laserdioden zu erzeugen, die mittels eines Rechners, auch einzeln, angesteuert werden. Beispielsweise kann ein leuchtendes Flächenelement FELj so das 100fache der mittleren Leuchtdichte des Arrays aufweisen, also vergleichsweise intensiv leuchten.
Die Strahlungsquelle kann aber auch als eine flächige und unstrukturierte Strahlungsquelle einem struktu­ rierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. So kann ebenfalls ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte realisiert werden. In jedem Fall stellen die leuchtenden Bereiche des strukturiert leuchtenden Arrays selbst, ein­ schließlich deren Bilder, leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung mit einer zu­ mindest näherungsweise vorbestimmten Leuchtdichte in Bezug zur mittleren Leuchtdichte der Leuchtdich­ teverteilung im strukturiert leuchtenden Array dar.
Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet, welches mindestens einem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordnet ist. So wird eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj reali­ siert und die Objektoberflächen können zumindest zu einen einzigen Zeitpunkt strukturiert beleuchtet wer­ den.
Es ist weiterhin möglich, daß durch die Überlagerung von kohärenten Lichtbündeln auf den Objektoberflä­ chen in der Szene eine strukturierte Beleuchtung auf der Basis der Interferenz elektromagnetischer Wel­ len erzeugt wird. Vorzugsweise können zwei kohärente Lichtbündel zur Interferenz gebracht werden. Vor­ zugsweise können diese zumindest näherungsweise Ausschnitte aus Kugelwellen darstellen, und es kann ein Streifenmuster gebildet werden. Die Lage der Streifen kann durch die Änderung des optischen Gangunterschiedes zwischen den kohärentem Lichtbündeln verändert werden.
Weiterhin ist mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der mindestens ei­ nen Objektoberfläche und mindestens ein Empfänger-Array mit mindestens zwei Elementen und minde­ stens einem dem Empfänger-Array zugeordneten Abbildungsobjektiv angeordnet. Dabei detektieren Ele­ mente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche im Objektraum.
Weiterhin werden von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebil­ det. Die Elemente der mindestens einen Objektoberfläche werden mit mindestens einem Abbildungsob­ jektiv abgebildet. Mindestens ein leuchtendes Flächenelement FELj des strukturiert leuchtenden Arrays kann eine Verschiebung erfahren. Durch die Abbildung des mindestens einen leuchtenden Flächenele­ mentes FELj mit dem mindestens einen Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden Flächenelementes FELj im Objektraum mit einem geometrisch-optischen Schärfevolumen gebildet.
Das Empfänger-Array kann auch einen Film oder eine Platte mit einer Beschichtung darstellen, die für Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Die Verwendung eines Targets, welches für UV-, VIS- oder IR-Strahlung empfindlich gemacht ist, ist ebenfalls möglich.
Die Detektion von elektromagnetischer Strahlung von den Elementen der mindestens einen Objektober­ fläche durch die Elemente des Empfänger-Arrays erfolgt mindestens in einem Zeitbereich ΔtB, in welchem auch die Verschiebung mindestens eines leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird.
Dabei wird innerhalb des Zeitbereichs ΔtB mindestens mit einem leuchtenden Flächenelement FELj des strukturiert leuchtenden Arrays eine zumindest näherungsweise vorbestimmte Verschiebung durchge­ führt, - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geome­ trisch-optischen Weglängenänderung - und so sendet mindestens ein leuchtendes Flächenelement FELj zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten elektromagnetische Strah­ lung aus.
Dabei werden das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchten­ den Flächenelementes FELj des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schär­ fevolumen im Objektraum gebildet ist, und das Schärfevolumen mindestens eines Bildes mindestens ei­ nes vorbestimmten Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen ebenfalls im Objekt­ raum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest nähe­ rungsweise einmal aufgrund der Durchführung der vorbestimmten Verschiebung mindestens eines vor­ bestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungskomponente parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevolumens eines Bildes ei­ nes vorbestimmten, feuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und des Schärfevolumes eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays und mindestens ei­ nes Elementes der mindestens einen Objektoberfläche erzeugt. Beim Auftreten der Koinzidenz erfährt zumindest das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays zumindest einmal eine zeit­ lich veränderte Bestrahlung gegenüber dem Fall der Nichtkoinzidenz und so detektiert dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal.
So werden durch die Realisierung der Verschiebung nach und nach Elemente der mindestens einen Ob­ jektoberfläche gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht. Jeweils beim Auftreten der Koin­ zidenz erfährt das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zumindest ein­ mal eine zeitlich veränderte Bestrahlung und so detektiert dieses Element des Empfänger-Arrays zumin­ dest einmal ein verändertes Signal.
Ein leuchtendes Flächenelement kann fest an eine geometrische Struktur eines Körpers gebunden sein, beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung mit einer vorgeordneten Strahlungsquelle.
Die feste Kopplung an eine geometrische Struktur eines Körpers muß jedoch nicht sein, denn in einem elektronisch steuerbaren, strukturiert leuchtenden Array, mit zwei Flächenelementen kann sich das leuchtende Flächenelement FELj zu jeweils unterschiedlichen Zeitpunkten sowohl am Ort des ersten, als auch am Ort des zweiten Flächenelementes befinden.
Es ist aber auch grundsätzlich in der beschriebenen Anordnung und nach dem beschriebenen Verfahren möglich, daß ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenele­ menten FELj in einer räumlichen vorbestimmten Struktur aufgebaut ist. Im Objektraum entstehen nach Abbildung der fest angeordneten leuchtenden Flächenelementen FEL durch das Beleuchtungsobjektiv an verschiedenen Orten Bilder der fest angeordneten leuchtenden Flächenelementen FEL. In der 3D-Auf­ nahme-Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objek­ tes im Objektraum, welches genau dort Elemente der Objektoberfläche aufweist, wo sich genau ein Bild der leuchtenden Flächenelemente FEL befindet, detektieren die Elemente des Empfänger-Arrays jeweils einen Signalwert oberhalb eines Schwellwertes.
Für die Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flächenelemente FEL im Objektraum nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D- Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert. Die Ver­ schiebung erfolgt dabei zum einen vorzugsweise mit konstanter Geschwindigkeit. Andererseits kann die Gegenstandsweite des strukturiert leuchtenden Arrays auch sprunghaft verändert werden.
Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenelementen FEL in einer räumlichen Struktur gestaltet werden. Eine 3D-Aufnahme-Anordnung kann mit diesem speziellen, strukturiert leuchtenden Array zur Prüfung von massenhaft gefertigten Ist-Objektoberflächen bei entsprechend genauer Positionierung in der beschriebenen 3D-Aufnahme-Anordnung eingesetzt werden. In diesem Fall erfolgt keine physische Ver­ schiebung der leuchtenden Flächenelementen FELj im Array-Raum, sondern nur eine parallele Detektion durch die Elemente des Empfänger-Arrays. Dieses Verfahren kann mit einer außerordentlich hohen Ge­ schwindigkeit durchgeführt werden. Die Begrenzung liegt in der Regel bei der Positionierung. Es ist grundsätzlich eine Prüfung von Objektoberflächen von Werkstücken im Flug oder im freien Fall möglich.
Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenschärfebereich bei der Abbildung von Ob­ jektoberflächen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der struk­ turierten, leuchtenden Fläche und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum auf Bahnkurven verschoben werden. Das strukturiert leuchtendes Array kann ein elektronisch steuerbares, strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungsquelle sein, welches durch ein Bewegungssystem geradlinig verschoben wird. Es kann durch die elektronisch gesteu­ erte laterale Verschiebung der lokalen Extrema der Leuchtdichte auch eine definierte Abweichung der Bahnkurven von der Geradheit erzeugt werden, beispielsweise durch die Verschiebung von transparenten Linien eines sehr feinstrukturierten LCDs mit einer sehr großen Anzahl von Elementen beispielsweise in der Größenordnung 106. So kann die zA-abhängige Verzeichnung des Beleuchtungsobjektivs oder die systematische Abweichung von der Geradlinigkeit des Bewegungssystem so beeinflußt werden, daß sich bei der Verschiebung des strukturiert leuchtenden Arrays die Bilder der Bahnkurven im Objektraum Bah­ nen mit einer sehr geringen Abweichung von der Geradheit, also Strecken darstellen.
Die Bahnkurven können dabei so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880ealisiert werden, daß nach deren Abbildung mit dem Beleuchtungsob­ jektiv aus deren Bildern zumindest näherungsweise im Objektraum ein erstes Streckenbüschel SB1 mit einem Konvergenzpunkt K1 der Strecken gebildet werden kann. Diese Strecken können im Objektraum als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die ver­ schobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können im Objektraum auf einer Objektoberfläche beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt der Objektoberfläche zumindest näherungsweise koinzidieren. Durch den Triangulationseffekt kann bei der Verschiebung des Bildes eines leuchtenden Flächenelementes FELj und des mit diesem koinzidie­ renden Bild eines Elementes des Empfänger-Arrays ein laterales Auswandern des Bildes des Lichtpunk­ tes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des beleuchteten Bereiches der Objektoberfläche vom aktuellen Koinzidenzpunkt der beiden Bildern zu, wobei das Element des Empfänger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flächenelementes FELj detektiert, beziehungsweise ein in der Regel ebenfalls unscharfes, leuchtendes Flächenelement FELj+1 in der Nachbarposition von dem ersten leuchtenden Flächenelement FELj auf dem strukturiert leuchtenden Array. Dabei erfolgt die Abbildung des leuchtenden Flächenelementes FELj stets über die Objektoberfläche. Im Falle eines einzelnen leuchtenden Flächenelementes FELj registriert das zugehöri­ ge Element eines Empfänger-Arrays eine geringere Lichtintensität, so daß beim Abbilden eines einzelnen Lichtspaltes sich ein Signalverlauf mit einer Veränderung der Signalintensität, beispielsweise auch ein Si­ gnalverlauf mit einem Extremum - in der bereits beschriebenen dreifachen Koinzidenzsituation, ergibt.
Dieses Verfahren ermöglicht in einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden Arrays und so auch der leuchtenden Flächenelemente FEL in einer Verschiebungsrichtung mit einer Komponente in zA-Richtung, also auch mit einer Komponente parallel zur optischen Achse des Beleuch­ tungsobjektivs, eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberfläche an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Richtung so gewählt, daß die Schärfefläche den Objektraum von einem Nahbereich, welcher der Fläche Fmin entspricht, beispielsweise in der zehnfachen Brennweite des Beleuchtungsobjektivs, bis zu einem Fernbereich, welcher der Fläche Fmax entspricht, beispielsweise in einer Entfernung von der 3D-Aufnahmeanordnung der 100fachen Brennweite, nach und nach durch eine vorbestimmte, beispielsweise eine elektronisch gesteuerte Ver­ schiebung der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays durchwandert. Da­ bei liegt der Betrag der Verschiebung der leuchtenden Flächenelemente FEL vorzugsweise in der Größe eines Zehntels der Brennweite des Beleuchtungsobjektivs.
Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flächenelemente des strukturiert leuchtenden Arrays und der Gesamtheit der Elemente des Empfänger-Arrays für die Gesamtheit der Elemente der Objektoberflächen im Erfassungsvolumen der 3D-Aufnahmeanordnung durchgeführt.
Durch mehrfaches Detektieren und Auslesen während des Verschiebungsvorganges von mindestens ei­ nem vorbestimmten Element des Empfänger-Arrays kann eine Interpolation zur Verbesserung der Genau­ igkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberfläche durchgeführt werden.
Die Öffnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise vergleichsweise klein gemacht sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Schärfevolumen des Bildes der Elemente des Empfänger-Arrays eine vergleichsweise große Tiefe besitzt, beispielsweise in der Form ei­ nes langen Ausschnittes aus einer schlanken Pyramide - bei einem Element mit einer quadratischen Flä­ che.
Die Größe des Schärfevolumens ist im Objektraum von der Entfernung vom zugehörigen Objektiv ab­ hängig. Bei der Abbildung eines Elementes des Empfänger-Arrays in den Objektraum soll es einen Tie­ fenbereich aufweisen, in welchem das Bild eines Elementes des Empfänger-Arrays aufgrund der geome­ trisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert - gegenüber der idea­ len geometrisch-optischen Abbildung. So weist das Schärfevolumen nach dieser Definition an einem Punkt des Objektraum im Mittel die zweifache Fläche eines Bildes eines Elementes des Empfänger- Arrays auf. Der Tiefenbereich ergibt sich dann als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich unschärfebedingt nicht größer als verdoppelt darstellt.
Dagegen kann das Beleuchtungsobjektiv eine vergleichsweise große relative Öffnung besitzen. Bei­ spielsweise kann die relative Öffnung 1 : 2,0 betragen. Dadurch kann das Schärfevolumen des Bildes von leuchtenden Flächenelementen FEL eine vergleichsweise geringe Tiefe aufweisen, beispielsweise in der Form eines kurzen Ausschnittes aus einer Pyramide.
Das Schärfevolumen soll bei der Abbildung eines leuchtenden Flächenelementes FELj in den Objektraum einen Tiefenbereich aufweisen, in welchem das Bild von leuchtenden Flächenelementen FEL aufgrund der geometrisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert. Es gilt das gleiche Kriterium. Bei einem linienförmigen, leuchtenden Flächenelement FELj kann eine Verdoppelung der Breite des Bildes des linienförmigen, leuchtenden Flächenelementes FELj als Unschärfe-Kriterium angenommen werden. So weist ein Schärfevolumen an einem Punkt des Objektraum im Mittel die zweifa­ che Fläche eines Bildes eines leuchtenden Flächenelementes FELj. Der Tiefenbereich ergibt sich dann auch hier als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich nicht größer als verdoppelt darstellt.
Die exakte Definition des jeweiligen Schärfevolumens spielt jedoch hier für die Gewinnung der 3D- Punktwolke keine Rolle, da von der Definition des Schärfevolumens keine Rechenvorschrift abgeleitet wird.
Bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj im Array-Raum bewegt sich im hier dargestellten Fall das Schärfevolumen jeweils eines Bildes eines leuchtenden Flächenelemen­ tes FELj im Schärfevolumen jeweils eines Bildes eines Elementes des Empfänger-Arrays. So kann sich in diesem Fall ein Element der Objektoberfläche permanent im Schärfevolumen eines Bildes eines Empfän­ gerelementes befinden. Jedoch erst bei der Koinzidenz des Schärfevolumens des Bildes eines leuchten­ den Flächenelementes mit einem Element der Objektoberfläche erfolgt eine strukturierte Beleuchtung die­ ses Elementes der Objektoberfläche. So kann durch das - bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj - mehrfach ausgelesene Element eines Empfänger-Arrays bei­ spielsweise ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert wer­ den.
Die vorbestimmte Verschiebung der leuchtenden Flächenelemente FELj kann elektronisch gesteuert er­ folgen. Um die mechanische Bewegung des strukturiert leuchtenden Arrays zu vermeiden, können die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche jeweils Verschiebungen auf Bahnkurven im Array-Raum erfahren, die sich aus der elektronisch gesteuerten Veränderung der opti­ schen Weglänge im Array-Raum und der elektronisch gesteuerten Verschiebung der lokalen Extrema der Leuchtdichte auf dem strukturiert leuchtendes Array ergeben. Zusätzlich kann auch eine elektronisch ge­ steuerte Veränderung der optischen Weglänge im Raum vor dem Empfänger-Array durchgeführt werden, die zu scheinbaren Verschiebungen der sensitiven Elemente des Empfänger-Arrays entlang von Bahn­ kurven führen.
Weiterhin kann vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der De­ tektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden. Durch das Beleuchtungsobjektiv kann dieses leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine vorherbestimmte Strecke im Objektraum BSOj abgebildet werden.
Der Ort des Bildes des leuchtenden Flächenelementes FELj wird dabei auf der Strecke BSOj nach und nach verändert und so wird das Bild des leuchtenden Flächenelementes FELj mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objektraum verschoben. Bei der Verschiebung je eines leuchtenden Flächenelementes FELj werden mehrfach nach­ einander Signalwerte aus Elementen des Empfänger-Arrays ausgelesen und so wird ein Signalverlauf gebildet, wobei der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird. Die Orte der ausgelesenen Elemente des Empfänger-Arrays liegen auf einer Strecke ASAj und das Bild dieser Strecke ASAj, die Strecke ASOj, ist mit der vorherbestimmten Strecke BSOj der Bilder der leuchtenden Flächenelemente FEL im Objektraum optisch konjugiert. So kann je ein Bild eines Elementes des Emp­ fänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeit­ punkt ti innerhalb des Zeitintervalls Δti im Zeitbereich ΔtB im Objektraum zur Koinzidenz gebracht sein und so wird je ein Paar mit wechselnden Bildern erzeugt, wobei dieses Paar nach und nach durch den Objek­ traum geschoben wird. So ist gegeben, daß je ein Schärfevolumen des Bildes eines leuchtenden Flä­ chenelementes des strukturiert leuchtenden Arrays und je ein Bild eines Elementes des Empfänger- Arrays mit je einem Flächenelement der Objektoberfläche einmal im Verschiebungsvorgang innerhalb ei­ nes Zeitbereich ΔtB zusammenfallen, wenn sich ein Element der Objektoberfläche auf dem Abbildungs­ strahl zwischen den Bildern der beiden Flächen Fmin und Fmax im erfaßten Bereich des Objektraum es be­ findet. Die ausgelesenen Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz einen veränderlichen Signalverlauf vorzugsweise mit mindestens einem relativen Extremum der Signal­ größe, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zei­ tintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt werden kann.
Vorteilhaft kann auch ein einem mechanisch feststehendem Empfänger-Array verwendet werden, bei­ spielsweise eine CCD-Kamera, die nicht senkrecht zur optischen Achse des Abbildungsobjektivs steht. Dies ermöglicht ausgewählte Elemente der Objektoberflächen aus unterschiedlichen Tiefen des Objek­ traum scharf abzubilden. Es kann auch ein räumlich strukturiertes Empfänger-Array eingesetzt werden.
Dieser Ansatz ist besonders für kleine oder für flache Meßvolumina mit geeignet. Vorzugsweise kann das leuchtende Array auch einen beleuchteten Einzelspalt darstellen. Andererseits kann beispielsweise auch ein Direct Mirror Device oder einem LCD-Array als steuerbares Array in Verbindung mit einer im Beleuch­ tungsstrahlengang vorgeordneten Lichtquelle eingesetzt werden.
Ein beleuchteter Einzelspalt kann beispielsweise linear verschobenen werden. Der Abbildungsstrahl, wo­ bei die Lage dieses Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwerpunk­ tes des gerade ausgelesenen Elementes des Empfänger-Arrays und den Ort des Zentrums der Öff­ nungsblende des Abbildungsobjektivs bestimmt ist, wandert dabei zunächst über die nicht vom Bild des Lichtspaltes beleuchteten Flächenelemente der Objektoberfläche. Der Lichtspalt wird erst in der Koinzi­ denzsituation vom Bild des leuchtendem Flächenelementes, vom Bild des Elementes des Empfänger- Arrays und vom Element der Objektoberfläche vom Element des Empfänger-Arrays detektiert. Jedoch fällt je ein Bild eines leuchtenden Flächenelementes FELj, z. B. ein Spaltbild, stets mit dem Bild eines Elemen­ tes des Empfängers für das Zeitintervall Δti zusammen, sozusagen immer in der "Erwartung" der Objekto­ berfläche. Im nächsten Zeitintervall Δti+1 kommt das nächste Element des Empfängers mit einem Bild ei­ nes leuchtenden Flächenelementes zur "Paarbildung". So bildet ein bestimmtes leuchtendes Flächenele­ mentes FELj mit Bildern wechselnder Elemente des Empfänger-Arrays für das Zeitintervall Δti jeweils ein Paar, wobei durch die getrennten Pupillen des Beleuchtungsobjektivs und des Abbildungsobjektivs ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildungstrahl besteht, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenelement detektieren kann, wenn gleichzeitig, also im Zeitintervall Δti, auch noch ein Element der Objektoberfläche zumindest nähe­ rungsweise mit dem gerade, also im Zeitintervall Δti, bestehenden Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flächenelementes zusammenfällt. So besteht ein Tripel. In dieser Position detektiert das Element des Empfänger-Arrays das Lichtspaltbild auf der Objektoberfläche. Weit außerhalb des Schärfevolumen detektiert es dagegen nur die undurchlässigen Bereiche der Maske auf der gegebenenfalls vorhandenen Objektoberfläche. Dazwischen besteht ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen 3D-Meßmikroskopen entspricht.
Dabei kann sich auch stets das gleiche leuchtende Flächenelement FELj auf den Punkten der Verschie­ bungsstrecke befinden. Dies entspricht dem realen mechanischen Verschieben des leuchtenden Flä­ chenelementes FELj. Dies muß nicht immer so sein, da andererseits auch der Aufenthalt eines beliebi­ gen, leuchtendes Flächenelementes FELj zum Zeitpunkt ti innerhalb des Zeitintervalls Δti genügt.
Dabei kann das strukturiert leuchtende Array auch aus zumindest näherungsweise punktförmigen oder linienhaften Strahlungsquellen in einer gerasterten Struktur bestehen. So kann ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte gebildet sein. Weiterhin können auch leuchtende Flä­ chenelemente FEL mit lokalen Extrema der Leuchtdichte verschoben werden. Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mit­ teln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuerte Verschie­ bung möglich.
Leuchtende Flächenelemente FEL können in einer Leuchtdichteverteilung mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zeitlich nacheinander an unter­ schiedlichen Orten elektromagnetische Strahlung aussenden und gleichzeitig erfolgt die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitinter­ valls Δti.
Es wird weiterhin vorgeschlagen, die strukturierte Beleuchtung mit einem Beleuchtungsobjektiv mit einer vergleichsweise großen Pupillenöffnung und mit einem strukturiert leuchtendes Array, welches ein parallel zur optischen Achse des Beleuchtungsobjektivs verschobenes Liniengitter, beziehungsweise eine Punkt- oder eine Schlitzmaske sein kann, und die Abbildung mit einem Abbildungsobjektiv mit einer vergleichs­ weise besonders kleinen Pupillenöffnung durchzuführen. Die kleine Pupillenöffnung führt zu einem größe­ ren Tiefenschärfebereich und so wird erreicht, daß ein Objekt mit einer größeren Tiefenausdehnung er­ faßt werden kann, ohne daß das strukturiert leuchtendes Array bewegt werden muß. Da auch miniaturi­ sierte Objektive eingesetzt werden können, ergibt sich so eine besonders kompakte Anordnung. Wenn das Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können so bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz und ei­ nem Modulationsmaximum gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erheblichen Reduzierung der Rechenzeit bei der Bestimmung der absoluten Phase und führen. Bei der Verwendung von einer Punkt- oder Schlitzmaske entstehen dagegen in den Elementen des strukturiert leuchtenden Arrays Signale mit einem einzelnen Maximum. Aus der Lage des Maximums kann in der bekannter Weise die zugehörige zO-Position des Objektpunktes bestimmt werden.
Weiterhin kann bei einem Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorzugswei­ se je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuch­ tungsobjektiv verschoben werden und durch das Beleuchtungsobjektiv abgebildet sein. Dabei bedeutet die Formulierung "relativ", daß auch die Position des leuchtenden Flächenelementes FELj ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Beleuchtungsobjektivs bewegen. Dieses leuchtende Flächenelement FELj wird zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine Strecke BSOj auf einen vorherbestimmten Abbildungsstrahl ABSO, im Objektraum abgebil­ det. Die Strecke BSOj kann dann auch das Bild der Verschiebungsstrecke VSBAj darstellen und sich der Ort des Bildes des leuchtenden Flächenelementes FELj auf der Verschiebungsstrecke VSBAj zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich ΔtB - ändern und so das Bild des leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke BSOj durch den Objektraum verschoben werden. Außerdem wird eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab­ bildungsobjektiv und parallel zur optischen Achse des Abbildungsobjektivs durchgeführt, wobei die For­ mulierung "relativ" bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs bewegen. Bei der Verschiebung können mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet werden, wobei der Ort je ei­ nes Elementes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert. Die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs wird vorzugsweise so durchgeführt, daß je ein Bild eines Elementes des Empfänger- Arrays mit dem Bild eines leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vor­ herbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zei­ tintervalls Δti im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, wel­ ches und nach durch den Objektraum geschoben wird.
Dabei fallen vorzugsweise Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flä­ chenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitin­ tervalls ΔtB zusammen und die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzi­ denz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße. Der Zeitbereich ΔtB kann dabei größer als das Zeitintervall Δti gemacht sein und so wird mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt.
Hier wird der Fall mit einem bewegten Empfänger-Array dargestellt. Dieser ist ein sehr relevanter Fall, da so auch Objekte mit vergleichsweise großer Tiefenausdehnung vermessen werden können. Außerdem sind einseitig telezentrische Systeme mit einem geringen Bauvolumen in der Regel nicht extrem lichtstark, so daß für das Erreichen einer hinreichend schmalen Einhüllenden, um die Ordnung eines Streifens identifizieren zu können, beide Systeme hohe relative Öffnungen aufweisen sollten.
Dabei ist die Lage des Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwer­ punktes eines Elementes des Empfänger-Arrays und einen optisch konjugierten Ort des effektiven Zen­ trums der Öffnungsblende des Abbildungsobjektivs bestimmt.
Auch ein beleuchteter Spalt kann als leuchtendes Array - im Sinne einer leuchtenden Struktur - eingesetzt werden. So fällt je ein Bild eines vorbestimmten beleuchteten Flächenelementes, z. B. ein Spaltbild, stets mit dem Bild eines vorbestimmten Elementes des Empfänger-Arrays zusammen und bildet so ein Bild­ paar. Durch die zumindest um einen kleinen Abstand getrennten Pupillen des Beleuchtungs- und des Abbildungsobjektivs besteht ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildunggstrahl, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenele­ ment detektieren kann, wenn auch noch ein Element der Objektoberfläche mit dem Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flä­ chenelementes zusammenfällt. Dann detektiert das Element des Empfänger-Arrays das Lichtspaltbild. Weit außerhalb des Schärfevolumen werden nur die undurchlässigen Bereiche der Maske detektiert. Da­ zwischen besteht jedoch ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger- Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen Meßanordnungen entspricht. Der Abstand zwischen den Pupillen des Beleuchtungs- und des Abbildungsobjektivs kann dabei beispielsweise im Minimum nur ein Achtel der Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist die Tie­ fenempfindlichkeit auch nur sehr gering. Andererseits kann der Abstand zwischen den Pupillen des Be­ leuchtungs- und des Abbildungsobjektivs im Objektraum dabei beispielsweise das Bfache der mittleren Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist das Tiefenauflö­ sungsvermögen hier etwa um zwei Größenordnungen gegenüber dem vorherigen Beispiel vergrößert.
Dieses Verfahren ist auch für die Anwendung von vollflächigen, strukturiert leuchtenden Arrays und Emp­ fänger-Arrays geeignet. So kann auch ein bewegtes, beleuchtetes Transmissionsgitter als strukturiert leuchtendes Array eingesetzt werden. Die detektierbaren Signale entsprechen in ihrer Charakteristik in diesem Fall denen der Kurzkohärenz-Interferometrie.
Bei mehreren teildurchlässigen Objektoberflächen in Richtung der Hauptachse des Abbildungsstrahls mit einer jeweils geringen Lichtstreuung bringt jede Objektoberfläche ein eigenes relatives Extremum im Si­ gnalverlauf.
Die permanente Koinzidenz vom Bild eines leuchtenden Flächenelementes FELj mit dem Bild eines Empfängerelemente im Objektraum kann, muß aber nicht bestehen. Im Fall der permanenten Koinzidenz bewegt sich das Bild eines leuchtenden Flächenelementes stets direkt auf einer Strecke auf dem Abbil­ dungsstrahl.
Das leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungswei­ se vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbestimmten Wellenlängenspek­ trum kann monochromatisches, quasi-monochromatisches oder polychromatisches Licht im sichtbaren oder im unsichtbaren Spektralbereich aussenden.
Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elek­ tronisch gesteuerte Verschiebung möglich.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise an je einem eigenen Ort OABj im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flä­ chenelement FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einen vorher­ bestimmten Ort im Objektraum OOBj abgebildet wird. Dieser Bildort OOBj eines jeweils leuchtenden Flä­ chenelementes FEL wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes, vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flächenelementes FELj auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkre­ menten AIO der Bilder der Abstände AIA der leuchtenden Flächenelementes FEL im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschied­ licher Positionen. In jeder Position nach der Verschiebung - um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes AIO - wird mindestens ein Signalwert aus einem Empfän­ gerelement detektiert und ausgelesen und so wird aus mehreren Vorgängen des Detektierens und Ausle­ sens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert. Die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays liegen an Orten OAAj im Empfänger-Array und das Bild dieses Ortes OAAj, der Bildort OOAj, ist mit dem vorherbestimmten Bildort OOBj des leuchtenden Flä­ chenelementes FELj im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgele­ senen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti im Objektraum zur Koinzidenz gebracht und so wird je ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige Paare durchsetzt. Dabei fallen Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich ΔtB in einem Zeitin­ tervall ΔtB zusammen und die detektierten und die ausgelesenen Elemente des Empfänger-Arrays weisen im Zeitintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Si­ gnalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.
Dieses Verfahren kann auch ohne jede Bewegung eines Arrays realisiert werden, also vollständig elek­ tronisch. Das strukturiert leuchtende Array und das Empfänger-Array können in sich starre, vorzugsweise dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Diese können vorzugsweise in einer Kompaktanordnung und starr miteinander gekoppelt sein. Nach und nach werden einzelne Flä­ chenelemente elektronisch angesteuert und zum Leuchten gebracht.
Dabei kann auch ein beleuchteter Mikrospiegel eines zweidimensionalen oder dreidimensionalen Direct Mirror Device DMD oder ein beleuchtetes LCD-Element oder ein vertikal abstrahlendes Mikro- Laserelement oder eine Mikro-Luminiszenzdiode in der dreidimensionalen Struktur zur Anwendung kom­ men. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen von Elementen eines Empfänger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird genau dann ein Extremum im Signalwert eines Elementes des Empfänger-Arrays gewonnen, wenn das Bildpaar mit einem Element der Objektoberfläche zumindest näherungsweise koinzidiert. Das ist der Fall, wenn das Schärfevolumen des Bildes des leuchtenden Flächenelementes das Element der Objektoberflä­ che durchsetzt.
Das Verfahren kann auch als optoelektronische Abfrage des Vorhandenseins von Elementen einer Objekt­ oberfläche verstanden werden. Besonders gut möglich ist damit die Anwesenheitskontrolle von Bauele­ menten in einer komplexen, dreidimensionalen Struktur mit einer vergleichsweise großen Tiefenausdeh­ nung.
Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum stets ein kleines Volu­ menelement. Durch das Auslesen genau des Elementes eines Empfänger-Arrays, welches im Objektraum ein Bild besitzt, welches zumindest mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist, erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenele­ ment. Es kann hier durch eine Triggerschwelle eine ja/nein-Entscheidung getroffen werden. Dies ist bei Oberflächen ohne Textur ein gangbarer und schneller Weg. Besser ist es für die Genauigkeit der Orts­ bestimmung des jeweiligen Elementes der Objektoberfläche, mehrere Elemente des Empfänger-Arrays auszulesen und aus dem gebildeten Signalverlauf den Ort des relativen Extremums oder den Schwer­ punkt des Signalverlaufes zu bestimmen. Aus diesem kann bei Kenntnis der Geometrie der optischen An­ ordnung der Ort eines Elementes der Objektoberfläche bestimmt werden.
Dabei kann der Wert der relativen Leuchtdichte eines leuchtenden Flächenelementes vorzugsweise nur zwei Werte annehmen, ein Minimum und ein Maximum, gleichbedeutend mit dem logischen 0 und L. Je­ doch kann wegen der Anpassung an den Reflexionsgrad des Elementes der Objektoberfläche, beispiels­ weise als Ergebnis einer zuvor durchgeführten Überblicksmessung, und der Berücksichtigung der Entfer­ nung des Elementes der Objektoberfläche vom Beleuchtungsobjektiv eine Veränderung des absoluten Wertes der Leuchtdichte vorgenommen werden.
Weiterhin bilden die Abstandsinkremente, die zu den Bildern der leuchtenden Flächenelemente FELj ge­ hören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SB1 mit einem Konvergenzzentrum K1 gehören, vorzugsweise mit dem Konvergenzzentrum K1 in der Brennebene des Beleuchtungsobjektivs. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken des Streckenbündels SB1 im Objektraum nicht überkreuzen.
Bei Anwendung einer nachgeschalteten Abbildungsstufe im Beleuchtungsstrahlengang kann das Konver­ genzzentrum des Streckenbündels auch im Unendlichen liegen. Dies entspricht dem telezentrischen Fall. Vorteilhaft ist, wenn das Konvergenzzentrum in der Pupille eines Abbildungsobjektivs für die Aufnahme der Objektoberfläche liegt.
Bei a priori-Kenntnissen über die Objektoberfläche können aus Abstandsinkrementen auch einzelne Bahnkurven oder Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener leuchtender Flächenelemente FEL reale Verschiebung eines leuchtenden Flächenelemente FELj nach­ gebildet. Grundsätzlich kann das leuchtende Array sogar in seiner mechanischen Gestaltung ein verklei­ nertes 3D-Flächen-Modell der zu untersuchenden Objektoberfläche oder der prüftechnisch relevanten Be­ reiche derselben darstellen und die einzelnen leuchtenden Flächenelemente werden gleichzeitig oder nacheinander auf die Objektoberfläche abgebildet. Analog gilt dies auch für die Struktur des Empfänger- Arrays. Auch dieses kann eine objektangepaßte 3D-Struktur aufweisen. Universeller sind durch die Mög­ lichkeiten der Steuerung jedoch strukturiert leuchtende Arrays mit lateral äquidistanten Abständen der leuchtenden Flächenelemente FEL Empfänger-Arrays mit lateral äquidistanten Abständen der Elemente des Empfänger-Arrays in einer Fläche. Sowohl das leuchtende Array als auch das Empfänger-Array kön­ nen in der Tiefe mehrere aktive Flächen mit leuchtenden Elementen, beziehungsweise empfangenden, Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objektoberflächen vergleichsweise großer Tiefe ohne jede mechanische Verschiebung möglich ist. So können mit diesen rechnergesteuerten leuchtenden Arrays und Empfänger-Arrays auch in einem definierten Meßvolumen völlig unbekannte Ob­ jektoberflächen erfaßt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden.
Die leuchtenden Flächenelemente FEL weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti auf. Weiterhin werden die leuchtenden Flächenelemente FEL auf einer B-Strecke BSAj positioniert, wobei die B-Strecke BSAj die Sollorte für die leuchtenden Flä­ chenelemente FEL zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen.
Die Bilder dieser B-Strecken BSAj sind im Objektraum durch Abbildung mit mindestens einem Beleuch­ tungsobjektiv vorzugsweise stets zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt. Dabei ist der Konvergenzpunkt K1, mindestens in einem Abstand dK1 min von der optischen Achse des Be­ leuchtungsobjektivs vom 16ten Teil. Dementsprechend ist die Tiefenempfindlichkeit auch nur sehr gering. Maximal beträgt der Abstand dK1 max das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum des am weitesten entfernten Abbildungsobjektivs. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente auf Ver­ schiebungsstrecken VSBAj werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem einzigen Zeit­ punkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.
So wird vorzugsweise zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare erzeugt und diese derartigen Paare werden durch den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente FELj mit Flächenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls ΔtB zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolu­ mens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt ti ein aktueller Koinzidenzpunkt Koj i gebildet, der durch den Objektraum geschoben wird. Dabei kann der aktuelle Koinzidenzpunkt Koj i mit konstanter Geschwindigkeit, aber auch sprunghaft verschoben werden.
Die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz vorzugsweise einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich ein­ gepaßt wird. So werden die leuchtenden Flächenelemente FELj des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti, also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet.
Bei der Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flä­ chenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zu­ mindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet.
Typisch für dieses Verfahren ist vorzugsweise der Abstand dk1 = d. Es kann ein einmaliger oder mehrma­ liger Durchgang durch oder auch ständiger Aufenthalt eines leuchtenden Flächenelementes FELj auf ei­ ner B-Strecke BSAj erfolgen. Vorteilhaft ist hier die Verwendung eines vollflächigen und mechanisch be­ wegten, strukturiert leuchtenden Arrays. Dabei kann das Empfänger-Array auch fest angeordnet sein.
Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuert Verschiebung möglich.
A-priori-Kenntnisse über Lage der Objektoberfläche sind nicht notwendig, wenn eine große Anzahl von Zeitintervallen Δti nacheinander durchfahren wird. Deshalb ist dieses Verfahren für völlig unbekannte Ob­ jektlagen und Objektformen sehr geeignet. Bei a-priori-Kenntnissen über die Lage der Objektoberfläche und deren Tiefenausdehnung kann der Zeitbereich ΔtB - zumindest bei Objekten mit einer geringen Tie­ fenausdehnung - in der Regel kleiner gemacht werden, im Vergleich zu einer Situation mit einer völlig un­ bekannten Szene. Die Verschiebungsstrecken VSBAj stellen die Ist-Strecken, also die Ist-Orte oder die Ist- Positionen der photometrischen Schwerpunkte der leuchtenden Flächenelemente FELj 3A dar und die B- Strecken BSAj stellen die Soll-Orte dar, die zumindest zum Zeitpunkt ti des Zeitintervalls Δti eingenommen sein sollten. Nur zum Zeitpunkt der Detektion, d. h. nur zu einem Zeitpunkt ti im Bereich des Zeitintervalls Δti müssen die Ist- und Soll-Orte übereinstimmen und die Verschiebungsstrecken VSBAj sich mit den B- Strecken BSAj schneiden. Natürlich können die Verschiebungsstrecken VSBAj-Strecken mit den B- Strecken BSAj auch permanent im gesamten Verschiebungsvorgang zusammenfallen.
Der Konvergenzpunkt K1 der Bilder der B-Strecken BSAj kann mindestens in einem Abstand dK1 min von der optischen Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d des Pupillenzentrums PZOB des Beleuchtungsobjektivs vom Pupillenzentrum PZO des Abbildungsobjektivs positioniert werden. Dieser kleine Abstand ist für strahlteilergekoppelte Strahlengänge für schnelle Messungen mit vergleichsweise geringer Tiefenauflösung sehr geeignet.
Der maximale Abstand dK1 max kann das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum PZOA des Abbildungsobjektivs betragen. Dieser ist typisch für 3D-Aufnahme mit einer höheren Geschwindigkeit, beispielsweise mit kontinuierlich rotierenden Gittern. In diesem Fall erfolgt die Bestimmung der Phasenverschiebung ϕ auf der Basis eines Trägerfrequenzverfah­ rens zu einer von der Bewegung des strukturiert leuchtenden Arrays direkt abgeleiteten Trägerfrequenz im Sinne einer Referenzfrequenz. Dieses Verfahren ist auch geeignet, um Streifen im Objektraum auf­ grund der hohen Geschwindigkeit für Beobachter unsichtbar werden zu lassen. Bei einem begrenztem Szenenvolumen kann das durch die höhere Geschwindigkeit vergleichsweise geringere Einschaltverhält­ nis der Empfängerelemente akzeptiert werden.
Vorzugsweise wird der Wert dk1 = d realisiert. In diesem Fall entspricht die im Signalverlauf auftretende Phasenveränderung der Ablage der detektierten Elemente der Objektoberfläche von einer vorbestimmten Position. Verfahrenstechnisch bringt ein größeres dk1 als d deshalb keinen Vorteil, da dieser für die Aus­ wertung sehr wichtige quantitative Zusammenhang verloren gehen kann. Außerdem muß im Fall mit ei­ nem größeren dk1 - bei der Bewegung der leuchtenden Flächenelemente FEL mit der gleicher Geschwin­ digkeit in z-Richtung wie für den Fall dk1 = d - die Kamera besonders schnell ausgelesen werden muß. Für sehr viele größere Werte für dK1 als d weist dieses Verfahren die Merkmale eines Trägerfrequenzverfah­ rens auf.
Das dargestellte Verfahrensmerkmal ist auch sehr geeignet für die Aufnahme mit zwei zentralperspektivi­ schen Objektiven sein. Auch können die Hauptebenen derselben koinzidieren. Dabei ist das Empfänger- Array vorzugsweise feststehend. Hierbei wird davon ausgegangen, daß leuchtende Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich nicht wirklich auf einer B-Strecke BSAj bewegen müssen, sondern die Verschiebungs­ strecken VSBAj der leuchtenden Flächenelemente FEL schneiden nur zu einem Zeitpunkt ti, also kurzzei­ tig die B-Strecken BSAj, wobei vor und nach diesem Zeitpunkt ti die Elemente des Empfänger-Arrays be­ reits Licht detektieren, so daß sich leuchtende Flächenelemente FEL nur kurzzeitig auf den B-Strecken BSAj befinden.
Ein zumindest näherungsweise kontinuierliches Verschieben bedeutet, eine Kurve oder eine Treppen­ funktion um eine Strecke oder Gerade als mittlere Lage zu erzeugen. Das Verschieben von Orten kon­ stanter, relativer Leuchtdichte einer Leuchtdichteverteilung bedeutet hier, daß vorzugsweise genau die Orte verschoben werden, die eine bestimmte gleichbleibende relative Leuchtdichte aufweisen, beispiels­ weise von 70%. Diese Orte mit einer relativen Leuchtdichte von 70% werden vorzugsweise entlang einer Strecke verschoben und die Leuchtdichte bleibt dabei stets 70%, bezogen auf das gesamte leuchtende Array oder einen Teilbereich desselben.
Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation bei Verwen­ dung einer Farbkamera gewonnen werden. Dabei kann die Objektoberfläche mit weißem Licht oder mit farbigem Licht beleuchtet werden.
Es ist weiterhin möglich, durch eine Verschiebung des Objektes oder eine schwingende Bewegung eine Mittelwertbildung über einen beliebigen Oberflächenbereich durchzuführen und so einen Anfangsphasen­ wert in jedem Element des Empfänger-Arrays zu bestimmen.
Weiterhin wird vorzugsweise ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vor­ geschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchten­ des Flächenelement FELj auf je einer B-Strecke BSAj positioniert wird. Die B-Strecken BSAj werden dabei auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenz­ punkt K1 zumindest annähernd im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positio­ niert ist. Weiterhin ist der Konvergenzpunkt K1 auch in der Pupillenebene des Beleuchtungsobjektivs posi­ tioniert und so werden während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerele­ ment und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest nähe­ rungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.
So kann aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und so im Objektraum derarti­ ge Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente FELjeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchten­ den Flächenelement FELj im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.
Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit koinzidierenden Hauptebenen einge­ schlossen. Dabei kann das Empfänger-Array feststehend und so eingestellt sein, daß der "durchlaufende" Schärfebereich oder die Schärfeebene, des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebe­ ne des Abbildungsobjektivs zusammenfällt. Dagegen ist es von Vorteil, wenn die "durchlaufende" Schär­ feebene des Beleuchtungsobjektivs stets im durch starke Abblendung vergleichsweise groß gemachten Tiefenschärfebereich des Abbildungsobjektivs verbleibt. Hierbei wird davon ausgegangen, daß die leuch­ tenden Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich wirklich auf einer B-Strecke bewegen, wobei diese B- Strecke, wie alle B-Strecken in diesem Fall, auf das Pupillenzentrum PZOA im Array-Raum zielt.
Dieser Ansatz ist beispielsweise realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl, beispielsweise von mindestens einer Million Pixeln. Elektronische Gitter können im Verschiebungsvorgang kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbündels zu erfüllen. Im Ergebnis kann das Bild jedes leuchtenden Flächenelementes FELj zumindest näherungs­ weise mit einem Bild eines Empfängerelementes zur Koinzidenz gebracht werden, so daß ein aktueller Koinzidenzpunkt gebildet wird, der sich durch den Objektraum bewegt.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FEL zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positio­ niert wird. Dabei wird wobei der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Be­ leuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZOA der Pupille eines Abbildungs­ objektivs im Objektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objek­ traum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä­ chenelementes FELjeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objek­ traum derartige Paare mit fester Zuordnung erzeugt. Während des Verschiebungsvorganges der leuch­ tenden Flächenelemente FEL werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht.
Die B-Strecken BSAj werden dabei parallel einer zu Geraden gAP positioniert, wobei die Gerade gAP den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs aufweist, wo­ bei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.
Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden. Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die "durchlaufende" Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebene des Abbildungsobjek­ tivs in einem Schnitt, zusammenfällt. Wenn das Abbildungsobjektivs stark abgeblendet wird, kann der Tiefenbereich der 3D-Aufnahme vergleichsweise groß gemacht werden. Dieser Fall kann als ein Stan­ dardfall mit einem starren Gitter angesehen werden.
Hierbei wird vorzugsweise davon ausgegangen, daß die leuchtenden Flächenelemente FEL von einem Starrkörpergitter sich nicht wirklich auf einer B-Strecke bewegen müssen. Es ist möglich, daß sich die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL bei einem starren, beleuchteten Gitter nur zu einem Zeitpunkt ti, also kurzzeitig, die B-Strecken BSAj, schneiden. Dabei detektieren die Elemente des Empfänger-Arrays vorzugsweise sowohl vor als auch nach diesem Zeitpunkt ti Licht. So be­ finden sich die leuchtende Flächenelemente FEL von Starrkörpergittern nur kurzzeitig auf den B-Strecke. Der Vorteil liegt darin, daß so für die mechanische Verschiebung der Starrkörpergitter ein kürzerer Stell­ weg realisiert werden kann. Dies dient der Erhöhung der Aufnahmegeschwindigkeit.
Für elektronisch steuerbare Gitter hat die Einschränkung der Detektion auf einen Bereich innerhalb des Zeitintervalls Δti keine praktische Bedeutung, da diese "masselosen Gitter" stets so gesteuert werden können, daß im gesamten Intervall Δti der Detektion die Bedingung der Koinzidenz der Strecken VSBAj und BSAj ohne Probleme zu erfüllen ist. Damit kann grundsätzlich im Vergleich zu starren Gittern ohne die Realisierung der Koinzidenz der Strecken VSBAj und BSAj, eine höhere relative Integrationszeit erreicht werden. Dies setzt jedoch eine entsprechend hohe Dynamik der elektronischen Gitter voraus.
Hierbei können grundsätzlich für die strukturierte Beleuchtung der Objektoberfläche ein arrayseitig tele­ zentrisches Objektiv und für die Abbildung derselben ein arrayseitig telezentrisches Objektiv eingesetzt werden.
Um die Konvergenzbedingung zu erfüllen, kann in diesem Fall ein Starrkörper-Gitter verwendet werden, da durch die Lage des Konvergenzzentrums K1 keine Dehnung im Array notwendig ist. Z. B. kann, um Verschiebeweg für das Starrkörper-Gitter bei der Generierung von +270°-Phasenschritten für ein Sub- Nyquist-Verfahren zu sparen, ein beleuchtetes Liniengitter in x-Richtung mit entgegengesetztem Rich­ tungssinn verschoben werden, um dann -90°-Phasenschritte zu realisieren. Denn wie bereits ausgeführt, nur zum Zeitpunkt der Detektion von Licht muß die Bedingung der Position des Gitters erfüllt sein. Die kürzeren Verschiebungswege bringen, die hier im Beispiel nur ein Drittel betragen, eine höhere Dynamik.
Dieses Verfahren kann besonders vorteilhaft für eine Zeile, bzw. für einen eingeschränkten Tiefenbereich eingesetzt werden. Der besondere Vorteil liegt in der einfachen Anordnung und im hohen Tiefenauflö­ sungsvermögen, aufgrund des vergleichsweise großen Triangulationswinkels von beispielsweise 30°.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Verschiebungsstrecken VSBAj und die B-Strecken BSAj im Verschiebungsvorgang zumindest näherungsweise im Zeitintervall Δtk koinzidieren, wobei das Zeitintervall Δtk zumindest die Län­ ge des Zeitintervalls Δti und maximal die Länge des Zeitbereiches ΔtB aufweist. Während des Verschie­ bungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird aus dem Bild von einem Empfän­ gerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein perma­ nentes Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern er­ zeugt.
Während des Verschiebungsvorganges im Zeitbereich ΔtB der leuchtenden Flächenelemente FEL werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δtk gemacht wird und das Zeitintervall Δtk in den Zeitbereich ΔtB eingepaßt ist und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verschoben werden.
Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL sich wirklich auf einer B- Strecke bewegen, und die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B- Strecken BSAi. Dies ist mit einem beleuchteten Liniengitter zu realisieren. Natürlich kann auch ein elektro­ nisches Gitter so angesteuert werden. Das Empfänger-Array kann dabei feststehen, so daß der Tiefen­ meßbereich begrenzt ist. Durch die Wahl einer kleinen Blende für das Abbildungsobjektiv sind sehr viele Meßaufgaben mit einem vergleichsweise großen Tiefenmeßbereich, bezogen auf den mittleren Abstand des Meßvolumens von der 3D-Aufnahmeanordnung, lösbar. Da für das Beleuchtungsobjektiv eine sehr große Blendenöffnung gewählt werden kann, wird die Szene gut strukturiert ausgeleuchtet, so daß das Umgebungslicht weitgehend für die 3D-Aufnahme unschädlich ist.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise durch die Steuerung der Dauer eines jeden Zeitintervalls Δti und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls Δti der einzelnen leuchtenden Flächenelemente FEL, die über die Objektoberfläche jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente, photometrisch der Fall der Verschie­ bung von leuchtenden Flächenelementen mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken BSAj nachgebildet wird. So werden vorzugsweise effektiv leuchtende Flä­ chenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B-Strecken BSAj verschoben, wobei der Konvergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs und im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positioniert ist, und die B-Strecken BSAj auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet sind.
Es können zwei zentralperspektivische Objektive in einer Anordnung mit koinzidierenden Hauptebenen eingesetzt werden. Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL auf­ grund eines zu "groben" Rasters des strukturiert leuchtenden Arrays nicht genau genug auf einer B- Strecke bewegen können, sondern erst in der photometrischen Wirkung eine bessere Annäherung er­ reicht wird. So wird der Fall nachgebildet, daß sich zu einem Zeitpunkt die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B-Strecken BSAj schneiden. Für vergleichsweise kleine Meß­ volumina ist die kurze relative Detektionszeit kein Nachteil. Der besonders Vorteil besteht darin, daß ohne ein "dehnbares", strukturiert leuchtendes Array benutzen zu müssen, der Fall der Verschiebung auf den B-Strecken BSAj nachgebildet werden kann.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FELj eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flä­ chenelemente zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte aufje einer B-Strecke BSAj positioniert wird. Da­ bei wird der Konvergenzpunkt K1 mit dem Brennpunkt FOA mindestens eines Abbildungsobjektivs im Ob­ jektraum zumindest annähernd zur Koinzidenz gebracht. Zumindest annähernd wird dabei eine geradlini­ ge relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen und so wird je ein Signalverlauf mittels einem ein­ zelnen Empfängerelement gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken ASAj von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objek­ traum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Brennpunkt FOA des Abbildungsobjektivs gebildet. Die geradlinige Verschiebung des Empfänger-Arrays wird parallel zur optischen Achse des Abbildungsobjektivs so durchgeführt, so daß während des Ver­ schiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Element des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj jeweils zumindest zu diesem Zeitpunkt ti ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.
Da jedes Element des Empfänger-Arrays die Gewinnung eines eigenen Signalverlaufs ermöglicht, ist die Möglichkeit der Parallelverarbeitung mit einem Parallelrechner-System für die einzelnen Elemente eines Empfänger-Arrays gegeben. Es besteht die Möglichkeit einer sehr hohen Verarbeitungsgeschwindigkeit.
Weiterhin ist das Erreichen eines sehr großen Tiefenmeßbereiches bei der 3D-Aufnahme möglich, da das Empfänger-Array so nachgeführt wird, daß die Schärfeflächen im Objektraum gemäß der bekannten Ab­ bildungsgleichungen zumindest näherungsweise zusammenfallen, beispielsweise bei einer Anordnung mit parallelen Achsen der Objektive.
Es können je ein Bild eines leuchtenden Flächenelementes und je ein Bild eines Empfängerelementes in der gesamten Tiefe des Raumes koinzidieren. Es muß jedoch keine permanente Koinzidenz zwischen dem Bild eines leuchtenden Flächenelementes und dem eines Empfängerelementes bestehen.
Weiterhin kann auch das Abbildungsobjektiv relativ zum Empfänger-Array verschoben werden, beispiels­ weise auch durch eine Innenfokussierung desselben. Deshalb kann es sich hierbei auch um eine relative Verschiebung handeln.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flä­ chenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj permanent zur Koinzidenz gebracht und verschoben werden. Die permanente Koinzidenz führt zu einem hohen relativen Detektionsverhältnis, beispielsweise von 90% bei 90°-Phasenschritten.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise der Konvergenzpunkt K1 des Streckenbüschels SB1 gemeinsam mit dem Konvergenz­ punkt K2 des Streckenbüschels SB2 im Objektraum sowohl mit dem Brennpunkt FOA als auch mit dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest nähe­ rungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente FEL werden zumindest an­ nähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der An­ stieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade gA mit der Geraden gAP koinzidiert.
Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine An­ ordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden kann. Die detektierten Signale weisen bei einer Bewegung des strukturiert leuchtenden Arrays, beispiels­ weise eines Liniengitters mit äquidistanten Linienabständen, eine konstante Frequenz auf. Die Schärfeflä­ chen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfänger-Arrays zur Koinzidenz gebracht. Dabei ist ein starre Kopplung des strukturiert leuchtenden Arrays und des Emp­ fänger-Arrays von Vorteil.
Um für eine gute Ausleuchtung des Objektes ein Abbildungsobjektiv mit einer hohen relativen Öffnung einsetzen zu können und dennoch eine große Tiefenausdehnung bei der 3D-Aufnahme erreichen zu kön­ nen, wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs durchgeführt. Bei der Verschiebung werden nacheinander Signalwerte aus einzelnen, ne­ beneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen Signalwerten wird ein Signalverlauf gebildet. Dabei werden zur Bildung eines einzelnen Signalverlaufes jedoch nur Elemente ausgewählt aus deren Orten zumindest näherungsweise jeweils eine Strecke erzeugt werden kann, die im Zentrum der Austrittspupille des Abbildungsobjektivs im Objektraum konvergiert. Die Abbildung dieser Strecke mit dem Abbildungsobjektiv liefert ein Bild, welches zumindest annähernd zu einem zweiten Streckenbüschel mit einem Konvergenzpunkt K2 der Strecken im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum gehört. Dieses Verfahren führt zu einem Signal mit einer zuminde­ stens näherungsweise konstanter Frequenz beim Verschieben des Liniengitters mit konstanter Ge­ schwindigkeit in zA-Richtung.
Bei Objekten mit vergleichsweise großen Abmessungen und mit einer großen Tiefenausdehnung ist für die technische Realisierung folgendes von Vorteil: Die strukturierte Beleuchtung erfolgt vorzugsweise mit einem im Array-Raum telezentrischen Beleuchtungsobjektiv und einem beleuchteten Liniengitter sowie die Abbildung mit einem im Array-Raum telezentrischen Abbildungsobjektiv. Für das Empfänger-Array wird eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird für jedes Element des Empfänger-Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrec­ ken ein zweites Streckenbüschel mit einem Konvergenzpunkt K2 der abgebildeten Strecken im Objek­ traum im Brennpunkt FOA des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt K1 und der Brennpunkt FOA des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht, so daß auch der Konvergenzpunkt K2 mit dem Konvergenzpunkt K1 zusammenfallen. Dabei wird der Kon­ vergenzpunkt K1 der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdich­ te des beleuchteten Liniengitters, beispielsweise die Maxima der Transmission des Liniengitters, auf Ver­ schiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum, wobei für die Gerade gA der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert wird, und dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist. Da das Beleuchtungsobjektiv und das Abbildungsobjektiv vorzugsweise je­ weils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind, fallen im Objektraum der Brenn­ punkt FOA und das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zusammen. So werden auch der Konvergenzpunkt K1 und der Konvergenzpunkt K2 im zusammenfallenden Pupillenzentrum PZOA und Brennpunkt FOA des Abbildungsobjektivs zur Koinzidenz gebracht. Weiterhin ist wesentlich, daß während des gesamten Verschiebungsvorganges jeweils ein Bildelement eines Ortes bestimmter relativer Leucht­ dichte des beleuchteten Liniengitters und jeweils ein Bildelement eines Elementes des Empfänger-Arrays im Objektraum wenigstens näherungsweise zur Koinzidenz gebracht werden und so im Objektraum flä­ chendeckend feste Paare von einander unveränderlich zugeordneten Bildelementen erzeugt werden. Dies bedeutet, daß im Objektraum die Schärfeflächen des Beleuchtungs- und des Abbildungsobjektivs stets zumindest teilweise koinzidieren. In den Elementen des Empfänger-Arrays können bei diesem Verfahren periodische Signale mit einem Modulationsmaximum detektiert werden, aus denen die Information über die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann.
Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erhebli­ chen Reduzierung der Rechenzeit führen.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zumindest näherungsweise eine geradlinige Verschiebung des Empfänger-Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch nebeneinan­ der liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch ge­ wichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays, so daß Signale von virtuel­ len Elementen gebildet werden. Zur Bildung eines einzelnen Signalverlaufes werden so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet, wobei diese virtuellen Elemente des Empfänger- Arrays beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschie­ bungsstrecke ASAj im Array-Raum liegen, deren Verlängerung das Zentrum der Austrittspupille des Abbil­ dungsobjektivs schneidet. Bei Abbildung von mehrfach so erzeugten Strecken wird mit dem Abbildungsob­ jektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays werden diese mehrfach nacheinander ausgelesen.
Innerhalb des Verschiebungsvorganges werden vorzugsweise jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest während eines Zeitintervalls Δti innerhalb des Verschiebungsvorganges zumindest näherungs­ weise zur Koinzidenz auf B-Strecken BSAj gebracht. So wird aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj, welches auch als ein aktueller Koinzidenz­ punkt angesehen werden kann, jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objek­ traum derartige Paare erzeugt.
Hier durch wird erreicht, daß bei Verwendung von Arrays mit großen Pixelzahlen ein effektiv leuchtendes Flächenelement und ein virtuelles Empfängerelement so gebildet werden, daß diese für die Dauer eines Zeitintervalls der Detektion von Licht von einem Element der Objektoberfläche im Objektraum koinzidie­ ren. Das ist die Nachbildung des Falles, daß bei einer Anordnung mit zwei zumindest näherungsweise baugleichen zentralperspektivischen Objektiven in paralleler Lage und mit koinzidierenden der Hauptebe­ nen sowohl ein reales, leuchtendes Flächenelement FELj als auch ein reales Empfängerelement auf ei­ ner Verschiebungsstrecke in Richtung des Pupillenzentrums des Abbildungsobjektivs bewegt werden. Dies ist ein kostengünstiger Fall für die optischen Komponenten, da Standardobjektive eingesetzt werden können.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschiebungs­ strecken VSBAj mit dem Beleuchtungsobjektiv aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 im Objektraum im Brennpunkt FOB des Beleuch­ tungsobjektivs gebildet wird. Zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, die syn­ chronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt wird, werden während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen wer­ den Signalverläufe gebildet. Zur Bildung eines einzelnen Signalverlaufes werden nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zu­ mindest näherungsweise jeweils auf einer A-Strecke ASAj im Array-Raum liegen und die Verlängerung der A-Strecke ASAj jeweils auf das Pupillenzentrum PZAB des Beleuchtungsobjektivs im Array-Raum zielt. Bei Abbildung von mehrfach so erzeugten parallelen A-Strecken ASAj mit dem Abbildungsobjektiv wird aus de­ ren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konver­ genzpunkt K2 im Pupillenzentrum PZOB der Pupille des Beleuchtungsobjektivs gebildet. Die A-Strecken ASAj werden parallel zu einer Geraden gAA ausgerichtet und die Gerade gAA schneidet den Brennpunkt FAA des Abbildungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Ab­ stand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs auf, wobei dieser Anstieg der Ge­ raden gAA auf die Achse des Beleuchtungsobjektivs bezogen ist. Während des synchronisierten Verschie­ bungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays werden die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen. Jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Ob­ jektraum werden innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls Δti in­ nerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht und so wird aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet und so werden im Objektraum verschiebbare Paare erzeugt.
Dabei kann die Geraden gAA den Durchstoßpunkt einer zur Achse des Beleuchtungsobjektivs parallelen Geraden, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum enthält, durch die array-seitige Hauptebene des Beleuchtungsobjektiv schneiden.
Dieser Ansatz stellt eine Möglichkeit für schnelle Überblicksmessungen ohne die Notwendigkeit der latera­ len Verschiebung eines beleuchteten Liniengitters dar. Sowohl das beleuchtete Liniengitter als auch das Empfänger-Array bewegen sich vorzugsweise synchron und parallel zu den parallelen Achsen der beiden Objektive. Dabei koinzidieren die Schärfeflächen des Beleuchtungs- und des Abbildungsstrahlenganges im Objektraum. Bei einem hochgeöffneten Abbildungsobjektiv ist die Verschmierung der Abbildung durch das laterale Bewegen der Abbildungsstrahlen über die Objektoberfläche für eine Überblicksmessung in der Regel zu tolerieren.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet. Dadurch ergibt sich im Ergebnis dieser Rechenope­ ration eine absolute Objektphase ϕObj für jeden Objektpunkt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zugehörigen Referenzpunktes abgespeichert werden.
Dabei kann die Position der Referenzplatte zOR im Objektraum vor der Messung der Objektoberfläche oder der Szenen zumindest im Nahbereich mehrfach gemessen werden und die gegebenenfalls ortsab­ hängige Zuordnung der jeweiligen Phasenlage des Signals zum Modulationsmaximum bestimmt werden. Dies stellt eine Möglichkeit dar, um Phasenkorrekturwerte zu gewinnen. Diese Veränderung der jeweiligen Phasenlage des Signals zum Modulationsmaximum resultiert beispielsweise aus den ortsabhängigen Verzeichnungen der Objektive. Dieser Phasengang wird in Abhängigkeit vom Ort bestimmt und für die rechnergestützte Korrektur tabelliert. Weitere Details hierzu wurden bereits im ersten Teil der Offenbarung dargestellt.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase ϕObj für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech­ net und als absoluter Referenzphasenwert abgespeichert wird.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Ar­ rays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des verschobenen strukturiert leuchtenden Arrays zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des mitverschobenen Referenzgitters zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Refe­ renzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays ϕR zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Re­ ferenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe­ renzgitters ϕR zugeordnet werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Objektes oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzli­ chen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-Raum erfahren.
Die Realisierung einer zweiten Beobachtungsrichtung ermöglicht eine bessere Erfassung der Szene. So kann die Schattenbildung verringert werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich eine Beleuchtung des Objektes oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelementen mit Extrema der Leucht­ dichte und diese Extrema dabei jeweils parallel zu einer Geraden gAP2, die spiegelsymmetrisch zur Gera­ den gAP ist, auf Verschiebungsstrecken im Array-Raum verschoben werden.
Die Realisierung einer zweiten Beleuchtungsrichtung ermöglicht eine bessere Ausleuchtung der Szene und reduziert gegebenenfalls Schatten auf den Objektoberflächen.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Verschiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Bewegung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur abgeleitet wird. Dabei ist die­ ser ein Auswertesystem und ein Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase zugeordnet.
Der Referenzstruktur, beispielsweise am Umfang einer rotierenden Scheibe; ist vorzugsweise ein Auswer­ tesystem und ein Nullpunktgeber zugeordnet, um die Information der Referenzstruktur auswerten zu kön­ nen. So kann, von einem Nullpunkt beginnend, die absolute, lateral invarianten Objektphase bestimmt werden. Aber es kann auch allgemein in grundsätzlich beliebigen Einheiten, beispielsweise in einer Län­ geneinheit oder in der Form von Zählimpulsen, die Weginkremente verkörpern können, ein Referenzwert gewonnen werden, welcher ein Äquivalent für die absolute, lateral invariante Objektphase darstellt.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase ϕGitter durchgeführt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von Licht der Elemente des Empfänger- Arrays im Zeitintervall Δti bei einer gegebenen präzisonsmechanisch-optischen Anordnung zur 3D- Aufnahme sich in Abhängigkeit von deren Geometrie der Anordnung sowie der Lage der Konvergenz­ punkte K1 und K2 und in Abhängigkeit vom aktuellen Wert der absoluten Referenzphase ϕGitter für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt. So wird in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt. Da­ bei erfolgt das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten ΔϕEmpfänger der Phase ϕEmpfänger in jedem Element des Empfänger-Arrays und die im Verhältnis zur Phasenschrittweite ΔϕEmpfänger selbst kleineren Abweichungen ΔΔϕ zwischen der Refe­ renzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase ϕEmpfänger als von der Referenzphase ϕGitter abhängige Phasenkorrekturwerte ΔΔϕ werden mindestens einmalig für jedes Ele­ ment des Empfänger-Arrays errechnet. Diese von der Referenzphase ϕGitter abhängige Phasenkorrektur­ werte ΔΔϕ und liegen so in einer Phasenkorrekturwert-Tabelle vor und werden gespeichert. Die Phasen­ korrekturwerte ΔΔϕ werden sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Be­ rechnung der absoluten Phase verwendet. Weiterhin werden Verschiebungen der leuchtenden Flä­ chenelemente FEL durchgeführt, wobei die Bilder der Verschiebungsstrecken VSBAj ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 bilden.
Hierbei wird bei Kenntnis der Geometrie der Anordnung, der Lage der Konvergenzpunkte K1 und K2 und der Kenntnis der Lage der realen Verschiebungsstrecken der Zeitpunkt des Abtastintervalls Δti verscho­ ben, um zumindest annähernd ein Signal mit einer konstanten Frequenz zu erhalten, das sehr schnell ausgewertet werden kann.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise leuchtende Flächenelemente FEL - und so auch leuchtende Flächenelemente FEL mit lokalen Extrema der Leuchtdichte - im Array-Raum auf Verschiebungsstrecken VSBAj verschoben werden, die mit den B-Strecken BSAj koinzidieren, und die B-Strecken BSAj mittels einer zweistufigen Abbildungs­ stufe abgebildet werden. Gleichzeitig erfolgt die Detektion von Licht von den Elementen der Objektober­ flächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays. Diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen und so wird jeweils ein leuchtendes Flä­ chenelement FELj auf je einer B-Strecke BSAj positioniert, und die Bilder dieser B-Strecken BSAj werden nach der ersten Abbildung mit einem Beleuchtungsobjektiv zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt und ein zum Konvergenzpunkt K1 optisch konjugierter Punkt K1konj wird in den Objektraum in das Zentrum der Pupille PZOA des Abildungsstrahlenganges im Objektraum abgebildet. Während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe­ rungsweise gemeinsam auf das Bild einer B-Strecke BSAj gebracht und so werden aus dem Bild von ei­ nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt.
Bei diesem Verfahren ist der telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum ein­ geschlossen, d. h. die Pupille im Objektraum kann jeweils auch im Unendlichen liegen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden, nicht jedoch ein Objekt. Dieses Verfahren ist deshalb beispielswei­ se für das 3D-Aufnahmeverfahren bei chirurgischen Operationen geeignet, da der in sich bewegliche Pa­ tient und auch das schwere 3D-Aufnahmegerät in Ruhe verbleiben können. Weiterhin ist von Vorteil, daß bei einem telezentrischen Strahlengang die effektive Wellenlänge im gesamten Objektraum konstant ist.
Die leuchtenden Flächenelemente FEL können sich hierbei ständig auf den B-Strecken BSAj befinden. Dabei sind keine Kenntnisse über die Lage und Form der Objektoberfläche notwendig, wenn ein großer Tiefenbereich im Objektraum gewählt wird. Bei A-priori-Kenntnissen über die Lage und Grobform der Ob­ jektoberfläche kann der Zeitbereich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet und die an die Objektoberfläche angrenzende Tangentialebene zumindest näherungsweise senkrecht zur optischen Achse des Beleuchtungsobjektivs steht.
Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die B-Strecken BSAj mittels eines afokalen Beleuchtungsstrahlenganges mit einem in­ neren Brennpunkt FBi abgebildet werden und die Objektoberflächen mit einem afokalen Abbildungsstrah­ lengang mit einem inneren Brennpunkt FAi abgebildet werden und im Objektraum der Brennpunkt des afo­ kalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zusammenfallen. Gleich­ zeitig erfolgt die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin­ tervalls Δti durch die Elemente des Empfänger-Arrays und diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen. Der Konvergenzpunkt K1 wird in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs positioniert, wobei der Abstand dK1 dem halben Abstand vom inneren Brenn­ punkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht. Dabei sind das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt. So werden leuchtende Flächenelemen­ te FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Ex­ trema der Leuchtdichte zumindest annähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt dabei den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be­ leuchtungsobjektivs und Abstand dk1 realisiert, wobei der Anstieg auf die Hauptebene des Abbildungsob­ jektivs bezogen ist. Zumindest annähernd wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs mit der gleichen Geschwindigkeit wie das leuchten­ de Array durchgeführt und bei der Verschiebung der beiden Arrays werden mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen. So wird je ein Signalver­ lauf aus einem einzelnen Element des Empfänger-Arrays gebildet und bei Abbildung mit einer Abbil­ dungsstufe von mehrfach so erzeugten Verschiebungsstrecken von Elementen wird aus deren Bildern im Raum nach der Abbildungsstufe zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im inneren Brennpunkt FAi des Abbildungsobjektivs gebildet.
Während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Empfänger- Array werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild BSOj einer B-Strecke BSAj zur Koinzidenz gebracht und gemeinsam verschoben. So wird aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern ver­ schoben.
Dieses Verfahren stellt den telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum dar, d. h. die Pupille im Objektraum liegt jeweils im Unendlichen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden müssen. Die leuchtenden Flächenelemente FEL befinden sich vorzugsweise ständig auf den B- Strecken BSAj. Dabei sind keine Kenntnisse über die Lage und die Form der Objektoberfläche notwendig. Bei A-priori-Kenntnissen über die Lage und Grobform der Objektoberfläche kann in der Regel der Zeitbe­ reich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet.
Der Abstand dK1 entspricht dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstu­ fe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges. Dies ist gleichbedeutend mit der Tatsache, daß der Konvergenzpunkt K1 im Durchstoßpunkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbil­ dungsstrahlenganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt.
Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Elemente des Empfänger-Arrays im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und die zwei Empfänger- Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschiebungsstrecken ASA1 und ASA2 verschoben werden, die einen Winkel zueinander aufweisen.
Dabei sind für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbildungsstrah­ lengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet, wobei die Abbildungsobjektive räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv mit mindestens je einem Empfänger-Array mit Elementen oder einem Bild desselben zugeordnet ist. Die Brennebenen der Abbildungsstrahlengänge schneiden sich im Objektraum, wobei die Schnittgerade SG senkrecht auf der Symmetrielinie SL im Hauptschnitt steht, und die Bilder der Verschiebungsstrecken ASA1 und ASA2 die Strecken ASO1 und ASO1, annähernd auf der Symmetrielinie zwischen den beiden Ach­ sen der Objektive zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt K0 konvergieren.
Im Konvergenzpunkt K0 werden das Streckenbüschel S21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j, mit dem Konvergenzpunkt K21 und das Streckenbüschel S22 der Bilder der Verschiebungsstrecken ASA2j der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken ASO2j, mit dem Konvergenzpunkt K22 zur Koinzidenz gebracht. Die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän­ ger-Arrays werden im Objektraum für den Zeitbereich ΔtB paarweise zumindest näherungsweise zur Ko­ inzidenz gebracht und die paarbildenden Elemente der beiden Empfänger-Arrays stellen jeweils korre­ spondierende Elemente dar.
Die Signalverläufe S1 des ersten Empfänger-Arrays werden durch Auslesen von je einem Element wäh­ rend der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und die Verschiebung des ersten Empfänger-Arrays wird parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben. Die Signalverläufe S2 des zweiten Empfänger-Arrays werden durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke AS2j gebildet und die Verschiebung des zweiten Empfänger-Arrays erfolgt gleich­ zeitig mit der des ersten Empfänger-Arrays und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben. Die Gerade gA1P wird in einem Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 in der Hauptebene des Abbildungsobjektivs zum Schnitt gebracht, wobei zusätzlich die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs enthält und die Ge­ rade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray-Raum enthält. Dabei liegt der Punkt PA1 im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält. Der Punkt PA2 liegt im Durchstoßpunkt einer Geraden durch die Hauptebene des zweiten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält.
Bei Schärfeeinstellungen auf eine große Entfernung von der 3D-Aufnahmeanordnung, dies entspricht ei­ ner Positionierung der leuchtenden Flächenelemente FEL der strukturierten Beleuchtung in der Nähe der Brennebene des Beleuchtungsobjektivs im Array-Raum, beispielsweise auf den Hintergrund einer Szene, können die abgebildeten leuchtenden Flächenelemente FEL der strukturierten Beleuchtung nicht mehr detektiert werden. Die gegebene Beleuchtung und die strukturierte Beleuchtung, wenn diese noch einen detektierbaren Beitrag leistet, werden ohnehin vermischt. So kann die absoluten Phaseabs nicht mehr zu­ verlässig bestimmt werden. Hier kommt deshalb vorzugsweise dieses nachstehend Auswerteverfahren zur Anwendung.
Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.
Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemein­ samen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.
Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.
Es erfolgt synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem In­ krement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.
Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.
Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.
Die Invertierung ist notwendig um korrelierbare Signale zu erhalten, da die Abbildungsstrahlen der Ele­ mente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D- Aufnahmeanordnung.
Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m be­ stimmt wird. Aus den m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in die­ ser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maxi­ malwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum der Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können Interpolationsmethoden angewendet werden.
So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.
Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannten ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschie­ bung, der beiden Empfänger-Arrays vorbestimmt sind.
Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.
Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objekt­ oberfläche bezeichnet werden. Es wird darauf in der Offenbarung unter dieser Bezeichnung auf dieses Korrelationsverfahren mit zwei gefensterten Signalverläufen noch weiter Bezug genommen.
Weiterhin werden vorzugsweise für die Bestimmung der mittleren Beleuchtungsstärke von Elementen der Objektoberfläche zumindest die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfän­ ger-Arrays ausgelesen, die im Verschiebungsvorgang zumindest näherungsweise je auf einer Strecke lie­ gen im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist.
Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL und die der Empfänger- Arrays an einen anderen Ort kann mit mechanischen oder mit mikromechanischen Mitteln erfolgen.
Die beiden Achsen der Abbildungsobjektive können zueinander geneigt sein. Bei einer parallelen Anord­ nung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zu­ sammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen und die Abbildungsobjektive zumindest näherungsweise baugleich sind und die Empfän­ ger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Verschiebungen der beiden Emp­ fänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bilder ASO1 und ASO2 im Objek­ traum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-Verfahren gesprochen werden kann.
Bei der Bestimmung der 3D-Punktwolke kann im Vordergrund der Szene das bereits beschriebene Ver­ fahren mit der Verschiebung der leuchtenden Flächenelemente FEL und der Bestimmung der absoluten Phase eingesetzt werden. Für den Hintergrund wird das soeben beschriebene Korrelationsverfahren ein­ gesetzt. Es ist dabei ein Übergangsbereich notwendig. Gegebenenfalls müssen die Verfahren zeitlich nacheinander angewendet werden, um einen Übergangsbereich ohne Informationsverluste überbrücken zu können. Dies ist notwendig, da bei dem Verfahren zur Bestimmung der absoluten Phase sich in der Regel die Elemente des Empfänger-Arrays auf ASAj-Strecken, also parallel zu den Achse des jeweiligen Abbildungsobjektivs bewegen. Dagegen erfolgt die Verschiebung der Empfänger-Arrays beim 3D-Y- Verfahren vorzugsweise auf anderen Strecken, den beiden oberen Y-Ästen. Dies erfordert eine jeweils andere mechanische Bewegung und somit auch der Steuerung der Empfänger-Arrays. Für das 3D-Y- Verfahren mit der beschriebenen Bestimmung des Korrelationsmaximums Mj findet die Verschiebung der leuchtenden Flächenelemente FEL auf Strecken parallel zu der Achse des jeweiligen Beleuchtungsobjek­ tivs statt.
Im phasenauswertenden Verfahren kann aus dem Signalverlauf, der von einem Element der Objektober­ fläche gewonnen werden kann, die mittlere Beleuchtungsstärke eines Elementes der Objektoberfläche und auch gegebenenfalls dessen Farbe, durch den Einsatz farbsensitiver Elemente des Empfänger- Arrays aus dem detektierten Signalverlauf bestimmt werden. Dies ist für das hier beschriebene Korrelati­ onsverfahren jedoch nicht ohne weiteres möglich, da ein verschobenes Element des Empfänger-Arrays nicht an einen ortsfesten Abbildungsstrahl gebunden ist, sondern an einen Abbildungsstrahl, der über die Objektoberfläche "wandert", beziehungsweise an unterschiedliche Abbildungsstrahlen von verschiedenen Elementen der Objektoberfläche oder der Szene.
Deshalb werden zusätzlich für das Korrelationsverfahren zur Bestimmung der mittleren Beleuchtungsstär­ ke von Elementen der Objektoberfläche vorzugsweise genau die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfänger-Arrays ausgelesen, die zumindest näherungsweise je auf einer Strecke im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist, wobei ein ortsfester Abbildungsstrahl im Objektraum durch ein feststehendes Element der Objektoberflä­ che oder der Szene und das Pupillenzentrum des zugehörigen Abbildungsobjektivs vorbestimmt ist. Das heißt, bereits vor und nach dem Durchgang der Schärfevolumens durch die Elemente der Objektoberflä­ che wird von einem Element derselben mindestens ein Signalwert gewonnen. So kann der Einfluß des strukturierten Lichtes in den Elementen der Objektoberfläche durch dessen unscharfe Abbildung für die Bestimmung der mittleren Beleuchtungsstärke eliminiert werden und so auch die Farbe, beziehungsweise die spektrale Zusammensetzung des reflektierten Lichtes von einem Element der Objektoberfläche be­ stimmt werden. So kann auch von einer Freiraumszene mit einem Vordergrund die 3D-Punktwolke be­ stimmt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Gerade gA1P in einem Punkt PA in der Hauptebene des Abbildungsobjektivs und im Durchstoßpunkt der Symmetrielinie SL im Array-Raum und die Gerade gA2P im gleichen Punkt PA zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrahlengänge parallel ange­ ordnet sind, und die Gerade gA1P zusätzlich den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthalten.
Bei dieser parallelen Anordnung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zusammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen sowie die Abbildungsobjektive zumindest näherungsweise bau­ gleich sind und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befin­ den, bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Ver­ schiebungen der beiden Empfänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bil­ der ASO1 und ASO2 im Objektraum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y- Verfahren gesprochen werden kann.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Empfängerelemente im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Emp­ fänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Achsen der parallelen Abbildungsobjektive, deren Hauptebenen zusammenfallen, verschoben werden. Dabei sind für die 3D-Aufnahme des Hinter­ grundes der Szene mindestens zwei parallele, zumindest näherungsweise baugleiche Abbildungsstrah­ lengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbil­ dungsstrahlengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet und die Abbildungsobjektive weisen räumlich getrennten Öffnungsblenden auf. Jedem Abbildungsobjektiv ist mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet und das Si­ gnal S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß es dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal S1 zumindest annähernd entspricht, und das Signal S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß dieses Signal S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zu­ mindest annähernd entspricht. Die Gerade gA1P wird in einem Punkt PA in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird im gleichen Punkt PA in der Hauptebene des zweiten Abbildungsobjektivs, die mit der Hauptebene des ersten Abbildungsobjektivs zumindest nä­ herungsweise zusammen fällt, zum Schnitt gebracht und zusätzlich enthält die Gerade gA1P den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbil­ dungsobjektivs im Array-Raum, wobei Verschiebungen der leuchtenden Flächenelemente FEL durchge­ führt werden und die zugehörigen Verschiebungsstrecken VSBAj parallel zur Symmetrielinie SL der beiden optischen Achsen ausgerichtet sind und der Punkt PA im Durchstoßpunkt der Symmetrielinie SL durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt. Aus den Bildern der Verschie­ bungsstrecken VSBAj wird ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 auf der Symmetrielinie SL gebildet, der mit dem Konvergenzpunkt K0 zusammenfällt.
Der Vordergrund der Szene wird strukturiert beleuchtet. Der entfernte Hintergrund der Szene wird nicht mehr von der strukturiert leuchtenden Flächenelementen ausgeleuchtet. Hier wird anstelle der Bestim­ mung absoluten Phase ϕabs dann das Korrelationsprinzip zur Bestimmung der zO-Positionen der Elemente der Objektoberlläche angewendet. Von Vorteil ist, daß keine laterale Bewegung der leuchtenden Flä­ chenelemente notwendig ist. Dieses Verfahren ist auch für eine Freiraumszene geeignet.
Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebe­ ne des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So können der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 zur Koinzidenz gebracht werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv verschoben werden und dabei zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einer B-Strecke BSAj positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente werden jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest zu einem einzigen Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelemen­ tes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet. Der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays wird aus dem Durchgang mindestens eines leuchtenden Flächenele­ mentes durch einen vorbestimmten Referenzort abgeleitet. Die Elemente des Empfänger-Arrays detektie­ ren im Zeitintervall Δti der Koinzidenz einen periodischen Signalverlauf und die Phase diese Signalverlau­ fes wird in Bezug zur Phase am Referenzort ausgewertet.
Dies ist ein Ansatz, bei dem nur der vorhandene Schärfentiefebereich im Abbildungsstrahlengang ausge­ nutzt wird. Es erfolgt keine Verschiebung der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays in zA-Richtung im Array-Raum. Dieses Verfahren ermöglicht die Detektierung einer sich schnell ändernden Form einer Objektoberfläche oder deren Verformung, beziehungsweise die Detektion von Schwingungen der Elemente einer Oberfläche.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise mit einer von einer Strahlungsquelle beleuchteten Objektoberflächen mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjek­ tivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die Abbildung der Objektoberflächen ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbil­ dungsobjektive eine Symmetrielinie SL gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein zu­ geordneten Empfänger-Array zugeordnet und die beiden Empfänger-Arrays weisen jeweils Empfängere­ lemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Ob­ jektoberflächen im Objektraum detektieren und
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter­ schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De­ tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele­ sen, wobei jeweils Signalwerte gewonnen werden.
Die optischen Achsen der beiden Abbildungsstrahlengänge sind vorzugsweise parallel angeordnet. Es ist vorzugsweise eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gege­ benenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.
Beim Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen op­ tischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen, auf Verschiebungsstrecken ASA1 und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASA1 und ASA2, die Strecken ASO1 und ASO2, werden im Objektraum zumindest annähernd auf der Symmetrielinie zwi­ schen den beiden Achsen der Objektive positioniert.
Aus dem Streckenbüschel SB21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j wird ein Konvergenzpunkt K21 gebildet und aus dem Strec­ kenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der einzelnen Elementes des zweiten Emp­ fänger-Arrays, die Strecken ASO2j, wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt K22 und der Konvergenzpunkt K22 werden auf der Symmetrielinie SL zur Koinzidenz gebracht und bilden auf der Symmetrielinie SL den Konvergenzpunkt K0 und die beiden Empfänger-Arrays werden so verschoben, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemen­ te der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise jeweils ein aktueller Koinzidenzpunkt aus diesen zwei Bildern von Elementen gebildet, der durch den Ob­ jektraum verschoben wird. Dies erfolgt vozugsweise mit allen Elementen der Empfänger-Arrays. Es wer­ den vorzugsweise Signalverläufe S1 des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und es wird die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben.
Weiterhin werden Signalverläufe S2 des zweiten Empfänger-Arrays durch Auslesen der Elemente wäh­ rend der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke ASA2j gebildet und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt. Die Gerade gA1P wird in einem Punkt PA1 auf der Symmetrielinie SL und in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie SL und in der Hauptebe­ ne des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gA1P zusätzlich den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjek­ tivs im Array-Raum enthält.
Aus den beiden Signalverläufen S1j, S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signal­ verläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung be­ rechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektober­ flächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Ver­ schiebungen der Empfänger-Arrays vorbestimmt sind.
Bei der Verschiebung der Empfänger-Arrays kann es sich um eine elektronisch gesteuerte, mechanische Bewegung handeln. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array- Raum und die Hauptebene des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So ist gegeben, daß der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symme­ trielinie SL liegt und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrie­ linie SL liegt und so die beiden Punkte PA1 und PA2 in einem Punkt PA zur Koinzidenz gebracht werden.
Hierbei handelt es sich um das 3D-Y-Verfahren mit einer realen Verschiebung der beiden Empfänger- Arrays auf ASA1- und ASA2-Strecken, also auf den beiden oberen Y-Ästen. So kann von Freiraumszenen bei Tageslicht - einschließlich direktem Sonnenlicht - von Objektoberflächen auch im Hintergrund der Szene die 3D-Punktwolke gewonnen werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbil­ dungsstrahlengang abgebildet werden. Dabei ist die Achse eines ersten Abbildungsobjektivs im Abbil­ dungsstrahlengang für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungs­ objektivs im Abbildungsstrahlengang für die Abbildung der Objektoberflächen ausgerichtet. So ist zwi­ schen den beiden Achsen der beiden Abbildungsobjektive eine Symmetrielinie SL gebildet.
Jedem Abbildungsstrahlengang ist mindestens je ein Empfänger-Array zugeordnet und die beiden Emp­ fänger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, und die beiden Abbildungsob­ jektive weisen einen Abstand d des Pupillenzentrums PZOB des ersten Abbildungsobjektivs vom Pupillen­ zentrum PZOA des zweiten Abbildungsobjektivs im Objektraum von mindestens einem Achtel der Ausdeh­ nung der Öffnungsblende des ersten Abbildungsobjektiv auf.
Die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine elektronisch ge­ steuerte, mechanische Verschiebung im array-Raum und so werden auch die einzelnen Empfängerele­ mente verschoben und so detektieren dabei die Empfängerelemente an unterschiedlichen Orten elektro­ magnetische Strahlung.
Die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays erfolgt zumindest näherungsweise gleichzeitig. Die Elemente des Empfänger-Arrays werden anschließend ausgelesen, und es werden jeweils Signalwerte gewonnen und im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlengänge, de­ ren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet sind.
Der Signalverlauf S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken ASA1 liegen, die parallel zu einer Geraden gA1P ausgerichtet sind und die den Punkt PA1 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebilde­ te Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal­ verlauf S1 zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger- Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger- Arrays zur Signalbildung benutzt werden, die auf Strecken ASA2 liegen, die parallel zu einer Geraden gA2P ausgerichtet sind und die den Punkt PA2 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet.
So entspricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays gebil­ det, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektrau­ mes gebildet wird.
Die Gerade gA1P wird in einem Punkt PA1 im Durchstoßpunkt der Symmetrielinie SL durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 im Durch­ stoßpunkt der Symmetrielinie SL durch die Hauptebene des zweiten Abbildungsobjektivs zum Schnitt ge­ bracht und zusätzlich enthält die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum.
Aus den beiden Signalverläufen S1j, S2j von zwei zumindestens jeweils zu einem Zeitpunkt korrespondie­ renden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfah­ ren mit zwei gefensterten Signalverläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objek­ toberfläche berechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.
Die optischen Achsen der beiden Abbildungsstrahlengänge sind auch in diesem Fall vorzugsweise paral­ lel angeordnet. Es ist eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gegebenenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.
Die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebene des Abbildungsobjektivs können in einer gemeinsamen Ebene zusammenfallen. So kann der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 in ei­ nem Punkt PA zur Koinzidenz gebracht werden. Auch kann es sich bei der Verschiebung der Empfänger- Arrays um eine elektronisch gesteuerte, mechanische Bewegung handeln.
Es erfolgt keine reale Verschiebung der beiden Empfänger-Arrays auf den oberen Y-Ästen, sondern eine Verschiebung parallel zu den optischen Achsen der beiden Abbildungsobjektive. So wird durch das Aus­ leseverfahren der Elemente der Fall des Bewegens auf den oberen Y-Ästen nachgebildet.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht.
Nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich ΔtB entspricht, wird das struktu­ riert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode WP lateral weiterverschoben, wobei Elemente des Empfän­ ger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die in der Regel höhere Anzahl von lichtempfindlichen Elementen bei farbsensitiven Emp­ fänger-Arrays, eine grundsätzlich höhere Streifendichte verwendet werden kann, wenn jedes leuchtende Flächenelement FELj in einer Richtung als Farbstreifen einzeln gezählt wird. Es werden die Signale in den einzelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektier­ tes Element einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielswei­ se in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf. Die zu diesem rotempfindlichen Element unmittelbar benachbarten Elemente mit einer nicht rotempfindli­ chen Charakteristik registrieren dann nur ein sehr schwaches oder gar kein Signal.
Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den vorzugsweise 1,5fachen Abstand der einzelnen farbigen Flächenelemente wird erreicht, das die zuvor nicht vom einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun ausgeleuchtet werden. Dabei wird davon ausgegangen, daß durch die Abbildung der farbig leuchtenden Flächenelemente FEL eine Verbreiterung auf der Objektoberfläche stattfindet, so daß keine Lücken zwischen den Farbstreifen. Mit diesem Verfahren können auch verschiedenfarbige Elemente in der Objektoberfläche erfaßt werden.
Es ist aber auch grundsätzlich möglich, die Signalauswertung mit dem bereits beschriebenen phasenaus­ wertenden Verfahren, beispielsweise im Nahbereich der Szene, durchzuführen. In diesem Fall werden die farbig leuchtenden Flächenelemente FEL auf den bereits beschriebenen Verschiebungsstrecken VBSAj bewegt und die Auswertung für die farbsensitiven Elemente des Empfänger-Arrays durchgeführt. Aus der Verrechnung der Signalintensitäten in den drei Farben oder Wellenlängenspektren kann in der aus der Farbfernsehtechnik bekannten Art und Weise das Farb- und das Helligkeitssignal für jedes erfaßte Ele­ ment der Objektoberfläche gewonnen werden. So kann für jedes Element der Objektoberfläche die Infor­ mation über die mittlere Helligkeit, beziehungsweise Beleuchtungsstärke oder Leuchtdichte, und die zu­ mindest näherungsweise spektrale Zusammensetzung, also die Farbe, und der zO-Wert gewonnen wer­ den. Aus der bekannten, vorbestimmten Lage der Elemente der mindestens zwei Empfänger-Arrays und der bekannten Geometrie der 3D-Aufnahmeanordnung können so auch die zO-, die xO- und die yO- Raumkoordinaten für die Gesamtheit der detektierten Elemente der Oberflächen in einer Szenen eindeu­ tig bestimmt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY J unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht.
Nach einem Zeitbereich ΔtB, wird das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode WP entspricht, lateral weiterverschoben, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die höhere Anzahl von Elementen bei farbempfindlichen Empfänger-Arrays, eine grund­ sätzlich höhere Streifendichte verwendet werden kann. Es werden vorzugsweise die Signale in den ein­ zelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektiertes Ele­ ment einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielsweise in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.
Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den einfachen Ab­ stand der einzelnen farbigen Flächenelemente wird erreicht, daß die zuvor nicht von einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun vollständig ausgeleuchtet werden. Dies ist vorteilhaft, wenn als Beleuchtungsobjektiv ein Präzisionsobjektive mit einer sehr guten Modulationsüber­ tragung verwendet wird. Dadurch ergibt sich im Aufnahmevorgang eine gleichmäßige Ausleuchtung der Objektoberfläche, und es können so auch Elemente in verschiedenen Farben der Objektoberfläche erfaßt werden.
Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens ei­ ner Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschied­ licher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine elektromagnetische Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenelementen FEL ausgebildet.
Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordne­ ten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein strukturiert leuchtendes Array angeordnet sein, welches als ein von der Strahlungsquelle beleuchtetes klassisches Liniengitter, als strukturiertes Array, aber auch als elektronisch steuerbares Liniengitter ausgeführt sein kann. Das Lini­ engitter kann dabei ein symmetrisches Transparenzprofil mit einer cos2-Verteilung oder auch ein stark un­ symmetrisches Transparenzprofil mit einem Rechteckprofil aufweisen, wobei letzteres vergleichsweise nur wenige Linien oder nur eine einzelne Linie besitzt. Der letztgenannte Fall sichert bei einem einfachen Auswertealgorithmus die Eindeutigkeit der Gewinnung von Meßpunkten. Die Strahlungsquelle und das strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte die­ ses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die leuchtenden Flä­ chenelemente FEL können sich dabei an den Orten der Phase ϕ = 0, als Ort der maximalen Transparenz befinden.
Die Strahlungsquelle kann für elektromagnetische Strahlung im sichtbaren und im unsichtbaren Spektral­ bereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Auch elektromagneti­ sche Strahlung im infraroten Spektralbereich mit Wellenlängen größer als 900 nm kann zur Anwendung kommen.
Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch ein Bild des strukturiert leuchtenden Arrays dem Beleuchtungsobjektiv zur Abbildung zugeordnet sein. Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur strukturierten Beleuchtung der Objektoberflächen in der Szene.
Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbil­ dung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist min­ destens ein Empfänger-Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbil­ dungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zugeordnet. Dabei beträgt der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzen­ trums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzen­ trums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuch­ tungsobjektivs.
Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbe­ stimmten Wellenlängenspektrum, wobei diese im weiteren als leuchtende Flächenelemente FEL bezeich­ net werden, durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes FEL im Objektraum gebildet.
Speziell bei kleinen Objekten können der Beleuchtungs- und der Abbildungsstrahlengang ein gemeinsa­ mes Frontobjektiv besitzen.
Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente ange­ ordnet, welches dem strukturiert leuchtenden Array dieses Bewegungssystem zugeordnet ist. Die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL im Array-Raum und sind vorzugsweise aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich, daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente FEL, beispielsweise in lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjek­ tivs realisiert.
Nach Abbildung dieser Verschiebungsstrecken VSBAj durch das Beleuchtungsobjektiv in den Objektraum, ist deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel SB1 mit einem Konver­ genzpunkt K1 gebildet. Der Konvergenzpunkt K1 weist dabei vorzugsweise einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil und einen maximalen Abstand dK1 max vom 16fachen des Abstandes d auf.
Die Pupillen des Beleuchtungs- und des Abbildungsstrahlenganges sind stets räumlich getrennt. Jedoch fallen die Schärfebereiche des Beleuchtungsstrahlenganges im Objektraum mit Schärfebereichen des Abbildungsstrahlenganges zumindest teilweise zusammen. Die Beleuchtungsstrahlen und die Abbil­ dungsstrahlen schließen im Objektraum miteinander einen Winkel, den Triangulationswinkel, ein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit der Kon­ vergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel ange­ ordnet sein und so der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungs­ objektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Konver­ genzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungsobjektivs und im Brennpunkt des Abbildungsobjektivs im Objektraum positioniert sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein und die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL und so auch der leuchten­ den Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me­ chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu­ riert leuchtenden Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken VSBAj kann im Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest nähe­ rungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt K1 gebildet sein und dabei der Konvergenzpunkt K1 einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d aufweisen. Der Konvergenzpunkt K1 kann dabei einen maximalen Abstand dK1 max von der Achse des Beleuchtungsobjektivs vom 16fachen des Abstandes d aufweisen und zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet sein. Weiterhin kann der Konvergenzpunkt K1 des Streckenbüschels im Hauptschnitt im Pupillenzentrum PZAA des Abbil­ dungsobjektivs im Array-Raum angeordnet sein und die Konvergenzpunkte in den zum Hauptschnitt paral­ lelen Schnitten gemeinsam mit dem Konvergenzpunkt K1 des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sein. Das Pupillenzentrum PZOA des Abbildungsobjektivs und das Pupillen­ zentrum PZ0B des Beleuchtungsobjektivs im Objektraum können gemeinsam auf einer Geraden angeord­ net sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist.
Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob­ jektivs werden vorzugsweise nur Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke ASAj im Array- Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Haupt­ schnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs enthält, zum Schnitt gebracht ist, wobei bei der Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bil­ dern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das leuch­ tende Array als elektronisch steuerbares Gitter ausgebildet sein und vorzugsweise die Verschiebungs­ strecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum ausgerichtet sein und aus diesen Verschiebungsstrecken im Array-Raum kann zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt KA1 gebildet sein. Der Kon­ vergenzpunkt KA1 des Streckenbündels kann im Pupillenzentrum PZAA, des Abbildungsobjektivs im Array- Raum angeordnet sein und so kann der Konvergenzpunkt K1 im Objektraum im Pupillenzentrum PZ0A des Abbildungsobjektivs angeordnet sein. Das Pupillenzentrum PZ0A des Abbildungsobjektivs und das Pupil­ lenzentrum PZ0B des Beleuchtungsobjektivs können im Objektraum gemeinsam auf einer Geraden ange­ ordnet sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist. Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs können nur die Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines ein­ zelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger- Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Austrittspupille des Abbildungsobjektivs schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel zu einer definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und Brennweite fB des Beleuchtungsobjektivs auf, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, dem eine Komponente des Bewegungssystems dem Empfänger-Array zugeordnet ist, und so bei der mechani­ schen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke A5 dessen Elemente Verschie­ bungsstrecken ASAj auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASOj dieser Strecken ASAj bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann der Konvergenzpunkt K1 und der Konvergenzpunkt K2 mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Achse des Beleuchtungsobjektivs und die Achse des Abbildungsobjektivs parallel zueinander angeordnet sind und das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Kom­ ponente des Bewegungssystems dem Empfänger-Array zugeordnet sein und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke AS dessen Elemente Verschiebungs­ strecken ASAj auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbil­ dung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt K1 und der Konvergenz­ punkt K2 können mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsob­ jektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeord­ net sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der die Komponenten des Bewegungssystem so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade gA bewegen und diese Gerade gA mit dem Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf­ weist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung dem Emp­ fänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs justiert sein und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet sein und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs justiert sein, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das struktu­ riert leuchtende Array zumindest annähernd parallel zur Geraden gA bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem, bestehend aus einer einzigen Linearführung mit einem Schlitten und einer Basis, im Raum des strukturiert leuchtenden Arrays und Empfänger-Array angeordnet sein und die Linearführung wenig­ stens dem strukturiert leuchtenden Array fest zugeordnet sein und die Bewegungsrichtung für das struk­ turiert leuchtende Array zumindest annähernd parallel zur Geraden gA im Array-Raum ausgerichtet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfokussierung und beweglichen Kompo­ nenten des Abbildungssobjektivs zur Innenfokussierung fest zugeordnet sein und die zweite Linearfüh­ rung dem strukturiert leuchtenden Array zur Bewegung senkrecht zur optischen Achse des Beleuchtungs­ objektivs fest zugeordnet sein. Bei der Verwendung von präzisen Linearführungen kann so eine hochdy­ namische 3D-Aufnahme-Anordnung realisiert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Ab­ bildungsobjektivs angeordnet sein und ein rotatorischer Antrieb der Linearführung zuordnet sein und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zugeordnet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array als Gitter mit einer spiralförmigen Figur als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur als strukturiertes Array benutzt werden, wobei vorzugsweise in Verbindung mit der Strahlungsquelle das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spi­ ralförmigen Figur parallel zur Achse des Beleuchtungsobjektivs angeordnet und außerdem ein rotatori­ scher Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet ist.
Um eine kontinuierliche Aufnahme von bewegten Objekten mit einer hohen Geschwindigkeit erreichen zu können und dabei gleichzeitig die störende Wirkung von impulsförmigen Reaktionskräften auf die 3D- Aufnahme-Anordnung zu vermeiden, kann ein Gitter mit einer spiralförmigen Figur als Archimedische Spi­ rale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein. Das Gitter mit der spiralförmi­ gen Figur ist dabei bezüglich seiner Drehachse sorgfältig ausgewuchtet. Es wird eine Präzisionslagerung verwendet. Ein Ausschnitt des rotierenden Gitters mit der spiralförmigen Figur dient als strukturiert leuch­ tendes Array. Die Drehachse des Gitters mit der spiralförmigen Figur ist dabei vorzugsweise parallel zur Achse des Beleuchtungsobjektivs angeordnet. Es wird für die Erzeugung der Drehbewegung ein rechner­ gesteuerter rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet. Die Phase des Gitters mit der spiralförmigen Figur kann mit einer radial angeordneten, schnell auslesbaren Foto- Diodenzeile bestimmt werden. Es kann auch eine CCD-Zeile mit einer Bildauslesefrequenz im 10 KHz- Bereich eingesetzt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Abbil­ dungsobjektiv gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewe­ gungssystems um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beobachtet werden, ohne daß die durch die Beleuchtung vorgegebene ab­ solute Phase verändert wird.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Be­ leuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponen­ ten des Bewegungssystems und der Strahlungsquelle um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beleuchtet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweisen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem Lini­ engitter ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sein. Da­ durch ist eine besonders präzise Gewinnung der absoluten IstphaseGitter möglich. So kann die für das Auswerteverfahren benötigte Information über die absolute, lateral invariante Objektphase durch optische Bestimmung der absoluten IstphaseGitter direkt aus der Bewegung des beleuchteten Liniengitters durch optische Kopplung des Liniengitters mit einem Gegengitter und einem Nullpunktgeber unter Verwendung eines elektronischen Auswerte-Moduls mit einem Rechnerinterface für die Berechnung der absoluten, la­ teral invarianten Objektphase abgeleitet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine trans­ parente optische Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Referenzplatte in der Nahdistanz zugeordnet sein, wobei vorzugsweise auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Beleuch­ tungsstrahlengang mit einem afokalen System mit einem inneren Brennpunkt FBi aufgebaut sein und der Abbildungsstrahlengang mit einem inneren Brennpunkt FAi und im Objektraum der Brennpunkt des afoka­ len Beleuchtungsstrahlenganges und der Brennpunkt des afokalen Abbildungsstrahlenganges zumindest näherungsweise zusammenfallen und der Konvergenzpunkt K1 in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs angeordnet sein, wobei der Abstand dK1 dem halben Abstand vom inne­ ren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlen­ ganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht, wobei das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt sind.
Das Bewegungssystem kann mit mindestens einer beweglichen Komponente so angeordnet sein, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden gA justiert ist und so leuch­ tende Flächenelemente FEL auf Verschiebungsstrecken VSBAj verschoben werden und die Gerade gA kann den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum durchstoßen und für die Gerade gA kann der Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Ab­ stand dK1 realisiert sein, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs bezogen ist, und eine zur optischen Achse des Abbildungsobjektivs zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht.
Weiterhin kann mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv zugeordnet sein und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten für das leuchtende Array und das Empfänger-Array angeordnet ist.
Diese Anordnung ist für 3D-Aufnahmen im Makro-Raum sehr geeignet. Dabei können die beiden Objekti­ ve im afokalen System auch sehr unterschiedliche Brennweiten aufweisen. Von Vorteil ist weiterhin, daß die effektive Wellenlänge im gesamten Objektraum konstant ist. Die leuchtenden Flächenelemente FEL befinden sich ständig auf den B-Strecken BSAj.
Der Abstand dK1 entspricht vorzugsweise dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brenne­ bene Fi des Beleuchtungsstrahlenganges. Dies bedeutet, daß der Konvergenzpunkt K1 im Durchstoß­ punkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbildungsstrahlen­ ganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt. Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse wählbar, so daß sowohl eine senkrechte Beobach­ tung und Schrägbeleuchtung als auch eine senkrechte Beobachtung und Schrägbeobachtung möglich sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf der Verschiebungstrecke ASA1 und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke ASA2 stattfindet. Die Ver­ schiebungsstrecken ASA1 und die Verschiebungstrecke ASA2 können sich in einem Punkt PA in der zu­ sammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger- Arrays auf den Verschiebungsstrecken ASA1j und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken ASA2j bewegen.
Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuchtungsstrahlenganges können im Koinzi­ denzpunkt KO zusammenfallen. Zu den beiden parallelen Abbildungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP ver­ schiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfän­ ger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen optische Achse, und dessen array­ seitiger Hauptpunkt HAB kann mit dem Punkt PA zusammenfallen. Der objektseitige Brennpunkt FOB des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen, und es kann ein be­ leuchtetes Liniengitter als strukturiert leuchtendes Array angeordnet sein.
Die Empfänger-Arrays bewegen sich hierbei vorzugsweise real auf den Verschiebungsstrecken ASA1 und ASA2 und die Elemente der Empfänger-Arrays auf den Verschiebungsstrecken ASA1j und ASA2j.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet. Die Elemente der beiden Empfänger-Arrays können so ausgele­ sen werden und Signale gebildet werden, als ob sich die Empfänger-Arrays auf Verschiebungsstrecken ASA1 befinden würden und die Verschiebungstrecke ASA2 sich in einem Punkt PA in der zusammenfallen­ den array-seitigen Hauptebene schneiden. Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuch­ tungsstrahlenganges können im Koinzidenzpunkt KO zusammenfallen. Zu den beiden parallelen Abbil­ dungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP verschiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen op­ tische Achse, und dessen arrayseitiger Hauptpunkt HAB mit dem Punkt PA zusammenfällt. Der objektseiti­ ge Brennpunkt des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen und es kann ein strukturiert leuchtendes Array angeordnet sein.
Die Empfänger-Arrays bewegen sich vorzugsweise nicht real auf den Verschiebungsstrecken ASA1 und ASA2, sondern es werden die Elemente der Empfänger-Arrays ausgelesen, die in Zusammenwirken mit der Parallelverschiebung den Effekt ergeben, als ob diese sich auf den Verschiebungsstrecken ASA1j und ASA2j bewegen würden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen können im Objektraum koinzidieren. Das leuchtende Array kann mit leuchtenden Farbstreifen gebildet sein, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das leuchtende Array aus transmittierenden Mikroelementen und aus reflektierenden Mikro­ elementen aufgebaut ist, und dem strukturierten Array kann eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet sein, wobei das Licht mindestens einer Lichtquelle das strukturierte Array in einer fokussierenden Struktur durchsetzt und das Licht von mindestens zwei Lichtquellen auf Mikro­ spiegelelemente trifft.
Die beiden Empfänger-Arrays und das strukturierten Array können mit einem Bewegungssystem zur prä­ zisen, synchronen Bewegung verbunden sein, wobei die optisch aktiven Ebenen der beiden verschiebba­ ren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten werden können, wodurch die optisch konjugierten Ebenen im Objektraum stets koinzidie­ ren.
Dadurch wird erreicht, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung ver­ lustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Die Strah­ lungsquellen können dabei als Laserlichtquellen, farbige Lichtquellen oder als konventionelle weiße Licht­ quellen mit Farbfiltern gebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein farbig leuchtendes Array als Gitter mit einem asymmetrischen Furchenprofil gebildet sein. Dieses besteht aus Dreieckprofilen, die Makro-Profilflächen aufweisen, und besitzt eine auf dem gesamten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro- Gitterkonstante bezeichnet wird. Dem Gitter ist mindestens eine Strahlungsquelle zur Beleuchtung zuge­ ordnet.
Auf der Oberfläche des Gitters können zumindest näherungsweise Dreieckprofile gebildet sein und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Ma­ kro-Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet sein. So besteht für das einfal­ lende Licht eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farb­ bereiche blau grün rot. Hierbei kann auch ein diffraktives Reflexionsgitter eingesetzt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Mi­ krofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mikro-Dreieckprofil ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter als Transmissionsgitters mit einem asymmetrischen Furchenprofil mit Makro-Dreieckprismen ausgebildet sein, Dabei ist vorzugsweise das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet.
Dabei können je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, re­ flektierende Elemente zugeordnet sein. Dem Transmissionsgitters können eine Rotlichtquelle, eine Grün­ lichtquelle und eine Blaulichtquelle zugeordnet sein, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von mindestens zwei separa­ ten Lichtquellen auf die reflektierenden Elemente trifft.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen im Objektraum koinzidieren. Das strukturiert leuchtende Array ist dabei aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mi­ kroelementen gebildet, wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektierende Elemente zugeordnet sind. Dem strukturiert leuchtende Array ist eine Rot­ lichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von minde­ stens zwei separaten Lichtquellen unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft. So kann mit drei einzelnen Lichtquellen mit vergleichsweise wenig Lichtverlusten ein farbig leuchtendes Array realisiert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewegungssystem zur präzisen, synchronen Be­ wegung verbunden sein, wobei vorzugsweise die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe­ ne gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum permanent zur Koinzidenz ge­ bracht sind.
So ist gegeben, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung besonders verlustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Ein gro­ ßer Anteil des transmittierten Anteils kann das leuchtende Array passieren und trägt so zur Ausleuchtung der Objektoberfläche bei. Weiterhin wird dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest nähe­ rungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem struk­ turierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet sein.
Dieser Stellmechanismus am strukturierten Array dient vorzugsweise der vergleichsweise langsamen late­ ralen Bewegung, um im Aufnahmevorhang nach und nach jedes Element einer Objektoberfläche mit den Farben rot, grün und blau beleuchten zu können. Dieser Stellmechanismus zur lateralen Bewegung kann sich dabei schrittweise vorwärts und rückwärts bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberllächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdichte und mit leuchtenden Flä­ chenelemente FEL mit Mikro-Farbteilern ausgebildet sein, so daß vorzugsweise eine nahezu planare Struktur gebildet ist. Dies führt zu einem sehr guten Lichtwirkungsgrad.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farben rot, grün und blau gebildet sein, wobei vorzugsweise die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschieden­ farbigen Flächenelemente entspricht und vorzugsweise Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente abgestimmt FEL sind.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rota­ torische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß eine rotierende Scheibe gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array auf einer rotierenden Scheibe als ein rotationssymmetrisches Transmissions-Gitter ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet sein.
Dabei ist das Meßsystem in seiner messenden Funktion vorzugsweise einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.
Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Das Meß­ systems befindet sich in unmittelbarer Nähe des jeweils abgebildeten Ausschnittes des strukturierten Ar­ rays auf der Kreisscheibe. Für die optische Messung befindet sich auf der Scheibe dazu vorzugsweise auf einer stetigen Planfläche ein zumindest teilweise reflektierender Bereich. Das Meßsystem befindet sich vorzugsweise in einem Rachen des hochstabilen Gestells aus einem Werkstoff mit einem vorzugsweise geringen Temperaturausdehnungskoeffizienten wie beispielsweise Keramik oder eine Eisen-Nickel- Legierung.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises der rotierenden Scheibe zuge­ ordnet ist, so daß die axiale Ablage eines Sektors, verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so vorzugsweise jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann als Piezo- Steller als Komponente eines Lage-Regelkreises ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises ausgebildet und der rotieren­ den Welle zugeordnet ist, so daß vorzugsweise die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann auch Komponenten des Beleuchtungsobjektivs zugeordnet sein, so daß im Objektraum das Bild des strukturiert leuchtenden Ar­ rays sich stets in der gleichen Position befindet.
Das Stellsystem kann als Piezo-Steller als Komponente eines Lage-Regelkreises ausgebildet sein. Im Effekt werden sowohl der Axialschlag als auch ein gegebenenfalls vorhandener Taumelschlag der rotie­ renden Scheibe ausgeregelt. Es ist auch möglich, daß die rotierende Scheibe keine sehr hohe Steifigkeit aufweist und das Stellsystem durch eine elastische Deformation die axiale Sollposition realisiert, bei­ spielsweise durch die Wirkung magnetischer Kräfte.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsy­ stem zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Schei­ be angeordnet sein, welches vorzugsweise der rotierenden Scheibe zugeordnet ist, so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen werden kann.
Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Im Fall der Anwendung eines optischen Meßverfahrens kann sich eine Referenzspur in Form eines konzentrischen Kreises in unmittelbarer Nachbarschaft, beispielsweise in einem mittleren Abstand maximal 10 mm, zum strukturiert leuchtenden Array auf der rotierenden Scheibe befinden. Diese Referenzspur kann mit einer Genauigkeit von 0,1 µm zu einer Referenz- oder Symmetrielinie des strukturiert leuchtenden Arrays posi­ tioniert sein. Es kann auch ein präziser Ringspalt als Referenzspur gebildet sein, so daß das transmittierte Licht für die Bestimmung der radialen Ablage ausgewertet wird.
Als Basiswerkstoff kann aus Gründen der Invarianz gegenüber Temperaturänderungen Quarzglas für die rotierenden Scheibe eingesetzt werden. Für nichttransparente Bereiche der Scheibe kann auch ein faser­ verstärkter Werkstoff eingesetzt werden. Der abgebildete Ausschnitt des strukturierten Arrays befindet sich vorzugsweise in unmittelbarer Nähe des Meßsystems.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Steilsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Dieses Steilsystem ist vorzugsweise als Komponente eines Lage-Regelkreises der rotieren­ den Welle der rotierenden Scheibe zugeordnet, so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotierenden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten werden kann. So kann vorzugsweise auch der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays im Array-Raum konstant gehalten werden kann.
Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag konstant gehalten und die genaue laterale Zuordnung zwischen ei­ nem vorbestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flä­ chenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich ΔtB erhalten. Dies ist für die Genauigkeit bei phasenauswertenden Verfahren wichtig.
Das Stellsystem kann als Piezo-Steller als Komponente eines Lage Regelkreises ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage-Regelkreises darstellt. Als Kriterium für die Lageregelung gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenelementes FELj und eines vorbestimmten Element des Empfänger-Arrays während der Rotation der rotierenden Scheibe konstant gehalten werden soll, so daß gegebenenfalls auftretender Radialschlag gemessen und durch das Stellsy­ stem ausgeregelt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Das Stellsystem ist vorzugsweise als Komponente eines Lage-Regelkreises dem Empfänger- Array im Abbildungsstrahlengang zugeordnet, so daß die laterale Lage des Empfänger-Arrays hochdy­ namisch geregelt und so und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten und so der laterale Abstand der Lage eines vorbestimmten Elementes des Emp­ fänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays im Array-Raum konstant gehalten werden kann.
Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag gehalten und die genaue laterale Zuordnung zwischen einem vor­ bestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich tB erhalten. Das Stellsystem kann als Pie­ zo-Steller ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage- Regelkreises darstellt. Als Kriterium gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays von einem vorbestimmten Element des Empfänger- Arrays während der Rotation der Scheibe konstant gehalten werden soll, so daß eine gegebenenfalls auf­ tretende Abweichung vom Sollabstand des Empfänger-Arrays vom strukturiert leuchtenden Array gemes­ sen und durch das Stellsystem, welches die laterale Position des Empfänger-Arrays bestimmt, ausgere­ gelt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe mit mindestens zwei Sektoren ausgebildet sein und die Sektorenflächen die Stufenflächen ei­ ner Wendeltreppe darstellen.
So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich deren geometrisch-optische Weglänge zum Beleuchtungsobjektiv definiert än­ dert, und so deren Bild in unterschiedliche Tiefen des Objektraumes abgebildet wird.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ renflächen jeweils die Begrenzungsflächen einer transparenten Platte darstellen, wobei diese so gestalte­ te rotierenden Scheibe im weiteren als Wendeltreppenscheibe bezeichnet wird.
So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich die axiale Gegenstandsweite der unterschiedlichen Bereiche des strukturierten Arrays im Beleuchtungsstrahlengang durch die Dicke der Platte ändert, und so deren Bilder in unter­ schiedliche Tiefen des Objektraumes abgebildet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe mit zumindest näherungsweise regelmäßigen, gleichflächigen Stufenflächen als vollflächi­ ge Wendeltreppenscheibe mit Stufenabsätzen mit Stufenhöhen Δhj gebildet sein und auf die gleichflächi­ gen Stufenflächen der Sektoren der transparenten Platte je ein strukturiertes Array aufgebracht sein und vorzugsweise das Licht der Strahlungsquelle erst nach dem Passieren der Fläche des strukturierten Ar­ rays die Platte passiert. Weiterhin können die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sein und vorzugsweise mindestens ein einziger Absatz auf der Wendeltreppen­ scheibe mit mindestens der zweifachen Stufenhöhe ausgebildet sein. Die Wendeltreppenscheibe kann dabei eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe aufweisen.
Vorzugsweise kommt auf der Wendeltreppenscheibe nur die Fläche einer Stufe, beziehungsweise eines Sektors in den optischen Strahlengang zu einem Zeitpunkt zur Wirkung. Es ist aber auch möglich, daß mehrere Sektorenflächen, wenn diese sehr schmal ausgeführt sind, im optischen Strahlengang zur Wir­ kung kommen. In diesem Fall detektieren die Bereiche eines Empfänger-Arrays zu unterschiedlichen Zeiten Signalwerte von verschiedenen Sektorenflächen.
So kann der mittlere geometrisch-optische Abstand eines strukturierten Array, die Gegenstandsweite, dem jeweils eine Strahlungsquelle zugeordnet ist, vom zugeordneten Beleuchtungsobjektiv bei der Rotati­ on der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die Stufenwirkung verändert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe als ein in sich hochstabiler Körper aus gebildet sein und die Sektorenflächen der transpa­ renten Platten auf einer Seite der Wendeltreppenscheibe können in einer gemeinsamen Ebene liegen und so eine Fläche bilden. So kann die geometrisch-optische Weglänge der transparenten Platten den Stufe zu Stufe vorbestimmt verändert werden, indem vorzugsweise verschieden dicke, transparente Platten gebildet sind.
So kann der mittlere geometrisch-optische Abstand, die Gegenstandsweite, eines strukturierten Array dem jeweils eine Strahlungsquelle und das Beleuchtungsobjektiv zugeordnet ist, vom zugeordneten Be­ leuchtungsobjektiv bei der Rotation der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die verschieden dicken transparenten Platten verändert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in den Stu­ fenflächen der vollflächigen Wendeltreppenscheibe je ein weiterer transparenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet sein.
So kann für den Abbildungsstrahlengang ebenfalls sehr schnell und auch synchron sowie hochgenau und vorbestimmt eine geometrisch-optische Weglängenänderung im Zeitbereich ΔtB realisiert werden und so können bei zumindest näherungsweise baugleicher Ausführung, paralleler Achslage und entsprechender Justierung sowohl der Beleuchtungsstrahlengang als auch der Abbildungsstrahlengang auf die jeweils gleiche Schärfeebene fokussiert sein. Die Rotationsbewegung der Wendeltreppenscheibe wird so mit dem Auslesen der Elemente des Empfänger-Array synchronisiert, daß in der Integrationszeit beispielsweise einer Matrixkamera eine bewegte Segmentfläche die Fläche der Matrixkamera vollständig überdeckt, wo­ bei die Segmentfläche größer als die Fläche der Matrixkamera ist. Es ist jedoch auch eine gesteuerte teil­ weise Überdeckung möglich. In diesem Fall können die Elemente der Matrixkamera zeilenweise oder in Gruppen von Zeilen ausgelesen werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten in der Art eines als Tangentialgitters auf­ gebracht sein. So kann über der Rotation der Scheibe eine nur vergleichsweise geringe oder gar keine Phasenänderung in einem Feld eines strukturiert leuchtenden Arrays erzeugt werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten der Wendeltreppenscheibe in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein. So kann die Phase von einem Signal, welches aus einem Feld eines strukturiert leuchtenden Arrays bei der Rotation innerhalb eines Zeitintervalls gewonnen wird, beispielsweise des Zeitintervalls der Inte­ gration zumindest eines Bereiches des Empfänger-Arrays, beispielsweise einer Zeile, konstant gehalten werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe einen Sprung in der Struktur dieses Gitter in radialer Richtung in der Art eines Phasensprunges aufwei­ sen. So besteht die Möglichkeit, die Phasenlage bei der Rotation der Wendeltreppenscheibe im Beleuch­ tungsstrahlengang in definierten Schritten zu verändern.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Phasen- Auswerte-Algorithmen eingesetzt werden, die vorzugsweise mit einem ganzzahligen Vielfachen von 90° arbeiten, wobei der Wert von 90° eingeschlossen ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem Dreiviertel der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Sub-Nyquist-Phasen-Auswerte-Algorithmen eingesetzt werden, die insgesamt weniger Stützstellen benötigen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den Stufenflächen der Wendeltreppenscheibe zumindest in Teilbereichen auf der planen Fläche der Wendel­ treppenscheibe ein Referenzgitter aufgebracht sein. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe gemessen werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der planen Fläche der Wendeltreppenscheibe zumindest näherungsweise eine Radialstruk­ tur aufweisen. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe hochgenau gemessen werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweisen, die vorzugsweise der Ortsfrequenz entspricht, die aus der mittleren Phasenän­ derung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppenscheibe über dem Vollkreis resultiert. So kann mittels geeignetem optoelektronischem Zubehör und Auswerte-Modulen ein cos2-ähnliches Signal als Referenzsignal gewonnen werden, in welches der detektierte Signalverlauf, der zumindest näherungsweise ein cos2-Signal darstellen kann, phasenmäßig eingepaßt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, daß an der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Beispielsweise kann die Referenzmarke am Ort des maximalen geometrisch-optischen Abstandes der leuchtenden Flä­ chenelemente FEL von der zugeordneten Brennebene des Beleuchtungsobjektivs aufgebracht sein, bei­ spielsweise auch am Umfang oder auf der planen Fläche. Dann beginnt an der Referenzmarke das Ein­ zählen von Impulsen in einen Zähler und gleichzeitig detektieren die Elemente des Empfänger-Arrays vor­ zugsweise periodische Signale mit einer Modulation und ein Signal mit einem Maximum, wenn sich ein Oberflächenelement im Schärfevolumen des Bildes eines leuchtenden Flächenelementes FELj und gleichzeitig im Schärfevolumen des Bildes eines Elementes des Empfänger-Arrays befindet. Der Impuls, der dem Ort des absoluten Signalmaximums entspricht, wird zur Berechnung der zO-Position benutzt.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurchlässiger Teilbereich für den Abbil­ dungsstrahlengang mit einem Farbfilter angeordnet sein. Dieser lichtdurchlässige Teilbereich kann als Farbfilter und vorzugsweise auch einen Farbteiler aufweisen, wobei vorzugsweise die Anteile der ge­ wünschten Farbe transmittieren. So kann ein Filterrad gebildet sein und eine Farbfilterung des Lichtes von den Elementen der Objektoberflächen in einer Szene realisiert und so die Farbinformation gewonnen werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in jedem Sektor der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Da­ durch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächen 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880elemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ ren eine geringere Ausdehnung in tangentialer Verschiebungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so vorzugsweise das Empfänger-Array streifenweise ausgelesen wird. Die strei­ fenweise Auslesung, im speziellen sogar die zeilenweise Auslesung, ermöglicht eine hohe Anzahl von Segmenten. Dadurch ist gegebenenfalls eine Verringerung der Umfangsgeschwindigkeit der Wendeltrep­ penscheibe möglich. So wird für die Wendeltreppenscheibe der stetige Fall angenähert. Durch das An­ wenden von Auftragetechniken für die Segmente der Wendeltreppenscheibe können Dickenzuwächsen z. B in 5 µm-Schritten von Segment zu Segment einer Platte realisiert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene gleichflä­ chige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächigen Wendeltreppenscheibe angeordnet sein. Dies ist für die schnelle numerische Auswertung oft von Vorteil.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Durch eine Ausführung der Scheibe in Kunststoff ist so eine Low­ cost-Realisierung möglich. Ein auftretender Axialschlag kann gegebenenfalls im Elastizitätsbereich der Scheibe ausgeregelt werden. Es können dazu magnetische, elektrostatische, elektromagnetische Kraft­ wirkungen zur Anwendung kommen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Die Platten können dabei Planparallelplatten darstellen. Es kann die geometrische Dicke von Flügel zu Flügel verändert sein. Möglich ist auch der Einsatz unterschiedli­ cher Brechungsindizes für den Optikwerkstoff. So kann eine geometrisch-optischen Weglängenänderung im Beleuchtungsstrahlengang und für die leuchtenden Flächenelemente eine axiale Gegenstandsver­ schiebung erreicht werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Keilscheibe ausgebildet sein. So kann ebenfalls eine geometrisch-optische Weglängenän­ derung im Beleuchtungsstrahlengang und für das auf die Taumelscheibe aufgebrachte strukturierte Array eine axiale Gegenstandsverschiebung erreicht werden. Im Abbildungsstrahlengang kann so eine axiale Bildverschiebung für die abgebildeten Elemente der mindestens einen Objektoberfläche realisiert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche einer Keilscheibe mit einer planen Unterfläche ausgebildet sein, wobei vor­ zugsweise jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisi­ onsmotor zugeordnet ist. So kann das strukturiertes Array auf einer Planfläche aufgebracht sein. Dies ist für dessen Herstellung vorteilhaft.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehach­ se ausgebildet sein. Dies ist für die Justierung der 3D-Aufnahme-Anordnung und zur Vermeidung eines variablen lateralen Versatzes bei der Rotation der Scheibe von Vorteil.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweisen, wobei jedoch vorzugsweise nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein Refe­ renzgitter auf der vollflächigen Keilscheibe zumindest näherungsweise eine Radialstruktur aufweisen. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines Referenzwertes, beispielsweise als Referenzphase verwendet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Keilscheibe mindestens eine Referenzmarke aufgebracht sein. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines absoluten Wertes der Referenzphase verwendet werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Keil­ scheibe mehrere strukturierte Arrays in einzelnen Sektoren aufgebracht sind. Diese strukturierte Arrays werden beleuchtet bei der Rotation der Scheibe nacheinander vom Beleuchtungsobjektiv in den Objek­ traum abgebildet.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein. Diese strukturierte Arrays in der Art eines Tangentialgitters ermöglichen auch bei einer vergleichsweise hohen Drehgeschwindigkeit eine ver­ gleichsweise geringe Veränderung der Phase.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die einzel­ nen Tangentialgitter von Sektor zu Sektor einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen. So kann die für die Auswertung benötigte Veränderung der Phase im Signalverlauf realisiert werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Sektor zu Sektor ein Viertel der Periode des Tangentialgitters betragen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Taumelscheibe ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche eines Teilbereiches einer Taumelscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet sein. Auch ein Taumelschlag erzeugt bei der Rotation einer Scheibe eine geometrisch-optische Weglängenänderung für das auf die Taumelscheibe aufgebrachte strukturierte Array somit eine axiale Gegenstandsverschiebung bei der Abbildung desselben.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Taumel­ scheibe als vollflächige Scheibe und als transparenter Körper ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Axial­ schlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweisen, wobei vor­ zugsweise jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter aufgebracht sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweisen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Taumelscheibe mindestens eine Referenzmarke aufgebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Tan­ gentialgitter von Sektor zu Sektor einen Sprung in der Struktur in der Art eines Phasensprunges aufwei­ sen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgit­ ters betragen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein, wobei vorzugsweise der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet ist und vorzugsweise die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor zu Sektor ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Dadurch wird erreicht, daß sich zumin­ dest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenele­ mente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Schraubenfläche ausgebildet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das rotati­ onssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Schei­ be mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet sein, und so mindestens einen Absatz aufweisen, und das rotatorische Transmissionsgitter kann als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmessers der beleuchteten, rotieren­ den Scheibe aufweisen, wobei vorzugsweise jedoch nur ein Ausschnitt des Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommen. Dabei kann der Absatz vor­ zugsweise einen zumindest näherungsweise radialen Verlauf aufweisen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FEL sich auf Verschiebungsstrecken VSAj befinden, die vorzugsweise zumindest näherungsweise parallel zu einer Ge­ raden gA angeordnet sind.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem rotati­ onssymmetrischen Transmissionsgitter auf einer Schraubenfläche zur Bestimmung der Referenzphase eine Baugruppe mit einem Laser und einem Kollimator zugeordnet sein und mindestens eine feine Markie­ rung als Referenzmarke auf der Schraubenfläche aufgebracht sein, wobei der Baugruppe vorzugsweise ein Gitter mit einer Teilungskonstanten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entsprechen kann, nachgeordnet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistan­ ten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweisen und der Sprung in der Phase von Sektor zu Sektor vorzugsweise ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Um bei Rotation der Schraubenfläche die Referenzpha­ se hochgenau zu bestimmen und die dabei auftretenden unterschiedlichen Abstände auszugleichen zu können, wird mittels einem Laser und einem nachgeordnetem Kollimator eine Planwelle erzeugt. Diese trifft entweder auf ein ebenfalls miniaturisiertes Interferometer oder ein Gitter mit einer Teilungskonstan­ ten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht. So kann in der Gitterebene des rotationssymmetrischen Transmissionsgitters als Schraubenfläche eine strukturierte Beleuchtung mit einer bei der Drehung dieses Transmissionsgitters in der Tiefe nicht ver­ schwindender Struktur erzeugt werden. Die aktuelle relative Referenzphase kann dabei durch die Auswer­ tung von Licht in Transmission bestimmt werden. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumin­ dest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene im Beleuch­ tungsstrahlengang dem Beleuchtungsobjektiv ein bewegliches Keilprisma aus einem transparenten opti­ schen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensationsprisma aus einem transpa­ renten optischen Werkstoff zugeordnet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem Keilprisma ein strukturiertes Array aufgebracht sein und dem Keilprisma eine Linearführung mit einem Li­ nearmotor zugeordnet sein, wobei und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensati­ onsprisma dem Abbildungsobjektiv zugeordnet sein kann. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem beweglichem Keilprisma ein Referenzgitter mit einer Referenzmarke aufgebracht sein und eine Lichtquelle und ein opto-elektronisches Auswertemodul dem Referenzgitter zugeordnet sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für ein be­ wegtes Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise jeweils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.
Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Bewegung des Keilprismas und p die Gitterkon­ stante des strukturiert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupillenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Ab­ bildungsobjektivs im Objektraum. Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Ar­ rays auf dem Keilprisma kann sowohl durch eine Dickenänderung des Keilprismas, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein.
Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbe­ reich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für eine ro­ tierende Scheibe oder Teile derselben im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise je­ weils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.
Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Rotation und p die Gitterkonstante des struktu­ riert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupil­ lenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Abbildungsobjektivs im Objektraum.
Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Arrays auf der rotierenden Scheibe kann sowohl durch eine Dickenänderung der rotierenden Scheibe, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein. Diese Beziehung gilt grundsätz­ lich sowohl für stetige als auch für segmentierte rotierende Scheiben. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flä­ chenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp­ fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist, dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein. Die resultierende Bewegungsrichtung des ersten Empfänger-Array kann dabei auf einer Strecke ASA1 auf dem ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASA1 kann parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet so daß sich die detek­ tierenden Elemente des erstes Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y erfolgen, und die Strecke ASA1 kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die Szene kann eine Freiraumszene sein.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein und die resultieren­ de Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke ASA1 parallel zur optischen Achse des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfänger-Arrays ausgele­ sen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASA1j befinden, die parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen, welche sich auf Strecken ASA1j befinden, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei ge­ nau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbil­ dungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbil­ dung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befin­ den, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Auch hier kann die Szene eine Freiraumszene sein.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transpa­ renten Platte, die vorzugsweise planparallel ausgeführt ist, mit einer vorbestimmten geometrisch­ optischen Dicke zugeordnet sein und auf der rotierenden Scheibe Referenzmarken aufgebracht sein, wo­ bei die optische Dicke der transparenten Platte stetig veränderlich sein kann. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor ei­ nem Empfänger-Arrays angeordnet ist, enthalten.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte, die vorzugsweise planparallel ausgeführt ist, und jeder transparenten Platte eine vorbestimmten ortsabhängigen geome­ trisch-optischen Dicke zugeordnet sein und auf der rotierenden Scheibe mindestens eine Referenzmarke aufgebracht sein und so kann so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbestimmt verändert werden. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor einem Empfänger-Arrays angeordnet ist, enthal­ ten. Dabei kann das Empfänger-Array mit einer Steuerung Länge und des Beginns der Integrationszeit in Teilbereichen ausgelesen werden, so daß Bereiche gleicher Dicke ohne Sprungstelle in der Platte ausge­ lesen werden können. So kann jeweils eine Stelle gleicher optische Dicke fast in der gesamten Verweilzeit vor einem zugeordneten Element des Empfänger-Arrays detektiert werden. Weiterhin ist es möglich, daß sich vor einem elektronisch steuerbaren Array eine rotierende Scheibe mit mehreren transparenten Platte mit einer vorbestimmten optischen Dicke befinden, die eine vorbestimmte optische Dicke aufweisen und sich die optische Dicke von Platte zu Platte ändert, wobei Referenzmarken angeordnet sind, welche die Information über aktuelle optische Dicke der jeweils optisch wirksamen transparenten Platte enthalten und die transparenten Platten zumindest näherungsweise als planparallele Platten ausgeführt sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, für fotografische 3D-Farb-Aufnahmen für die Gewinnung der 3D-Punktwolke zwischen jedem Abbildungsobjektiv und jedem Empfänger-Array je mindestens zwei gleichwinklige Pris­ men aus einem Optikwerkstoff mit vorzugsweise je einem gleichen Brechungsindex und vorzugsweise gleicher Dispersion angeordnet sein, die als Keilprismen bezeichnet werden, wobei je zwei Keilprismen ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden. Die Strahlachse steht auf den äußeren Flächen des Parallelstückes jeweils senkrecht.
Dieser Zwischenraum konstanter Dicke wird vorzugsweise von den einander zugekehrten Innenflächen der beiden Keilprismen begrenzt. Der Zwischenraum ist vorzugsweise mit Luft ausgefüllt, kann aber auch mit einem transparenten Optikwerkstoff ausgefüllt sein, der vorzugsweise einen geringeren Brechungsin­ dex als die beiden gleichwinkligen Keilprismen aufweist. Durch die Dispersion können lateral verschobene Bilder in der Bildebene erzeugt werden. Durch Zuordnung einer Empfänger-Arrays mit zeilenweise aufge­ brachten Farbfiltern in den Farbbereichen rot grün blau kann der Farbwert eines jeden Objektpunktes zumindest näherungsweise vom gleichen Element der Objektoberfläche gewonnen werden. Dabei kann das feststehende Prisma als Fenster des Empfänger-Arrays angeordnet sein.
Weiterhin kann mindestens ein Keilprisma zumindest näherungsweise geradlinig verschoben werden, wo­ bei die Verschiebungsrichtung parallel zur inneren Fläche des verschobenen Keilprismas liegt und in je­ dem Fall eine Querkomponente zur Lichtausbreitungsrichtung enthält. Durch die Verschiebung des Keilprismas wird in jedem der beiden Abbildungsstrahlengänge die gleiche axiale Bildverschiebung in zA- Richtung erzeugt, so daß die korrespondierenden Pixel Informationen aus unterschiedlichen Tiefen des Objektraumes detektieren können. Beispielsweise können so 16 Bilder aus unterschiedlichen Tiefen des Objektraumes aufgenommen werden. Bei Aufnahmen von Objektoberflächen in der Szene mit der Einstel­ lung auf den Nahbereich kann synchron zur Aufnahme von Bildern eine Blitzlichtquelle die Objektoberflä­ chen in der Szene ausleuchten. So kann eine Bildfolge mit 16 Bildern mit 16 Einzelblitzen in 0,2 s aufge­ nommen werden. Eine höhere Blitzfrequenz ist grundsätzlich möglich. Dabei sendet die Blitzlichtquelle vorzugsweise kein strukturiertes Licht aus. Jedoch ist mit einer spezielle Blitzlichtquelle auch eine struktu­ rierte Beleuchtung möglich, jedoch sollte dann eine laterale Verschiebung der strukturierten Beleuchtung stattfinden, um zumindest näherungsweise die Elemente der Objektoberfläche gleichmäßig ausleuchten zu können.
Weiterhin kann zur Kompensation des anamorphotischen Effektes bei Keilprismen mit einem Winkel oberhalb von 5° ein zweites baugleiches Parallelstück mit einem gleichgestalteten Zwischenraum ange­ ordnet werden, welches um die Strahlachse um 90° gedreht wurde. Von den vier einzelnen Keilprismen können dabei die beiden inneren zu einen Monolithen vereinigt sein.
Weiterhin sind die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Au­ ßenfläche eines Parallelstückes vorzugsweise senkrecht zueinander ausgerichtet, wobei dei beiden äuße­ ren Keilprismen je eine oszillierende Bewegung mit einer 90°-Phasenverschiebung der Bewegung zuein­ ander ausführen können.
Die Auswertung der beispielsweise 16 Bilder erfolgt mittels des bereits genannten Korrelationsverfahren über die korrespondierenden Pixel durch die Bestimmung eines Korrelationsmaximums Mj. So kann von einer Standard-Szene die 3D-Punktwolke der Elemente der Objektoberflächen in der Szene, einschließ­ lich der Farbinformation durch die Auswertung der Farbwerte in den Bildern der Elemente der Objektober­ flächen, errechnet werden. Die Wiedergabe als 3D-Bild erfolgt nach einer automatischen oder einer inter­ aktiven Weiterverarbeitung der 3D-Punktwolke zu einem 3D-Flächen-Modell. Die Betrachtung der farbigen 3D-Flächen-Modell kann beispielsweise mittels eines digitalen 3D-Monitors erfolgen.
Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer min­ destens einer Szene das Empfänger-Array eine Farbkamera darstellen.
Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle und die Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenele­ menten FEL ausgebildet.
Es ist mindestens ein Beleuchtungsstrahlengang mit mindestens Beleuchtungsobjektiv, welches eine ef­ fektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur struktu­ rierten Beleuchtung der Objektoberflächen im Objektraum angeordnet. Der Objektraum, entspricht dem Szenenraum. Das Beleuchtungsobjektiv ist einem dem strukturiert leuchtenden Array, einschließlich ei­ nem Bild desselben, zugeordnet.
Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungsstrahlengang zugeordnet, der mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen mit mindestens ei­ nem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv zur Abbildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum BZA aufweist. Mittels Elementen des mindestens einem Empfänger-Arrays wird im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektiert.
Der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, beträgt mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsob­ jektivs. Die leuchtenden Flächenelemente FEL weisen in einer Leuchtdichteverteilung eine zumindest nä­ herungsweise vorherbestimmten Leuchtdichteauf, so daß durch die Abbildung mit dem Beleuchtungsob­ jektiv mindestens ein Bild eines leuchtenden Flächenelementes FELj im Objektraum gebildet ist.
So ist erfindungsgemäß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden Flächenelementes FELj in einem strukturiert leuchtenden Array - durch die vorbestimmte Zuordnung des leuchtenden Flächenelementes FELj zum Beleuchtungsobjektiv und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung - permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist. Dabei weist das Schärfevolumen, welches durch die Ge­ samtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, min­ destens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuch­ tenden Flächenelementes FELj auf, so daß für alle Bilder eines leuchtenden Flächenelementes FELj ein diese umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist und im Objektraum jeweils ein Bild eines leuchtenden Flächenelementes FELj eines strukturierten Arrays mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sind, wobei mindestens eine Sub-Matrix angeordnet ist und mindestens in einer strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet sind, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche angeordnet ist und diese mindestens eine Fensterflä­ che eine mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv aufweist, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist und in einer Fensterfläche in einer strukturier­ ten Zelle jeweils im Zusammenwirken mit der Strahlungsquelle mindestens ein leuchtendes Flächenele­ ment FELj dargestellt ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sein. Dabei sind in der strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche ange­ ordnet ist. Diese mindestens eine Fensterfläche weist eine mittlere optische Gegenstandsweite zum Be­ leuchtungsobjektiv auf, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist. So entsteht das Bild der Maskierung in einer anderen Tiefe des Objektraumes, wodurch in verschie­ denen Tiefen des Objektraumes Bilder der Maskierung erzeugt werden können. Außerdem ist in einer Fensterfläche in einer strukturierten Zelle jeweils mindestens ein selbstleuchtendes Flächenelement FELj angeordnet. Dieses wird in den Objektraum abgebildet.
Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne die Fensterfläche vorzugsweise zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs angeordnet.
Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne vorzugsweise mindestens eine strukturierte Sub-Matrix als eine Transmissionsanordnung mit einem optischen Werkstoff ausgebildet.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene mindestens die optisch aktive Oberfläche der strukturierten Zellen jeweils einen räumlich struktu­ rierten Bereich aufweisen, wobei in diesem räumlichen strukturierten Bereich die Fensterfläche als plane Fläche ausgebildet sein. In der planen Fläche des Fensterelementes ist vorzugsweise eine Maske ange­ ordnet und in einem Teilbereich der räumlich strukturierten Zelle ist neben der Maske auf der planen Flä­ che des Fensterelementes eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist, wobei deren Fokus zumindest näherungsweise in der Fläche des Fensterelementes positioniert ist. Dabei weist die Maske ein Binär-Code-Transparenzprofil zur Codierung einer maschinenlesbaren Zahl als Positionsnum­ mer. So sind die Masken innerhalb einer Zelle jeweils eindeutig maschinenlesbar und voneinander unter­ scheidbar. Damit ist zumindestens innerhalb einer Zelle die Mikrolinse ist neben der Maske auf der planen Fläche des Fensterelementes eindeutig zu identifizieren, so daß aus der lateralen Lage des Fokuspunktes im aufgenommenen Bild die zO-Koordinate sowie die xO- und die yO-Koordinate des zugehörigen Objekt­ punktes bestimmt werden kann.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Mikro­ linse in einem Teilbereich der räumlich strukturierten Zelle neben der Maske auf der Fensterfläche jeweils als eine Zylinderlinse ausgebildet sein. Dadurch gibt es jeweils eine Lichtspur auf der Objektoberfläche mit einer vergleichsweise hohen Beleuchtungsstärke über die Länge der Zylinderlinse. So ist diese Lichtspur unabhängig von lateralen Verschiebungen problemlos detektierbar und somit ist eine hohe Detektionssi­ cherheit gegeben.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer die Mikrolinse so angeordnet sein, daß deren Fokuspunkt zumindest näherungsweise in der Ebene der Maske positioniert ist. Dadurch ist eine besonders feine Lichtspur realisierbar.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als opakes Reliefstück mit mehreren, mindestens jedoch zwei, feinen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv angeordnet sind, ausgebildet sein. Beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung befinden sich die feinen Durchbrüchen in unterschiedlichen Tiefen des Array-Raumes, so daß deren Bilder sich an unterschiedlich tiefen Punktes des Objektraumes befinden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein nichttransparentes Reliefstück mit Durchbrüchen versehen sein. Die Oberfläche des Reliefstückes weist zum Beleuchtungsobjektiv und ist vorzugsweise so gefertigt, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Sollstückes darstellt und die Durch­ brüche auf der Oberfläche des Reliefstückes zumindestens näherungsweise die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Fläche angeordnet sind, die zuminde­ stens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt. Die Foki der Mikrolinsen stellen zumindestens näherungsweise einige optisch konjugierten Orte der Sollfläche eines Prüflings dar. So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt wer­ den.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche gebildet sein. Dabei ist vorzugsweise mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv ausgerichtet. Auf der schrägen Rampenfläche sind vorzugsweise leuchtende Flächenelemente FEL an­ geordnet. Diese leuchtende Flächenelemente FEL werden durch Fensterflächen gebildet, die von der Strahlungsquelle beleuchtet werden.
Die Rampenflächen sind vorzugsweise so geneigt, daß die Ausgleichsgerade AGAj durch die schräge Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj liefert, die zumindestens näherungsweise auf das Pupillenzentrum PZOA des Abbil­ dungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Aus­ gleichsgeraden AGOj von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuch­ tungsobjektivs aus deren Bildern ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist. Das Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt K1 ist dabei zuminde­ stens näherungsweise im Pupillenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht. So ist gegeben, daß sich bei der Aufnahme von Bildern der Objektoberfläche in allen Tiefen eindeutig eine Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt, da der verfolgende Abbildungsstrahl stets aus dem Pupillenzentrum des Abbildungsobjektivs kommt. Das Abbildungsobjektiv kann vergleichsweise kurzbrennweitig sein, kürzer als das Beleuchtungsobjektiv, und ist dabei so weit ab­ geblendet, beispielsweise auf die Blende 11, daß ein großer Tiefenschärfebereich gegeben ist. Damit bestimmt der Tiefenschärfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D- Aufnahmeanordnung. Dabei kann im Objektraum das Bild einer Rampe mit der Achse des Abbildungsob­ jektivs zusammenfallen. Die anderen Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ur­ sprungspunkt im Pupillenzentrum. So wird die zu detektierend Objektoberfläche von den Rampenbildern durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberfläche entsteht ein jeweils ein scharfes Bild von der Maske auf der Rampenfläche.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf der Rampenfläche, die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär- Code-Transparenzprofil mit der Sequenzlänge bz auf einem stetigen Flächenbereich derselben gebildet sein. Die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv noch ohne merklichen Kontrastverlust scharf abgebildet werden kann. Die Länge WP ist dabei vorzugsweise größer als bz.d/DB gemacht und die auf einer Rampenfläche aufgebrachten Masken sind mit einem Binär-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar. So kann auch bei einem lateralen Auswan­ dern aufgrund des Triangulationseffektes die Masken sicher identifiziert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mehrere Rampenflächen hintereinander in zum Hauptschnitt parallelen Zeilen in einer Sub-Matrix angeordnet sein, und deren mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv von Zeile zu Zeile, also in y- Richtung jeweils unterschiedlich gemacht ist, beispielsweise stets ansteigend. So entstehen ein mittlerer Anstieg in einer zweiten Richtung, der y-Richtung, und so können besonders viele unterscheidbare Hö­ henstufen realisiert werden. wodurch sich ein besonders großer Tiefenerfassungsbereich für die 3D- Aufnahme-Anordnung ergibt. Dem Abbildungsobjektiv kann, um bei einem sehr großen Tiefenerfassungs­ bereich nicht zu stark abblenden zu müssen, eine transparente Platte mit Keilprismen zugeordnet sein, die eine Platte mit Rampen darstellt, wobei die Rampenanzahl der Anzahl der Sub-Matrizen entspricht und der Keilwinkel dieser Platte sich aus dem Abbildungsmaßstab ergibt. Dabei steigen die Prismenkeile auf diese Platte in diesem Beispiel ebenfalls in y-Richtung an, so daß vom Abbildungsobjektiv scharte Bil­ der von Ebenen gesehen werden können, die nicht senkrecht zur optische Achse desselben angeordnet sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche inner­ halb der Rampenflächen mehrere Stufen ausgebildet sein, wobei sich auf einer Fläche einer Stufe je min­ destens eine Maske mit einem Binär-Code-Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist. Dabei müssen die Stufen nicht unbedingt stetig steigend oder fallend sein. So können auch Stufen vertauscht werden. Die Ausgleichsgerade bezieht sich auf den Fall, ohne das Vertauschen von Stufen. Die Ausgleichsgerade AGAj schneidet die nicht vertauschten Stufen jeweils etwa in der Mitte der Stufenflächen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Binär- Code-Profil als Balken-Code-Profil Transparenzprofil mit mindestens einem transparenten Balken aus­ gebildet sein. Ein Balken-Code-Profil Transparenzprofil kann so zeilenweise und damit besonders schnell gelesen werden. Die Balken sind vorzugsweise parallel zum Hauptschnitt angeordnet und so erfolgt die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt. Die Balken überdecken jeweils vorzugsweise mehrere Spalten bei einer Abbildung auf eine Empfängerfläche, beispielsweise min­ destens zwei Spalten. Dabei kann vorzugsweise das Tastverhältnis der Balken-Codierung bei einer kon­ stanten Periodenlänge des Balken-Codes ausgewertet werden. So ist beim Detektieren eine hohe Erken­ nungssicherheit unabhängig von der Position gegeben. Andererseits können die nebeneinander liegenden Balken als Balken gleicher Breite in nebeneinander liegenden Zellen auf Lücke gesetzt sein, so daß durch eine laterale Verschiebung infolge eines Höhenversatzes auf der Objektoberfläche keine Fehlinformation bei der Bildaufnahme entstehen kann. Weiterhin kann sich in einem äquidistanten Raster jeweils ein Dun­ kel-Hell-Übergang am gleichen Ort der Zellen befinden. Vorzugsweise kann es auch ein quadratisches Raster sein. Dies ist sehr vorteilhaft, da sich zumindestens bei einer zumindest näherungsweisen ebenen Fläche ein äquidistantes Raster von Meßpunkten gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit einem cos2-Transparenzprofil mit minde­ stens einer Periodenlänge bz aufgebracht sein. Die Periodenlänge bz ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Lichtstärke noch ohne merklichen Kontrastverlust abgebildet werden kann. Die Länge WP der Rampenfläche ist jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche leuchtende Flächenelemente FEL als von der Strahlungsquelle beleuchtete, transparente Fensterflächen, einschließ­ lich Bilder von diesen, im Array-Raum positioniert sein. Die dem Beleuchtungsobjektiv zugewandte Seite des strukturierten transparenten Arrays ist mindestens als ein einziges Relief mit einer räumlichen Struk­ tur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet, die jeweils ein transpa­ rentes Keilprisma darstellt.
Die Keilprismen weisen vorzugsweise einen Keilwinkel auf, der so gewählt ist, daß durch dessen abbil­ dende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgerade AGAj im Hauptschnitt liegen. Die Ausgleichsgerade AGAj liefert vorzugsweise nach Ab­ bildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj, die auf das Pupillen­ zentrum PZOA des Abbildungsobjektivs zielt. Dabei ist vorzugsweise für mehrere Ausgleichsgeraden AGOj von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Ge­ radenbündel mit einen Konvergenzpunkt K1 gebildet, der zumindestens näherungsweise mit dem Pupil­ lenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht ist. So kann vermieden werden, daß auf den schrägen Flächen einer Rampe eine Maskierung aufgebracht werden muß. Die Maskierung be­ findet sich auf der Vorderseite des vorzugsweise zur Strahlungsquelle planen Reliefs.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die trans­ parenten Keilprismen jeweils so gefertigt sein, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweisen. Bei diesem Winkel ergibt sich eine Drehung der leuchtenden Flächenelemente, die auf einer planen Fläche, senkrecht zur Achse des Be­ leuchtungsobjektivs, angeordnet sind.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise gleichwinklig ausgebildet sein. So stellen vorzugsweise, wenn nicht die Rampenflächen selbst, aufgrund einer räumlichen Strukturierung derselben, wenigstens die Ausgleichsgeraden AGAj durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung zueinander parallele Geraden dar.
Die Rampenflächen sind so gestaltet, daß nach Abbildung durch das Beleuchtungsobjektivs aus den Bil­ dern der parallelen Ausgleichsgeraden ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist, der zumindestens näherungsweise mit dem Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum zur Koinzidenz gebracht ist. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise mit der gleichen Länge ausgebildet sein. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv eine transparente Platte mit Keilprismen nachgeordnet sein, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-Matrizen auf dem strukturierten Array ent­ spricht. Weiterhin können die Rampen Mikro-Stufen aufweisen, die senkrecht zur Achse des Abbildungs­ objektivs ausgerichtet sein. So kann die brechende Wirkung eines Prismas vermieden werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche im Abbil­ dungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet sein, beispielsweise in einer Zwischen­ abbildungsstufe, die dem Objektiv vor dem Empfänger-Array vorgeordnet ist, wobei die Mikrolinsen inner­ halb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufweisen. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte scharf abgebildet werden. Es können zwei ein Mikrolinsen-Arrays mit jeweils koaxialen Mikrolinsen angeordnet sein, die ein Mikro-Teleskop bilden, wobei ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite gefertigt ist, dem ein Mikrolinsen-Array mit Mikrolinsen gleicher Brennweite zugeordnet ist, so daß ein Array aus Mikro-Teleskopen gebildet ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senk­ recht zur optischen Achse des Abbildungsobjektivs aufweisen. Auch hier können mit einer planen Emp­ fängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte gleichzeitig scharf abgebildet werden, ohne daß eine Zwischenabbildungsstufe benötigt wird. So ist vorzugsweise ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite angeordnet.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räumlichen Profil angeordnet sind. Dieses kann ein Sinusprofil sein, welches sich optimal herstellen läßt.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf Rampenflächen angeordnet sein. So können mit ei­ ner planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebildet werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet sein, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsob­ jektiv angeordnet sind. Dabei liegen die Mikrofaserenden vorzugsweise auf der einen Seite des Lichtwel­ lenleiter-Arrays in einer gemeinsamen Ebene und sind den Elementen des Empfänger-Arrays unmittelbar zugeordnet. Auf der anderen Seite des Lichtwellenleiter-Arrays sind die Faserenden dem Abbildungsob­ jektiv zugeordnet. Hier sind die Faserenden auf einem räumlichen Profil angeordnet. So kann Licht aus unterschiedlichen Ebenen des Array-Raumes detektiert werden. Die Punkte der Detektion entsprechen unterschiedlich weit entfernten Punkten im Objektraum, so daß Elemente einer Objektoberfläche aus un­ terschiedlichen Tiefen des Objektraumes gleichzeitig aufgenommen werden können. Das räumlichen Profil kann ein Stufenflächenprofil mit Rampenflächen darstellen. Die Ausbildung kann auch als Sinusprofil erfolgen.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das räum­ liche Profil der Faserenden zumindestens näherungsweise mit Rampenflächen ausgebildet ist. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebil­ det werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array mit mindestens acht Elementen ausgebildet sein. Es gibt vorzugsweise mindestens zwei Be­ reiche mit mindestens je vier Elementen, wobei die vier Elemente dann genau zwei Zellen darstellen, mit einer unterschiedlichen mittleren Höhe der Elemente in einer Fläche gebildet sein, die als Sub-Fläche be­ zeichnet wird. So sind auf dem Empfänger-Array Bereiche gebildet, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens Elemente in vier unterscheidbaren Höhenstufen angeordnet. Damit kann ein größerer Tiefenbereich im Objektraum zumindest näherungs­ weise scharf auf die einzelnen Elemente des Empfänger-Arrays abgebildet werden, ohne daß eine Fo­ kussierung durch eine mechanische Verschiebung erforderlich ist.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche eine Rampenfläche mit einer gleichen Höhe darstellen, so daß mindestens zwei Rampenflächen auf dem Empfänger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form der Rampenfläche zumin­ dest näherungsweise gleich gemacht ist. So kann in mindestens zwei Bereichen der abgebildeten Objek­ toberfläche der volle Tiefenerfassungsbereich realisiert werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die An­ zahl der Bereiche, die zu einer Sub-Fläche gehören, mit der Anzahl der Sub-Matrizen im strukturierten Ar­ ray übereinstimmen und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhaf­ te Bereiche des Empfänger-Arrays, die getrennt elektromagnetische Strahlung detektieren können, er­ strecken. So können die von leuchtenden Flächenelementen FEL, die durch beleuchtete Fensterflächen in unterschiedlicher Höhe auf einer Sub-Matrix des strukturierten Arrays gebildet sind, im Objektraum ent­ stehenden Bilder auf der Objektoberfläche auf Elemente der Empfänger-Arrays zumindestens nähe­ rungsweise scharf abgebildet werden. Die laterale Anordnung der Bereiche, die zu einer Sub-Fläche ge­ hören, auf der Oberfläche des Empfänger-Arrays ist mit der lateralen Anordnung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht. Dabei stellt eine Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche jeweils eine Rampenfläche dar. Es können mindestens zwei Sub-Flächen auf dem Empfänger-Arrays gebildet sein. In der Regel können bis zu 128 bei einer 256 × 256 Pixel CCD-Matrix oder gar 512 Sub-Flächen bei einer 1024 × 1024 Pixel CCD-Matrix gebildet sein, um von möglichst vielen Bereichen der Objektoberfläche scharfe Bildpunkte über einen vergleichsweise großen Tiefenbereich detektieren zu können, ohne dabei das Abbildungsob­ jektiv sehr stark abblenden zu müssen. Jeweils zwei Zeilen bilden im Minimum eine Sub-Fläche. Grund­ sätzlich ist auch die Bildung von Sub-Flächen über mindestens zwei Spalten des Empfänger-Arrays, also einer CCD-Matrix, möglich.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standar­ daufgaben mit einem guten Signal-Rausch-Verhältnis möglich.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CMOS-Matrix-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel eine Verfolgung von bewegten Elementen der Objektoberfläche im Raum möglich.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Zeilen-Kamera ausgebildet sein. Dies ist zur Aufnahme von sehr schnell ablaufen­ den Vorgängen in einem Schnitt von großem Vorteil.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sein und jedem Abbildungsstrahlengang kann jeweils zumindestens eine kippbare Spiegelfläche vorgeordnet werden und die vorgeordneten, kippbaren Spiegelflächen kön­ nen starr miteinander verbunden sein und diesen können rechnergesteuerte Komponenten zur Durchfüh­ rung einer definierten Verkippung zugeordnet sein. Durch das Kippen der Spiegelflächen mittels eines rechnergesteuerten Schwingspiegels können unterschiedliche Schnitte für die 3D-Aufnahme ausgewählt werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet sein. So kann eine schnelle Aufnahme von Objektoberflächen im Objektraum erfolgen.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Dabei kann das erste Abbildungsobjektiv als ein Referenzsystem arbeiten, um beispielsweise eine absolu­ te Messung in der bereits beschriebenen Art durchführen zu können. Das zweite Abbildungsobjektiv ist im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet, wobei k ≧ 2 gemacht ist. Beispielsweise kann das zweite Abbildungsobjektiv im vierfachen Abstand angeordnet sein und ein be­ sonders großes oder ein asymmetrisches Objektfeld besitzen. So ergibt sich ein größerer Triangulations­ winkel und damit eine höhere Tiefenauflösung, wobei die Informationen, die vom ersten Abbildungsobjek­ tiv gewonnen werden dazu dienen, die Ergebnisse die mit dem zweiten Abbildungsobjektiv gewonnen werden, bezüglich der gemessenen Phaseninformationen zu überprüfen und gegebenenfalls hinsichtlich der Streifenordnung zu korrigieren.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven angeordnet sein. Dabei ist das erste Abbildungsobjektiv mit einer zumindest näherungs­ weiser einseitiger Telezentrie im Array-Raum ausgeführt und das zweite Abbildungsobjektiv ebenfalls mit zumindest näherungsweiser einseitiger Telezentrie im Array-Raum ausgeführt, wobei die beiden Haup­ tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind. Dabei ist das Pupillenzentrum PZOA1 des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOA2 des zweiten Abbildungs­ objektiv angeordnet. Jedem Abbildungsobjektivs ist je ein räumlich strukturiertes Empfänger-Array zuge­ ordnet, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind. Das erste und das zweite räumlich strukturierte Empfänger-Array weisen je mindestens zwei Empfängerflächen auf räumlich ge­ trennten Stufenflächen auf, die jeweils senkrecht zum Hauptschnitt liegen, wobei die Empfängerflächen des ersten Empfänger-Arrays jeweils parallel zur Geraden gA1P angeordnet sind, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA1 des ersten Abbildungsobjektivs enthält.
Die Empfängerflächen des zweiten Empfänger-Arrays sind vorzugsweise jeweils parallel zur Geraden gA2P angeordnet, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA2 des zweiten Abbildungsobjektivs enthält, wobei sich je zwei durch die Empfängerflächen und sowie und gehenden Ausgleichsgeraden in der Hauptebene schneiden und der mittlere Abstand dieser Empfänger­ flächen sowie von der Hauptebene jeweils gleich gemacht ist.
Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.
Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der beiden Emp­ fänger-Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemeinsamen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.
Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Fenster, vorteilhaft sind Fensterlängen mit einer Länge von beispiels­ weise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.
Es erfolgt das in beiden Signalverläufen S1j und S2j synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.
Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.
Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.
Die Invertierung ist notwendig, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinan­ der zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung.
Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m bestimmt wird. Aus den von m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann ei­ ne Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum Mj Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können lnterpolationsmethoden angewendet werden.
So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.
Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D- Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung, der beiden Empfänger-Arrays vorbestimmt sind.
Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.
Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objek­ toberfläche bezeichnet werden.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, und das erste und das zweite Empfänger-Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise die Strecke ASA1, die auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y liegt. Weiterhin liegt vorzugsweise die Strecke ASA1 parallel zu einer Geraden gA1P, die zum einen den Brennpunkt des ersten Abbildungsobjek­ tivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y.
Mindestens eine Empfängerfläche des zweiten Empfänger-Array liegt vorzugsweise auf einer Strecke AS2 auf dem zweiten oberen Ast des Buchstabens Y und enthält die Strecke ASA2, die parallel zu einer Gera­ den gA2P liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detek­ tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Diese Anordnung ermög­ licht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene senkrecht zum Hauptschnitt.
Die Empfänger-Matrizen sind im Aufbau gleich und in einer zur Symmetrieilinie SL symmetrischen Positi­ on und in gleicher Höhe angeordnet. Die Signale der beiden Empfängerflächen werden zeilenweise aus­ gelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe S1 und die Emp­ fängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korre­ spondierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelationsverfahren mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Si­ gnalstücke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden. Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D- Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespei­ chert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln auf­ weisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der je­ weils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebung­ schritt des Fensters als um ein Pixel erfolgen, beispielsweise um vier Pixel. Die Länge des Fensters wird in Abhängigkeit von der relativen Öffnung und vom mittleren Abstand der Objektoberfläche gewählt. Dabei kann die Fensterlänge auch variabel gestaltet werden, beispielsweise kann für die fokusnahen Bereiche der Empfänger-Matrix eine geringere Fensterlänge gewählt werden. So erfolgt die Bestimmung der zO- Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symme­ trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive.
Die Auswertung erfolgt mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben be­ reits dargestellt.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Jedem der beiden Abbildungsobjektiv ist je ein räumlich strukturiertes Empfänger-Array zugeordnet, so daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind.
Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Emp­ fängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten Empfänger- Arrays sind jeweils so angeordnet und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korre­ lationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt.
Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit min­ destens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbil­ dungsstrahlengang. Dabei ist das Pupillenzentrum (PZOA1) eines Abbildungsobjektivs eines Abbildungs­ strahlenganges mindestens im Abstand d vom Pupillenzentrum (PZOA2) eines anderen Abbildungsobjek­ tivs eines anderen Abbildungsstrahlenganges angeordnet, wobei der Abstand d mindestens ein Achtel der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungs­ blende entspricht. Weiterhin ist jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit minde­ stens zwei detektierenden Element zugeordnet.
Erfindungsgemäß ist dabei jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mi­ krooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie­ renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet und im Objektraum ist mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikroprismen-Array ausgebildet sein. Dabei kann ein Mikropisma mehrere detektie­ rende Elemente überdecken, so daß aufgrund der unterschiedlichen optischen Dicke des Mikroprismas die mehrere detektierende Elemente eine jeweils andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. So kann aus den Bildern von mehreren detektierende Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes ei­ ner Oberfläche bestimmt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher axialer Lage ausgebildet ist. So kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Ge­ genstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detek­ tierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden.
Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet sein. Auch hierbei kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine an­ dere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detektierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelations­ verfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden. Die Mikrolin­ sen können dabei Bestandteil eines Mikro-Teleskopes sein.
6. Ausführungsbeispiele
In der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem Array-Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, sich aber bei dieser und den im weiteren dargestellten optischen Schaltungen als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Array-Raumes der werden an erster Stelle mit dem Buchstaben A indiziert und die Größen und Punkte des Objektraumes mit dem Buchstaben O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A.
Im Array-Raum befinden sich ein Liniengitter 3 mit der Gitterkonstante p und eine vorgeordnete Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann rechnergesteuert sein, so daß die mittlere Beleuchtungsstärke der Entfernung des jeweiligen Schärfebene nach dem photometrischen Gesetz angepaßt ist. Dies stellt eine gute Ausnutzung der Lichtenergie dar.
Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem streng telezentrischen Strahlengang im Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des Beleuchtunsobjektivs 1, HAB und HOB, in der Fig. 1 zusammengelegt. Bei realen Objektiven dieser K1asse liegen die beiden Hauptebenen weit auseinander.
Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2, welches einen ebenfalls streng telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein einzelner Abbildungsstrahl AO1 ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs 2, HAA und HOA, in der Fig. 1 ebenfalls zusammengelegt.
Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 weisen die array-seitigen Brennpunkte FAB und FAA und im Objektraum die Brennpunkte FOB und FOA auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte FOB und FOA mit den Austrittspupillen PZOB und PZOA zusammen. Es sind zwei Beleuchtungsstrahlen BSO1 und BSO2 und ein Abbildungsstrahl ABSO dargestellt.
Die hier nicht dargestellte, erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix 6 starr verbunden und trägt eine zweite, hier ebenfalls nicht dargestellte, kleinere Linearführung, die wiederum das Liniengitter 3 trägt. Dieses Liniengitter 3 ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv 1 erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken.
Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrichtung der zweiten Linearführung liegt senkrecht zu den Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhandene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters 3 als Phaseninformation echtzeitnah im Rechner zur Verfügung zu haben. Gleichzeitig ist auf dem Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist eine Beleuchtungs- und Empfänger-Optik beigeordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfahren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.
Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hin. Der kleineren, zweiten Linearführung, die das Liniengitter 3 trägt, ist ein Positions-Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsobjektiv 1 und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs 1.
Aus der aktuellen, absoluten Istphase ϕGitter des Liniengitters 3, die von einem Nullpunkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA, beispielsweise parallel zur Geraden gA2, auf der B-Strecke BSA2 bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs 1 und außerdem den Hauptpunkt HAA des Abbildungsobjektivs 2 schneidet.
Die leuchtenden Flächenelemente FEL bewegen sich im Array-Raum auf den Verschiebungsstrecken VSAj, die hier durch die Sollstrecken, die B-Strecken BSAj, repräsentiert sind. Die Bilder dieser B-Strecken BSAj, einschließlich der in der Fig. 1 dargestellten B-Strecken BSA1 und BSA2, werden in den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSA1 und BSA2 die Bilder BSA1 und BSA2. Die Bilder BSA1 und BSA2 bilden ein Streckenbüschel SB1 mit dem Konvergenzpunkt K1, der mit den Brennpunkt FOA des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASA1 und ASA2. Deren Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken ASO1 und ASO2 mit dem Konvergenzpunkt K2 dar, der im Brennpunkt FOA des Abbildungsobjektivs 2 mit dem Konvergenzpunkt K1 koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt K1 und von Konvergenzpunkt K2 im allgemeinen stets der Koinzidenzpunkt K0 ist.
Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA wird das sogenannte "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum, wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließlich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix 6 nicht bestimmt werden.
Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Streifen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters 3 im Array-Raum entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs 1 in xAB-Richtung ergibt. Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Liniengitters 3, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkrements den Brennpunkt FAB des Beleuchtungsobjektivs 1 schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand GQ.
Bei Kenntnis des zugehörigen Punktes GAB auf dem Liniengitter 3 und des Wertes xAB1 sowie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene im Objektraum mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Abbildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektivachse des Beleuchtungsobjektivs 1 liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).
Bevor die Messung, d. h. die Gewinnung der Punktwolke einer unbekannten Objektoberfläche 5 erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenkrechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D-Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Aufnahmebereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix 6 sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus' die relative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modulationsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, siehe Fig. 2, und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij - in der Regel - längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase 9 Gitter des Liniengitters 3 unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendifferenzen ΔϕGitter_ij gebildet.
Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an deren wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive 1 und 2, fB die Brennweite des Beleuchtungsobjektivs 1 und p die Gitterkonstante des Liniengitters 3 dar.
Mit der Beziehung entsprechend Gleichung (4), wobei ΔϕGitter_ij sich für den Objektpunkt ij aus der Gleichung (3) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) gewonnen. Aus der Beziehung
kann die zos-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix 6 optisch konjugiert ist.
Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebungen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden. Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabweichungen werden in ein numerisches Modell eingegeben, welches hier nicht dargestellt ist, und können zur Korrektur benutzt werden.
Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehörenden aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brennpunkt des Abbildungsobjektivs 2 als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten der Objektoberfläche in digitaler Form als Punktwolke zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.
Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2-Position entlang des gezeichneten Abbildungsstrahls ABSO erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Phasenlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2 π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2 π-Wert wird als effektive Wellenlänge bezeichnet und ist tiefenabhängig.
Fig. 2 zeigt beispielsweise die Signalverläufe SO und SR in einem Bildpunkt der Empfänger-Matrix 6 in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengitters beim Bewegen des Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt SO eines Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt APR im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt APO im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGittzer errechnet und mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate eines jeden Objektpunktes, nämlich zObj, bestimmt wird. Der hochstabile Nullpunkt N dient als Startpunkt.
Fig. 3 zeigt eine vorteilhafte 3D-Aufnahme-Anordnung mit nur einer Linearführung 7, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia-Applikationen. Der Schlitten 8 der Linearführung 7 trägt ein Liniengitter 3 zur strukturierten Beleuchtung der Objektoberfläche 5. Die Beleuchtung erfolgt mittels einer Lichtquelle 4 durch eine Öffnung in der Basis 9 der Linearführung 7. Weiterhin trägt der Schlitten 8 die beweglichen Teile für ein Meßsystem 10 für den Verschiebeweg s, wobei auch ein Nullpunktgeber 11 angeordnet ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht dargestellten Auswerterechner vorhanden.
Der Schlitten 8 wird von einem Linear-Motor 12 angetrieben und die Führung 7 weist ein miniaturisiertes Präzisionslager 13 auf. Als Empfänger-Matrix 6 kann auch eine farbtüchtige Kamera eingesetzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Linien des Liniengitters 3 angeordnet sein sollten.
Nach dem Start des Schlittens 8 in (-)s-Richtung wird der Nullpunkt durchfahren und das Liniengitter 3 durch das Beleuchtungsobjektiv 1 nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Oberfläche der Objektoberfläche 5 entsteht beim Verschieben des Liniengitters 3 im Zeitbereich ΔtB zumindestens einmal im Verschiebevorgang das scharfe Bild desselben, beispielsweise zum Zeitpunkt ti. Dieses scharfe Bild wird auch zum Zeitpunkt ti vom Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 scharf abgebildet, da diese sich in der gleichen Ebene wie das Liniengitter 3 befindet. Durch die Bewegung des Schlittens 8 der Führung 7 gibt es eine laterale Bewegung der Empfänger-Matrix 6, wobei das Bild der Objektoberfläche 5 in Bezug auf die Basis 9 feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punkte der Objektoberfläche 5, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix 6 beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-Massiv entsprechend der lateralen Bewegung der Empfänger-Matrix 6 verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils einem lateral feststehenden Bildpunkt unabhängig von der lateralen Bewegung der Empfänger-Matrix 6 fest zugeordnet bleibt.

Claims (183)

nsprüche<
1. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ ment gebildet ist, wobei der Begriff Leuchten im Sinne des Aussendens von elektromagnetischer Strah­ lung verwendet wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich­ te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele­ ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch­ tungsobjektiv (1), welches eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) realisiert und
mit mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objektoberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und mit ei­ nem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elemente der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch­ tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo­ metrisch-optischen Schärfevolumen gebildet wird,
gekennzeichnet dadurch, daß die Detektion von elektromagnetischer Strahlung von den Elementen der mindesten einen Objektoberfläche (5) durch die Elemente des Empfänger-Arrays mindestens in einem Zeitbereich (ΔtB) erfolgt, in welchem mit einem leuchtenden Flächenelement FELj (3A) des strukturiert leuchtenden Arrays eine vorbestimmte Verschiebung durchgeführt wird, einschließlich einer vorbestimm­ ten optischen Verschiebung als Ergebnis einer geometrisch-optischen Weglängenänderung, und so min­ destens ein leuchtendes Flächenelement FELj (3A) zu zwei unterschiedlichen Zeitpunkten an mindester zwei unterschiedlichen Orten elektromagnetische Strahlung aussendet und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchtenden Flä­ chenelementes FELj (3A) des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schärfevo­ lumen im Objektraum gebildet ist, und
das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten Elementes des Empfän­ ger-Arrays, wobei dieses Schärfevolumen im Objektraum gebildet ist, und
mindestens ein Element der mindestens einen Objektoberfläche (5)
zumindest näherungsweise einmal durch die Durchführung der vorbestimmten Verschiebung mindestens eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungs­ komponente parallel zur optischen Achse des Beleuchtungsobjektiv (1),
zur Koinzidenz gebracht werden,
so daß im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevo­ lumens eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und des Schärfevolumens eines Bildes eines vorbestimmten Elementes des Empfän­ ger-Arrays und mindestens eines Elementes der mindestens einen Objektoberfläche (5) erzeugt wird und beim Auftreten der Koinzidenz zumindest das an dieser Koinzidenz beteiligte Element des Empfänger- Arrays zumindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfän­ ger-Arrays zumindest einmal ein verändertes Signal detektiert
und so durch die Realisierung der Verschiebung im Zeitbereich ΔtB Elemente der mindestens einen Objekt­ oberfläche (5) gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht werden und jeweils beim Auftreten der Koinzidenz das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zu­ mindest einmal eine zeitlich veränderte Bestrahlung erfährt und so dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal detektiert.
2. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben wird und durch das Beleuchtungsobjektiv (1) abgebildet wird und dieses leuchtende Flächenelement FELj (3A) in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (t1) innerhalb des Zeitintervalls (Δti) stets auf
eine vorherbestimmte Strecke im Objektraum (BSOj) abgebildet wird und der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Strecke (BSOj) nach und nach verändert wird und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objekt­ raum verschoben wird und
bei der Verschiebung je eines leuchtenden Flächenelementes FELj (3A) mehrfach nacheinander Signal­ werte aus Elementen des Empfänger-Arrays ausgelesen werden und so ein Signalverlauf gebildet wird und der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird und
die Orte der ausgelesenen Elemente des Empfänger-Arrays auf einer Strecke (ASAj) liegen und das Bild dieser Strecke (ASAj), die Strecke (ASOj), mit der vorherbestimmten Strecke (BSOj) der Bilder der leuch­ tenden Flächenelemente FEL im Objektraum optisch konjugiert ist und so
je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenele­ mentes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Zeitbereich (ΔtB) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar mit wechselnden Bildern erzeugt wird, und dieses Paar nach und nach durch den Objektraum geschoben wird,
so daß je ein Schärfevolumen des Bildes eines leuchtenden Flächenelementes des strukturiert leuchten­ den Arrays und je ein Bild eines Elementes des Empfänger-Arrays mit je einem Flächenelement der Ob­ jektoberfläche (5) einmal im Verschiebungsvorgang innerhalb eines Zeitbereiches (ΔtB) zusammenfallen wenn sich ein Element der Objektoberfläche (5) auf dem Abbildungsstrahl zwischen den Bildern der bei­ den Flächen (Fmin) und (Fmax) im erfaßten Bereich des Objektraumes befindet,
und die ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal­ verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitinter­ vall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
3. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß je ein leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der Detektion in einem Zeitbereich (ΔtB) zumindest näherungsweise auf je einer eigenen Verschiebungsstrec­ ke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben und durch das Beleuchtungsobjektiv (1) ab­ gebildet wird, wobei relativ bedeutet, daß auch die Position des leuchtenden Flächenelementes FELj (3A) ortsfest sein kann und sich in diesem Fall zumindest eine Komponente des Beleuchtungsobjektivs (1) be­ wegt, und dieses leuchtende Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf eine Strecke (BSOj) auf einen vorherbestimmten Abbildungsstrahl (ABSO), im Objektraum abgebildet wird und die Strecke (BSOj) dann auch das Bild der Verschiebungsstrecke (VSBAj) darstellt, und sich der Ort des Bildes des leuchtenden Flächenelementes FELj (3A) auf der Verschie­ bungsstrecke (VSBAj) zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich (ΔtB) - än­ dert und so das Bild des leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke (BSOj) durch der Objektraum verschoben wird und
und eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab­ bildungsobjektiv (2) und parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird, wobei relativ bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs (2) bewegen, und bei der Verschiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet wird und sich der Ort je eines Elemen­ tes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert und die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv (2) parallel zur optischen Achse des Abbil­ dungsobjektivs (2) so durchgeführt wird, daß je ein Bild eines Elementes des Empfänger-Arrays mit dem Bild eines leuchtenden Flächenelementes FELj (3A) mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, welches und nach durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flächenelementen der Objek­ toberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zusam­ menfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird.
4. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ ment gebildet ist, wobei Leuchten im Sinne des Aussendens von elektromagnetischer Strahlung verwen­ det wird,
wobei jedes leuchtende Flächenelement durch eine zumindest näherungsweise vorbestimmte Leuchtdich­ te und durch einen vorbestimmten Ort definiert ist, und dieses im weiteren als leuchtendes Flächenele­ ment FELj (3A) bezeichnet wird, und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuch­ tungsobjektiv (1), welches eine Abbildung der leuchtenden Flächenelemente FEL realisiert und mit
mindestens einem Abbildungsstrahlengang für die Abbildung von Elementen der mindestens einen Objekt­ oberfläche (5) und mindestens einem Empfänger-Array mit mindestens zwei Elementen und einem dem Empfänger-Array zugeordneten Abbildungsobjektiv (2, 33) und
daß Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche (5) im Objektraum detektieren und von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv (2, 33) stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebildet werden,
und daß Elemente der mindestens einen Objektoberfläche (5) mit mindestens einem Abbildungsobjektiv (2, 33) abgebildet werden und
durch die Abbildung des mindestens einen leuchtenden Flächenelementes FELj (3A) mit dem Beleuch­ tungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum mit einem geo­ metrisch-optischen Schärfevolumen gebildet wird, gekennzeichnet dadurch, daß leuchtendes Flächenelement FELj (3A) in den Zeitintervallen (Δti) der De­ tektion von elektromagnetischer Strahlung in einem Zeitbereich (ΔtB) zumindest näherungsweise an je ei­ nem eigenen Ort (OABj) im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv (1) angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv (1) abgebil­ det wird und dieses mindestens eine leuchtende Flächenelement FELj (3A) zumindest zu einem Zeit­ punkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einen vorherbestimmten Ort im Objektraum (OOBj) ab­ gebildet wird
und dieser Bildort (OOBj) des mindestens einen leuchtenden Flächenelementes FELj (3A) im Objektraum durch eine Ansteuerung verändert wird, indem ein jeweils anderes, vorbestimmtes Flächenelement ange­ steuert und zum Leuchten gebracht wird,
so daß das Bild je eines leuchtenden Flächenelementes FELj (3A) auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkrementen (AIO) der Bilder der Abstände (AIA) der leuchtenden Flächenele­ mentes FELj (3A) im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschiedlicher Positionen - und
in jeder Position nach der Verschiebung um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes (AIO) mindestens ein Signalwert mit einem Empfängerelement detektiert wird und so aus mehreren Vorgängen des Detektierens und Auslesens von Elementen des Empfänger- Arrays ein Signalverlauf gebildet wird und der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert und
die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays an Orten (OAAj) im Empfän­ ger-Array liegen und das Bild dieses Ortes (OAAj), der Bildort (OOAj), mit dem vorherbestimmten Bildort (OOBj) des leuchtenden Flächenelementes FELj (3A) im Objektraum optisch konjugiert ist und so
je ein Bild eines detektierten und ausgelesenen Elementes des Empfänger-Arrays mit dem Bild jeweils ei­ nes leuchtenden Flächenelementes FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitinter­ valls (Δti) im Objektraum zur Koinzidenz gebracht ist und so je ein Paar von Bildern mit wechselnden Bil­ dern erzeugt werden, und diese Paare nach und nach verschiedene Positionen im Objektraum einnehmen und so durch derartige Paare nach und nach der Objektraum in der Tiefe durchsetzt wird,
wobei Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj (3A) mit je einem Flä­ chenelement der Objektoberfläche (5) mindestens einmal im Zeitbereich (ΔtB) in einem Zeitintervall (ΔtB) zusammenfallen und die detektierten und ausgelesenen Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße auf­ weisen, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) in den Zeitbereich (ΔtB) zeitlich eingepaßt wird.
5. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL auf je einer eigenen Verschiebungsstrecke (VSBAj) relativ zum Beleuchtungsobjektiv (1) verschoben werden
und die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti) in einer Leuchtdichteverteilung jeweils eine zumindest näherungsweise vorherbestimmt gleichblei­ bende, relative Leuchtdichte aufweisen
und die leuchtenden Flächenelemente FEL dabei stets auf einer B-Strecke (BSAj) positioniert werden, wo­ bei die B-Strecke (BSAj) die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeit­ punkt (ti) innerhalb des Zeitintervalls (Δti) darstellen, und
die Bilder dieser B-Strecken (BSAj) im Objektraum durch Abbildung mit mindestens einem Beleuchtungs­ objektiv (1) stets zu mindestens einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt sind, wobei der Konvergenzpunkt (K1), mindestens in einem Abstand (dK1 min) von der optischen Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und maximal in einem Abstand (dK1 max) vom 16fachen des Abstandes (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1) vom Pupillenzentrum (PZOA) des am weitesten entfernten Abbildungsobjektivs (2) im Objektraum positioniert ist
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente FEL auf Verschiebungsstrecken (VSBAj) jeweils genau ein Bild von einem Empfängerele­ ment und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum
zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumin­ dest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumin­ dest zu diesem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare erzeugt werden und diese derartigen Paare durch den Objektraum gescho­ ben werden, und am Ort dieser Paare im Schwerpunkt des aktuellen Schnittvolumens des Schärfevolu­ mens der beiden Bilder so jeweils ein aktueller Koinzidenzpunkt Koj i gebildet ist, der durch den Objektraum geschoben wird,
wobei Schärfevolumina von Bildern der leuchtenden Flächenelemente FEL mit Flächenelementen der Objektoberfläche (5) mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls (ΔtB) zu­ sammenfallen und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen Signal­ verlauf mit mindestens einem relativen Extremum der Signalgröße detektieren, wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δti) gemacht wird und so mindestens ein Zeitintervall (Δti) im Zeitbereich (ΔtB) zeitlich eingepaßt wird,
so daß die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt (ti) innerhalb eines Zeitintervalls (Δti), also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet werden
und bei der Verschiebung die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchten­ den Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbil­ dungsgleichung aus der Lage des Beleuchtungsobjektivs (1) und der Lage des Abbildungsobjektivs (2, 33) in der 3D-Aufnahme-Anordnung und der Brennweite (fB) des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2, 33) so bestimmt und realisiert werden,
daß im Objektraum sowohl die leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zumindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet werden.
6. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird und
und die B-Strecken (BSAj) auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Array-Raum gerichtet werden, so daß der Konvergenzpunkt (K1) dabei zumindest annähernd im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert wird,
und der Konvergenzpunkt (K1) auch in der Pupillenebene des Beleuchtungsobjektivs (1) positioniert wird und während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise ge­ meinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Emp­ fängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt wer­ den und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.
7. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) zumindest zu einem Zeitpunkt (ti) innerhalb eines je­ den Zeitintervalls (Δti) der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und zusätzlich im Pupillenzentrum (PZOA) der Pupille eines Abbildungsobjektivs (2) im Objektraum positioniert wird und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) in­ nerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu diesem Zeitpunkt (ti) aus dem Bild von ei­ nem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objek­ traum ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare mit fester Zuord­ nung erzeugt werden und
während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht werden
und diese B-Strecken (BSAj) parallel einer zu Geraden (gAP) positioniert werden, wobei die Gerade (gAP) den Brennpunkt FAB des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fB) des Beleuchtungsob­ jektivs (1) aufweist, wobei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
8. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 7, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) und die B-Strecken (BSAj) im Ver­ schiebungsvorgang zumindest näherungsweise im Zeitintervall (Δtk) koinzidieren, wobei das Zeitintervall (Δtk) zumindest die Länge des Zeitintervalls (Δti) und maximal die Länge des Zeitbereiches (ΔtB) auf­ weist, und
während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils im Objektraum ein permanentes Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden und
während des Verschiebungsvorganges im Zeitbereich (ΔtB) der leuchtenden Flächenelemente FEL je­ weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht werden,
wobei der Zeitbereich (ΔtB) größer als das Zeitintervall (Δtk) gemacht wird und das Zeitintervall (Δtk) in den Zeitbereich (ΔtB) eingepaßt ist
und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verscho­ ben werden.
9. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer Szene nach dem Anspruch 1 und 5, gekennzeichnet dadurch, daß durch die Steuerung der Dauer eines jeden Zeitintervalls (Δti) und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls (Δti) der einzelnen leuchtenden Flächenelemente (FELj), die über die Objektoberfläche (5) jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente,
photometrisch der Fall der Verschiebung von leuchtenden Flächenelementen mit einer zumindest nähe­ rungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken (BSAj) nachgebildet wird,
und so effektive, leuchtende Flächenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B- Strecken (BSAj) verschoben werden,
wobei der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs (1) und im Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum positioniert ist, und die B- Strecken (BSAj) auf das Pupillenzentrum PZOA des Abbildungsobjektivs (2) im Array-Raum gerichtet sind.
10. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 3 und 5, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung jeweils ein leuchtendes Flächenelement FELj (3A) eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flächenelemente zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zei­ tintervalls (Δti) mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke (BSAj) positioniert wird, wobei
der Konvergenzpunkt (K1) mit dem Brennpunkt (FOA) mindestens eines Abbildungsobjektivs (2) im Objek­ traum zumindest annähernd zur Koinzidenz gebracht wird
und zumindest annähernd eine geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungs­ objektiv (2) parallel zur optischen Achse des Abbildungsobjektivs (2) durchgeführt wird und bei der Ver­ schiebung mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels einem einzelnen Empfängerelement gebildet wird und bei Ab­ bildung von mehrfach so erzeugten Verschiebungsstrecken (ASAj) von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv (2) aus deren Bildern (ASOj) im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Brennpunkt (FOA) des Abbildungsobjektivs (2) gebildet wird
und die geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob­ jektivs (2) so durchgeführt wird,
daß während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) zumindest näherungsweise gemeinsam auf dem Bild einer B- Strecke (BSAj) zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Ele­ ment des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj (3A) jeweils zu­ mindest zu diesem Zeitpunkt (ti) ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.
11. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 3 und 10, gekennzeichnet dadurch, daß während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchten­ den Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) permanent zur Koinzidenz gebracht und verschoben werden.
12. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 5 bis 11,
gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) des Streckenbüschels (SB1) gemeinsam mit dem Konvergenzpunkt (K2) des Streckenbüschels (SB2) im Objektraum sowohl mit dem Brennpunkt (FOA) als auch mit dem Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils arrayseitig zumindest näherungsweise telezentrisch ausgeführt sind, und
leuchtende Flächenelemente FEL zumindest annähernd parallel zu einer Geraden (gA) auf Verschie­ bungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungs­ objektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbil­ dungsobjektivs (2) von der Achse des Beleuchtungsobjektivs (1) im Objektraum realisiert wird, wobei die­ ser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade (gA) mit der Geraden (gAP) koinzidiert.
13. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, 5 und 9, gekennzeichnet dadurch, daß zumindest näherungsweise eine geradlinige Verschiebung des Empfänger- Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch ne­ beneinander liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch gewichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays,
so daß Signale von virtuellen Elementen gebildet werden, und zur Bildung eines einzelnen Signalverlaufes so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet werden,
wobei diese virtuellen Elemente des Empfänger-Arrays beim Verschieben des Empfänger-Arrays zumin­ dest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum liegen, deren Verlän­ gerung das Zentrum der Austrittspupille des Abbildungsobjektivs (2) schneidet,
und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays diese mehrfach nach­ einander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungs­ vorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz auf B-Strecken (BSAj) gebracht werden
und so aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare er­ zeugt werden.
14. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Ver­ schiebungsstrecken (VSBAj) durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschie­ bungsstrecken (VSBAj) mit dem Beleuchtungsobjektiv (1) aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) im Objektraum im Brennpunkt (FOB) des Beleuchtungsobjektivs (1) gebildet wird und
zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, synchronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschiebungsstrecken (VSBAj) durchgeführt wird und während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Ele­ menten des Empfänger-Arrays ausgelesen werden und aus diesen Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise je­ weils auf einer A-Strecke (ASAj) im Array-Raum liegen und die Verlängerung der A-Strecke (ASAj) jeweils auf das Pupillenzentrum (PZAB) des Beleuchtungsobjektivs (1) im Array-Raum zielt,
und bei Abbildung von mehrfach so erzeugten parallelen A-Strecken (ASAj) mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOB) der Pupille des Beleuchtungsobjektivs (1) gebildet wird und die A-Strecken (ASAj) parallel zu einer Geraden (gAA) ausgerichtet werden und
die Gerade (gAA) den Brennpunkt (FAA) des Abbildungsobjektivs (2) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbil­ dungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und der Brennweite (fA) des Abbildungsobjektivs (2) aufweist, wobei dieser Anstieg der Geraden (gAA) auf die Achse des Beleuch­ tungsobjektivs (1) bezogen ist
und während des synchronisierten Verschiebungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays
die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen werden und jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls (Δti) innerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht werden und so aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet wird und so im Objektraum verschiebbare Paare erzeugt werden.
15. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14, gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei­ nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt­ punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer­ tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter) jeweils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens ein­ mal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das Beleuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zuge­ hörigen Referenzpunktes abgespeichert werden.
16. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 14, gekennzeichnet dadurch, daß eine absolute Phasendifferenz (ΔϕGitter) in einem Bildpunkt, welcher zu ei­ nem Objektpunkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objekt­ punkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswer­ tung der Modulation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz (ΔϕGitter) je­ weils vorzeichenrichtig zur absoluten Referenzphase (ϕR) addiert wird, die sich aus der mindestens einmal experimentell vorbestimmten Position der Referenzplatte (zOR) im Objektraum und bezogen auf das Be­ leuchtungsobjektiv (1) und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Er­ gebnis dieser Rechenoperation eine absolute Objektphase (ϕObj) für jeden Objektpunkt ergibt, die auf ei­ nen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech­ net und als absoluter Referenzphasenwert abgespeichert wird.
17. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuch­ tenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Si­ gnalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulati­ onsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase (ϕR) des verschobenen, strukturiert leuchtenden Arrays zugeordnet werden.
18. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase eines mitverschobe­ nen Referenzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase (ϕR) des mitverschobenen Referenzgitters zugeordnet werden.
19. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuch­ tenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalver­ läufe eines Referenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays (ϕR) zugeordnet werden.
20. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 16, gekennzeichnet dadurch, daß die absolute Phasendifferenz (ΔϕGitter) aus der Phase eines mitverschobe­ nen Referenzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe ei­ nes Referenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe­ renzgitters (ϕR) zugeordnet werden.
21. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 20, gekennzeichnet dadurch, daß zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Ob­ jektes (5, 18, 19) oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzlichen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array- Raum erfahren.
22. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 21, gekennzeichnet dadurch, daß zusätzlich eine Beleuchtung des Objektes (5, 18, 19) oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelemen­ ten mit Extrema der Leuchtdichte und diese Extrema dabei jeweils parallel zu einer Geraden (gAP2), die spiegelsymmetrisch zur Geraden (gAP) ist, auf Verschiebungsstrecken im Array-Raum verschoben wer­ den.
23. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 22, gekennzeichnet dadurch, daß die für das Auswerteverfahren benötigte Information über die absolute, late­ ral invariante Objektphase durch optische Bestimmung der absoluten Phase (ϕGitter) direkt aus der Ver­ schiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird.
24. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 23, gekennzeichnet dadurch, daß die für das Auswerteverfahren benötigte Information über die absolute, late­ ral invariante Objektphase durch optische Bestimmung der absoluten Phase (ϕGitter) direkt aus der Bewe­ gung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur, wobei dieser ein Auswertesystem und ein Nullpunktgeber zugeordnet sind, abgeleitet wird.
25. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 1, 5 bis 24, gekennzeichnet dadurch, daß das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase (ϕGitter) durchge­ führt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von elektromagnetischer Strahlung der Elemente des Empfänger-Arrays im Zeitintervall Δti bei einer gegebenen präzisionsmechanisch- optischen Anordnung zur 3D-Aufnahme sich in Abhängigkeit von der Geometrie der Anordnung sowie der Lage der Konvergenzpunkte (K1) und (K2) und in Abhängigkeit vom aktuellen Wert der absoluten Refe­ renzphase (ϕGitter) für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt und so in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt wird,
wobei das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten (ΔϕEmpfänger) der Phase (ϕEmpfänger) in jedem Element des Empfänger-Arrays er­ folgt und die im Verhältnis zur Phasenschrittweite (ΔϕEmpfänger) selbst kleineren Abweichungen (ΔΔϕ) zwi­ schen der Referenzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase (ϕEmpfänger) als von der Referenzphase (ϕGitter) abhängige Phasenkorrekturwerte (ΔΔϕ) mindestens einmalig für jedes Element des Empfänger-Arrays errechnet werden und so in einer Phasenkorrekturwert-Tabelle vorliegen und gespeichert werden und die Phasenkorrekturwerte (ΔΔϕ) sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Berechnung der absoluten Phase verwendet werden
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden und die Bilder der Ver­ schiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) bilden.
26. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL und so auch leuchtende Flächenelemen­ te FEL mit lokalen Extrema der Leuchtdichte im Array-Raum auf Verschiebungsstrecken (VSBAj) verscho­ ben werden, die mit den B-Strecken (BSAj) koinzidieren, und die B-Strecken (BSAj) mittels einer zweistufi­ gen Abbildungsstufe abgebildet werden und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge­ lesen werden und so jeweils ein Signalwert gewonnen wird
und so jeweils ein leuchtendes Flächenelement FELj (3A) auf je einer B-Strecke (BSAj) positioniert wird, und die Bilder dieser B-Strecken (BSAj) nach der ersten Abbildung mit einem Beleuchtungsobjektiv (1) zu einem Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) geformt werden und ein zum Konvergenz­ punkt (K1) optisch konjugierter Punkt (K1konj) in den Objektraum in das Zentrum der Pupille (PZOA) des Abbildungsstrahlenganges im Objektraum abgebildet wird
und während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array je­ weils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe­ rungsweise gemeinsam auf das Bild einer B-Strecke (BSAj) gebracht werden und so aus dem Bild von ei­ nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) je­ weils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt werden.
27. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 26, gekennzeichnet dadurch, daß die B-Strecken (BSAj) mittels eines afokalen Beleuchtungsstrahlenganges mit einem inneren Brennpunkt (FBi) abgebildet werden und die Objektoberflächen mit einem afokalen Ab­ bildungsstrahlengang mit einem inneren Brennpunkt (FAi) abgebildet werden und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zu­ mindest näherungsweise zusammenfallen und
gleichzeitig die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays erfolgt und diese ausge­ lesen werden und so jeweils ein Signalwert gewonnen wird
und der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjek­ tivs (1) positioniert wird, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumin­ dest näherungsweise telezentrisch ausgeführt sind,
und so leuchtende Flächenelemente FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Extrema der Leuchtdichte zumindest annähernd parallel zu einer Gera­ den (gA) auf Verschiebungsstrecken (VSBAj) verschoben werden und die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs (1) und Abstand (dk1) realisiert wird, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
zumindest annähernd eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs (2) mit der gleichen Geschwindigkeit wie das leuchtende Array durchgeführt wird und bei der Verschiebung der beiden Arrays mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen werden und so je ein Signalverlauf aus einem einzelnen Ele­ ment gebildet wird und bei Abbildung mit einer Abbildungsstufe von mehrfach so erzeugten Verschie­ bungsstrecken von Elementen aus deren Bildern im Raum nach der Abbildungsstufe zumindest annä­ hernd mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im inneren Brennpunkt (FAi) des Abbildungsobjektivs (2) gebildet wird
und während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Emp­ fänger-Array jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest näherungsweise gemeinsam auf dem Bild (BSOj) einer B-Strecke (BSAj) zur Koinzidenz gebracht und gemeinsam verschoben werden und so aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj (3A) jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern verschoben werden.
28. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5, 18, 19) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Elemente des Empfänger-Arrays im Aufnahmevorgang elektromagneti­ sche Strahlung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detek­ tieren und
zwei Empfänger-Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschie­ bungsstrecken (ASA1) und (ASA2) verschoben werden, die einen Winkel zueinander aufweisen,
wobei für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbil­ dungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang ange­ ordnet sind, wobei die Abbildungsobjektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder einem Bild des­ selben zugeordnet ist und die Brennebenen der Abbildungsstrahlengänge im Objektraum sich schneiden, wobei die Schnittgerade (SG) senkrecht auf der Symmetrielinie (SL) im Hauptschnitt steht,
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO2), annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt (K0) konvergieren und
im Konvergenzpunkt (K0) das Streckenbüschel (S21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken (ASO1j), mit dem Konvergenzpunkt (K21) und das Streckenbüschel (S22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken (AS2Oj), mit dem Konvergenzpunkt (K22) zur Koinzidenz ge­ bracht werden und
die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän­ ger-Arrays im Objektraum für den Zeitbereich (ΔtB) paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondie­ rende Elemente darstellen, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen von je einem Element während der Ver­ schiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver­ schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und
die Verschiebung des zweiten Empfänger-Arrays gleichzeitig mit der des ersten Empfänger-Arrays erfolgt und
die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden
und die Gerade (gA1P) in einem Punkt (PA1) in der Hauptebene des Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) in der Hauptebene des Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten,
wobei der Punkt (PA1) im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsob­ jektivs (2) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koin­ zidenzpunkt K0 enthält und wobei der Punkt (PA2) im Durchstoßpunkt einer Geraden durch die Hauptebe­ ne des zweiten Abbildungsobjektivs (33) im Array-Raum liegt, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp­ fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre­ chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent­ spricht, über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) zumindestens in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in bei­ den Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver­ schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor­ relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi­ mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver­ schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si­ gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5, 18, 19) aus der bekann­ ten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen ei­ ner Objektoberfläche (5, 18, 19), von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfän­ ger-Arrays vorbestimmt sind.
29. Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1 und 28, gekennzeichnet dadurch, daß die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des Abbildungsob­ jektivs (2) und im Durchstoßpunkt der Symmetrielinie (SL) im Array-Raum und die Gerade (gA2P) im glei­ chen Punkt (PA) zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrah­ lengänge parallel angeordnet sind, und die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Ar­ ray-Raum enthalten.
30. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß die Empfängerelemente im Aufnahmevorgang elektromagnetische Strah­ lung von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Ach­ sen der parallelen Abbildungsobjektive (2, 33), deren Hauptebenen zusammenfallen, verschoben werden,
wobei für die 3D-Aufnahme von Objektoberflächen im Hintergrundes in der Szene mindestens zwei paral­ lele, zumindest näherungsweise baugleiche Abbildungsstrahlengänge für die Abbildung der Objektober­ flächen (5, 18, 19) mit einem ersten Abbildungsobjektiv (2) im ersten Abbildungsstrahlengang und einem zweiten Abbildungsobjektiv (33) im zweiten Abbildungsstrahlengang angeordnet sind und die Abbildungs­ objektive (2, 33) räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv (2, 33) mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet ist,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß es dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zu­ mindest annähernd entspricht,
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß die­ ser Signalverlauf (S2z) dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht
und die Gerade (gA1P) in einem Punkt (PA) in der Hauptebene des ersten Abbildungsobjektivs (2) im Array- Raum und die Gerade (gA2P) im gleichen Punkt (PA) in der Hauptebene des zweiten Abbildungsobjektivs (33), die mit der Hauptebene des ersten Abbildungsobjektivs (2) zumindest näherungsweise zusammen­ fällt, zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Ab­ bildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array- Raum enthalten
und Verschiebungen der leuchtenden Flächenelemente FEL durchgeführt werden,
wobei die zugehörigen Verschiebungsstrecken (VSBAj) parallel zur Symmetrielinie (SL) der beiden opti­ schen Achsen ausgerichtet sind und der Punkt (PA) im Durchstoßpunkt der Symmetrielinie (SL) durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt, und
aus den Bildern der Verschiebungsstrecken (VSBAj) ein Streckenbüschel (SB1) mit einem Konvergenz­ punkt (K1) auf der Symmetrielinie (SL) gebildet wird, der mit dem Konvergenzpunkt (K0) zusammenfällt.
31. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 1, gekennzeichnet dadurch, daß in den Zeitintervallen (Δti) der Detektion von elektromagnetischer Strahlung die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv (1) verschoben werden und da­ bei zumindest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) stets auf einer B-Strecke (BSAj) positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumin­ dest zu einem Zeitpunkt (ti) innerhalb des Zeitintervalls (Δti) darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden,
und zumindest in einem Zeitbereich (ΔtB) während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj (3A) im Objektraum zumindest zu einem einzigen Zeitpunkt (ti) innerhalb eines jeden Zeitintervalls (Δti) der Detektion zumindest nähe­ rungsweise gemeinsam auf dem Bild einer B-Strecke (BSAj) positioniert werden und so zumindest zu die­ sem Zeitpunkt (ti) aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä­ chenelementes FELj (3A) jeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird
und der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays aus dem Durchgang mindestens eines leuchtenden Flächenelementes durch einen vorbestimmten Referenzort abgeleitet wird
und die Elemente des Empfänger-Arrays im Zeitintervall (Δti) der Koinzidenz einen periodischen Signalver­ lauf detektieren und die Phase dieses Signalverlaufes in Bezug zur Phase am Referenzort ausgewertet wird.
32. Verfahren zur 3D-Aufnahme
mit mindestens einer von einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei­ ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei­ nes ersten Abbildungsobjektivs (2) für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor­ gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt­ oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) mindestens einen Abstand (d) von einem Achtel der Ausdehnung der Öffnungsblende (DB) des ersten Abbildungsobjektivs (2) aufweisen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine Verschiebung an ei­ nen anderen Ort erfahren und so auch die einzelnen Elemente der beiden Empfänger-Arrays verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und
zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob­ jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich­ zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß die Objektoberflächen in einer Szene beleuchtet werden und beim Aufnah­ mevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen auf Verschiebungsstrec­ ken (ASA1) und (ASA2) verschoben werden
und die Bilder der Verschiebungsstrecken (ASA1) und (ASA2), die Strecken (ASO1) und (ASO1), im Ob­ jektraum zumindest annähernd auf der Symmetrielinie zwischen den beiden Achsen der Objektive (2), (33) positioniert werden
und aus dem Streckenbüschel (SB21) der Bilder der Verschiebungsstrecken (ASA1j) der einzelnen Ele­ mentes des ersten Empfänger-Arrays, die Strecken (ASO1j), ein Konvergenzpunkt (K21) gebildet wird und aus dem Streckenbüschel (SB22) der Bilder der Verschiebungsstrecken (ASA2j) der einzelnen Elementes des zweiten Empfänger-Arrays, die Strecken (ASO2j), ein Konvergenzpunkt (K22) gebildet wird und der Konvergenzpunkt (K22) und der Konvergenzpunkt (K22) auf der Symmetrielinie (SL) zur Koinzidenz ge­ bracht werden und auf der Symmetrielinie (SL) den Konvergenzpunkt (K0) bilden und
die beiden Empfänger-Arrays so verschoben werden, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen,
so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemente der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen, und so jeweils ein aktueller Koinzidenzpunkt gebildet wird, der durch den Objektraum verscho­ ben wird, und
Signalverläufe (S1) des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschie­ bung des ersten Empfänger-Arrays auf der Verschiebungsstrecke (ASA1j) gebildet werden und die Ver­ schiebung des ersten Empfänger-Arrays parallel zu einer Geraden (gA1P) durchgeführt wird und so die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA1P) auf Ver­ schiebungsstrecken (ASA1j) verschoben werden
und Signalverläufe (S2) des zweiten Empfänger-Arrays durch Auslesen der Elemente während der Ver­ schiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke (ASA2j) gebildet werden und die Verschiebung des zweiten Empfänger-Arrays parallel zu einer Geraden (gA2P) durchgeführt wird und so die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden (gA2P) auf Verschiebungsstrecken (ASA2j) verschoben werden,
wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt,
und die Gerade (gA1P) in einem Punkt (PA1) auf der Symmetrielinie (SL) und in der Hauptebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) auf der Symmetrieli­ nie (SL) und in der Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden, wo­ bei die Gerade (gA1P) zusätzlich den Brennpunkt (FA1) des ersten Abbildungsobjektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum enthalten, und
aus den beiden Signalverläufen (S1j) und (S2j) von zwei korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Emp­ fänger-Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre­ chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (S1j) und (S2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent­ spricht,
über jeden dieser beiden Signalverläufe (S1j) und (S2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (S1 teil Position k j) und (S2 teil Position k j) gebildet wird,
wobei diese nacheinander gebildeten Signalstücke (S1 teil j Position k j) und (S2 teil j Position k j) sich in jedem der beiden Signalverläufe (S1j) und (S2j) in einem Teilbereich überdecken und wobei jeweils am gleichen En­ de der beiden Signalverläufe (S1j) und (S2j) mit dem Verschieben der Fensterfunktion in beiden Signal­ stücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (S1 teil Position 1 j) und (S2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (S2 Teil Position 1 INV j) das Maximum der Kreuzkorrelations­ funktion (MCC1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Verschieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCC1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (S1j, S2j) in der Position m angekommen ist und wiederum das Maximum (MCC1 2 j Position m) der Kreuzkor­ relationsfunktion M(CC1 2 j Position m) bestimmt wird und
von m berechneten Maxima (MCCm) eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mm j) bestimmt wird und der Ort des Maxi­ mums (Mm j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Ver­ schiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (M1 j) der berechneten Kreuzkorrelationsfunktion (MCC1 2 j Position 1) den beiden originalen Si­ gnalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mj) als Ort des zu den beiden korrespondierenden Elementen (1j) und (2j) zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array- Raum definiert wird
und aus dem Ort dieses Maximums (Mj) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor­ bestimmt sind.
33. Verfahren zur 3D-Aufnahme
von mindestens einer mit einer Strahlungsquelle (4) beleuchteten Objektoberfläche (5) in mindestens ei­ ner Szene mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse ei­ nes ersten Abbildungsobjektivs (2) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) parallel zur Achse eines zweiten Abbildungsobjektivs (33) im Abbildungsstrahlengang für die Abbildung der Objektoberflächen (5, 18, 19) ausgerichtet ist,
und so zwischen den beiden Achsen der beiden Abbildungsobjektive (2, 33) eine Symmetrielinie (SL) gebildet ist,
und mit mindestens je einem in jedem Abbildungsstrahlengang dem Abbildungsobjektiv zugeordneten Empfänger-Array und die beiden Empfänger-Arrays jeweils Elemente aufweisen, die im Aufnahmevor­ gang im Zeitbereich (ΔtB) elektromagnetische Strahlung von den Elementen der beleuchteten Objekt­ oberflächen im Objektraum detektieren, und
die beiden Abbildungsobjektive (2, 33) einen Abstand (d) des Pupillenzentrums (PZOB) des ersten Abbil­ dungsobjektivs (2) vom Pupillenzentrum (PZOA) des zweiten Abbildungsobjektivs (33) im Objektraum von mindestens einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektiv (2) aufwei­ sen,
und die beiden Empfänger-Arrays im Aufnahmevorgang im Zeitbereich (ΔtB) je eine elektronisch gesteu­ erte, mechanische Verschiebung an einen anderen Ort erfahren,
und so auch die einzelnen Empfängerelemente verschoben werden und so die Empfängerelemente dabei an unterschiedlichen Orten elektromagnetische Strahlung detektieren und zumindest näherungsweise die Detektion von elektromagnetischer Strahlung von den Elementen der Ob­ jektoberflächen für die Dauer eines Zeitintervalls (Δti) durch die Elemente des Empfänger-Arrays gleich­ zeitig erfolgt und die Elemente des Empfänger-Arrays anschließend ausgelesen werden und jeweils Signalwerte gewonnen werden,
gekennzeichnet dadurch, daß beim Aufnahmevorgang die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungs­ strahlengänge, deren Hauptebenen zusammenfallen, verschoben werden, wobei die Objektoberflächen in der Szene beleuchtet sind,
und der Signalverlauf (S1z) durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be­ nutzt werden die auf Strecken (ASA1) liegen, die parallel zu einer Geraden (gA1P) ausgerichtet sind und die den Punkt (PA1) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA1P) entstehenden Signalverlauf (S1) zumindest annähernd entspricht, und so zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt gebildet wird, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektraumes gebildet wird, und
und der Signalverlauf (S2z) durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet wird, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung be­ nutzt werden, die auf Strecken (ASA2), liegen, die parallel zu einer Geraden (gA2P) ausgerichtet sind und die den Punkt (PA2) in der gemeinsamen Hauptebene der Abbildungsobjektive (2, 33) schneidet,
und so der gebildete Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden (gA2P) entstehenden Signalverlauf (S2) zumindest annähernd entspricht,
und die Gerade (gA1P) in einem Punkt (PA1) im Durchstoßpunkt der Symmetrielinie (SL) durch die Haup­ tebene des ersten Abbildungsobjektivs (2) im Array-Raum und die Gerade (gA2P) in einem Punkt (PA2) im Durchstoßpunkt der Symmetrielinie (SL) durch die Hauptebene des zweiten Abbildungsobjektivs (33) zum Schnitt gebracht werden und zusätzlich die Gerade (gA1P) den Brennpunkt (FA1) des ersten Abbildungsob­ jektivs (33) und die Gerade (gA2P) den Brennpunkt (FA2) des Abbildungsobjektivs (2) im Array-Raum ent­ halten und
aus den beiden Signalverläufen (Sz1j) und (Sz2j) von zwei wechselnden korrespondierenden Elementen (1j) und (2j) der Empfänger-Arrays, die nur zu einem Zeitpunkt ti korrespondieren, wobei die Signalverläu­ fe (Sz1j) und (Sz2j) über dem Weg der Verschiebung der beiden Empfänger-Arrays der beiden Empfänger- Arrays im Speicher eines Rechners abgelegt sind,
durch das synchrone Verschieben einer Fensterfunktion,
wobei diese Fensterfunktion mindestens ein einziges Fenster mit einer minimalen Fensterlänge entspre­ chend zwei Signalwerten und eine maximale Fensterlänge aufweist, die zumindestens näherungsweise der Länge der Signalverläufe (Sz1j) und (Sz2j) entspricht,
um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays ent­ spricht,
über jeden dieser beiden Signalverläufe (Sz1j) und (Sz2j) und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, je ein Signalstück (Sz1 teil Position k j) und (Sz2 teil Position k j) gebildet wird, wobei diese nachein­ ander gebildeten Signalstücke (Sz1 teil j Position k j) und (Sz2 teil j Position k j) sich in jedem der beiden Signalverläu­ fe (Sz1j) und (Sz2j) in einem Teilbereich überdecken und wobei jeweils am gleichen Ende der beiden Si­ gnalverläufe (Sz1j) und (Sz2j) mit dem Verschieben der Fensterfunktion in beiden Signalstücken begonnen wird,
und jeweils ausgehend von zwei Signalstücken in der Position 1 (Sz1 teil Position 1 j) und (Sz2 teil Position 1 j) die Kreuzkorrelationsfunktion berechnet wird, wobei vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signalstück (S1 Teil Position 1 j) und aus einem invertierten Signalstück (Sz2 Teil Position 1 INV j) das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 1) zwischen 0 und 1 berechnet und gespeichert wird und anschließend nach dem Ver­ schieben der Fensterfunktion in die Position 2
für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion (MCCz1 2 j Position 2) in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe (Sz1j) und (Sz2j) in der Position m angekommen ist und wiederum das Maximum (MCCz1 2 j Position m) der Kreuzkorrelationsfunktion M(CCz1 2 j Position m) bestimmt wird und
von m berechneten Maxima MCCz m eine Maximalwert-Kurve gebildet wird,
wobei in dieser Maximalwert-Kurve wiederum das Maximum (Mz m j) bestimmt wird und der Ort des Ma­ ximums (Mz m j) der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und im Falle der Anwendung einer Fensterfunktion mit nur einem Fenster in nur einer Position der Ort des Maximums (Mz 1 j) der berechneten Kreuzkorrelationsfunktion (MCCz 1 2 j Position 1) den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird
und der Ort des jeweils so bestimmten Maximums (Mz j) als Ort des Bildes des jeweiligen Elementes der Objektoberfläche (5) im Array-Raum definiert wird
und aus dem Ort dieses Maximums (Mz j) im Array-Raum die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet wird und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche (5) aus der bekannten Geometrie der 3D-Aufnahmeanordnung berechnet wird, und so die Positionen von den Elementen einer Objektoberfläche (5, 18, 19), denen Signalverläufe zugeordnet werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vor­ bestimmt sind.
34. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 29 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht­ dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht,
und nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich (ΔtB) entspricht, das struk­ turiert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode (WP) lateral weiterverschoben wird und Elemente des Emp­ fänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt werden.
35. Verfahren zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 28 bis 31, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen unterschiedlicher Leucht­ dichte und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flächenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht,
und nach einem Zeitbereich (ΔtB), das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode (WP) entspricht, lateral weiterverschoben wird, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
36. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ mente FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti­ scher Strahlung verwendet wird,
mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Ar­ ray, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5) im Objektraum, der dem Szenenraum entspricht, und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberfläche (5) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2, 33) zur Abbil­ dung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzen­ trum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh­ nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen und
wobei diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Ab­ bildung mit dem Beleuchtungsobjektiv (1) ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist,
gekennzeichnet dadurch, daß dem strukturiert leuchtenden Array ein Bewegungssystem mit mindestens einer beweglichen Komponente zugeordnet ist und zumindest aus der mechanischen Bewegung des strukturiert leuchtenden Arrays die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL im Array-Raum gebildet sind
und nach Abbildung dieser Verschiebungsstrecken (VSBAj) durch das Beleuchtungsobjektiv (1) in den Objektraum, deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel (SB1) mit einem Konvergenzpunkt (K1) gebildet ist, und
der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 mm) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil und einen maximalen Abstand (dK1 max) vom 16fachen des Abstandes (d) aufweist.
37. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36, gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum des Abbildungsobjektivs (2) im Objek­ traum positioniert ist.
38. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 37, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL im Array-Raum zumindest annähernd parallel angeordnet sind und so der Konvergenzpunkt (K1) zumin­ dest annähernd in der Brennebene des Beleuchtungsobjektivs (1) im Objektraum und im Pupillenzentrum des Abbildungsobjektivs (2) im Objektraum positioniert ist.
39. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 38, gekennzeichnet dadurch, daß der Konvergenzpunkt (K1) zumindest annähernd in der Brennebene des Beleuchtungsobjektivs (1) und im Brennpunkt des Abbildungsobjektivs (2) im Objektraum positioniert ist.
40. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet ist, wobei die Linien senkrecht zum Hauptschnitt angeordnet sind,
und die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL und so auch der leuch­ tenden Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me­ chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu­ riert leuchtenden Arrays im Array-Raum gebildet sind
und aus diesen Verschiebungsstrecken (VSBAj) im Array-Raum im Hauptschnitt und in jeder zum Haupt­ schnitt parallelen Schnittebene zumindest näherungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt (K1) gebildet ist und der Konvergenzpunkt (K1) einen minimalen Abstand (dK1 min) von der Achse des Beleuchtungsobjektivs (1) vom 16ten Teil des Abstandes (d) aufweist
und der Konvergenzpunkt (K1) einen maximalen Abstand (dK1 max) von der Achse des Beleuchtungsobjek­ tivs (1) vom 16fachen des Abstandes (d) aufweist und der Konvergenzpunkt (K1) zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet ist
und der Konvergenzpunkt (K1) des Streckenbüschels im Hauptschnitt im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet und die Konvergenzpunkte in den zum Hauptschnitt parallelen Schnitten gemeinsam mit dem Konvergenzpunkt (K1) des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sind
und das Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be­ leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs nur Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet wer­ 99999 00070 552 001000280000000200012000285739988800040 0002019919584 00004 99880 den und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke (ASAj) im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Hauptschnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs (2) enthält, zum Schnitt gebracht ist, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) gebildet ist.
41. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 40, gekennzeichnet dadurch, daß das leuchtende Array als elektronisch steuerbares Gitter ausgebildet ist und die Verschiebungsstrecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Flä­ che und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechani­ schen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum so ausgerichtet sind,
daß aus diesen Verschiebungsstrecken im Array-Raum zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt (KA1) gebildet ist, und der Konvergenzpunkt (KA1) des Strec­ kenbündels im Pupillenzentrum (PZAA) des Abbildungsobjektivs (2) im Array-Raum angeordnet ist und so der Konvergenzpunkt (K1) im Objektraum im Pupillenzentrum (PZ0A) des Abbildungsobjektivs (2) ange­ ordnet ist
und das Pupillenzentrum (PZ0A)des Abbildungsobjektivs (2) und das Pupillenzentrum (PZ0B) des Be­ leuchtungsobjektivs (1) im Objektraum gemeinsam auf einer Geraden angeordnet sind, welche senkrecht zur Achse des Beleuchtungsobjektivs (1) ausgerichtet ist,
und bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs nur die Elemente des Empfänger-Arrays ausgelesen werden und Signalverläufe gebildet werden und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungs­ strecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Aus­ trittspupille des Abbildungsobjektivs (2) schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv (2) aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt (K2) im Pupillenzentrum (PZOA) der Pupille des Abbildungsob­ jektivs (2) gebildet ist.
42. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 39, gekennzeichnet dadurch, daß die Verschiebungsstrecken (VSBAj) der leuchtenden Flächenelemente FEL (3A), wobei die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte aufweisen, zumindest annähernd parallel zu einer definierten Geraden (gAP) angeordnet sind und die Gerade (gAP) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quoti­ enten Abstand des Pupillenzentrums (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) und Brennweite (fB) des Beleuchtungsobjektivs (1) aufweist, wo­ bei dieser Anstieg der Geraden (gAP) auf die Achse des Beleuchtungsobjektivs (1) bezogen ist.
43. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 42, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord­ net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern (ASOj)dieser Strecken (ASAj) bei Abbildung durch das Abbildungsobjektiv (2) zumindest nä­ herungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil­ lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin­ zidenz gebracht sind.
44. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 43, gekennzeichnet dadurch, daß die Achse des Beleuchtungsobjektivs (1) und die Achse des Abbildungsob­ jektivs (2) parallel zueinander angeordnet sind und das Abbildungsobjektiv (2) auf der Seite des Raumes der Arrays telezentrisch ausgeführt ist.
45. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 38 und 42 bis 44, gekennzeichnet dadurch, daß eine Komponente des Bewegungssystems dem Empfänger-Array zugeord­ net ist und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke (AS) dessen Elemente Verschiebungsstrecken (ASAj) auf parallelen Geraden zugeordnet sind, wobei aus den Bildern dieser Strecken bei Abbildung durch das Abbildungsobjektiv (2) zumindest näherungsweise mindestens ein Streckenbüschel (SB2) mit einem Konvergenzpunkt (K2) im Objektraum gebildet ist,
und der Konvergenzpunkt (K1) und der Konvergenzpunkt (K2) mit dem Brennpunkt (FOA) und dem Pupil­ lenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) im Objektraum zumindest annähernd zur Koin­ zidenz gebracht sind und das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind
und die Achsen des Beleuchtungsobjektivs (1) und des Abbildungsobjektivs (2) parallel zueinander ange­ ordnet sind und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sind.
46. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 45, gekennzeichnet dadurch, daß die Komponenten des Bewegungssystem so angeordnet sind, daß im Ar­ ray-Raum mit dem Brennpunkt (FAB) des Beleuchtungsobjektivs (1) als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) im Array- Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade (gA) bewegen und diese Gerade (gA) mit dem Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brenn­ weite (fB) des Beleuchtungsobjektivs (1) und Abstand (d) des Brennpunktes (FAA) des Abbildungsobjek­ tivs (2) im Objektraum von der Achse des Beleuchtungsobjektivs (1) aufweist, wobei dieser Anstieg der Geraden (gA) auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs (1) bezogen ist.
47. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem aus zwei einzelnen Linearführungen aufgebaut ist und die erste Linearführung dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Li­ nearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs (2) justiert ist und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet ist und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs (1) justiert ist, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das strukturiert leuchtende Array zumindest annähernd parallel zur Geraden (gA) bewegen.
48. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem, bestehend aus einer einzigen Linearführung (7) mit einem Schlitten (8) und einer Basis (9), im Raum von strukturiert leuchtendem Array und Empfänger-Array angeordnet ist und die Linearführung (7) wenigstens dem strukturiert leuchtenden Array fest zugeordnet ist und die Bewegungsrichtung für das strukturiert leuchtende Array zumindest annähernd parallel zur Ge­ raden (gA) im Array-Raum ausgerichtet ist.
49. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut ist und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs (1) zur Innenfokussierung und beweglichen Komponenten des Abbildungsobjektivs (2) zur Innenfokussierung fest zugeordnet ist und die zweite Linearführung dem strukturiert leuchtenden Array zur Bewegung senk­ recht zur optischen Achse des Beleuchtungsobjektivs (1) fest zugeordnet ist.
50. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46, gekennzeichnet dadurch, daß das Bewegungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet ist und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs (2) angeordnet ist und ein rotatorischer Antrieb der Linearführung zuordnet ist und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zu­ geordnet ist.
51. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 44 bis 46 und 50, gekennzeichnet dadurch, daß das strukturiert leuchtende Array als Gitter mit einer spiralförmigen Figur (30) als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet ist und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur (30) als strukturiertes Array benutzt wird, wobei in Verbindung mit der Strahlungsquelle (4) (4, 16) das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spiralförmigen Figur (30) parallel zur Achse des Beleuchtungs­ objektivs (1) angeordnet und außerdem ein rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur (30) zugeordnet ist.
52. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 41 bis 49, gekennzeichnet dadurch, daß das Abbildungsobjektiv (2) gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewegungssystems um eine Achse, welche das Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) durchstößt, im Objektraum drehbar angeordnet ist.
53. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 41 bis 49, gekennzeichnet dadurch, daß das Beleuchtungsobjektiv (1) gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponenten des Bewegungssystems und der Strahlungsquelle (4) (4) um eine Achse, welche das Pupillenzentrum (PZOA) der Pupille des Abbildungsobjektivs (2) durchstößt, im Objektraum drehbar angeordnet ist.
54. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 53, gekennzeichnet dadurch, daß das strukturiert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweist.
55. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 54, gekennzeichnet dadurch, daß dem Liniengitter (3, 17) ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sind.
56. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 55, gekennzeichnet dadurch, daß eine transparente optische Platte der 3D-Aufnahme-Anordnung als perma­ nent verbleibende Referenzplatte in der Nahdistanz zugeordnet ist und auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.
57. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß der Beleuchtungsstrahlengang (71) mit einem afokalen System mit einem inneren Brennpunkt (FBi) aufgebaut ist und der Abbildungsstrahlengang (72) mit einem inneren Brenn­ punkt (FAi)
und im Objektraum der Brennpunkt des afokalen Beleuchtungsstrahlenganges (71) und der Brennpunkt des afokalen Abbildungsstrahlenganges (72) zumindest näherungsweise zusammenfallen und
der Konvergenzpunkt (K1) in einem Abstand (dK1) von der optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist, wobei der Abstand (dK1) dem halben Abstand vom inneren Brennpunkt (FBi) der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges (72) durch die innere Brennebene (Fi) des Beleuchtungsstrahlenganges (71) entspricht, wobei das Beleuchtungsobjektiv (1) und das Abbildungsobjektiv (2) jeweils auf der nach außen gekehrten Seite der afokalen Abbildungsstufen zumindest näherungsweise telezentrisch ausgeführt sind,
und das Bewegungssystem (7) mit mindestens einer beweglichen Komponente (8) so angeordnet ist, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden (gA) justiert ist und so leuch­ tende Flächenelemente FEL auf Verschiebungsstrecken (VSBAj) verschoben werden und
die Gerade (gA) den Brennpunkt (FAB) des Beleuchtungsobjektivs (1) im Array-Raum durchstößt und für die Gerade (gA) der Anstieg mit dem Betrag aus dem Quotienten Brennweite (fB) des Beleuchtungsobjek­ tivs (1) und Abstand (dK1) realisiert ist, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs (2) bezogen ist, und
eine zur optischen Achse des Abbildungsobjektivs (2) zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht
und mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv (2) zugeordnet ist und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten (8) für das strukturiert leuchtende Array und das Empfänger-Array angeordnet ist.
58. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen­ gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf der Verschiebungstrecke (ASA1) und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke (ASA2) stattfindet, und sich die Verschiebungsstrecken (AS1) und die Verschie­ bungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger-Arrays auf den Verschiebungsstrecken (ASA1j) und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken (ASA2j) bewegen und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des ersten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei­ ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch­ tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten­ den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs­ strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (PA) zusammenfällt
und der objektseitige Brennpunkt (FOB) des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zusammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
59. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 36, gekennzeichnet dadurch, daß zwei verschiebbare Empfänger-Arrays in parallelen Abbildungsstrahlen­ gänge in einer gemeinsamen Ebene angeordnet sind, wobei die Verschiebung des ersten Empfänger- Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet, und Elemente der beiden Empfänger-Arrays so ausgelesen werden und Signale gebildet werden, als ob sich die Emp­ fänger-Arrays auf Verschiebungsstrecken (ASA1) befinden würden und die Verschiebungstrecke (ASA2) sich in einem Punkt (PA) in der zusammenfallenden array-seitigen Hauptebene schneiden und
der Koinzidenzpunkt (K21) der Bilder der Verschiebungsstrecken (ASA1j), die Strecken (ASO1j), des er­ sten Abbildungsstrahlenganges und
der Koinzidenzpunkt (K22) der Bilder der Verschiebungsstrecken (ASA2j), die Strecken (ASO2j), des zwei­ ten Abbildungsstrahlenganges Beleuchtungsstrahlenganges im Koinzidenzpunkt (KO) zusammenfallen
und zu den beiden parallelen Abbildungsstrahlengängen mittig und symmetrisch ein paralleler Beleuch­ tungsstrahlengang mit einem auf der Verschiebungsstrecke (VSAP) verschiebbaren strukturiert leuchten­ den Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet ist und das Beleuchtungsobjektiv mittig und symmetrisch angeordnet ist, also mit einer zu den beiden Abbildungs­ strahlengängen parallelen optische Achse, und dessen array-seitiger Hauptpunkt (HAB) mit dem Punkt (DA) zusammenfällt
und der objektseitige Brennpunkt des Beleuchtungsstrahlenganges mit dem Koinzidenzpunkt (KO) zu­ sammenfällt und ein strukturiert leuchtendes Array angeordnet ist.
60. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach Anspruch 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch­ tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie­ ren und
das strukturiert leuchtende Array mit leuchtenden Farbstreifen gebildet ist, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das strukturiert Array aus transmittierenden Mikroelementen und aus reflektierenden Mikroelementen aufgebaut ist, und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung minde­ stens einer Strahlungsquelle (4) das strukturierte Array in einer fokussierenden Struktur durchsetzt und die elektromagnetische Strahlung von mindestens zwei Strahlungsquelle (4)n auf Mikrospiegelelemente trifft
und die beiden Empfänger-Arrays und das strukturierten Array mit einem Bewegungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe­ ne gehalten werden, wodurch die optisch konjugierten Ebenen im Objektraum koinzidieren.
61. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 und 60, gekennzeichnet dadurch, daß mindestens ein farbig leuchtendes Array als Gitter mit einem asymmetri­ schen Furchenprofil mit Dreieckprofilen, die Makro-Profilflächen aufweisen, und mit einer auf dem gesam­ ten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro-Gitterkonstante bezeichnet wird, mit mindestens einer zugeordneten Strahlungsquelle (4) zur Beleuchtung gebildet ist,
so daß auf der Oberfläche des Gitters zumindest näherungsweise Dreieckprofile gebildet sind und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Makro- Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet ist,
so daß für die einfallende elektromagnetische Strahlung eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farbbereiche blau grün rot gegeben ist.
62. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 61, gekennzeichnet dadurch, daß das Mikrofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mi­ kro-Dreieckprofil ausgebildet ist.
63. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 61, gekennzeichnet dadurch, daß das Gitter mit einem asymmetrischen Furchenprofil mit Makro- Dreieckprismen ausgebildet ist, wobei das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet ist.
64. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36, 58 und 59, gekennzeichnet dadurch, daß die Abbildungsobjektive für die beiden Empfänger-Arrays und das leuch­ tende Array zumindest näherungsweise baugleich sind und deren Brennebenen im Objektraum koinzidie­ ren
und das leuchtende Array aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mikroelementen gebildet ist,
wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektieren­ de Elemente zugeordnet sind,
und dem strukturierten Array eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet ist, wobei die elektromagnetische Strahlung mindestens einer Strahlungsquelle (4) das leuchtende Array in den fokussierenden Elementen durchsetzt und die elektromagnetische Strahlung von mindestens zwei separaten Strahlungsquelle (4)n unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft.
65. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 64, gekennzeichnet dadurch, daß die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewe­ gungssystem zur präzisen, synchronen Bewegung verbunden sind, wobei die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum per­ manent zur Koinzidenz gebracht sind.
66. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 65, gekennzeichnet dadurch, daß dem strukturierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet ist.
67. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) unterschiedlicher Leuchtdichte und mit leuchtenden Flächenelemente FEL
mit Mikro-Farbteilern ausgebildet ist, so daß eine nahezu planare Struktur gebildet ist.
68. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 60, gekennzeichnet dadurch, daß das strukturiert leuchtende Array mit Bereichen (LBARRAY j) mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farbbe­ reichen rot, grün und blau gebildet ist, wobei die Wiederholungsperiode (WP) dem dreifachen Streifenab­ stand der einzelnen verschiedenfarbigen Flächenelemente entspricht und Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.
69. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 46 und 51 bis 68, gekennzeichnet dadurch, daß das strukturierte Array zumindest auf einem Teilbereich mindestens einer Scheibe ausgebildet ist, der eine rotatorische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß mindestens eine rotierende Scheibe gebildet ist.
70. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69, gekennzeichnet dadurch, daß das strukturiert leuchtende Array auf einer rotierenden Scheibe als ein rota­ tionssymmetrisches Transmissions-Gitter ausgebildet ist.
71. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 und 70, gekennzeichnet dadurch, daß an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochge­ naues und hochdynamisch messendes Meßsystem Referenzmarke (89) zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet ist
und das Meßsystem (89) in seiner messenden Funktion einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet ist, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.
72. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Scheibe zugeordnet ist, so daß die axiale Ablage eines Sektors (82), verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird.
73. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der axialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist, welches als Komponente eines Lage-Regelkreises ausgebildet und der rotierenden Welle zugeordnet ist, so daß die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Schei­ be und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird.
74. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 71, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem (87) zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Scheibe angeordnet ist, welches der rotierenden Scheibe zugeordnet ist,
so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen wird.
75. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises der rotierenden Welle der rotierenden Scheibe zuge­ ordnet ist,
so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotie­ renden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten wird und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
76. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 74, gekennzeichnet dadurch, daß am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Beeinflussung der radialen Ablage von der Sollposition eines Teil­ bereiches der rotierenden Scheibe angeordnet ist,
welches als Komponente eines Lage-Regelkreises dem Empfänger-Array im Abbildungsstrahlengang zu­ geordnet ist,
so daß die laterale Lage des Empfänger-Arrays hochdynamisch geregelt und so und so der laterale Ab­ stand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten wird,
und so der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj (3A) des strukturiert leuchtenden Arrays im Array- Raum konstant gehalten wird.
77. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe mit mindestens zwei Sektoren (82) ausgebildet ist und die Sektorenflächen die Stufenflächen einer Wendeltreppe darstellen.
78. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 77, gekennzeichnet dadurch, daß die Sektorenflächen jeweils die Begrenzungsflächen einer transparenten Platte (84) darstellen und diese so gestaltete rotierenden Scheibe im weiteren als Wendeltreppenscheibe (83) bezeichnet wird.
79. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78, gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) mit zumindest näherungsweise regelmäßi­ gen, gleichflächigen Stufenflächen als vollflächige Wendeltreppenscheibe (83) mit Stufenabsätzen mit Stufenhöhen (Δhj) gebildet ist und auf die gleichflächigen Stufenflächen der Wendeltreppenscheibe (83) der transparenten Platte je ein strukturiertes Array aufgebracht ist
und die elektromagnetische Strahlung der Strahlungsquelle (4) nach dem Passieren der Fläche des strukturierten Arrays die transparente Platte (84) passiert
und die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sind und min­ destens ein einziger Absatz auf der Wendeltreppenscheibe (83) mit mindestens der zweifachen Stufenhö­ he ausgebildet ist, und die Wendeltreppenscheibe (83) eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe (83) aufweist.
80. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 78, gekennzeichnet dadurch, daß die Wendeltreppenscheibe (83) als ein in sich hochstabiler Körper ausge­ bildet ist und die Sektorenflächen der transparenten Platten (84) auf einer Seite der Wendeltreppenschei­ be (83) in einer gemeinsamen Ebene liegen und so eine Fläche bilden und die geometrisch-optische Weglänge der transparente Platte (84) von Stufe zu Stufe vorbestimmt verändert ist, so daß verschieden dicke, transparente Platten (84) gebildet sind und das strukturierte Array auf den gleichflächigen Stufen­ flächen nur auf einem Teilbereich derselben aufgebracht ist.
81. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 80, gekennzeichnet dadurch, daß in den Stufenflächen der Wendeltreppenscheibe (83) je ein weiterer trans­ parenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet ist.
82. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82, gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen­ ten Platten in der Art eines als Tangentialgitters aufgebracht sind.
83. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 82, gekennzeichnet dadurch, daß die strukturierten Arrays auf den Stufenflächen der zugehörigen transparen­ ten Platten (84) der Wendeltreppenscheibe (83) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist
und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeord­ neten Präzisionslagerung zugeordnet ist.
84. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 83, gekennzeichnet dadurch, daß das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe (83) einen Sprung in der Struktur dieses Gitter in radialer Rich­ tung in der Art eines Phasensprunges aufweist.
85. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 84, gekennzeichnet dadurch, daß der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltrep­ penscheibe (83) einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters beträgt.
86. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 85, gekennzeichnet dadurch, daß der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltrep­ penscheibe (83) einem Dreiviertel der mittleren Gitterkonstanten des Gitters beträgt.
87. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 86, gekennzeichnet dadurch, daß auf den Stufenflächen der Wendeltreppenscheibe (83) zumindest in Teilbe­ reichen auf der planen Fläche der Wendeltreppenscheibe (83) ein Referenzgitter aufgebracht ist.
88. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 87, gekennzeichnet dadurch, daß das Referenzgitter auf der planen Fläche der Wendeltreppenscheibe (83) zumindest näherungsweise eine Radialstruktur aufweist.
89. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 88, gekennzeichnet dadurch, daß das Referenzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweist, die der Ortsfrequenz entspricht, die aus der mittleren Phasenänderung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppen­ scheibe (83) über dem Vollkreis resultiert.
90. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 89, gekennzeichnet dadurch, daß an der Wendeltreppenscheibe (83) mindestens eine Referenzmarke (89) (90) aufgebracht ist.
91. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 90, gekennzeichnet dadurch, daß auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurch­ lässiger Teilbereich für den Abbildungsstrahlengang mit einem Farbfilter angeordnet ist.
92. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 91, gekennzeichnet dadurch, daß in jedem Sektor (82) der vollflächigen Wendeltreppenscheibe (83) minde­ stens eine Referenzmarke (90) aufgebracht ist.
93. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 92, gekennzeichnet dadurch, daß die Sektoren (82) eine geringere Ausdehnung in tangentialer Verschie­ bungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so das Empfänger-Array strei­ fenweise ausgelesen wird.
94. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 93, gekennzeichnet dadurch, daß gleichflächige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächi­ gen Wendeltreppenscheibe (83) angeordnet sind.
95. Anordnung zur 3D-Aufnahme von Objektoberflächen in einer nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren (82) unterschiedlicher geometrisch-optischer Dicke ausgebildet ist.
96. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren (82) unterschiedlicher geometrisch-optischer Dicke ausgebildet ist.
97. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als Keilscheibe ausgebildet ist.
98. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97, gekennzeichnet dadurch, daß das strukturierte Array auf der Oberfläche einer Keilscheibe mit einer pla­ nen Unterfläche ausgebildet ist, wobei jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisionsmotor zugeordnet ist.
99. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, 97 und 98, gekennzeichnet dadurch, daß die Keilscheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehachse ausgebildet ist.
100. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 99, gekennzeichnet dadurch, daß die Keilscheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweist, wobei jedoch nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt.
101. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 100, gekennzeichnet dadurch, daß ein Referenzgitter (88) auf der vollflächigen Keilscheibe zumindest nähe­ rungsweise eine Radialstruktur aufweist.
102. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene 69 bis 76 und 97 bis 101, gekennzeichnet dadurch, daß auf der vollflächigen Keilscheibe mindestens eine Referenzmarke (90) auf­ gebracht ist.
103. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 102, gekennzeichnet dadurch, daß auf der Keilscheibe mehrere strukturierte Arrays in einzelnen Sektoren (82) aufgebracht sind.
104. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 103, gekennzeichnet dadurch, daß die strukturierten Arrays in der Art eines Tangentialgitters aufgebracht sind.
105. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 104, gekennzeichnet dadurch, daß die einzelnen Tangentialgitter von Sektor (82) zu Sektor (82) einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen.
106. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 97 bis 105, gekennzeichnet dadurch, daß der Sprung in der Phase von Sektor (82) zu Sektor (82) ein Viertel der Pe­ riode des Tangentialgitters beträgt.
107. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als Taumelscheibe ausgebildet ist.
108. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107, gekennzeichnet dadurch, daß das strukturierte Array auf der Oberfläche eines Teilbereiches einer Tau­ melscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet ist.
109. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, 107 und 108, gekennzeichnet dadurch, daß die Taumelscheibe als vollflächige Scheibe und als transparenter Körper ausgebildet ist.
110. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 109, gekennzeichnet dadurch, daß der Axialschlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweist, wobei jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.
111. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 110, gekennzeichnet dadurch, daß zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht ist.
112. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 111, gekennzeichnet dadurch, daß das strukturierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht ist.
113. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 112, gekennzeichnet dadurch, daß auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter (88) aufgebracht ist.
114. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 113, gekennzeichnet dadurch, daß das Referenzgitter (88) auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweist.
115. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 114, gekennzeichnet dadurch, daß auf der vollflächigen Taumelscheibe mindestens eine Referenzmarke (90) aufgebracht ist.
116. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 115, gekennzeichnet dadurch, daß auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sind.
117. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 116, gekennzeichnet dadurch, daß die strukturierten Arrays in der Art eines Tangentialgitters aufgebracht sind.
118. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 117, gekennzeichnet dadurch, daß die Tangentialgitter von Sektor (82) zu Sektor (82) einen Sprung in der Struktur in der Art eines Phasensprunges aufweisen.
119. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 118, gekennzeichnet dadurch, daß der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgitters beträgt.
120. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 107 bis 119, gekennzeichnet dadurch, daß auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren (82) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslage­ rung zugeordnet ist und die Gitterstruktur von Sektor (82) zu Sektor (82) in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor (82) zu Sektor (82) ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt.
121. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76, gekennzeichnet dadurch, daß die rotierende Scheibe als Schraubenfläche ausgebildet ist.
122. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121, gekennzeichnet dadurch, daß das rotationssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Scheibe mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet ist, und so mindestens einen Absatz aufweist und das rotatorische Transmissi­ onsgitter als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmes­ sers der beleuchteten, rotierenden Scheibe aufweist, wobei jedoch nur ein Ausschnitt des rotationssym­ metrischen Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommt.
123. A70 Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und 122, gekennzeichnet dadurch, daß die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FELj (3A) sich auf Verschiebungsstrecken (VSAj) befinden, die zumindest näherungsweise parallel zu einer Geraden (gA) angeordnet sind.
124. A71 Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und 123, gekennzeichnet dadurch, daß dem rotationssymmetrischen Transmissionsgitter auf einer Schraubenflä­ che zur Bestimmung der Referenzphase eine Strahlungsquelle (4) mit einem Laser und einem Kollimator zugeordnet ist und mindestens eine feine Markierung als Referenzmarke (90) auf der Schraubenfläche aufgebracht ist, wobei der Strahlungsquelle (4) ein Gitter mit einer Teilungskonstanten, welche beispiels­ weise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht, nachgeordnet ist.
125. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 76 und 121 und 124, gekennzeichnet dadurch, daß auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren (82) in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht ist und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslage­ rung zugeordnet ist die Gitterstruktur von Sektor (82) zu Sektor (82) in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor (82) zu Sektor (82) ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt.
126. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 68, gekennzeichnet dadurch, daß im Beleuchtungsstrahlengang dem Beleuchtungsobjektiv (1) ein bewegli­ ches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein feststehendes gleichwinkli­ ges Kompensationsprisma aus einem transparenten optischen Werkstoff zugeordnet ist.
127. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126, gekennzeichnet dadurch, daß auf dem Keilprisma ein strukturiertes Array aufgebracht ist und dem Keilprisma eine Linearführung mit einem Linearmotor zugeordnet ist und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff dem Abbildungsobjektiv (2, 33) zugeordnet ist.
128. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127, gekennzeichnet dadurch, daß auf dem beweglichem Keilprisma ein Referenzgitter (88) mit einer Refe­ renzmarke (90) aufgebracht sind und dem Referenzgitter (88) eine Strahlungsquelle (4) und ein opto­ elektronisches Auswertemodul zugeordnet sind.
129. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 126 und 127, gekennzeichnet dadurch, daß bei der Bewegung eines Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegen­ standsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än­ derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen­ tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung eines Keilprismas
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch­ tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek­ traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
130. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 69 bis 126, gekennzeichnet dadurch, daß für eine rotierende Scheibe oder Teile derselben im Beleuchtungsstrahlen­ gang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv (1) dessen axiale Gegenstandsweite jeweils entsprechend der folgende Bedingung
|(Δϕ.p)/(2π.ΔzAG)| = |d/fB|
zumindest näherungsweise verändert wird und so die leuchtenden Flächenelemente FEL auf Strecken (BSAj) zumindest näherungsweise parallel zu einer Geraden (gAP) verschoben werden,
wobei der linke Term die Phasenänderung (Δϕ) des strukturiert leuchtenden Arrays, bezogen auf die Än­ derung der geometrisch-optischen Weglänge (ΔzAG) im Strahlengang in Richtung der optischen Achse, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenelemen­ tes FELj (3A) des strukturiert leuchtenden Arrays bei der Bewegung der rotierenden Scheibe
und (p) die Gitterkonstante des strukturiert leuchtenden Arrays und (fB) die Brennweite des Beleuch­ tungsobjektivs (1) und (d) den Abstand des Pupillenzentrums des Beleuchtungsobjektivs (1) im Objek­ traum vom Pupillenzentrums des Abbildungsobjektivs (2) im Objektraum bedeuten.
131. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen­ gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haup­ tebenen der beiden Abbildungsobjektive (2, 33) zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp­ fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe­ gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) auf dem ersten oberen Ast eines Buchstabens Y erfolgt, und die Strecke (ASA1) parallel zu einer Geraden (gA1P) liegt, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des erstes Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (AS2) auf dem zweiten oberen Ast des Buchstabens Y erfolgt, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet so daß sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken (ASA1j) bewegen, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
132. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene mit zwei Abbildungsstrahlen­ gängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Haupt­ ebenen der beiden Abbildungsobjektive (2, 33) zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist,
gekennzeichnet dadurch, daß dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewe­ gungssystem zugeordnet ist und die resultierende Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke (ASA1) parallel zur optischen Achse des ersten Abbildungsobjektivs (2) erfolgt, und genau die Elemente des ersten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA1j) befinden, die parallel zu einer Geraden (gA1P) liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbil­ dungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA1j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die resultierende Bewegungsrichtung des zweiten Empfänger-Array auf einer Strecke (ASA2) parallel zur optischen Achse des zweiten Abbildungsobjektivs (33) erfolgt, und genau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken (ASA2j) befinden, die parallel zu einer Geraden (gA2P) liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen schneidet,
so daß die zur Signalbildung verwendeten Elemente des zweiten Empfänger-Array denen entsprechen, welche sich auf Strecken (ASA2j) befinden, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet.
133. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132, gekennzeichnet dadurch, daß jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte mit einer vorbestimmten geometrisch-optischen Dicke zugeordnet ist und auf der ro­ tierenden Scheibe Referenzmarken (89, 90) aufgebracht sind und die optische Dicke der transparenten Platte stetig veränderlich ist.
134. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132, gekennzeichnet dadurch, daß jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte und jeder transparenten Platte eine vorbestimmte ortsabhängige geometrisch­ optische Dicke zugeordnet ist und auf der rotierenden Scheibe mindestens eine Referenzmarke (90) auf­ gebracht ist und so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbe­ stimmt verändert.
135. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132, gekennzeichnet dadurch, daß zwischen jedem Abbildungsobjektiv (2, 33) und jedem Empfänger-Array je mindestens zwei winkelgleiche Keilprismen (98, 99) angeordnet sind, wobei je zwei Keilprismen (98, 99) ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden, wobei die Strahlachse auf den beiden äußeren Flächen des Parallelstückes zumindest näherungsweise jeweils senkrecht steht.
136. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131 und 132 und 135, gekennzeichnet dadurch, daß bei einem zumindest näherungsweise geradlinig verschiebbaren Keilprisma (99) die Verschiebungsrichtung parallel zur inneren Fläche des feststehenden Keilprismas (98) angeord­ net ist.
137. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131, 132, 135 und 136, gekennzeichnet dadurch, daß zur Kompensation des anamorphotischen Effektes im Luftspalt des Paral­ lelstückes ein zweites baugleiches Parallelstück mit zwei winkelgleichen Keilprismen mit einem gleichge­ stalteten Zwischenraum angeordnet ist, wobei das zweite Parallelstück um die Strahlachse um zumindest näherungsweise 90° gedreht angeordnet ist.
138. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 131, 132, 135 bis 137, gekennzeichnet dadurch, daß die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Ebene der Außenfläche eines Parallelstückes senkrecht zueinander ausgerichtet sind.
139. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 36 bis 138, gekennzeichnet dadurch, daß das Empfänger-Array eine Farbkamera darstellt.
140. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer Szene mit mindestens einer elektroma­ gnetischen Strahlungsquelle (4), wobei die Strahlungsquelle (4) mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausge­ bildet ist und mindestens ein Flächenelement leuchtet, so daß mindestens ein leuchtendes Flächenele­ menten FELj (3A) gebildet ist, wobei der Begriff Leuchten im Sinne des Abstrahlens von elektromagneti­ scher Strahlung verwendet wird,
und mit mindestens einem Beleuchtungsstrahlengang mit mindestens einem dem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordneten Beleuchtungsobjektiv (1), welches eine effektive Öffnungsblende mit einer Ausdehnung (DB) und einem Blendenzentrum (BZB) aufweist, zur strukturierten Beleuchtung der Objektoberflächen (5, 18, 19) im Objektraum, der dem Szenenraum entspricht,
und mit mindestens einem dem Beleuchtungsstrahlengang zugeordneten Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen (5, 18, 19) mit mindestens einem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv (2) zur Ab­ bildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blenden­ zentrum (BZA) aufweist,
wobei Elemente des mindestens einem Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren,
und mit einem Abstand (d) des Pupillenzentrums (PZOB) des Beleuchtungsobjektivs (1), als Bild des Blendenzentrums (BZB) im Objektraum, vom Pupillenzentrum (PZOA) des Abbildungsobjektivs (2), als Bild des Blendenzentrums (BZA) im Objektraum, wobei der Abstand (d) mindestens ein Achtel der Ausdeh­ nung (DB) der Öffnungsblende des Beleuchtungsobjektivs (1) beträgt,
wobei leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung eine zumindest näherungsweise vorherbestimmte Leuchtdichte aufweisen
und diese im weiteren als leuchtende Flächenelemente FEL bezeichnet werden, so daß durch die Abbil­ dung mit dem Beleuchtungsobjektiv (1) mindestens ein Bild eines leuchtenden Flächenelementes FELj (3A) im Objektraum gebildet ist, gekennzeichnet dadurch, daß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuch­ tenden Flächenelementes FELj (3A) in einem strukturiert leuchtenden Array -
durch die vorbestimmte geometrisch-optische Zuordnung des leuchtenden Flächenelementes FELj (3A) zum Beleuchtungsobjektiv und die geometrisch-optische Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die geometrische Zuordnung von Beleuchtungsobjektiv zum Abbildungsob­ jektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung -
permanent in das Schärfevolumen eingepaßt ist, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist,
wobei das Schärfevolumen, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, mindestens eine so große Tiefenausdehnung wie das Schärfe­ volumen eines einzelnen Bildes eines leuchtenden Flächenelementes FELj (3A) aufweist, so daß für alle Bilder eines leuchtenden Flächenelementes FELj (3A) ein umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist
und im Objektraum jeweils ein Bild mindestens eines leuchtenden Flächenelementes FELj (3A) eines strukturierten Arrays (45) jeweils einem Bild mindestens eines Elementes des Empfänger-Arrays fest zu­ geordnet ist.
141. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß in mindestens einem strukturierten Array (45) mindestens eine räumlich strukturierte Sub-Matrix (46) angeordnet sind, wobei in der mindestens einen strukturierten Sub-Matrix(46) wiederum mindestens zwei strukturierte Zellen (47) angeordnet sind, wobei wiederum in jeder strukturier­ ten Zelle (47) durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche (48) angeordnet ist und dieses mindestens eine Fensterfläche (48) eine mittlere Gegenstandsweite zum Beleuchtungsobjektiv (1) aufweist, die unterschiedlich zur Fensterfläche (48) der Nachbarzelle im Haupt­ schnitt gemacht ist und eine Fensterfläche (48) in einer strukturierten Zelle (47) jeweils im Zusammenwir­ ken mit der Strahlungsquelle (4) mindestens ein leuchtendes Flächenelement FELj (3A) darstellt.
142. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß in mindestens einem strukturierten Array (45) mindestens eine räumlich strukturierte Sub-Matrix (46) angeordnet sind, wobei in der mindestens einen strukturierten Sub-Matrix (46) wiederum mindestens zwei strukturierte Zellen (47) angeordnet sind, wobei wiederum in jeder struk­ turierten Zelle (47) durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fenster­ fläche (48) angeordnet ist und diese mindestens eine Fensterfläche (48) eine mittlere Gegenstandsweite zum Beleuchtungsobjektiv (1) aufweist, die unterschiedlich zur Fensterfläche (48) der Nachbarzelle im Hauptschnitt gemacht ist und eine Fensterfläche (48) in einer strukturierten Zelle (47) jeweils mindestens ein selbstleuchtendes Flächenelement FELj (3A) darstellt.
143. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 142, gekennzeichnet dadurch, daß die Fensterfläche (48) zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs (1) angeordnet ist.
144. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143, gekennzeichnet dadurch, daß mindestens eine strukturierte Sub-Matrix (46) als eine Transmissionsan­ ordnung mit einem optischen Werkstoff ausgebildet ist.
145. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, 141 und 143, gekennzeichnet dadurch, daß die optisch aktive Oberfläche der strukturierten Zellen (47) jeweils einen räumlich strukturierten Bereich aufweist, wobei in diesem räumlichen strukturierten Bereich die Fensterflä­ che (48) als plane Fläche ausgebildet ist
und in der Fensterfläche (48) eine Maske (49) angeordnet ist und die Maske ein Binär-Code- Transparenzprofil mit der Codierung einer maschinenlesbaren Zahl als Positionsnummer aufweist und so die Masken innerhalb einer Zelle jeweils eindeutig und maschinenlesbar voneinander unterscheidbar ge­ macht sind,
und in einem Teilbereich der räumlich strukturierten Zelle (47) neben der Maske (49) auf der Fensterflä­ che (48) eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist.
146. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 142 und 144 bis 145, gekennzeichnet dadurch, daß die Mikrolinse in einem Teilbereich der räumlich strukturierten Zelle (47) neben der Maske (49) auf der Fensterfläche (48) jeweils als eine Zylinderlinse (50) ausgebildet ist.
147. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 145 und 146 gekennzeichnet dadurch, daß die Mikrolinse (50) so angeordnet ist, daß deren Fokuspunkt zumindest nä­ herungsweise in der Ebene der Maske (49) positioniert ist.
148. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 147, gekennzeichnet dadurch, daß das strukturierte Array (45) als opakes Reliefstück mit mindestens zwei fei­ nen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv (1) angeordnet sind und sich die Durchbrü­ che beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung in unterschiedlichen Tiefen des Ar­ ray-Raumes befinden, ausgebildet ist.
149. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß das strukturierte Array als ein nichttransparentes Reliefstück mit Durchbrü­ chen versehen ist und die zum Beleuchtungsobjektiv (1) weisende Oberfläche des Reliefstückes so gefer­ tigt ist, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Soll­ stückes darstellt und die Durchbrüche auf der Oberfläche des Reliefstückes zumindestens näherungswei­ se die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.
150. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß das strukturierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sind, daß deren Foki in einer 3D- Fläche angeordnet sind, die zumindestens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt und die Foki der Mikrolinsen zumindestens näherungsweise optisch konjugierten Orte der Sollflä­ che eines Prüflings darstellen.
151. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe (54, 56) mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche (55, 57) gebildet ist, die mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv (1) ausgerichtet ist,
und auf der schrägen Rampenfläche (55, 57) leuchtende Flächenelemente FEL als von der Strahlungs­ quelle (4) beleuchtete Fensterflächen angeordnet sind und die Rampenflächen (55, 57) so geneigt sind, daß die Ausgleichsgerade (AGAj) durch die schräge Rampenfläche (55, 57) im Hauptschnitt nach Abbil­ dung durch das Beleuchtungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die zumindestens näherungsweise auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wo­ bei für mehrere verschiedene Ausgleichsgeraden (AGOj) von mehreren verschiedenen Rampen (54, 56) nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel (GB1) mit einen Konvergenzpunkt (K1) gebildet ist,
und der Konvergenzpunkt (K1) zumindestens näherungsweise im Pupillenzentrum (PZOA) des Abbil­ dungsobjektivs (2) zur Koinzidenz gebracht ist.
152. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151, gekennzeichnet dadurch, daß das auf der Rampenfläche (55, 57), die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär-Code-Transparenzprofil mit der Sequenzlänge bz auf ei­ nem stetigen Flächenbereich derselben gebildet ist und die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p mindestens so groß gemacht ist, daß diese vom Beleuchtungsob­ jektiv (1) noch ohne merklichen Kontrastverlust scharf abgebildet werden kann, und die Länge WP größer als bz.d/DB gemacht ist und die auf einer Rampenfläche (55, 57) aufgebrachten Masken mit einem Bi­ när-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar gemacht sind.
153. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 152, gekennzeichnet dadurch, daß die Rampenflächen (55, 57), als stetige Flächen ausgebildet sind.
154. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 153, gekennzeichnet dadurch, daß innerhalb der Rampenflächen (55, 57), mehrere Stufen ausgebildet sind, wobei sich auf einer Fläche einer Stufe je mindestens eine Maske mit einem Binär-Code- Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist.
155. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 146 bis 154, gekennzeichnet dadurch, daß das Binär-Code-Profil als Balken-Code-Transparenzprofil mit mindestens einem transparenten Balken ausgebildet ist und die Balken parallel zum Hauptschnitt angeordnet sind und so die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt erfolgt.
156. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151, gekennzeichnet dadurch, daß das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit ei­ nem cos2-Transparenzprofil mit mindestens einer Periodenlänge bz aufgebracht ist und die Periodenlänge bz mindestens so groß gemacht ist, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Licht­ stärke noch ohne merklichen Kontrastverlust abgebildet werden kann, und die Länge WP der Rampenflä­ che jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht ist.
157. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140, gekennzeichnet dadurch, daß leuchtende Flächenelemente FEL als von der Strahlungsquelle (4) beleuch­ tete, transparente Fensterflächen, einschließlich Bilder von diesen, im Array-Raum positioniert sind und die dem Beleuchtungsobjektiv (1) zugewandte Seite des strukturierten Array mindestens als ein einziges Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet ist, die jeweils ein transparentes Keilprisma darstellt,
und die Keilprismen einen Keilwinkel aufweisen, der so gewählt ist, daß durch dessen abbildende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgera­ de (AGAj) im Hauptschnitt liegen und die Ausgleichsgerade (AGAj) nach Abbildung durch das Beleuch­ tungsobjektivs (1) im Objektraum als Bild eine Gerade (AGOj) liefert,
die auf das Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zielt, wobei für mehrere Ausgleichsgera­ den (AGOj) von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs (1) aus deren Bildern ein Geradenbündel mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungswei­ se mit dem Pupillenzentrum (PZOA) des Abbildungsobjektivs (2) zur Koinzidenz gebracht ist.
158. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 157, gekennzeichnet dadurch, daß die transparenten Keilprismen jeweils so gefertigt sind, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweist.
159. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 156, gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram­ penflächen im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens näherungs­ weise gleichwinklig ausgebildet sind, so die Ausgleichsgeraden (AGAj) durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung
zueinander parallele Geraden darstellen, und die Rampenflächen so gestaltet sind, daß nach Abbildung durch das Beleuchtungsobjektivs (1) aus den Bildern der parallelen Ausgleichsgeraden ein Geradenbün­ del (GB1) mit einen Konvergenzpunkt (K1) gebildet ist, der zumindestens näherungsweise mit dem Pupil­ lenzentrum (PZOA) des Abbildungsobjektivs (2) im Objektraum zur Koinzidenz gebracht ist.
160. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 159, gekennzeichnet dadurch, daß bei einem im Array-Raum telezentrischen Abbildungsobjektiv (2) die Ram­ penflächen (55, 57), im strukturierten Array, die zum Beleuchtungsobjektiv (1) weisen, zumindestens nä­ herungsweise mit der gleichen Länge ausgebildet sind.
161. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 160, gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) eine transparente Platte (84) mit Keilprismen nachgeordnet ist, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub- Matrizen auf dem strukturierten Array entspricht.
162. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 160, gekennzeichnet dadurch, daß im Abbildungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufwei­ sen.
163. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 151 bis 161, gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsobjektivs (2) aufweisen.
164. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 163, gekennzeichnet dadurch, daß die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räum­ lichen Profil angeordnet sind.
165. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 164, gekennzeichnet dadurch, daß die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays zumindestens näherungsweise auf Rampenflächen (55, 57), angeordnet sind.
166. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 163, gekennzeichnet dadurch, daß dem Abbildungsobjektiv (2) mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet ist, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsobjektiv (2) angeordnet sind und die Mikrofaserenden auf der einen Seite des Lichtwellenleiter-Arrays in einer gemeinsamen Ebene liegen und den Elementen des Empfän­ ger-Arrays unmittelbar zugeordnet sind und auf der anderen Seite des Lichtwellenleiter-Arrays dem Abbil­ dungsobjektiv (2) zugeordnet sind und auf dieser Seite die Faserenden auf einem räumlichen Profil ange­ ordnet sind.
167. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 162 und 166, gekennzeichnet dadurch, daß das räumliche Profil zumindestens näherungsweise mit Rampenflächen ausgebildet ist.
168. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 160, gekennzeichnet dadurch, daß das Empfänger-Array mit mindestens acht Elementen ausgebildet ist, die mindestens zwei Bereiche mit mindestens je vier Elementen darstellen, wobei die vier Elemente dann ge­ nau zwei Zellen darstellen,
und die mindestens zwei Bereiche mit einer unterschiedlichen mittleren Höhe der Elemente in einer Flä­ che gebildet sind, die als Sub-Flächen bezeichnet werden,
so daß auf dem Empfänger-Array mindestens zwei Bereiche gebildet sind, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens acht Elemente in vier unter­ scheidbaren Höhenstufen angeordnet sind.
169. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 168, gekennzeichnet dadurch, daß die Ausgleichsfläche über die Orte der Elemente des Empfänger-Arrays ei­ ner Sub-Fläche ein räumliches Profil darstellen und daß mindestens zwei Sub-Flächen auf dem Empfän­ ger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form des räumlichen Profils zumindest näherungsweise gleich gemacht ist.
170. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 169, gekennzeichnet dadurch, daß die Anzahl der Bereiche, die zu einer Sub-Fläche auf dem Empfänger-Array gehören, mit der Anzahl der Sub-Matrizen im strukturierten Array übereinstimmt und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhafte Bereiche des Empfänger-Arrays, die ge­ trennt elektromagnetische Strahlung detektieren können, erstreckt und die laterale Anordnung der Berei­ che, die zu einer Sub-Fläche gehören, auf der Oberfläche des Empfänger-Arrays mit der lateralen Anord­ nung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht ist.
171. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 170, gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Matrix-Kamera ausgebildet ist.
172. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 168, gekennzeichnet dadurch, daß das Empfänger-Array als CMOS-Matrix-Kamera ausgebildet ist.
173. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß das Empfänger-Array als CCD-Zeilen-Kamera ausgebildet ist.
174. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß mindestens zwei Abbildungsstrahlengänge angeordnet sind und jedem Abbildungsstrahlengang jeweils zumindestens eine verkippbare Spiegelfläche vorgeordnet wird und die vorgeordneten, verkippbaren Spiegelflächen starr miteinander verbunden sind und diesen rechnergesteu­ erte Komponenten zur Durchführung einer Verkippung zugeordnet sind.
175. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß mindestens zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet ist.
176. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 140 bis 167, gekennzeichnet dadurch, daß einem Beleuchtungsobjektiv (1) ein erstes Abbildungsobjektiv (33) mit ei­ nem Empfänger-Array und mindestens ein zweites Abbildungsobjektiv (2) mit einem Empfänger-Array zu­ geordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs (2) im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs (1) angeordnet ist und das zweite Abbildungsobjektiv (33) im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs (1) angeordnet ist, wobei k ≧ 2 gemacht ist.
177. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (33) mit zumindest näherungsweiser ein­ seitiger Telezentrie im Array-Raum und einem zweiten Abbildungsobjektiv (2) mit zumindest näherungs­ weiser einseitiger Telezentrie im Array-Raum, wobei die beiden Hauptebenen der beiden Abbildungsob­ jektive (2, 33) zumindest näherungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Ab­ bildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array (106, 114) zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array (106, 114) angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite räumlich strukturierte Empfänger-Array (106, 114) mindestens je zwei Empfängerflächen (107, 108) und (109, 110) auf räumlich getrennten Stufenflächen aufweisen, die zumindest näherungsweise jeweils senkrecht zum Hauptschnitt liegen, und die Empfän­ gerflächen (107, 108) des ersten Empfänger-Arrays (106) jeweils zumindest näherungsweise parallel zur Geraden (gA1P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Haup­ tebenen und den Brennpunkt (FAA1) des ersten Abbildungsobjektivs (33) enthält,
und die Empfängerflächen (109, 110) des zweiten Empfänger-Arrays (114) jeweils zumindest näherungs­ weise parallel zur Geraden (gA2P) angeordnet sind, die den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfal­ lenden Hauptebenen und den Brennpunkt (FAA2) des zweiten Abbildungsobjektivs (2) enthält,
wobei sich Paare von Ausgleichsgeraden, die durch die mindestens je zwei Empfängerflächen (107) und (109) sowie (108) und (110) im Hauptschnitt verlaufen, zumindest näherungsweise in der Hauptebene schneiden und zumindest näherungsweise der mittlere Abstand von Teilen dieser mindestens zwei Emp­ fängerflächen (107) und (109) sowie (108) und (110) von der Hauptebene zumindest näherungsweise je­ weils gleich gemacht ist und so zumindest näherungsweise Paare von optisch konjugierten Bildern von Teilen von Empfängerflächen (107) und (109) des ersten Empfänger-Arrays (106) sowie von Teilen von Empfängerflächen (108) und (110) des zweiten Empfänger-Arrays (114) im Objektraum gebildet sind.
178. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene, mit zwei Abbil­ dungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, zumindest näherungsweise paral­ lel angeordneten Abbildungsobjektiven (2, 33), einem ersten Abbildungsobjektiv (2) und einem zweiten Abbildungsobjektiv (33), wobei die Hauptebenen der beiden Abbildungsobjektive (2, 33) zumindest nähe­ rungsweise zur Koinzidenz gebracht sind, wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsob­ jektivs (2) im Abstand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (33) angeordnet ist,
und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind,
gekennzeichnet dadurch, daß das erste und das zweite Empfänger-Array (6, 14) zumindest näherungs­ weise jeweils senkrecht zum Hauptschnitt angeordnet sind, und die Empfängerfläche des ersten Empfän­ ger-Arrays zumindest näherungsweise so angeordnet ist, daß diese die Strecke (ASA1) enthält, die auf dem ersten oberen Ast eines Buchstabens Y angeordnet ist, und die Strecke (ASA1) zumindest nähe­ rungsweise parallel zu einer Geraden (gA1P) angeordnet ist, die zum einen den Brennpunkt des ersten Abbildungsobjektivs (2) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symme­ trieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detektierenden Ele­ mente des erstes Empfänger-Arrays (6) im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet
und die Empfängerfläche des zweiten Empfänger-Arrays (14) zumindest näherungsweise so angeordnet ist, daß diese die Strecke (AS2) enthält, die auf dem zweiten oberen Ast des Buchstabens Y angeordnet ist, und die Strecke (ASA2) parallel zu einer Geraden (gA2P) angeordnet ist, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs (33) im Array-Raum schneidet und andererseits den Durchstoßpunkt (PA) der Symmetrieachse (SL) zwischen den beiden optischen Achsen der beiden Abbildungsobjektive (2, 33) durch die zusammenfallenden Hauptebenen zumindest näherungsweise schneidet, so daß die detek­ tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt zumindest näherungsweise auf der Strecke (ASA1) angeordnet sind, wobei ein Teil der Symmetrielinie (SL) den unteren Teil des Buchstabens Y bildet und so mindestens aus Bildern von Teilen der beiden Empfängerflächen (6) und (14) im Objek­ traum mindestens ein Paar von zumindest näherungsweise optisch konjugierten Bildern gebildet ist.
179. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in einer mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit zwei Abbildungsobjektiven, einem ersten (33) und einem zweiten Abbildungsobjektiv (2), wobei das Pupillenzentrum (PZOA1) des ersten Abbildungsobjektivs (33) im Ab­ stand d vom Pupillenzentrum (PZOA2) des zweiten Abbildungsobjektiv (2) angeordnet ist,
und jedem derselben je ein räumlich strukturiertes Empfänger-Array, zugeordnet ist, so daß ein erstes (106) und ein zweites Empfänger-Array (114) angeordnet sind,
gekennzeichnet dadurch, daß das erste (106) und das zweite räumlich strukturierte Empfänger-Array (114) mindestens je zwei Empfängerflächen auf räumlich getrennten Flächen aufweisen und die Empfän­ gerflächen des ersten Empfänger-Arrays (106)jeweils so angeordnet sind,
und die Empfängerflächen des zweiten Empfänger-Arrays (114) jeweils so angeordnet sind,
daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays (106) sowie von Teilen der Empfängerflächen des zwei­ ten Empfänger-Arrays (114) im Objektraum gebildet sind.
180. Anordnung zur 3D-Aufnahme
von mindestens einer Objektoberfläche (5) in mindestens einer beleuchteten Szene mit mindestens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbildungsstrahlengang, wobei das Pupillenzentrum eines Abbildungsobjektivs eines Abbildungsstrahlenganges mindestens im Abstand d vom Pupillenzentrum eines Abbildungsobjektivs eines anderen Abbildungsstrahlenganges an­ geordnet ist, und der Abstand d mindestens der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungsblende entspricht
und jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit mindestens zwei detektierenden Element zugeordnet ist,
gekennzeichnet dadurch, daß jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mikrooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie­ renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet ist
und im Objektraum mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet ist.
181. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 180, gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikroprismen-Array ausgebildet ist.
182. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) 99999 00085 552 0010002800000002000120002857300489000405919938400529 0002019919584 00004 00481in einer mindestens einer Szene nach 180, gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikrolinsen-Array mit Mikrolinsen unter­ schiedlicher axialer Lage ausgebildet ist.
183. Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche (5) in einer mindestens einer Szene nach 180, gekennzeichnet dadurch, daß das mikrooptische Array als ein Mikroprismen-Array Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet ist.
1. Technisches AnwendungsgebietDas technische Anwendungsgebiet besteht in der Bestimmung der 3D-Form oder 3D-Gestalt von Körpern oder Objekten im Raum oder sogar kompletten Szenen mit mindestens einem Bildaufnehmer in einem optischen Aufnahmesystem. Die dazu notwendige Anordnung wird im weiteren als 3D-Aufnahme-Anordnung und das Verfahren wird als 3D-Aufnahme-Verfahren bezeichnet. Die Anwendung dieser 3D-Aufnahme-Anordnung und dieses Verfahrens erfolgt erstens im Sinne der 3D-Meßtechnik. Als Ergebnis der Berechnung wird aus optisch gewonnenen Signalen die 3D-Punktwolke von Objektoberflächen in einer Szene als digital vorliegender Datensatz mit Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung ermittelt. Die errechnete Punktwolke kann beispielsweise in einem CAD-System weiterverarbeitet werden.Eine weitere, mögliche meßtechnische Applikation stellt die Positionsbestimmung eines Fahrzeuges im Freien dar, ohne die Notwendigkeit das Fahrzeug durch eine interne oder externe Beleuchtungseinrichtung der 3D-Aufnahme-Anordnung beleuchten zu müssen.Das zweite Anwendungsgebiet stellt das Gewinnen von 3D-Bildern als Punktwolke von Objektoberflächen in einer Szene im Nah- und im Fernbereich für 3D-Wiedergabe-Geräte und 3D-Wiedergabe-Verfahren dar. Dabei können auch die Farben der Objektoberflächen erfaßt werden. Dieses Verfahren betrifft vor allem den Multimedia- und Fernsehbereich im Studio. Es kann aber auch bei Außenaufnahmen eingesetzt werden.Weiterhin kann das Verfahren und die Anordnung zur digitalen 3D-Schwarzweiß- und zur digitalen 3D-Farbaufnahme im Nah- und im Fernbereich im Sinne der Fotografie angewendet werden, wobei ein digitaler Datensatz erzeugt wird, der zu einem 3D-Bild weiterverarbeitet werden kann. 2. Stand der TechnikDie 3D-Form von Oberflächen wird häufig mit Streifen-Triangulationsverfahren vermessen. Dabei wird in der Regel das Objekt oder die Szene unter einem großen Einfallswinkel beleuchtet, beispielsweise zwischen 30° und 60°. Dies führt jedoch häufig zu störenden Abschattungen des Objekts oder von Details von Objektoberflächen in der Szene.Es sind vielfältige 3D-Meßanordnungen mit kohärentem Licht bekannt. Der Einfluß des Speckle-Phänomens begrenzt jedoch den Einsatz dieser Verfahren. Dies wurde von H. J. Tiziani in der Arbeit "Automatisierung der optischen Qualitätsprüfung" in Technisches Messen, 55. Jahrgang, Heft 1211988, S. 481-491 auf Seite 488 dargestellt. Es werden auch Interferenzstreifen-Felder für die Streifen-Projektionstechnik eingesetzt. Diese werden durch die Überlagerung kohärenter Planwellen erzeugt und weisen ebenfalls Speckle-Effekte auf, s. Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 328-330. Diese Speckle-Effekte begrenzen die sinnvolle Höhenauflösung häufig auf weniger als 1/40 der effektiven Wellenlänge.Bei der herkömmlichen optischen 3D-Messung stellen diskontinuierliche Oberflächen oft ein Problem dar. Beispielsweise können größere Absätze oder Stufen in der Oberfläche des Objektes zu einer Verletzung des Sampling-Theorems führen. Abhilfe schafft hier das Gray-Code-Verfahren, bei dem eine Folge von Binär-Bildern aufprojiziert wird. Zusätzlich werden anschließend - besonders bei höheren Genauigkeitsforderungen - Sinusgitter auf die Objektoberfläche abgebildet, wobei die bekannte Phasenschiebemethode zur Anwendung kommt. Ein Beispiel stellt das Modulare optische 3D-Meßsystem optoTOP der Fa. Breuckmann GmbH in D-88709 Meersburg dar. Weiterhin ist das COMET-500-System der Fa. Steinbichler Optotechnik GmbH in D-83115 Neubeuern zu nennen.Die Firma ABW in D-72636 Frickenhausen bietet programmierbare Linienprojektoren mit bis zu 1280 Linien für das absolut messende Moire-Verfahren an. Projektoren auf LCD-Basis arbeiten noch relativ langsam und der zu beobachtende Streifenkontrast auf dem Objekt ist schlechter als bei Projektoren mit Gitterstrukturen auf Glasplatten.Die Firma Gottfried Frankowski Meßtechnik in D-14513 Teltow bietet die Digitale Lichtprojektion auf der Basis von beleuchteten Mikrospiegeln, Digital Light Mirror Devices, auch als DMD bekannt, an. Es können Gitterbilder mit einer Folgefrequenz von etwa 10 Hz erzeugt und eingelesen werden. Diese Frequenz ist jedoch für die Hochgeschwindigkeits-Bildaufnahme noch nicht ausreichend. Weiterhin werden bei der Messung Flächenelemente gleicher relativer Leuchtdichte innerhalb eines Musters leuchtender Streifen verschoben. Diese Flächenelemente werden nacheinander durch verschiedene beleuchtete Mikrospiegel dargestellt und bilden eine strukturiert leuchtenden Fläche. Die relative Leuchtdichte ist auf die mittlere Leuchtdichte des Umfeldes bezogen. Für die Flächenelemente gleicher relativer Leuchtdichte werden kurze Verschiebungsstrecken, beispielsweise von der Länge von vier oder acht Mikrospiegelabmessungen, realisiert, die einer Streifenperiode in der Ebene des Digital Light Mirror Devices entsprechen. Durch die senkrechte Ausrichtung des Digital Light Mirror Devices zur optischen Achse des Beleuchtungsobjektivs werden die Flächenelemente oder die Orte gleicher Leuchtdichte in einer ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs auf Verschiebungsstrecken verschoben. Dabei entspricht die Verschiebung um einen Streifen einer Änderung der Phase im abgebildeten Streifenfeld um 360°. Dieser Wert ist für die phasenauswertende Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation für die Bestimmung der Punktwolke einer Objektoberfläche geeignet. Jedoch können keine Objekte mit einer in Bezug zur Brennweite des Beleuchtungsobjektivs großen Tiefe vermessen werden, wenn sehr feine Streifen zum Erreichen eines hohen Tiefenauflösungsvermögens abgebildet werden. Der Tiefenmeßbereich ist hierbei durch die Ausdehnung der Öffnungsblende DB des Beleuchtungsobjektivs begrenzt.Um einen großen Schärfentiefebereich bei der Vermessung von tiefen Objekten zu erreichen, wird bei allen genannten Verfahren in der Regel mehr oder weniger stark abgeblendet, sowohl bei der Beleuchtung als auch bei der abbildung der Objektoberfläche. Es wird meistens mit kleinen Objektivöffnungen, beispielsweise mit einer relativen Lichtstärke von 1 : 8 bis 1 : 22 gearbeitet. Dies erfordert starke Lichtquellen, beispielsweise in Form von Blitzlampen oder starken Halogenlampen, oder es ist nur die Ausleuchtung vergleichsweise kleiner Felder möglich, beispielsweise 200 mm × 200 mm bis 500 mm × 500 mm.Auf dem 2. ABW-Workshop 3-DBVITAE vom 25.-26.1.1996 wurde von R. Lampalzer, G. Häusler und Schielzeth auf den Vorteil einer großen Beleuchtungsapertur zur Verringerung des Speckle-Rauschens durch die Gewinnung räumlicher Inkohärenz hingewiesen.In der Vergangenheit kam es durch die Verwendung von zwei Kameras zu Problemen mit der lateralen Genauigkeit bei der Generierung der 3D-Punktwolke. Neue Entwicklungen, beispielsweise von der Firma gom in D-38106 in Braunschweig, führten zu einer Serie von 3D-Sensoren auf der Basis der Projektion von unterschiedlichen Streifenmustern und der Erfassung mit zwei Kameras aus unterschiedlichen Blickwinkeln. Jedoch es bleibt das Problem einer begrenzten Tiefenausdehnung des Meßraumes bestehen, wenn zum Erreichen einer hohen Tiefenauflösung Gitter mit einer kleinen Gitterperiode abgebildet werden.Ein neues Verfahren mit drei Kameras mit parallel angeordneten optischen Achsen und einem geeigneten Basisabstand löst das Problem der Erfassung der 3D-Szene durch die Auswertung stereoskopischer Bilder mittels Hochleistungsrechner, s.VDI-Nachrichten Nr. 21 vom 22. Mai 1998, Seite 15, "Reise in die strahlende Ruine". Diese so gewonnenen 3D-Informationen werden zum Steuern eines Roboters, des Roboter "Pioneer", in der Tschernobyl-Ruine und zur 3D-Erfassung der baulichen Gegebenheiten und des Umfeldes angewendet. Nur mit Hochleistungs-Rechentechnik ist eine echtzeitnahe 3D-Bildrekonstruktion möglich. Das Bauvolumen dieser Anordnung ist durch die drei Kameras vergleichsweise groß.Im Tagungsband "Optische Formerfassung" GMA-Bericht 30, DGZfP - VDINDE-GMA Fachtagung 28./29. April 1997, Langen, Bundesrepublik Deutschland, S. 199-209, wird von den Autoren, R. Schwarte, H. Heinol, z.Xu, J. OIk und W. Tai darauf hingewiesen, daß für die schnelle Formerfassung im ca. 20 cm- bis 50 m-Bereich kein präzises, flexibles und kostengünstiges Verfahren zur Verfügung steht. Diese Aussage gilt besonders für den Bereich von 20 cm bis 2 m, da hier auch die Laufzeitverfahren nur eine Tiefen-Meßgenauigkeit von 2 mm bis 20 mm aufweisen. Die in oben genannter Veröffentlichung dargestellte technische Lösung auf der Basis eines Photomischdetektors PMD wird als gegenwärtig noch nicht geeignet angesehen, im genannten Nahbereich eine hohe Tiefen-Genauigkeit zu realisieren. Auch wird der technische Aufwand z. Z. noch als recht hoch eingeschätzt. Im o. g. Tagungsband "Optische Formerfassung" wird auf den Seiten 211-222, von den Autoren W. Schreiber, V. Kirchner und G. Notni das Konzept für ein selbsteinmessendes, optisches 3D-Meßsystem auf der Basis strukturierter Beleuchtung dargestellt. Es gestattet, ausgehend von der Erfahrungen in der Photogrammetrie, die gleichzeitige Bestimmung von Systemparametern und Koordinaten aus den Meßwerten. Es wird eine hohe Meßgenauigkeit für die Objektkoordinaten mit einem relativen Fehler von bis zu 10-5 erreicht. Dazu muß jedoch eine mehrmalige Meßwertaufnahme erfolgen, wobei Gray-Code-Sequenzen und Streifen mit sinusähnlichem Profil in Verbindung mit Phasenschiebechniken eingesetzt werden. Dies bedeutet einen erheblichen Zeitaufwand für die Durchführung der Messung aufgrund des notwendigen Einsatzes mehrerer Gitter in einer Meßfolge. Auch muß das Objekt, aufeinanderfolgend von mehreren Projektoren, in unterschiedlichen Positionen oder vom gleichen Projektor aus in verschiedenen Richtungen beleuchtet werden. Auch dies ermöglicht keine hochdynamische Messung oder eine echtzeitnahe 3D-Erfassung von Objekten.Die Grundzüge dieses optischen Verfahrens sind unter dem Titel "Optische Dreikoordinatenmessung mit strukturierter Beleuchtung" in Technisches Messen, 62. Jahrgang, Heft 9/1995, S. 321-329 von W. Schreiber, J. Gerber und R. Kowarschik dargestellt. Der Referenzpunkt für das Koordinatensystem liegt dabei im Bereich des Objektes. In Bild 2 dieser letztgenannten Veröffentlichung wird eine Anordnung mit parallelen Achsen für das Beleuchtungs- und das Abbildungsobjektiv und einer zweiseitig zentralperspektivischen Abbildung dargestellt. Jedoch läßt sich abgeschätzen, daß sich hierbei aufgrund des angegebenen Apparates und des mathematischen Modells die Umsetzung der Auswerte-Algorithmen in straight forward-Algorithmen sehr schwierig gestaltet, so daß eine Echtzeit-Auswertung mittels spezieller Hochgeschwindigkeits-Prozessoren auf diesem Weg kaum möglich ist.Da die Kamera und der Projektor räumlich getrennt sind, ist die Realisierung eines kompaktes 3D-Meßmoduls nicht möglich.Die Daimler-Benz Aerospace stellte 1997 die 2. Generation einer Laserkamera auf der Basis der Laufzeitmessung des Lichtes dar. Die Meßgenauigkeit liegt nur bei etwa 2% des Meßbereiches und wird damit für meßtechnische Applikationen im Nahbereich als ungeeignet angesehen. Die Gewinnung der Farbinformation von der Szene gilt hierbei als praktisch ausgeschlossen.In der Arbeit "General approach for the description of optical 3D-measuring system" der Autoren P. Andrä, W. Jüptner, W. Kebbel und W. Osten in SPIE Vol. 3174, S. 207-215 wird eine allgemeine Beschreibung optischer Methoden für die 3D-Koordinatenmessung gegeben. Die Ableitung von geeigneten Algorithmen für die Hochgeschwindigkeitsauswertung von Bildserien für die 3D-Messung ist hierbei nicht gegeben, stellte aber auch nicht das Ziel dieser Arbeit dar.Eine 3D-Echtzeitkamera wurde im Poster P28 der 99. Tagung der Deutschen Gesellschaft für angewandte Optik vom 2.6. bis 6.6.1998 in Bad Nenndorf von G. Bohn, L. Cloutot, G. Häusler, M. Hernandez, C. Horneber, R. Lampalzer, S. Seeger unter Einsatz eines ferroelektrischen Displays vorgestellt. Dieses ferroelektrische Display ist in 0,1 ms umschaltbar und wird in Verbindung mit einer astigmatischen Abbildung zur Generierung von sinusförmigen Streifen fester Ortsfrequenz verwendet. Die Meßzeit des Prototypen beträgt zur Zeit 320 ms. Eine absolute Kodierung des Raumes mittels strukturiertem Licht ist damit bisher jedoch nicht möglich. Die erreichbare Genauigkeit ist gegenwärtig auf etwa 1/2000 des Meßbereiches begrenzt.In der Patentschrift WO9214118 wird eine 3D-Meßanordnung beschrieben, die als "konfokal" bezeichnet wird, die den Kontrast eines auf die Objektoberfläche projizierten Streifenmusters auswertet. Dabei werden sowohl das Beleuchtungs- als auch das Abbildungsobjektiv oder ein gemeinsames Objektiv jeweils auf die gleiche Ebene im Raum des Objektes fokussiert. Es ist jedoch keine Möglichkeit angegeben, für Objektabstände im Dezimeter- und im Meterbereich eine hohe Genauigkeit zu erzielen. Mit der Auswertung des Kontrastes des projizierten Streifenmusters läßt sich bei mittleren und großen Objektabständen mit handelsüblichen Projektionsobjektiven mit einem Öffnungsblendendurchmesser von bis zu 30 mmbekannterweise keine hohe Genauigkeit in der Tiefe erreichen. Dabei wird ein beleuchtetes Transmissionsgitters auf einer Verschiebungsstrecke, beispielsweise von der Länge von einigen Millimetern verschoben. Dies erfolgt in Richtung parallel zur optischen Achse des Beleuchtungsobjektivs, um die Lage der Schärfefläche im Raum des Objektes zu verändern, im Sinne eines Scannens. Dadurch ändert sich auch die Streifenbreite im abgebildeten Streifenfeld. Zusätzlich wird durch einen Piezo-Aktuator, der mit dem beleuchteten Gitter verbunden ist, das beleuchtete Gitter in Schritten der halben Gitterkonstante gestellt. So detektieren die Elemente eines Bildempfängers, die zu diesen Gitterelementen optische konjugiert liegen, eine Hell-Dunkel-Verteilung. Die Größe der Amplitude des entstehenden Signals wird zur Bestimmung der Kontrastfunktion benutzt. Das Bestimmung des Ortes des Maximums der Kontrastfunktion über der z-Position des beleuchteten Gitters dient der Bestimmung der z-Position eines jeden Objektpunktes. Diese Methode der Bestimmung der z-Position von Objektpunkten für die Gewinnung der Punktwolke ermöglicht jedoch keine sehr hohe Tiefenauflösung.Zur Verbesserung der lateralen Auflösung bei der Abbildung der Objektoberfläche kann gemäß der Patentschrift WO 92 14 118 der Empfänger als Zeilen- oder Matrix-Empfänger auch in Schritten unterhalb des mittleren Bildelementabstandes, also des Pixel Pitch', lateral bewegt werden. Dies ist keine mit der Verschiebung des Bildempfängers in z-Richtung, also in achsparalleler Richtung, gekoppelte Bewegung. Die laterale Bewegung wird allein mit dem Ziel durchgeführt, die laterale Auflösung bei der Aufnahme der Objektoberflächen zu erhöhen.Allgemein läßt sich feststellen, daß in der phasenauswertenden Streifenprojektionsmeßtechnik auf der Grundlage der Triangulation stets die Öffnungsblende oder die Pupille des Beleuchtunggsobjektivs von der Öffnungsblende oder Pupille des Abbildungsobjektivs räumlich getrennt ist. Die Öffnungsblende mit einem Zentrum kann im Objektraum des körperlich vorhanden sein oder als Bild der Öffnungsblende. Das Bild der Öffnungsblende wird als Pupille bezeichnet. Der Abstand d der Blenden- oder Pupillenzentren im Raum des Objektes kann 5 mm, aber auch durchaus auch einen Meter betragen.Es sind Arrays mit vertikal abstrahlenden Laserdioden bekannt geworden, die als ein adressierbares, strukturiert leuchtendes Array anzusehen sind. Die Elemente, hier die vertikal abstrahlenden Laserdioden, sind einzeln elektronisch in ihrer Leuchtdichte, bzw. Helligkeit steuerbar. 3. Mit der Erfindung gelöste AufgabeDie Erfindung löst die Aufgabe der flächenhaften Prüfung der 3D-Gestalt technischer und natürlicher Oberflächen von Objekten im Raum und Szenen mit einem absoluten Bezug zur 3D-Aufnahme-Anordnung. Die Gestalt von Objektoberflächen in einer Szene kann mit hoher Meßgenauigkeit in der Tiefe und mit hoher Geschwindigkeit gemessen werden.Weiterhin wird die benötigte Lichtleistung für die Ausleuchtung von Objektoberflächen in einer Szene zum Teil stark reduziert, bzw. es kann die Bildaufnahmefrequenz bei hoher Lichtleistung erhöht werden. Durch das Auswerteverfahren wird eine hohe Auflösung der effektiven Wellenlänge in der Tiefe erreichbar.Technisch wird die Prüfung der Oberflächengestalt von Werkstücken des Maschinenbaus, des Fahrzeugbaus und auch der Luft- und Raumfahrt weiter verbessert. Damit ist die Applikation in der automatisierten Produktion, in der Robotik, im Bauwesen, in der Medizin, beispielsweise bei der geometrischen Vermessung von Menschen, biologischen Objekten und auch im künstlerischen Bereich bei Plastiken oder Stuckwerken gegeben.Weiterhin wird die Aufgabe der Hohlraum- und der Innenraum-Inspektion gelöst. Labyrinthe in unterschiedlicher Größe und auch verstrahlte oder kontaminierte Innenräume, die dem Menschen aufgrund von ernsthaften gesundheitlichen Gefahren oder aufgrund der geringen Abmessungen nicht zugänglich sind, können durch Roboter begangen werden, die mit einer oder mehreren 3D-Aufnahme-Anordnungen ausgerüstet sind. Dabei kann es sich um rollende, schreitende, saugende, schwimmende, fliegende, kriechende und krabbelnde Roboter handeln. Auch ist der Unterwassereinsatz für die Schiffswrack-Inspektion mit der 3D-Aufnahme-Anordnung grundsätzlich möglich.Auch die elektronische Unterstützung von sehbehinderten Menschen zur Orientierung im Raum ist mit einer miniaturisierten 3D-Aufnahme-Anordnung möglich.Bei Recyclingprozessen ist eine Möglichkeit der automatisierten Demontage von Altgeräten, alten Karosserien sowie die Trennung von Abfallprodukten auch in einer für den Menschen gefährlichen Umgebung gegeben.Das unterschiedliche Reflexionsvermögen von technischen Oberflächen, welches beispielsweise durch eine ausgeprägte Textur verursacht wird, kann kompensiert werden.Die Erfindung ermöglicht das schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen durch aktive Beleuchtung mittels strukturiertem Licht und die schnelle, praktisch gleichzeitige Erfassung von selbstleuchtenden oder künstlich oder natürlich beleuchteten Objekten und Szenen mittels einer einzigen 3D-Aufnahme-Anordnung. Die schnelle und kontinuierliche Erfassen der Punktwolke von Objekten und Szenen kann bei Verwendung geeigneter Hardware und Software im Videotakt erfolgen. 4. Erreichte Verbesserungen und Vorteile gegenüber dem Stand der TechnikDie Erfindung ermöglicht die schnelle Erfassung und Prüfung der 3D-Gestalt von Körpern in Szenen mit großer Tiefenausdehnung in Bezug zu deren Ausdehnung, vorzugsweise mit Abmessungen im Bereich oberhalb eines Millimeters.Die Beleuchtung des Objektes erfolgt unter einem vergleichsweise geringen Triangulationswinkel, beispielsweise um 10° oder kleiner. Die bei der Erfassung räumlicher Strukturen störenden Lichtschatten aufgrund eines relativ großen Triangulationswinkels von 30° bis beispielsweise 60° werden so weitgehend vermieden. Der in seiner 3D-Form zu erfassende Körper oder die gesamte Szene stehen vorzugsweise senkrecht zur optischen Achse des Aufnahmeobjektivs. Das ermöglicht, aufgrund der optimalen Abbildungsbedingungen eine hohe laterale Auflösung und den Einsatz tomographischer oder tiefenscannender Verfahren. Die 3D-Punktwolke besitzt einen absoluten geometrischen Bezug zu einem Nullpunkt der 3D-Aufnahme-Anordnung.Außerdem können nichttechnische Objekte in ihrer räumlichen Struktur erfaßt werden, wobei der Raum, in welchem sich die Objekte befinden, in unterschiedlichen Tiefen zeitlich nacheinander strukturiert beleuchtet wird. Bei entsprechend hoher Dynamik der für die 3D-Aufnahme eingesetzten Komponenten können auch sich bewegende Objekte und Szenen, einschließlich Personen und Tiere, aufgenommen werden. Dabei sind grundsätzlich mehrere 3D-Aufnahme-Anordnungen gleichzeitig einsetzbar, und es kann die Farbe der Objektpunkte bei Verwendung von farbtüchtigen Bildaufnehmern verarbeitet werden. Eine weitere Verbesserung stellt die deutliche Erhöhung der Auswertegeschwindigkeit bei der 3D-Erfassung dar. Es besteht die technische Möglichkeit, die 3D-Punktwolke des Objektes oder der Szene im Video-Takt zur Verfügung zu stellen.Die Anwendung der Erfindung ermöglicht die nahezu vollständige Ausnutzung der hohen Leistungsfähigkeit optischer Abbildungsysteme für die Prüfung der 3D-Oberflächengestalt. Die Realisierung einer hohen Beleuchtungsapertur sichert ein geringes Speckle-Rauschen in den Pixeln der Kamera.Andererseits können komplette Szenen mit bewegten Objekten echtzeitnah als 3D-Szenen aufgenommen werden. Die Grenze für das erfaßbare Volumen stellt die verfügbare Lichtenergie, die Lichtstärke der verwendeten Objektive sowie die photometrische Empfindlichkeit der verwendeten Bildempfänger dar. Der in der Tiefe erfaßbare Raum kann bei geeigneter Beleuchtung durchaus bis zu 20 m betragen. Die Begrenzung erfolgt letztlich durch das Signal-Rausch-Verhältnis im Lichtempfänger bzw. im Bildempfänger.Durch die zusätzliche Erfassung von selbstleuchtenden Objekten und Szenen, beispielsweise im Hintergrund eines künstlich beleuchteten Objektes, können Objektoberflächen in einer Szene von einem Nahpunkt bis zur Unendlich-Position in einem Aufnahmevorgang in Echtzeit und in Farbe aufgenommen werden, wobei die 3D-Daten als Punktwolke berechnet werden können, so daß ein 3D-Datensatz zur Verfügung steht. 5. Grundzüge des LösungswegesEs werden die Grundzüge des Verfahrens und der Anordnung beschrieben. Mittels einer transmissiven oder reflektierenden, gerasterten Struktur mit mehreren Maxima und Minima der Transmission oder Reflexion und einer Strahlungsquelle wird ein strukturiert leuchtendes Array mit lokalen Extrema der Leuchtdichte erzeugt. Diese gerasterte Struktur wird im weiteren als strukturiert leuchtendes Array bezeichnet. Dem strukturiert leuchtenden Array ist mindestens ein möglichst hochgeöffnetes Beleuchtungsobjektiv mit einer positiven Brennweite zu dessen Abbildung nachgeordnet. So entsteht durch die Abbildung des strukturiert leuchtenden Arrays im Objektraum auf dessen Oberfläche eine strukturierte Beleuchtung.Grundsätzlich kann das strukturiert leuchtende Array auch selbstleuchtend sein und lokale Extrema der Leuchtdichte aufweisen.Zu dem erfinderischem Zweck ist bei der Abbildung des strukturiert leuchtenden Arrays in die Tiefe des Objektraumes eine möglichst geringe Ausdehnung des Schärfebereiches realisiert, so daß die räumlich strukturierte Beleuchtung sich mehr in einem scheibenförmigen Volumen befindet. Zum Beleuchtungsobjektiv ist mindestens ein Objektiv zur Abbildung des Objektes oder der Szenen, das Abbildungsobjektiv angeordnet. Beleuchtungs- und Abbildungsobjektiv sind vorzugsweise von gleicher Bauart und weisen somit auch die gleiche Brennweite auf. Auch fallen die Brennebenen der beiden Objektive im Objektraum vorzugsweise zusammen und die beiden Objektive sind vorzugsweise in geringem Abstand voneinander angeordnet mit vorzugsweise parallelen Achsen. Gegebenfalls können die Linsen sogar in einem gemeinsamen Gehäuse untergebracht sein.Die Objektive weisen vorteilhafterweise ein großes Bildfeld auf. Das Objektiv sollte jeweils in einem großen Tiefenbereich gut korrigiert sein. Durch die Koinzidenz der Brennebenen im Objektraum können die Objektive stets auf die gleiche Objekt- und Bildebene eingestellt werden und bilden dann durch den geringen Abstand der Objektivachsen in einem Bereich, vorzugsweise mit einem Abstand deutlich unterhalb des einhundertfachen Pupillendurchmessers des Beleuchtungsobjektivs - typisch ist der dreifache bis zehnfache Pupillendurchmesser - zumindest einen identischen Teil des Objektfeldes im Objektraum, in der Regel verkleinernd, in den Array-Raum ab. In diesem Raum bestehen getrennte Bildfelder, jedoch in einer vorzugsweise gemeinsamen Ebene, die vorzugsweise senkrecht auf der optischen Achse steht. Die Schärfeflächen der beiden Objektive im Objektraum fallen vorzugsweise in einem möglichst großen Bereich zusammen.Das Abbildungsobjektiv weist im Array-Raum einen vorzugsweise telezentrischen Strahlengang im strengen Sinne auf, d. h. die Austrittspupille liegt sehr weit vom Objektiv entfernt, beispielsweise um 100 m. Dagegen fallen objektseitig der Brennpunkt und das Zentrum der Eintrittspupille zusammen. Das Beleuchtungsobjektiv weist im Array-Raum vorzugsweise einen ebenfalls gut korrigierten telezentrischen Strahlengang auf. Es ist jedoch auch grundsätzlich möglich, daß dieses Beleuchtungsobjektiv im Array-Raum einen parallelen Strahlengang mit einer dezentrierten Eintrittspupille aufweist.In der Bildebene des Abbildungsobjektivs ist ein weiteres Array, das Empfänger-Array angeordnet. Auch dieses Array befindet sich vorzugsweise in einem telezentrischen Strahlengang. Dieses Empfänger-Array kann ein gerasterter Bildempfänger, beispielsweise eine Empfänger-Matrix oder aber auch ein mikrooptisches Array sein. Das mikrooptische Array in der Bildebene des Beleuchtungsobjektivs ist vorzugsweise ein Mikrolinsen-Array aus diffraktiven oder refraktiven Elementen.Die Telezentrie des Abbildungsobjektiv im Array-Raum sichert, daß beim Bewegen des Empfänger-Arrays parallel zur Achse des Abbildungsobjektivs, also in der üblichen Notation in z-Richtung - hier die zA-Richtung, die Abbildungsstrahlen eine feste Position zu den Elementen des Empfänger-Arrays beibehalten, also die Abbildungsstrahlen nicht lateral auswandern. Im Objektraum weisen das Beleuchtungs- und das Abbildungsobjektiv dagegen einen vorzugsweise zentralperspektivischen Strahlengang auf, um einen großen Raumbereich erfassen zu können.Im Fall der Verwendung eines Mikrolinsen-Arrays im Abbildungsstrahlengang als Empfänger-Array sind dem Mikrolinsen-Array weitere Komponenten, beispielsweise ein Bildempfänger, nachgeordnet.Durch das gemeinsame Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays mittels eines Bewegungs-Systems, parallel zur optischen Achsen des Beleuchtungsobjektivs, also in der zA-Richtung, werden nach und nach alle Bereiche des Objektes oder der Szene in der Tiefe in der jeweiligen Schärfefläche beleuchtet und abgebildet. Dabei ist das Bewegungssystem vorzugsweise als translatorisch arbeitendes Bewegungssystem ausgeführt. Es entsteht eine strukturierte Beleuchtung in jeweils genau der Ebene des Objektes oder der Szene durch die Abbildung des strukturiert leuchtenden Arrays, welche durch das Abbildungsobjektiv scharf auf das Empfänger-Array abgebildet wird. Durch die Anpassung der Leuchtdichte der Strahlungsquelle an die jeweilige Entfernung der Schärfefläche von der 3D-Aufnahme-Anordnung wird die bekannte Abnahme der Beleuchtungsstärke auf der Objektoberfläche in Abhängigkeit von deren Entfernung ausgeglichen.Dabei wird das folgende Bewegungsregime für das strukturiert leuchtende Array und das Empfänger-Array realisiert: Die Beträge der Bewegung der beiden Arrays parallel zur optischen Achse des Beleuchtungs- und des Abbildungsobjektivs, die zA-Richtung, sind bei einem Beleuchtungs- und Abbildungsobjektiv mit gleicher Brennweite gleich.Das strukturiert leuchtende Array führt mittels einer Linearführung zusätzlich und vorzugsweise zeitgleich zur Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs eine laterale Bewegung aus, also senkrecht zur optischen Achse des Beleuchtungsobjektivs.Bei einem elektronisch steuerbaren strukturiert leuchtenden Array erfolgt die laterale Verschiebung der Elemente gleicher Leuchtdichte, bzw. die Verschiebung der Orte der lokalen Extrema der Leuchtdichte vorzugsweise zeitgleich zu der Bewegung parallel zur optischen Achse des Beleuchtungsobjektivs durch eine elektronische Steuerung der Transmission, der Reflexion - oder der Leuchtdichte bei einem selbstleuchtenden Array - jeweils in den Elementen des Arrays. Auf dem elektronisch steuerbaren Array, welches ein elektronisch steuerbares Liniengitter darstellen kann, werden die lokalen Extrema der Leuchtdichte durch lokale Extrema der Transmission, der Reflexion - oder durch eine direkte Steuerung der Leuchtdichteverteilung bei einem selbstleuchtenden Array - erzeugt.Für die Gitterelemente oder die Elemente gleicher Leuchtdichte, bzw. die Orte der lokalen Extrema der Leuchtdichte des strukturiert leuchtenden Arrays, bzw. auch der Orte gleicher Phase der Leuchtdichtverteilung wird so eine lineare Bewegung erzeugt, die parallel zu einer Geraden gA ausgerichtet ist. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist, die beispielsweise in dessen Brennebene im Array-Raum liegt.Im Fall der parallelen Lage der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv entspricht der Abstand der beiden Achsen von Beleuchtungs- und Abbildungsobjektiv dem Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs.Die Gerade gA schneidet - bei einer gegebenen Anordnung mit zwei parallelen Achsen von Beleuchtungs- und Abbildungsobjektiv und zusammenfallenden Brenn- und Hauptebenen der beiden Objektive - stets sowohl den Brennpunkt des Beleuchtungsobjektivs auf der Seite des strukturiert leuchtenden Arrays als auch auf der gleichen Seite des Arrays den Hauptpunkt des Abbildungsobjektivs. Punkte entlang dieser Geraden werden in diesem Fall auf eine zur Objektivachse des Beleuchtungsobjektivs parallele Gerade gO abgebildet.Die Bilder der zur Geraden gA parallelen Geraden, welche die Orte der Elemente des strukturiert leuchtenden Arrays enthalten, bilden im Objektraum mit der Geraden gO ein Geradenbündel, wobei der Schnittpunkt aller Geraden dieses Bündels bei der beschriebenen Anordnung stets im Brennpunkt des Abbildungsobjektivs im Objektraum liegen soll. Gleichzeitig schneiden alle Abbildungsstrahlen des Abbildungsobjektivs bei Telezentrie im Array-Raum ebenfalls den Brennpunkt des Abbildungsobjektiv im Objektraum und bilden so ein Strahlenbündel. Die Geraden des Geradenbündels und die Strahlen des Strahlenbündels koinzidieren. So detektieren, bei einer achssenkrechten Objektoberfläche im Array-Raum und einer Bewegung des strukturiert leuchtenden Arrays in Richtung der Geraden gA die zu den jeweiligen Abbildungsstrahlen gehörenden Bildpunkte auf dem Empfänger-Array jeweils den gleichen Betrag der Phasenverschiebung. Diese Phasenverschiebung entspricht der Verschiebung von leuchtenden Flächenelementen des strukturiert leuchtenden Arrays oder der Verschiebung der Leuchtdichteverteilung auf dem strukturiert leuchtenden Array. Ein paralleles Verschieben dieser Objektoberfläche führt zum gleichen Betrag der Phasenverschiebung in den Signalen, die in allen Bildpunkten detektiert werden können. Dies bedeutet, daß die Tiefenempfindlichkeit der beschriebenen 3D-Aufnahme-Anordnung in einer achssenkrechten Ebene im Objektraum eine Konstante ist, also keine laterale Abhängigkeit aufweist. Die Tiefenempfindlichkeit kann durch die effektive Wellenlänge der 3D-Aufnahme-Anordnung beschrieben werden. Die effektive Wellenlänge wird hier als der Betrag der Verschiebung Δz2 π eines Objektpunktes auf einem Abbildungsstrahl definiert, bei dem sich die Phase genau um 2π im selben Abbildungsstrahl verändert hat, mit zOB als der zur Achse des Beleuchtungsobjektivs parallelen Koordinate im Objektraum.Auf der Grundlage der in einer achssenkrechten Ebene konstanten Tiefenempfindlichkeit wird die Weiterverarbeitung von errechneten Phasenwerten zur 3D-Punktwolke stark vereinfacht. In diesem Fall können die Berechnungen besonders schnell erfolgen. Es können straight forward-Algorithmen zur Anwendung kommen. Eine Anordnung mit zwei starr angeordneten Objektiven ist technisch mit großer Genauigkeit bezüglich der Parallelität der Achsen und der Lage der Brennebenen realisierbar und auch vergleichsweise wirtschaftlich herstellbar und wird deshalb zunächst vorzugsweise dargestellt.Die 3D-Aufnahme-Anordnung kann jedoch auch wie folgt aufgebaut sein: Dem strukturiert leuchtenden Array ist ein Beleuchtungsobjektiv zum Zweck der Abbildung zugeordnet, wobei das strukturiert leuchtende Array schiefwinklig zur Achse des Beleuchtungsobjektivs bewegbar ist. Die geradlinige Bewegungsrichtung des strukturiert leuchtenden Arrays definiert die Lage einer Geraden gA und ist zur Lage der Achse des Beleuchtungsobjektivs konstruktiv unveränderlich gemacht. Die Anordnung ist so aufgebaut, daß die Gerade gA möglichst genau den Brennpunkt im Raum des Arrays sowie die Hauptebene des Beleuchtungsobjektivs in einer endlichen Entfernung von dessen optischer Achse schneidet, nämlich dort, wo die Achse des Abbildungsobjektivs liegen soll. Die reale oder gedankliche Abbildung der Geraden gA durch das Beleuchtungsobjektiv in den Objektraum erzeugt die zur Achse des Beleuchtungsobjektivs parallele Gerade gO. Diese Geraden gO durchstößt die Brennebene des Beleuchtungsobjektivs im Objektraum. Der objektseitige Brennpunkt des Abbildungsobjektivs ist in den Durchstoßpunkt der Geraden gO durch die Brennebene des Beleuchtungsobjektivs möglichst genau einjustiert, wobei die Achse des Abbildungsobjektivs vorzugsweise parallel zur Achse des Beleuchtungsobjektivs ausgerichtet ist, so daß die Achse des Abbildungsobjektivs mit der Lage der Geraden gO zusammenfällt. Die Gerade gA weist so, mehr oder weniger gut angenähert, den Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf, wobei dieser Anstieg auf eine senkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist.Das Bewegungsregime für die 3D-Aufnahme-Anordnung ist zum einen durch ein System mit zwei Linearführungen realisierbar, deren Achsen vorzugsweise senkrecht zueinander ausgerichtet sind. Die bewegten Komponenten dieser Linearführungen, auch als Schlitten bezeichnet, sind unabhängig voneinander in den Linearbewegungen steuerbar. Eine Miniaturisierung dieser Komponenten ist möglich. Es können lineare Direktantriebe verwendet werden, beispielsweise elektrodynamische Tauchspulsysteme oder Linearmotore. Die Bewegungsrichtung der bewegten Komponente der ersten Linearführung ist parallel zur Richtung der optischen Achse, der zA-Koordinate, die der Bewegungskomponente der zweiten Linearführung in einer dazu achssenkrechten Richtung, der xA -Richtung. Diese beiden Linearführungen erzeugen so die Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA. Dabei ist das Empfänger-Array der ersten Linearführung zugeordnet, die in Richtung der optischen Achse arbeitet. Der Schlitten der ersten Linearführung trägt also das Empfänger-Array und vorzugsweise die zweite Linearführung und der Schlitten dieser zweiten Linearführung das strukturiert leuchtende Array.Andererseits kann auch eine einzige Linearführung mit einem Schlitten, der gleichzeitig auf diesem Schlitten das strukturiert leuchtende Array und das Empfänger-Array trägt, eingesetzt werden. Die Bewegungsrichtung dieses Schlittens ist parallel zur Geraden gA - also nicht achssenkrecht, sondern schiefwinklig zu den Objektivachsen. Im letztgenannten Fall gibt es jedoch, entsprechend der Schlittenbewegung, auf dem Empfänger-Array eine Verschiebung des Bildes zu den Pixeln des Empfänger-Arrays. Diese Verschiebung kann im Bildauswerte-Algorithmus pixelweise zurückgerechnet werden. Eine hohe Rechengeschwindigkeit ist dann erreichbar, wenn die Schlittenbewegung und die Aufnahme von Bildern synchronisiert sind und Bilder in Abhängigkeit von der Schlittenposition nur dann aufgenommen werden, wenn die aufgetretene Verschiebung des Bildes auf dem Empfänger-Arrays jeweils mindestens ein ganzes Pixel oder ein davon ganzzahliges Vielfaches beträgt. Die Ablage der Bilddaten im Datensatz erfolgt stets unter Berücksichtigung der aufgetretenen Bildverschiebung, so daß im Ergebnis eine Kompensation der Verschiebung des Bildes mit Hilfe numerischer Methoden erfolgt ist. So wird beispielsweise ein bestimmter realer Abbildungsstrahl im Objektraum durch die Zuordnung der abgelegten Daten im Bilddaten-Satz verfolgt, der aus mehreren Schichten, beziehungsweise Datenfeldern besteht. Jede Schicht entspricht dabei einem aufgenommenen Bild. So bleibt ein realer Abbildungsstrahl, der von einem bestimmten Element des strukturiert leuchtenden Arrays ausgeht, im gesamten Bewegungsvorgang der beiden Arrays stets einem Element mit gleichen Indizes, also gleicher Position, in jeder Schicht oder jedem Datenfeld des gesamten Bilddatensatzes zugeordnet.Damit sich bei dem Verfahren mit nur einer Linearführung die effektiv erfaßte Objektbreite durch die laterale Verschiebung des Empfänger-Arrays nicht verringert, wird in Abhängigkeit von der Verschiebungslänge ein längeres Empfänger-Array eingesetzt. Die zusätzlich benötigte Länge des Empfänger-Arrays ist allein von der Anzahl der aufgenommenen Bilder pro Bewegungsvorgang des Schlittens, auch als Scan bezeichnet, abhängig.Bei einem Bewegungs-System mit zwei Linearführungen wird wie folgt vorgegangen: Die laterale und lineare Bewegung des strukturiert leuchtenden Arrays erfolgt mittels des Schlittens der zweiten Linearführung und beginnt vorzugsweise an einem hochstabilen Nullpunkt. Das strukturiert leuchtende Array kann ein beleuchtetes Liniengitter darstellen, dessen Translation durch ein hochgenaues Längenmeßsystem erfaßt werden kann. Vorzugsweise wird die Gitterbewegung jedoch hochgenau mittels eines zweiten Liniengitters phasenmäßig erfaßt, so daß die auf den Nullpunkt bezogene absolute Gitterphase auch in Bruchteilen von 2π bekannt ist. Hochauflösende Interpolationstechniken sind aus der inkrementalen Längenmeßtechnik bekannt. Damit kann die Gitterphase selbst die Referenz für das Abtasten der von der Objektoberfläche aus dem Objektraum aufgenommenen optischen Signale darstellen. So kann die Phase dieser Signale hochgenau bestimmt werden. Das ist sehr wesentlich, da in der Phase der optischen Signale in Verbindung mit den Geometrie-Parametern der Anordnung die Information über die jeweilige Objektposition enthalten ist.Die Fläche des Empfänger-Arrays befindet sich bei Objektiven gleicher Bauart vorzugsweise in der gleichen Ebene wie die Fläche des strukturiert leuchtenden Arrays. Außerdem führt das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, durch das Bewegungssystem oder bei einem elektronisch steuerbaren Array die lokalen Extrema der Leuchtdichte führen zusätzlich zur Bewegung in der Tiefe eine laterale Bewegung aus, so daß als resultierende Bewegung des Liniengitters oder der lokalen Extrema der Leuchtdichte eine lineare Bewegung parallel zu der bereits genannten Geraden gA erfolgt. Durch diese Bewegung ändert sich die Phase eines Signals, welches im Bildpunkt eines Objektpunktes beobachtet werden kann.Andererseits wird durch dieses Bewegungsregime, die Geometrie der Anordnung und die Telezentrie der Objektive im Array-Raum erreicht, daß ein Beleuchtungsstrahl eines leuchtenden Elementes einer bestimmten Phase und ein Abbildungsstrahl, die sich in einer beliebigen Schärfefläche schneiden, sich in allen Schärfeflächen schneiden. So ist auch gegeben, daß beim Bewegen der beiden Arrays die Bilder der leuchtenden Elemente gleicher Phase und die der empfangenden Elemente der beiden Arrays bei einer idealen Anordnung im gesamten Objektraum stets zusammenfallen. Dabei sind Objektive mit geringer Verzeichnung und sehr geringen Fehlern und eine möglichst geringe Brennweitendifferenz der beiden Objektive und eine möglichst präzise Justierung grundsätzlich von Vorteil und reduzieren den numerischen Korrekturaufwand erheblich. Die Abweichungen vom Idealzustand können innerhalb gewisser Grenzen toleriert werden.Durch die Bewegung des Liniengitters parallel zur Geraden gA und die "feste Kopplung der Schärfeflächen" der beiden Objektive im Objektraum zu einer gemeinsamen Schärfefläche erfolgt das "Mitführen der Phase im Abbildungsstrahl". Dies bedeutet, die Phase bleibt in jedem Abbildungsstrahl konstant, der von einem in der gemeinsamen Schärfefläche mitbewegten Punkt der Objektoberfläche in das Abbildungsobjektiv gelangt, auch wenn sich die Lage dieser Schärfefläche in der Tiefe des Array-Raums ändert. Ein gedachter, im Abbildungsstrahl in der Schärfefläche stetig mitlaufender Objektpunkt würde demzufolge beim Bewegen des Liniengitters keine Phasenänderung im detektierbaren Signal erfahren, da beispielsweise immer der gleiche Ausschnitt des Streifens im zum Abbildungsstrahl zugehörigen Bildpunkt detektiert wird.Dagegen ist im Bildpunkt eines feststehenden Objektpunktes beim Bewegen des beleuchteten Liniengitters stets ein periodisches Signal zu beobachten. In diesem periodischen Signal selbst und durch seine Lage in Bezug auf die Phase des beleuchteten Liniengitters ist die Information über die aktuelle zOB-Position dieses Objektpunktes im Objektraum eindeutig enthalten.Das Ziel besteht darin, durch das Variieren der Lage der Schärfeflächen in der Tiefe bis zu jedem Objektpunkt und einen kleinen Betrag darüber hinaus, um das Signal auch im Umfeld des Objektpunktes erfassen zu können, die Objektphase jeder zu einem Objektpunkt zugehörigen achssenkrechten Ebene zu bestimmen. Dies wird durch die Detektion eines modulierten periodischen Signals mit einem Modulationsmaximum in jedem abgebildeten Objektpunkt, also im zugehörigen Bildpunkt, erreicht. Das periodische Signal entsteht beim Durchgang der beiden koinzidierenden Schärfeflächen durch die Ebene des jeweiligen Objektpunktes und das Modulationsmaximum entspricht der Lage der koinzidierenden Schärfeflächen. Eine gewisse Abweichung von der Koinzidenz der Schärfeflächen führt zu einer effektiven Schärfefläche und ist innerhalb gewisser Grenzen tolerierbar. Es tritt eine Verringerung des Modulationsmaximums im detektierten Signal auf.Es ist möglich, die Kopplung der Schärfeflächen der beiden Objektive im Objektraum so auszuführen, daß sich ein bestimmter Phasenwert in Bezug auf das Modulationsmaximum im beobachteten Signal durch das laterale Feinjustieren des strukturiert leuchtenden Arrays, bzw. des beleuchteten Liniengitters, ergibt.Das periodische Signal wird in den Bildpunkten vorzugsweise in Schritten konstanter Phasenänderung abgetastet. Schritte konstanter Phasenänderung entstehen im Objektraum durch konstante Schritte eines bewegten Liniengitters, welches ein beleuchtetes Liniengitter mit konstanter Gitterperiode darstellt, im Array-Raum. Unter Array-Raum wird immer der Raum verstanden, wo sich das Empfänger-Array und das strukturiert leuchtende Array, hier das beleuchtete Liniengitter, befinden.Es wird davon ausgegangen, daß die zOB-Position als Abstand von der Brennebene des Beleuchtungsobjektivs im Raum des Objekts jeder achssenkrechten Ebene im Objektraum durch eine lateral invariante, absolute Objektphase ϕObj beschrieben werden kann, so daß es achssenkrechte Ebenen konstanter Phase im Objektraum gibt.Die lateral invariante, absolute Objektphase ϕObj in einem Punkt des Objektes ist nur von der Position ZObj desselben und der Geometrie der optischen Anordnung abhängig und besitzt deshalb bei idealen Abbildungsverhältnissen und Justierungen grundsätzlich keine laterale Abhängigkeit. Im weiteren wird in der Regel von der Objektphase ϕObj gesprochen. Die Geometrie der optischen Anordnung ist durch die Brennweite fB des Beleuchtungsobjektivs, den Abstand d der beiden zueinander parallelen Objektivachsen und die Gitterkonstante p des strukturiert leuchtenden Arrays, hier ein Liniengitter, beschrieben. Die Gerade gO, das Bild der Geraden gA, fällt mit der Achse des Abbildungsobjektivs zusammen, so daß die Größe d auch den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs beschreibt.Es wird von folgendem Geometrie-Modell ausgegangen: Die lateral invariante, absolute Objektphase ϕObj für eine achssenkrechte Ebene mit dem Abstand zOB entspricht immer der Anzahl der Streifenordnungen zuzüglich der beiden Streifenbruchteile, die auf der Strecke zwischen einem Punkt dieser Ebene auf der optischen Achse des Abbildungsobjektivs und einem Punkt dieser Ebene auf der Geraden gO liegen.Im Unendlichen ist deshalb die Objektphase wegen der unendlichen Streifenbreite null und in der Brennebene des Objektraumes nähert sich die Objektphase aufgrund des Streifenabstandes null dem Unendlichen an. Die Objektphase ϕObj weist bei der gewählten Notation in der Regel negative Werte auf. Für (-)zOB = fB wird die Objektphase ϕObj = ϕfB und es gilt
mit d als dem Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier auch dem Abstand der parallelen Achsen der beiden Objektive voneinander und mit p als der Gitterkonstanten des beleuchteten Liniengitters, welches als strukturiert leuchtendes Array verwendet wird.Mit einer ebenen und achssenkrechten Referenzplatte kann im Objektraum die Objektphase als die Anzahl der Streifenordnungen zwischen der Geraden gO und der Achse des Beleuchtungsobjektivs, beziehungsweise hier zwischen den beiden optischen Achsen, durch Auszählen von Streifen oder genauer mittels bekannter Phasenschiebetechnik ermittelt werden. Das Problem stellt hier zunächst die Kenntnis der genauen Lage der beiden optischen Achsen in der Anordnung dar. Die hochgenaue Bestimmung der Streifenanzahl zwischen den optischen Achsen kann beim parallelen Verschieben der Referenzplatte in mehreren Schritten - sowohl als Justierkriterium für die Kontrolle der Abweichung von der Parallelität der optischen Achsen der beiden Objektive als auch der achssenkrechten Lage der Referenzplatte - genutzt werden. Bei einer eingemessenen Anordnung mit bekannter Lage der optischen Achsen bzgl. des Sender- und Empfänger-Arrays kann die Referenzphase so auf experimentellem Weg bestimmt werden.Um entlang eines Abbildungsstrahls die zOB-Koordinate eines Objektpunktes zObj zu erhalten, ist in jedem Objektpunkt die lateral invariante, absolute Objektphase ϕObj zu bestimmen, die im weiteren als Objektphase bezeichnet wird. Ein Abbildungsstrahl soll hier im Modell jeweils genau auf ein Pixel der lateral feststehenden Empfängerfläche treffen.Die Objektphase ϕObj eines Objektpunktes wird in Bezug auf eine Referenzfläche bestimmt. Die absolute, lateral invariante Phase der Referenzfläche, die Referenzphase ϕR, wird aus einem als bekannt angenommenen, vorzeichenbehafteten Abstand zOB = ZOR der Referenzfläche mit
errechnet, wobei d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs und p die Gitterkonstante des strukturiert leuchtenden Arrays, beziehungsweise des beleuchteten Gitters, darstellen. Da zOR in die negative Achsrichtung gezählt wird, ergibt sich auch ein negativer Wert für die Referenzphase ϕR. Der Abstand zOR der Referenzfläche wird möglichst genau experimentell ermittelt. In der Regel treffen alle zur Erfassung der Objektoberflächen in der Szene genutzten Abbildungsstrahlen auch auf die Referenzplatte.Der Grundgedanke besteht darin, in jedem Abbildungsstrahl aus der Auswertung des im zugehörigen Bildpunkt eines Referenzpunktes der Referenzplatte über der Phase des Gitters ϕGitter zu beobachtenden modulierten, periodischen Signals und des in einem Bildpunkt eines Objektpunkt über der Phase des Gitters zu beobachtenden modulierten, periodischen Signals die absolute Phasendifferenz ΔϕGitter dieser beiden Signallagen aus der Phase des Gitters zu bestimmen. Dabei wird davon ausgegangen, daß die periodischen Signale eine Modulation mit einem Modulationsmaximum aufweisen. Die Breite dieser Modulationskurve über der Phase des Liniengitters ϕGitter oder dem zugeordneten Verschiebeweg des Liniengitters ist abhängig vom Achsabstand d der beiden Objektivachsen, den Brennweiten der beiden Objektive und der relativen Öffnung der beiden Objektive, beschrieben jeweils durch die Blendenzahl k der beiden Objektive, und den Eigenschaften der Oberfläche hinsichtlich der Lichtstreuung.Die Bestimmung der absoluten Phasendifferenz ΔϕGitter kann so erfolgen, daß der in einem Objektpunkt über der Phase des Gitters zu beobachtende Signalverlauf über der Phase, die aus dem Verschiebeweg des Gitters abgeleitet ist, um genau den Phasenbetrag soweit verschoben wird, daß sich dieser Signalverlauf mit dem im zugehörigen Referenzpunkt der Referenzplatte zu beobachtenden Signalverlauf möglichst genau deckt, d. h. die Korrelation dieser beiden Signalverläufe möglichst hoch ist. Dieser so ermittelte Phasenbetrag entspricht dann der absoluten Phasendifferenz ΔϕGitter als die Differenz der jeweils zu den beiden Signalverläufen zugehörigen absoluten Phase des Liniengitters ΔϕGitter.Dazu wird erstens aus einer Abtastung des Signals über der Phase im Bildpunkt eines Referenzpunktes der relative Referenzphasenwert ϕRR mod 2π bestimmt. Zweitens wird aus einer Abtastung des Signals über der Phase im Bildpunkt eines jeden Objektpunktes der relative Objektphasenwert ϕRObj mod 2π bestimmt. Der relative Referenzphasenwert ϕRR und der relative Objektphasenwert ϕRObj werden dabei jeweils der absoluten Phase des Liniengitters ϕGitter zugeordnet und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert. So entstehen die absoluten Phasenwerte der Gitterphase ϕGitterR für einen Referenzpunkt und ϕGitterObj für einen Objektpunkt. Mit der Differenz
ΔϕGitter = ϕGitterObj - ϕGitterR (3)
wird die absolute Phasendifferenz ΔϕGitter bestimmt, die einen positiven Wert aufweist, wenn der erfaßte Objektpunkt weiter von der Brennebene als der zugehörige Referenzpunkt entfernt ist. Durch die vorzeichenbehaftete Addition der absoluten Phasendifferenz ΔϕGitter zur experimentell oder konstruktiv abgeleiteten Referenzphase ϕR wird die absolute Objektphase ϕObj dann mit
ΔϕObj = (-)ϕR + ΔϕGitter (4)
bestimmt. Da das Vorzeichen der Phase der Referenzfläche ϕR negativ ist und die Phasendifferenz ΔϕGitter im Betrag stets kleiner ist als Phase der Referenzfläche ϕR, ergibt sich für die absolute Objektphase ϕObj ein negativer Wert. Die Koordinate eines Objektpunktes zOB = zObj kann dann mit der Gleichung
bestimmt werden, die für eine negative absolute Objektphase ebenfalls einen negativen Wert liefert. Dabei stellen d den Abstand der Geraden gO von der Achse des Beleuchtungsobjektivs, beziehungsweise hier den Abstand der parallelen Achsen der beiden Objektive voneinander, fB die Brennweite des Beleuchtungsobjektivs, ϕObj die absolute, lateral invariante Objektphase und p die Gitterkonstante des beleuchteten Liniengitters dar.Als Nullebene der 3D-Aufnahme-Anordnung wird die achssenkrechte Ebene für zOB = 0, die Brennebene des Beleuchtungsobjektiv im Objektraum, gewählt. Demzufolge stellt der Brennpunkt FOB des Beleuchtungsobjektivs im Objektraum den Nullpunkt der 3D-Aufnahme-Anordnung dar.Der möglichst genauen Bestimmung der absoluten Phasendifferenz ΔϕGitter in der Phase des beleuchteten Liniengitters ΔϕGitter kommt für das Verfahren eine besonders große Bedeutung zu.Eine weitere Möglichkeit besteht darin, nicht die relativen Phasenwerte im Referenzpunkt-Signal und im Objektpunkt-Signal, sondern die Lage der Orte gleicher Phase im Referenzpunkt-Signal und im Objektpunkt-Signal in Bezug auf die Phase des Liniengitters ϕGitter zu bestimmen, beispielsweise anhand der Orte gleicher Phasenlagen.Grundsätzlich kann auch über ein Längenmeßsystem, welches die Bewegung oder Verschiebung des Liniengitters hochaufgelöst mißt, die Ortsdifferenz der Lagen des Referenzpunkt-Signals und des Objektpunkt-Signals bestimmt werden. Aus der bekannten Gitterkonstante p des Liniengitters kann aus der gemessenen Ortsdifferenz die zugehörige Phasendifferenz ΔϕGitter in bekannter Weise errechnet werden. Dies ist anzuwenden, wenn nur eine einzige Linearführung mit einem Nullpunktgeber verwendet wird, da die phasenmäßige Abtastung des Liniengitters aufgrund des Bewegens desselben mit einer dann auch auftretenden Bewegungskomponente in Richtung der optischen Achse mit einem Gegengitter technisch besonders schwierig ist.Mit der vorzugsweise hochebenen Referenzplatte muß die 3D-Aufnahme-Anordnung in mindestens einer achssenkrechten Positionen eingemessen werden. Aus dem experimentell bestimmten Wert zORexp für die Lage der Referenzplattewird der Wert der Referenzphase ϕR mittels der angegebenen Gleichung (2) errechnet. Die gemessene Verschiebung in zOB-Richtung wird mit dem der durch die 3D-Aufnahme-Anordnung ermittelten zOR-Wert verglichen. So kann die 3D-Aufnahme-Anordnung kontrolliert werden. Bei Abweichungen von der hochgenau gemessenen Verschiebung von der rechnerisch bestimmten liegt für eine in sich gut einjustierte 3D-Aufnahme-Anordnung ein falscher Wert für die Referenzphase ϕR vor. Numerisch wird die Referenzphase verändert bis sich eine möglichst gute Übereinstimmung mit den experimentell bestimmten Verschiebewerten ergibt.Zusammengefaßt gilt: Für die Bestimmung der Objektphase ϕObj im Objektraum wird vorteilhafterweise folgende Bedingung im Gesamt-Abbildungssystem realisiert, die sich aus der parallelen Bewegung des Liniengitters - oder ganz allgemein formuliert aus der parallelen Bewegung der Maxima und Minima der Leuchtdichte auf dem strukturiert leuchtenden Array - zur Geraden gA ergibt: Beim Durchlaufen der beiden koinzidierenden Schärfeflächen von Beleuchtungs- und Abbildungsobjektiv durch die Tiefe des Raumes des Objektes bleibt die beobachtete Phase im Schnittpunkt eines Strahls des Abbildungsobjektivs mit der gemeinsamen Schärfefläche durch die zusätzliche laterale Bewegung des Liniengitters stets konstant, so daß ein gedachter, in einem Strahl des Abbildungsobjektivs in der gemeinsamen Schärfefläche mitlaufender Objektpunkt in der gesamten Tiefe keine Phasenänderung erfährt. Dies wird als "Mitführung der Phase" bezeichnet. Dabei kann die zusätzliche laterale Bewegung des Liniengitters durch eine zweite Linearführung erfolgen oder sich aus der Schrägstellung einer gemeinsamen Linearführung für Sender- und Empfänger-Array ergeben. Andererseits kann diese Bedingung auch durch ein elektronisch gesteuertes Gitter, beispielsweise ein Liniengitter, realisiert werden, indem zusätzlich zum kontinuierlichen Bewegen des Liniengitters in zA-Richtung, die Phasenlage des Liniengitters ebenfalls kontinuierlich verändert wird, indem die Lage der Orte der lokalen Extrema der Leuchtdichte, auf dem elektronisch steuerbaren Liniengitter verändert wird.Dazu ist folgendes zu bemerken: Optisch konjugierte Punkte weisen im Array-raum und im Objektraum betragsmäßig die gleiche absolute Phase auf. Diese absolute Phase kann jeweils als laterale Koordinate verstanden werden. Die absolute Phase leitet sich aus der Beleuchtungssituation ab und kann im Array-raum aus der xAB-Position im Gitterelement GAB bestimmt werden, welches sich im Aufnahmeprozeß auf einer Geraden gA bewegt und bei dieser Bewegung genau den array-seitigen Brennpunkt FAB schneidet. Aus diesem Zusammenhang ergibt sich die absolute Phase im Array-Raum mit
mit xAB1 als der lateralen Koordinate des Durchstoßpunktes der Geraden gA durch das Gitterelement GAB und p als Gitterkonstante des Liniengitters. Im optisch konjugierten Punkt GOB ergibt sich die gleiche absolute Phase wie im Punkt GAB, jedoch mit umgekehrtem Vorzeichen.Weiterhin muß das Empfänger-Array kein Bildempfänger sein, sondern kann nach dem Stand der Technik als Mikrolinsen-Array ausgeführt sein, um eine hohe Tiefenauflösung auf der Basis einer hohen Streifendichte erreichen zu können. Das Mikrolinsen-Array befindet sich im Array-Raum in einer zum strukturiert leuchtenden Array optisch konjugierten Ebene. Wie bekannt, ist dem Mikrolinsen-Array ein weiteres Objektiv nachgeordnet. Dieses Objektivist auf der dem Mikrolinsen-Array zugeordneten Seite möglichst gut telezentrisch ausgeführt. Auf der zweiten Seite des Objektivsbefindet sich der Bildaufnehmer.Auch kann in der Ebene des Empfänger-Arrays ein elektronisch steuerbares, vorzugsweise transmissives Array angeordnet sein. Dabei wird wie folgt vorgegangen: Es erfolgt eine erste Gewinnung einer 3D-Punktwolke mit einer beispielsweise mittleren Transmission in den Array-Elementen. Anschließend wird die Aussteuerung in den Elementen des Bildempfänger kontrolliert und die Transmission elementeweise so eingestellt, daß sich eine geeignete Aussteuerung in den Bildelementen eines nachgeordneten Bildempfängers ergibt. Das elektronisch steuerbare, transmissive Array kann vorzugsweise dem Mikrolinsen-Array zugeordnet sein. Es ist aber auch möglich, daß es dem Bildaufnehmer zugeordnet ist. Auch kann es dem strukturiert leuchtenden Array zugeordnet sein. Letztlich muß die Zuordnung nur zu einer optisch konjugierten Ebene des Empfänger-Arrays erfolgen.Zur Bestimmung der Phasenlage der periodischen Signale in den Bildpunkten des Empfänger-Arrays kommen im einfachsten Fall die bekannten Phasenschiebe-Algorithmen mit 3 bis 5 Intensitätswerten zur Anwendung. Dabei wird die Intensität in den Bildpunkten des Empfänger-Arrays entsprechend der Phasenlage des strukturiert leuchtenden Arrays abgetastet. Möglich ist hier eine Abtastung in diskreten 90°-Phasenschritten. Mit den ausgelesenen Intensitätswerten kann beispielsweise auch die Modulation über der Phase in 90°-Schritten mit den bekannten Elementargleichungen bestimmt werden. Die Auswertung der Phasenlage kann in jeweils 180°-Schritten der Phase des strukturiert leuchtenden Arrays, hier des Liniengitters, erfolgen.Besser für die Genauigkeit der Phasenbestimmung und damit für die Tiefenmeßgenauigkeit sind jedoch Algorithmen, die über eine größere Anzahl von Intensitätswerten, beispielsweise 8, 16 oder 32, die Phase im Signal wie auch den Ort des Modulationsmaximums bestimmen. Das gesamte Know-how der Signalverarbeitung, wie es in der Elektrotechnik bereits bekannt ist, kann hier angewendet werden. Beispiele für die erfolgreiche Applikation derartiger Signalauswertungen sind aus der Weißlicht-Interferenzmikroskopie bekannt. Im allgemeinen werden diese Signalauswertungs-Methoden bei Kurzkohärenz-Methoden angewendet.Da die Gitterkonstante, des strukturiert leuchtenden Arrays vorzugsweise konstant ist, ist die Phasenänderungsgeschwindigkeit bei einer konstanten Bewegung des strukturiert leuchtenden Arrays, ebenfalls konstant. Dies ermöglicht auch das Anwenden der Sub-Nyquist-Abtastung, da hier aufgrund der Kenntnis der Signalfrequenz das bekannte Abtast-Theorem ohne Nachteile verletzt werden kann. Dies reduziert die Anzahl der aufzunehmenden Bilder ganz erheblich, so daß grundsätzlich eine hohe Geschwindigkeit der Bewegung des Liniengitters realisiert werden kann und so eine Hochgeschwindigkeits-Auswertung realisierbar wird. Digitale Filteroperationen sind in der bekannten Art mit den Phasen-Auswerte-Methoden zu kombinieren, bzw. bereits vor der Phasenauswertung durchzuführen. Dieser Sachverhalt wird hier nicht weiter vertieft, obwohl von der optimalen Gestaltung der Algorithmen die Leistungsfähigkeit des gesamten Auswerte-Verfahrens abhängt. Die Ausführung der Rechenoperationen kann dabei mittels spezieller Hochgeschwindigkeits-Prozessoren erfolgen.Es ist vorteilhaft, wenn das strukturiert leuchtende Array, hier das Liniengitter, zusätzlich eine Nullpunktmarke aufweist und die laterale Gitterbewegung mit einem Gegengitter phasenmäßig erfaßt wird. Durch das Positionieren der Referenzplatte im Objektraum in einer bekannten zOB-Position zOB = zOR wird die absolute Phase des Nullpunktes bestimmt. Auch werden die Referenz-Phasen mod 2π als relative Referenzphasen ϕRR durch die Auswertung des Signalverlaufs in den Abbildungsstrahlen im Bereich der scharfen Abbildung der Referenzplatte ermittelt und gespeichert. Bei einem unbekannten Objekt wird durch den Signalverlauf im Schärfebereich des Objektpunktes die zugehörige Phase des Liniengitters ϕGitter an der Stelle im Signalverlauf im Bereich des Maximums der Modulation ermittelt, die der zugehörigen Referenz-Anfangsphase im Bereich des Maximums der Modulation entspricht.Dann kann die Objektphase für jede Ebene in der Entfernung zOB mittels der Phase, die aus der Gitterverschiebung abgeleitet wird, bestimmt werden. Die hochstabile Nullpunktmarke kann als Startpunkt für die laterale Bewegung des Liniengitters dabei so einjustiert werden, daß der Start der Bildaufnahme kurz vor dem Erreichen der scharfen Abbildung der Referenzplatte durch die koordinierte Bewegung von Liniengitter und Bildempfänger beginnt. Auch nach dem Entfernen der Referenzplatte bleibt die Lage der Referenzplatte beim Einmessen jeweils als "die Referenzfläche des 3D-Aufnahmesystems" bis zum neuen Einmessen bestehen.In der vorangegangenen Darstellung wurde davon ausgegangen, daß das Beleuchtungsobjektiv und das Abbildungsobjektiv stets fest angeordnet sind und in sich starre Objektive darstellen, also keine eigene Fokussierung aufweisen, bzw. die gegebenenfalls vorhandene, objektiveigene Fokussierung nicht benutzt wird. Die Brennebenen der Objektive stehen demzufolge fest im Raum. Das Fokussieren im Sinne des Veränderns der Lage der Schärfeflächen im Objektraum erfolgte in der bisherigen Darstellung jeweils über das Bewegen des strukturiert leuchtenden Arrays und des Empfänger-Arrays in einer Komponente parallel zur optischen Achse der Objektive.Im Fall des Veränderns der Lage der Schärfeflächen im Objektraum über die Fokussierung des Objektivs, beispielsweise durch eine interne Fokussierung, wie es dem Stand bei modernen Fotoobjektiven entspricht, muß die Fokussierung elektronisch steuerbar sein, d. h. die Objektive müssen auch eine motorische Fokussierung gestatten. Auch beim Verschieben des gesamten Objektivs zum Zweck der Fokussierung muß eine motorische Verschiebung gewährleistet sein.Da moderne Objektive mit interner Fokussiermöglichkeit durch das Verschieben von massearmen, optischen Komponenten im allgemeinen eine recht schnelle Fokussierung ermöglichen, wird dieser Fall betrachtet.Grundsätzlich kommt es aber bei der erfindungsgemäßen 3D-Aufnahme-Anordnung und dem 3D-Aufnahme-Verfahren jedoch nur darauf an, eine definierte Relativbewegung zwischen den Brennebenen der Objektive und den jeweils zugehörigen Arrays oder den Orten der Extrema der Leuchtdichte auf diesen zu erreichen. Zum Erreichen der Relativbewegung können auch die Brennebenen im Raum bewegt werden, beispielsweise durch eine interne Fokussierung des Objektivs.Ziel ist letztlich die Detektierung eines modulierten cos2-ähnlichen Signals mit einem Modulationsmaximum in den Bildpunkten des Empfänger-Arrays. Die Annäherung an die cos2-Charakteristik wird bekannterweise durch die optische Modulationsübertragungfunktion des Objektivs in der jeweiligen Abbildungssituation unterstützt.Es muß realisiert werden, daß die Bewegung des Punktes des strukturiert leuchtenden Arrays, welcher in der Brennebenenlage des strukturiert leuchtenden Arrays mit dem Brennpunkt des Beleuchtungsobjektivs koinzidiert, auf einer Geraden gA erfolgt. Andere Punkte, bzw. Elemente des strukturiert leuchtenden Arrays bewegen sich auf parallelen Geraden zur Geraden gA. Diese Gerade gA ist so definiert, daß diese stets den Brennpunkt des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg, definiert als Quotient aus Brennweite des Beleuchtungsobjektivs im Array-Raum und Abstand des Brennpunktes vom Abbildungsobjektiv, aufweist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuchtungsobjektivs bezogen ist. Demzufolge bewegt sich die Gerade gA gemeinsam mit der Brennebene des Beleuchtungsobjektivs. Da sich beim internen Fokussieren der Brennpunkt stets auf der Achse des Beleuchtungsobjektivs bewegt, ist zur Realisierung der Bewegung der Elemente des strukturiert leuchtenden Arrays auf einer Geraden gA, noch eine zusätzliche Bewegung des strukturiert leuchtenden Arrays senkrecht zur optischen Achse erforderlich. Bei einem elektronisch steuerbaren Liniengitter wird eine Veränderung der Orte der lokalen Extrema der Leuchtdichte erzeugt. Dies kann auch als eine Bewegung senkrecht zur optischen Achse verstanden werden.Es ist sehr wesentlich für die Genauigkeit des Meßverfahrens, daß die beschriebene Bewegung oder Verschiebung der Brennebene des Beleuchtungsobjektivs sehr genau erfolgt, so daß die Bewegung auf der Geraden gA nur mit möglichst kleinen Lageabweichungen erfolgt. Dies kann mittels eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung bewegten optischen Komponenten im Beleuchtungsobjektiv unterstützt werden.Die interne Fokussierung des Abbildungsobjektivs mit einer miniaturisierten Linearführung sollte so erfolgen, daß die Schärfefläche des Abbildungsobjektivs mit der durch das Beleuchtungsobjektiv vorgegebenen Schärfefläche im Objektraum möglichst gut koinzidiert. Möglich ist auch hier die Verwendung eines hochauflösenden, internen Wegmeßsystems für die zwecks interner Fokussierung im Abbildungsobjektiv bewegten optischen Komponenten. Auch ist eine starre Kopplung der bewegten Komponenten der beiden Objektive grundsätzlich möglich.Um die Anforderungen an die Genauigkeit der internen Fokussierung des Abbildungsobjektivs zu verringern, kann das Abbildungsobjektiv etwas stärker abgeblendet werden, da sich dann der Schärfentiefebereich vergrößert. Im Extremfall ist auch eine so starke Abblendung des Abbildungsobjektivs denkbar, daß dann bei einem Objekt mit begrenzter Tiefenausdehnung sowohl auf dessen interne Fokussierung als auch auf eine Bewegung des Empfänger-Arrays - also auf eine Fokussierung im Abbildungsstrahlengang überhaupt - verzichtet werden kann.So wird erfindungsgemäß auch eine Anordnung vorgeschlagen, die mit einem elektronisch steuerbaren Liniengitter als strukturiert leuchtendes Array arbeitet, welches eine Verschiebung der Orte der lokalen Extrema der Leuchtdichte auf dem Empfänger-Array, beziehungsweise bei einer cos2-ähnlichen Leuchtdichteverteilung auf dem strukturiert leuchtenden Array eine Verschiebung der Phasenlage, erzeugt, und das zugehörige Beleuchtungsobjektiv gleichzeitig eine interne Fokussierung aufweist. Dadurch bewegen sich die Orte der Extrema oder die Orte gleicher Phase der Leuchtdichteverteilung auf dem strukturiert leuchtendes Array auch bei der internen Fokussierung auf einer sich im Raum bewegenden Geraden gA.Grundsätzlich ist es möglich, daß die beiden Achsen von Beleuchtungsobjektiv und Abbildungsobjektiv zueinander geneigt sind. Jedoch ist es in diesem Fall von großem Vorteil, wenn der Brennpunkt FOA des Abbildungsobjektivs im Objektraum in der Brennebene des Beleuchtungsobjektivs liegt. Die Lage dieses Brennpunktes FOA definiert den Ort der Geraden gO, die als Bild der Geraden gA definitionsgemäß diesen Brennpunkt FOA enthalten und parallel zur Achse des Beleuchtungsobjektivs liegen muß. Dies führt dazu, daß die Tiefenempfindlichkeit der 3D-Aufnahme-Anordnung in einer zur Achse des Beleuchtungsobjektivs senkrechten Ebene im Objektraum eine Konstante ist, also die Tiefenempfindlichkeit keine laterale Abhängigkeit in der Ebene aufweist.Bei einer gegebenen Anordnung von Beleuchtungs- und Abbildungsobjektiv muß die Richtung der Bewegung der Elemente des strukturiert leuchtenden Arrays parallel zur Geraden gA liegen. Wie bereits dargestellt, ist die Gerade gA dabei so definiert, daß deren Bild im Objektraum, die Gerade gO, den Brennpunkt des Abbildungsobjektivs im Objektraum bei gleichzeitig paralleler Lage zur Achse des Beleuchtungsobjektivs schneidet. Die Anordnung mit zueinander geneigten optischen Achsen der Objektive bringt Vorteile, wenn sich Bereiche des Objektes in besonders geringer Entfernung vom Beleuchtungsobjektiv befinden und diese vom Abbildungsobjektiv bei einer parallelen Anordnung der Objektive nicht mehr aufgenommen werden können. Hierbei ist es von Vorteil, wenn das Abbildungsobjektiv so aus der parallelen Lage herausgedreht ist oder motorisch und rechnergesteuert herausgedreht wird, daß es die Bereiche des Objektes in besonders geringer Entfernung erfassen kann.Weiterhin ist es möglich, daß das Empfänger-Array zusätzlich rechnergesteuert drehbar angeordnet ist, um die Scheimpflugbedingung zu erfüllen, wodurch die Koinzidenz der Schärfeflächen im Objektraum erreichbar ist. Es ist auch möglich, daß die beiden Objektive unterschiedliche Brennweiten aufweisen können, wobei das Abbildungsobjektiv wesentlich kurzbrennweitiger gestaltet ist, wenn sich nur der Brennpunkt des Abbildungsobjektivs in der Brennebene des Beleuchtungsobjektivs im Objektraum befindet.Es ist weiterhin von Vorteil für das Einmessen und Kontrollieren der 3D-Aufnahme-Anordnung, daß eine transparente Platte als permanent verbleibende Referenzplatte achssenkrecht in der Nahdistanz im Objektraum zur Selbsteinmessung zugeordnet ist, wobei auf mindestens einer der beiden Flächen eine schwach lichtstreuende Mikrostruktur aufgebracht ist. Die Mikrostruktur bewirkt eine für die Erfassung der Fläche der Referenzplatte ausreichende Rückstreuung in die 3D-Aufnahme-Anordnung. Die Einmessung kann beliebig oft kontrolliert und gegebenenfalls korrigiert werden, beispielsweise beim Auftreten von Temperaturänderungen. Auch ist es möglich, die Anordnung zu kapseln und thermisch durch eine Temperaturregelung zu stabilisieren, um ein temperaturbedingtes Driften der Phasenlagen zu verhindern. Auch ist zum Einmessen die Verwendung einer Anordnung mit zwei parallel angeordneten transparenten Platten mit Luftspalt im Objektraum möglich, wobei der Luftspalt konstant und dessen Geometrie bekannt ist.Grundsätzlich können die mit einer Referenzplatte gemessenen relativen Phasenwerte ϕRR in einer Rerenzphasen-Matrix abgelegt werden und zur Berechnung der Objektkoordinaten genutzt werden, auch wenn die Referenzplatte bereits wieder entfernt ist.Es ist auch möglich, Verzeichnungen der Objektive und Justierfehler der Anordnung als Phasenbeträge über die Raumkoordinaten zu ermitteln und zu speichern und bei Bedarf zur Korrektur zu verwenden. Die beschriebene Vorgehensweise gestattet grundsätzlich die zeitoptimale Auswertung auf der Basis von straight forward-Algorithmen. Diese Algorithmen können in speziellen Hochgeschwindigkeits-Prozessoren implementiert werden, wodurch eine Echtzeitauswertung von bewegten Objekten und Personen möglich wird.Für ein optimales Signal-Rausch-Verhältnis in den Signalen kann die Helligkeit der Strahlungsquelle in Abhängigkeit von der Position des strukturiert leuchtenden Arrays gesteuert werden. Für die Anpassung an das lateral unterschiedliche Reflexionsvermögen in den einzelnen Objektpunkten kann dagegen in einem elektronisch steuerbaren, strukturiert leuchtenden Array die Lichtintensität pixelweise objektorientiert angepaßt werden. Dabei kann das elektronisch steuerbare strukturiert leuchtende Array lateral bewegt werden, um die Phase zu ändern, aber auch lateral feststehen und elektronisch durch Verschieben der Gitterlinien eine Phasenänderung erzeugen, beispielsweise mit konstanter Phasengeschwindigkeit.Weiterhin kann die Lichtstärke der Objektive verändert werden. Es kann abgeblendet werden, um den Schärfentiefebereich beispielsweise bei schnellen Orientierungsmessungen vergrößern zu können. Dies verringert die Anzahl der notwendigen Bilder, verringert aber auch die Tiefenmeßgenauigkeit. Um dagegen den Schärfentiefebereich verkleinern zu können, werden eine oder zwei Apodisationsblenden angeordnet, eine in der Austrittspupille des Beleuchtungsobjektivs und eine in der Eintrittspupille des Abbildungsobjektivs also jeweils im Objektraum. Diese Blenden sind so gestaltet, daß die achsnahen Strahlen geschwächt oder ausgeblendet werden, um eine stärkere Wirkung der Randstrahlen zu erreichen. Es sind die aus der Spektroskopie bekannten Apodisationsfunktionen, beispielsweise Rechteck, Dreieck- oder Gaußfunktion einsetzbar.Andererseits kann in bestimmten Fällen, beispielsweise für die besonders schnelle 3D-Aufnahme, auch ein Bewegungssystem mit einem rotatorischen Antrieb zur kontinuierlichen, rotatorischen Bewegung eines strukturiert leuchtenden Arrays, vorzugsweise in der Art eines Radialgitters mit mindestens einer Referenzmarke, angeordnet sein, wobei ein Ausschnitt des Radialgittes das Feld des Beleuchtungsobjektivs vollständig ausfüllt. Dem Radialgitter ist ein Gegengitter zur phasenmäßigen Abtastung zugeordnet, welches die Gegenstruktur zur Abtastung enthält, sowie die Beleuchtung, ein Optikmodul und die Auswerte-Elektronik mit Rechnerschnittstelle. Auch auf dem Gegengitter befindet sich außerdem noch eine Referenzmarke für das Gewinnen mindestens eines hochgenauen Nullpunkt-Signals.Weiterhin weist dieses Bewegungssystem eine Linearführung auf, die den rotatorischen Antrieb zur vorzugsweise kontinuierlichen rotatorischen Bewegung des strukturiert leuchtenden Arrays und das Empfänger-Array trägt. Die Bewegungsrichtung der Linearführung liegt parallel zur optischen Achse des Abbildungsobjektivs in zA-Richtung. Durch die Kopplung des Radialgitters mit einem rotatorischen Antrieb wird erreicht, daß das strukturiert leuchtende Array einen kontinuierlichen Lauf erfährt, der durch die phasenmäßige Abtastung hochgenau geregelt werden kann. Bei dieser Lösung tritt wegen der Struktur des Radialgitters eine Variation der Gitterkonstante entlang der Koordinate xA auf. Für Radialgitter mit einem vergleichsweise großen Durchmesser zum Feld des Abbildungsobjektivs ist diese Tatsache in Verbindung mit numerischen Methoden akzeptierbar. Es ist grundsätzlich möglich, für das Beleuchtungs- und das Abbildungsobjektiv rechnergesteuerte Zoom-Objektive einzusetzen, die vorzugsweise jeweils mit der gleichen Brennweiteneinstellung arbeiten.Um vom strukturiert leuchtenden Array weit geöffnete Strahlenbündel ausgehen zu lassen, kann das strukturiert leuchtende Array mit einem speziellen Mikrolinsen-Array gekoppelt sein, beispielsweise kann dieses Mikrolinsen-Array dem strukturiert leuchtendes Array in Lichtrichtung vorgeordnet sein. Es ist auch möglich, das strukturiert leuchtende Array selbst als Zylinderlinsen-Array hoher Apertur auszuführen.Die Kontrolle der Parallelität der optischen Achsen der beiden Objektive kann mit Hilfe des Vergleichs der Phasenlagen zwischen der Phase des am strukturiert leuchtenden Array abgenommenen Signals und der Phase, die im Signal in einem Bildpunkt auf der optischen Achse des Abbildungsobjektivs detektiert werden kann, erfolgen, wenn eine Referenzplatte dabei in der Tiefe verschoben wird und der Verschiebeweg dabei gemessen wird.Es ist mit einem elektronisch gesteuerten, strukturiert leuchtenden Array möglich, die durch Telezentriefehler des Beleuchtungsobjektivs beim Tiefen-Scannen auftretenden Phasenfehler durch Dehnen oder Stauchen des elektronisch gesteuerten strukturiert leuchtenden Arrays auszugleichen.Für das Einmessen und Kontrollieren der Tiefenempfindlichkeit der Anordnung kann eine Stiftplatte verwendet werden. Die Stifte sind sehr präzise und fest an einer Trägerplatte in einem bekannten Raster befestigt und weisen bezogen auf die Trägerplatte zwei unterschiedliche, aber bekannte Stiftlängen auf. Die Abstände der Stifte sind so groß gewählt, daß in einem bestimmten Entfernungsbereich der Platte von der Anordnung auf den Stirnflächen der Stifte keine Abschattung auftritt. So werden zwei Ebenen mit einem sehr genau bekannten Abstand dargestellt. Dieser Abstand kann mit einer hochgenauen Koordinaten-Meßmaschine vermessen werden. In verschiedenen Abständen der Platte von der Anordnung kann so die Tiefenempfindlichkeit dieser Anordnung, aber auch die Verzeichnungen der Objektive bestimmt werden.Um sehr große Objekte teilweise oder rundum vermessen zu können, wird aus einer größeren Zahl von 3D-Aufnahme-Anordnungen ein Schirm aufgebaut. Dieser Schirm kann näherungsweise die Grobform des zu vermessenden Objektes, beispielsweise die Form einer kompletten Automobilkarosserie, aufweisen. Die erfaßten Objekträume der 3D-Aufnahme-Anordnungen überdecken sich teilweise. Das Einmessen kann durch mehrere Referenzkörper, auch Planplatten, gegebenenfalls mit Marken erfolgen, die gleichzeitig von zwei 3D-Aufnahme-Anordnungen im Überdeckungsbereich erfaßt werden.Auch ist es möglich, daß mehrere 3D-Aufnahme-Anordnungen nebeneinander so positioniert sind, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt mit einer jeweils andersfarbigen Strahlungsquelle ab. Dann beleuchten beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt mit rotem Licht und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt mit grünem Licht. Im Abbildungsstrahlengang der 3D-Aufnahme-Anordnungen befinden sich entsprechend schmalbandige Filter, die nur das Licht der eigenen Strahlungsquelle passieren lassen. Denkbar sind auch mehrere Lichtfarben, wodurch mehr als zwei 3D-Aufnahme-Anordnungen den gleichen Teil des Objektes erfassen können.Weiterhin können mehrere Beleuchtungsobjektive einem Abbildungsobjektiv zugeordnet sein, beispielsweise zwei. Dabei kann jedem Beuchtungsobjektiv eine andersfarbige Strahlungsquelle zugeordnet sein, beispielsweise dem ersten eine rote und dem zweiten eine grüne. Dem Abbildungsobjektiv ist ein mechanisch oder elektronisch schaltbares Filter zugeordnet, um jeweils nur Licht einer einzigen Strahlungsquelle auf den Bildempfänger gelangen zu lassen.Andererseits kann auch eine farbtüchtige Kamera angeordnet sein, um gleichzeitig das strukturierte Licht aus den beiden Beleuchtungsobjektiven getrennt zu verarbeiten. So können verschiedene Beleuchtungsrichtungen im Objektraum realisiert werden, um beispielsweise direkte Reflexe von einem speziellen Objektdetail wenigstens bei einer Aufnahme nicht auftreten zu lassen. Auch werden die Schatten der jeweils anderen Aufnahme ausgeleuchtet und so können auch diese Objektteile sichtbar gemacht werden.Möglich ist Trennung der Bilder von verschiedenen Beleuchtungsobjektiven auch mittels drehbarer Polarisatoren und der Verwendung von polarisiertem Licht.Für die Farb-Aufnahmetechnik mit farbsensitiven Bildaufnehmern kann wie folgt vorgegangen werden:
Die Beleuchtung des Objektes oder der Szene erfolgt vorzugsweise mit weißem Licht und mehrere 3D-Aufnahme-Anordnungen sind so positioniert, daß sich ein Objekt oder eine Szene vollständig oder in einem großen Bereich erfassen läßt, wobei sich die erfaßten Bereich oder Winkel-Bereiche im Objektraum der unmittelbar nebeneinander positionierten 3D-Aufnahme-Anordnungen teilweise überdecken. Jedoch, es findet keine Überdeckung der mit der übernächsten 3D-Aufnahme-Anordnung statt. Die jeweils nebeneinander positionierten 3D-Aufnahme-Anordnungen beleuchten und bilden das Objekt zu jeweils unterschiedlichen Zeiten ab. Zu diesem Zweck sind alle 3D-Aufnahme-Anordnungen von einer Leitstelle aus synchronisiert, so daß das Aufnehmen von Bildern auch synchron erfolgt. Dann erfassen beispielsweise die 3D-Aufnahme-Anordnungen mit einer geradzahligen Positionsnummer das Objekt im Hinlauf der bewegten Arrays und die 3D-Aufnahme-Anordnungen mit einer ungeradzahligen Positionsnummer das Objekt im Rücklauf der bewegten Arrays und die Objekte sind nur beleuchtet, wenn jeweils die Aufnahme von Bildern erfolgt.Bei Verwendung einer farbtüchtigen Kamera als Bildaufnehmer sind vorzugsweise die jeweils zusammengehörenden farblich sensitiven Elemente, auch als RGB-Sensoren bekannt, linienförmig und in Richtung der Streifen des Liniengitters, also auf Linien gleicher Phase, angeordnet. Dadurch wird erreicht, daß es keine farblich bedingten Phasenlagen in den Signalen gibt. Dagegen kann die Phase zwischen den RGB-Sensoren objektbedingt durchaus verschieden sein.Weiterhin ist es auch möglich, daß ein Roboterarm eine einzige 3D-Aufnahme- Anordnung über das Objekt führt und die Daten nacheinander eingelesen werden. Durch Überdeckung der erfaßten Bereiche der Objektoberfläche erfolgt ein "Weiterhangeln" über die Objektoberfläche, welches grundsätzlich ohne das Vorhandensein von Bezugsmarken auf der Objektoberfläche möglich ist. Die jeweils erfaßten Objekträume werden numerisch zusammengesetzt.Das Abbildungsobjektiv kann fest angeordnet sein. Dabei ist mindestens ein Beleuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und der kompletten Beleuchtungsanordnung um das Abbildungsobjektiv drehbar oder schwenkbar angeordnet, wobei vorteilhafterweise die optische Achse des Abbildungsobjektivs die Drehachse für das Beleuchtungsobjektiv darstellen kann. Damit ist eine Beleuchtung des Objektes aus verschiedenen Richtungen möglich, um Schatten zu eliminieren. Die Drehbewegung wird rechnergesteuert.Auch ist es möglich, daß sich vor der 3D-Aufnahme-Anordnung ein schwenkbarer Planspiegel befindet, der in den Strahlengang geschwenkt werden kann und so eine fest angeordnete Referenzplatte vermessen und nach erfolgter Vermessung der Planspiegel zurückgeschwenkt wird.Vorteilhaft ist es, wenn zu Beginn eines 3D-Aufnahmeverfahrens in einem Bildaufnahmevorgang ein erster Datensatz gewonnen und gespeichert wird und die errechneten Objektpunkte eliminiert werden, die eine Abweichung vom Modulationsmaximum aufweisen. Anschließend kann das strukturiert leuchtende Array um einen Bruchteil der Gitterperiode verschoben werden und mindestens ein zweiter Datensatz aufgenommen und gespeichert wird, wobei die errechneten Werte ebenfalls eliminiert werden, die sich nicht in unmittelbarer Lage des Modulationsmaximums befinden. Aufgrund der durch die Gitterverschiebung im Bruchteil der Gitterperiode erfolgten Phasenänderung sind die errechneten Objektpunkte der ersten Messung mit denen der zweiten Messung nicht identisch, so daß eine vollständige Erfassung der Mehrzahl der Objektpunkte erreicht wird. Vorzugsweise entspricht die beschriebene Verschiebung des strukturiert leuchtenden Arrays dem Betrag der viertel Gitterperiode. Im folgenden werden weitere Merkmale des Verfahrens und der Anordnung zur 3D-Aufnahme von Objekt­ oberflächen in Szenen dargestellt.Weiterhin ist in einem Verfahren zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mindestens eine elektromagnetischen Strahlungsquelle angeordnet und die Strahlungsquelle ist mittels mindestens eines strukturierten Arrays als mindestens ein strukturiert leuchtendes Array mit mindestens zwei Flächenelementen ausgebildet.Dabei leuchtet mindestens ein Flächenelement, so daß mindestens ein leuchtendes Flächenelement ge­ bildet ist. Dabei ist jedes leuchtende Flächenelement FELj des strukturiert leuchtenden Arrays selbst, oder deren Bilder, in einer Leuchtdichteverteilung durch eine zumindest näherungsweise vorbestimmte Leuchtdichte und durch einen zumindest näherungsweise vorbestimmten Ort definiert, welches im weite­ ren als leuchtendes Flächenelement FELj bezeichnet wird. Der Begriff "Leuchten" wird hier als das Ab­ strahlen von elektromagnetischer Strahlung verstanden.Das strukturiert leuchtende Array kann auch als ein Sender-Array und die leuchtenden Flächenelemente FEL können als Senderelemente dieses Sender-Arrays verstanden werden. Weiterhin kann das struktu­ riert leuchtende Array dabei ein Array aus äquidistanten steuerbaren Mikro-Lichtquellen, beispielsweise Mikro-Laser oder auch Mikro-Leuchtdioden darstellen. So ist es auch möglich, ein strukturiert leuchtendes Array beispielsweise mit vertikal abstrahlenden Laserdioden zu erzeugen, die mittels eines Rechners, auch einzeln, angesteuert werden. Beispielsweise kann ein leuchtendes Flächenelement FELj so das 100fache der mittleren Leuchtdichte des Arrays aufweisen, also vergleichsweise intensiv leuchten.Die Strahlungsquelle kann aber auch als eine flächige und unstrukturierte Strahlungsquelle einem struktu­ rierten Array, welches ein Transmissions- oder ein Reflexionsgitter darstellen kann, vorgeordnet sein. So kann ebenfalls ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte realisiert werden. In jedem Fall stellen die leuchtenden Bereiche des strukturiert leuchtenden Arrays selbst, ein­ schließlich deren Bilder, leuchtende Flächenelemente FEL in einer Leuchtdichteverteilung mit einer zu­ mindest näherungsweise vorbestimmten Leuchtdichte in Bezug zur mittleren Leuchtdichte der Leuchtdich­ teverteilung im strukturiert leuchtenden Array dar.Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet, welches mindestens einem strukturiert leuchtenden Array, einschließlich einem Bild desselben, zugeordnet ist. So wird eine Abbildung des mindestens einen leuchtenden Flächenelementes FELj reali­ siert und die Objektoberflächen können zumindest zu einen einzigen Zeitpunkt strukturiert beleuchtet wer­ den.Es ist weiterhin möglich, daß durch die Überlagerung von kohärenten Lichtbündeln auf den Objektoberflä­ chen in der Szene eine strukturierte Beleuchtung auf der Basis der Interferenz elektromagnetischer Wel­ len erzeugt wird. Vorzugsweise können zwei kohärente Lichtbündel zur Interferenz gebracht werden. Vor­ zugsweise können diese zumindest näherungsweise Ausschnitte aus Kugelwellen darstellen, und es kann ein Streifenmuster gebildet werden. Die Lage der Streifen kann durch die Änderung des optischen Gangunterschiedes zwischen den kohärentem Lichtbündeln verändert werden.Weiterhin ist mindestens ein Abbildungsstrahlengang für die Abbildung von Elementen der mindestens ei­ nen Objektoberfläche und mindestens ein Empfänger-Array mit mindestens zwei Elementen und minde­ stens einem dem Empfänger-Array zugeordneten Abbildungsobjektiv angeordnet. Dabei detektieren Ele­ mente des Empfänger-Arrays im Aufnahmevorgang elektromagnetische Strahlung von Elementen der mindestens einen beleuchteten Objektoberfläche im Objektraum.Weiterhin werden von Elementen des Empfänger-Arrays durch das Abbildungsobjektiv stets auch Bilder im Objektraum, der dem Szenenraum entspricht, mit einem geometrisch-optischen Schärfevolumen gebil­ det. Die Elemente der mindestens einen Objektoberfläche werden mit mindestens einem Abbildungsob­ jektiv abgebildet. Mindestens ein leuchtendes Flächenelement FELj des strukturiert leuchtenden Arrays kann eine Verschiebung erfahren. Durch die Abbildung des mindestens einen leuchtenden Flächenele­ mentes FELj mit dem mindestens einen Beleuchtungsobjektiv wird ein Bild mindestens eines leuchtenden Flächenelementes FELj im Objektraum mit einem geometrisch-optischen Schärfevolumen gebildet.Das Empfänger-Array kann auch einen Film oder eine Platte mit einer Beschichtung darstellen, die für Röntgen-, UV-, VIS- oder IR-Strahlung sensibilisiert ist, und gerastert ausgelesen wird. Die Verwendung eines Targets, welches für UV-, VIS- oder IR-Strahlung empfindlich gemacht ist, ist ebenfalls möglich.Die Detektion von elektromagnetischer Strahlung von den Elementen der mindestens einen Objektober­ fläche durch die Elemente des Empfänger-Arrays erfolgt mindestens in einem Zeitbereich ΔtB, in welchem auch die Verschiebung mindestens eines leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays durchgeführt wird, wobei jeweils mindestens ein Signalwert gewonnen wird.Dabei wird innerhalb des Zeitbereichs ΔtB mindestens mit einem leuchtenden Flächenelement FELj des strukturiert leuchtenden Arrays eine zumindest näherungsweise vorbestimmte Verschiebung durchge­ führt, - einschließlich einer vorbestimmten optischen Verschiebung desselben als Ergebnis einer geome­ trisch-optischen Weglängenänderung - und so sendet mindestens ein leuchtendes Flächenelement FELj zu unterschiedlichen Zeitpunkten an mindestens zwei unterschiedlichen Orten elektromagnetische Strah­ lung aus.Dabei werden das Schärfevolumen mindestens eines Bildes mindestens eines vorbestimmten, leuchten­ den Flächenelementes FELj des mindestens einen strukturiert leuchtenden Arrays, wobei dieses Schär­ fevolumen im Objektraum gebildet ist, und das Schärfevolumen mindestens eines Bildes mindestens ei­ nes vorbestimmten Elementes des Empfänger-Arrays, wobei dieses Schärfevolumen ebenfalls im Objekt­ raum gebildet ist, und mindestens ein Element der mindestens einen Objektoberfläche zumindest nähe­ rungsweise einmal aufgrund der Durchführung der vorbestimmten Verschiebung mindestens eines vor­ bestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays mit zumindest einer Verschiebungskomponente in zA-Richtung im Array-Raum, also mit einer Verschiebungskomponente parallel zur optischen Achse des Beleuchtungsobjektivs, zur Koinzidenz gebracht. So wird im Objektraum zumindest einmal und zumindest näherungsweise die Koinzidenz des Schärfevolumens eines Bildes ei­ nes vorbestimmten, feuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und des Schärfevolumes eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays und mindestens ei­ nes Elementes der mindestens einen Objektoberfläche erzeugt. Beim Auftreten der Koinzidenz erfährt zumindest das an dieser Koinzidenz beteiligte Element des Empfänger-Arrays zumindest einmal eine zeit­ lich veränderte Bestrahlung gegenüber dem Fall der Nichtkoinzidenz und so detektiert dieses Element des Empfänger-Arrays zumindest einmal ein verändertes Signal. So werden durch die Realisierung der Verschiebung nach und nach Elemente der mindestens einen Ob­ jektoberfläche gleichzeitig zur Koinzidenz mit dem Schärfevolumen eines Bildes eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays und dem Schärfevolumen eines Bildes eines vorbestimmten Elementes des Empfänger-Arrays gebracht. Jeweils beim Auftreten der Koin­ zidenz erfährt das an dieser Koinzidenz jeweils beteiligte Element des Empfänger-Arrays zumindest ein­ mal eine zeitlich veränderte Bestrahlung und so detektiert dieses Element des Empfänger-Arrays zumin­ dest einmal ein verändertes Signal.Ein leuchtendes Flächenelement kann fest an eine geometrische Struktur eines Körpers gebunden sein, beispielsweise an ein Transparenzmaximum auf einem verschiebbaren Transmissionsgitter in Verbindung mit einer vorgeordneten Strahlungsquelle.Die feste Kopplung an eine geometrische Struktur eines Körpers muß jedoch nicht sein, denn in einem elektronisch steuerbaren, strukturiert leuchtenden Array, mit zwei Flächenelementen kann sich das leuchtende Flächenelement FELj zu jeweils unterschiedlichen Zeitpunkten sowohl am Ort des ersten, als auch am Ort des zweiten Flächenelementes befinden.Es ist aber auch grundsätzlich in der beschriebenen Anordnung und nach dem beschriebenen Verfahren möglich, daß ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenele­ menten FELj in einer räumlichen vorbestimmten Struktur aufgebaut ist. Im Objektraum entstehen nach Abbildung der fest angeordneten leuchtenden Flächenelementen FEL durch das Beleuchtungsobjektiv an verschiedenen Orten Bilder der fest angeordneten leuchtenden Flächenelementen FEL. In der 3D-Auf­ nahme-Anordung ist in den optisch konjugierten Orten im Array-Raum des Abbildungobjektivs jeweils mindestens ein Element eines Empfänger-Arrays angeordnet. Bei der exakten Positionierung eines Objek­ tes im Objektraum, welches genau dort Elemente der Objektoberfläche aufweist, wo sich genau ein Bild der leuchtenden Flächenelemente FEL befindet, detektieren die Elemente des Empfänger-Arrays jeweils einen Signalwert oberhalb eines Schwellwertes.Für die Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Bilder der leuchtenden Flächenelemente FEL im Objektraum nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs in der 3D- Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs bestimmt und realisiert. Die Ver­ schiebung erfolgt dabei zum einen vorzugsweise mit konstanter Geschwindigkeit. Andererseits kann die Gegenstandsweite des strukturiert leuchtenden Arrays auch sprunghaft verändert werden.Aus dem Datensatz von einer bekannten Soll-Objektoberfläche kann ein strukturiert leuchtendes Array mit mehreren fest angeordneten leuchtenden Flächenelementen FEL in einer räumlichen Struktur gestaltet werden. Eine 3D-Aufnahme-Anordnung kann mit diesem speziellen, strukturiert leuchtenden Array zur Prüfung von massenhaft gefertigten Ist-Objektoberflächen bei entsprechend genauer Positionierung in der beschriebenen 3D-Aufnahme-Anordnung eingesetzt werden. In diesem Fall erfolgt keine physische Ver­ schiebung der leuchtenden Flächenelementen FELj im Array-Raum, sondern nur eine parallele Detektion durch die Elemente des Empfänger-Arrays. Dieses Verfahren kann mit einer außerordentlich hohen Ge­ schwindigkeit durchgeführt werden. Die Begrenzung liegt in der Regel bei der Positionierung. Es ist grundsätzlich eine Prüfung von Objektoberflächen von Werkstücken im Flug oder im freien Fall möglich. Um für das Verfahren zur 3D-Aufnahme einen großen Tiefenschärfebereich bei der Abbildung von Ob­ jektoberflächen in einer Szene zu erreichen, können die Orte bestimmter relativer Leuchtdichte der struk­ turierten, leuchtenden Fläche und so auch die Orte lokaler Extrema der Leuchtdichte im Array-Raum auf Bahnkurven verschoben werden. Das strukturiert leuchtendes Array kann ein elektronisch steuerbares, strukturiert leuchtendes Array, beispielsweise ein LCD mit einer vorgeordneten Strahlungsquelle sein, welches durch ein Bewegungssystem geradlinig verschoben wird. Es kann durch die elektronisch gesteu­ erte laterale Verschiebung der lokalen Extrema der Leuchtdichte auch eine definierte Abweichung der Bahnkurven von der Geradheit erzeugt werden, beispielsweise durch die Verschiebung von transparenten Linien eines sehr feinstrukturierten LCDs mit einer sehr großen Anzahl von Elementen beispielsweise in der Größenordnung 106. So kann die zA-abhängige Verzeichnung des Beleuchtungsobjektivs oder die systematische Abweichung von der Geradlinigkeit des Bewegungssystem so beeinflußt werden, daß sich bei der Verschiebung des strukturiert leuchtenden Arrays die Bilder der Bahnkurven im Objektraum Bah­ nen mit einer sehr geringen Abweichung von der Geradheit, also Strecken darstellen.Die Bahnkurven können dabei so r 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880ealisiert werden, daß nach deren Abbildung mit dem Beleuchtungsob­ jektiv aus deren Bildern zumindest näherungsweise im Objektraum ein erstes Streckenbüschel SB1 mit einem Konvergenzpunkt K1 der Strecken gebildet werden kann. Diese Strecken können im Objektraum als Spuren von nacheinander abgebildeten Lichtpunkten verstanden werden, beispielsweise als die ver­ schobenen Extrema der Leuchtdichte bei einem beleuchtetem Liniengitter im Transparenzmaximum oder die Spur eines Bildes eines beleuchteten Spaltes. Die Spuren der Lichtpunkte können im Objektraum auf einer Objektoberfläche beobachtet werden, wenn das Bild eines Lichtpunktes und der beobachtete Punkt der Objektoberfläche zumindest näherungsweise koinzidieren. Durch den Triangulationseffekt kann bei der Verschiebung des Bildes eines leuchtenden Flächenelementes FELj und des mit diesem koinzidie­ renden Bild eines Elementes des Empfänger-Arrays ein laterales Auswandern des Bildes des Lichtpunk­ tes beobachtet werden. Die Ablage von der Ausgangsposition nimmt mit zunehmender Abweichung des beleuchteten Bereiches der Objektoberfläche vom aktuellen Koinzidenzpunkt der beiden Bildern zu, wobei das Element des Empfänger-Arrays ein zunehmend unscharfes Bild des leuchtenden Flächenelementes FELj detektiert, beziehungsweise ein in der Regel ebenfalls unscharfes, leuchtendes Flächenelement FELj+1 in der Nachbarposition von dem ersten leuchtenden Flächenelement FELj auf dem strukturiert leuchtenden Array. Dabei erfolgt die Abbildung des leuchtenden Flächenelementes FELj stets über die Objektoberfläche. Im Falle eines einzelnen leuchtenden Flächenelementes FELj registriert das zugehöri­ ge Element eines Empfänger-Arrays eine geringere Lichtintensität, so daß beim Abbilden eines einzelnen Lichtspaltes sich ein Signalverlauf mit einer Veränderung der Signalintensität, beispielsweise auch ein Si­ gnalverlauf mit einem Extremum - in der bereits beschriebenen dreifachen Koinzidenzsituation, ergibt.Dieses Verfahren ermöglicht in einem vorbestimmten Verschiebungsvorgang des strukturiert leuchtenden Arrays und so auch der leuchtenden Flächenelemente FEL in einer Verschiebungsrichtung mit einer Komponente in zA-Richtung, also auch mit einer Komponente parallel zur optischen Achse des Beleuch­ tungsobjektivs, eine eindeutige Aussage über das Vorhandensein eines Elementes der Objektoberfläche an einem vorbestimmten Ort im Objektraum. Dabei wird der Betrag in zA-Richtung so gewählt, daß die Schärfefläche den Objektraum von einem Nahbereich, welcher der Fläche Fmin entspricht, beispielsweise in der zehnfachen Brennweite des Beleuchtungsobjektivs, bis zu einem Fernbereich, welcher der Fläche Fmax entspricht, beispielsweise in einer Entfernung von der 3D-Aufnahmeanordnung der 100fachen Brennweite, nach und nach durch eine vorbestimmte, beispielsweise eine elektronisch gesteuerte Ver­ schiebung der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays durchwandert. Da­ bei liegt der Betrag der Verschiebung der leuchtenden Flächenelemente FEL vorzugsweise in der Größe eines Zehntels der Brennweite des Beleuchtungsobjektivs.Dieses Verfahren wird mit der Gesamtheit der leuchtenden Flächenelemente des strukturiert leuchtenden Arrays und der Gesamtheit der Elemente des Empfänger-Arrays für die Gesamtheit der Elemente der Objektoberflächen im Erfassungsvolumen der 3D-Aufnahmeanordnung durchgeführt.Durch mehrfaches Detektieren und Auslesen während des Verschiebungsvorganges von mindestens ei­ nem vorbestimmten Element des Empfänger-Arrays kann eine Interpolation zur Verbesserung der Genau­ igkeit der Bestimmung des Ortes eines erfaßten Elementes der Objektoberfläche durchgeführt werden.Die Öffnungsblende des Abbildungsobjektiv kann hierbei vorzugsweise vergleichsweise klein gemacht sein, beispielsweise kann die relative Öffnung 1 : 22 betragen, so daß das Schärfevolumen des Bildes der Elemente des Empfänger-Arrays eine vergleichsweise große Tiefe besitzt, beispielsweise in der Form ei­ nes langen Ausschnittes aus einer schlanken Pyramide - bei einem Element mit einer quadratischen Flä­ che.Die Größe des Schärfevolumens ist im Objektraum von der Entfernung vom zugehörigen Objektiv ab­ hängig. Bei der Abbildung eines Elementes des Empfänger-Arrays in den Objektraum soll es einen Tie­ fenbereich aufweisen, in welchem das Bild eines Elementes des Empfänger-Arrays aufgrund der geome­ trisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert - gegenüber der idea­ len geometrisch-optischen Abbildung. So weist das Schärfevolumen nach dieser Definition an einem Punkt des Objektraum im Mittel die zweifache Fläche eines Bildes eines Elementes des Empfänger- Arrays auf. Der Tiefenbereich ergibt sich dann als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich unschärfebedingt nicht größer als verdoppelt darstellt.Dagegen kann das Beleuchtungsobjektiv eine vergleichsweise große relative Öffnung besitzen. Bei­ spielsweise kann die relative Öffnung 1 : 2,0 betragen. Dadurch kann das Schärfevolumen des Bildes von leuchtenden Flächenelementen FEL eine vergleichsweise geringe Tiefe aufweisen, beispielsweise in der Form eines kurzen Ausschnittes aus einer Pyramide.Das Schärfevolumen soll bei der Abbildung eines leuchtenden Flächenelementes FELj in den Objektraum einen Tiefenbereich aufweisen, in welchem das Bild von leuchtenden Flächenelementen FEL aufgrund der geometrisch-optischen Unschärfe sich nicht um mehr als die zweifache Fläche vergrößert. Es gilt das gleiche Kriterium. Bei einem linienförmigen, leuchtenden Flächenelement FELj kann eine Verdoppelung der Breite des Bildes des linienförmigen, leuchtenden Flächenelementes FELj als Unschärfe-Kriterium angenommen werden. So weist ein Schärfevolumen an einem Punkt des Objektraum im Mittel die zweifa­ che Fläche eines Bildes eines leuchtenden Flächenelementes FELj. Der Tiefenbereich ergibt sich dann auch hier als der Bereich, in dem die Bildfläche eines Elementes des Empfänger-Arrays sich nicht größer als verdoppelt darstellt.Die exakte Definition des jeweiligen Schärfevolumens spielt jedoch hier für die Gewinnung der 3D- Punktwolke keine Rolle, da von der Definition des Schärfevolumens keine Rechenvorschrift abgeleitet wird.Bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj im Array-Raum bewegt sich im hier dargestellten Fall das Schärfevolumen jeweils eines Bildes eines leuchtenden Flächenelemen­ tes FELj im Schärfevolumen jeweils eines Bildes eines Elementes des Empfänger-Arrays. So kann sich in diesem Fall ein Element der Objektoberfläche permanent im Schärfevolumen eines Bildes eines Empfän­ gerelementes befinden. Jedoch erst bei der Koinzidenz des Schärfevolumens des Bildes eines leuchten­ den Flächenelementes mit einem Element der Objektoberfläche erfolgt eine strukturierte Beleuchtung die­ ses Elementes der Objektoberfläche. So kann durch das - bei der vorbestimmten Verschiebung eines leuchtenden Flächenelementes FELj - mehrfach ausgelesene Element eines Empfänger-Arrays bei­ spielsweise ein Signalverlauf mit einem relativen Maximum zum Zeitpunkt der Koinzidenz detektiert wer­ den.Die vorbestimmte Verschiebung der leuchtenden Flächenelemente FELj kann elektronisch gesteuert er­ folgen. Um die mechanische Bewegung des strukturiert leuchtenden Arrays zu vermeiden, können die Orte der lokalen Extrema der Leuchtdichte der strukturierten, leuchtenden Fläche jeweils Verschiebungen auf Bahnkurven im Array-Raum erfahren, die sich aus der elektronisch gesteuerten Veränderung der opti­ schen Weglänge im Array-Raum und der elektronisch gesteuerten Verschiebung der lokalen Extrema der Leuchtdichte auf dem strukturiert leuchtendes Array ergeben. Zusätzlich kann auch eine elektronisch ge­ steuerte Veränderung der optischen Weglänge im Raum vor dem Empfänger-Array durchgeführt werden, die zu scheinbaren Verschiebungen der sensitiven Elemente des Empfänger-Arrays entlang von Bahn­ kurven führen.Weiterhin kann vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der De­ tektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden. Durch das Beleuchtungsobjektiv kann dieses leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine vorherbestimmte Strecke im Objektraum BSOj abgebildet werden.Der Ort des Bildes des leuchtenden Flächenelementes FELj wird dabei auf der Strecke BSOj nach und nach verändert und so wird das Bild des leuchtenden Flächenelementes FELj mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach durch den Objektraum verschoben. Bei der Verschiebung je eines leuchtenden Flächenelementes FELj werden mehrfach nach­ einander Signalwerte aus Elementen des Empfänger-Arrays ausgelesen und so wird ein Signalverlauf gebildet, wobei der Ort des jeweils ausgelesenen Elementes des Empfänger-Arrays verändert wird. Die Orte der ausgelesenen Elemente des Empfänger-Arrays liegen auf einer Strecke ASAj und das Bild dieser Strecke ASAj, die Strecke ASOj, ist mit der vorherbestimmten Strecke BSOj der Bilder der leuchtenden Flächenelemente FEL im Objektraum optisch konjugiert. So kann je ein Bild eines Elementes des Emp­ fänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeit­ punkt ti innerhalb des Zeitintervalls Δti im Zeitbereich ΔtB im Objektraum zur Koinzidenz gebracht sein und so wird je ein Paar mit wechselnden Bildern erzeugt, wobei dieses Paar nach und nach durch den Objek­ traum geschoben wird. So ist gegeben, daß je ein Schärfevolumen des Bildes eines leuchtenden Flä­ chenelementes des strukturiert leuchtenden Arrays und je ein Bild eines Elementes des Empfänger- Arrays mit je einem Flächenelement der Objektoberfläche einmal im Verschiebungsvorgang innerhalb ei­ nes Zeitbereich ΔtB zusammenfallen, wenn sich ein Element der Objektoberfläche auf dem Abbildungs­ strahl zwischen den Bildern der beiden Flächen Fmin und Fmax im erfaßten Bereich des Objektraum es be­ findet. Die ausgelesenen Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz einen veränderlichen Signalverlauf vorzugsweise mit mindestens einem relativen Extremum der Signal­ größe, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zei­ tintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt werden kann.Vorteilhaft kann auch ein einem mechanisch feststehendem Empfänger-Array verwendet werden, bei­ spielsweise eine CCD-Kamera, die nicht senkrecht zur optischen Achse des Abbildungsobjektivs steht. Dies ermöglicht ausgewählte Elemente der Objektoberflächen aus unterschiedlichen Tiefen des Objek­ traum scharf abzubilden. Es kann auch ein räumlich strukturiertes Empfänger-Array eingesetzt werden.Dieser Ansatz ist besonders für kleine oder für flache Meßvolumina mit geeignet. Vorzugsweise kann das leuchtende Array auch einen beleuchteten Einzelspalt darstellen. Andererseits kann beispielsweise auch ein Direct Mirror Device oder einem LCD-Array als steuerbares Array in Verbindung mit einer im Beleuch­ tungsstrahlengang vorgeordneten Lichtquelle eingesetzt werden.Ein beleuchteter Einzelspalt kann beispielsweise linear verschobenen werden. Der Abbildungsstrahl, wo­ bei die Lage dieses Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwerpunk­ tes des gerade ausgelesenen Elementes des Empfänger-Arrays und den Ort des Zentrums der Öff­ nungsblende des Abbildungsobjektivs bestimmt ist, wandert dabei zunächst über die nicht vom Bild des Lichtspaltes beleuchteten Flächenelemente der Objektoberfläche. Der Lichtspalt wird erst in der Koinzi­ denzsituation vom Bild des leuchtendem Flächenelementes, vom Bild des Elementes des Empfänger- Arrays und vom Element der Objektoberfläche vom Element des Empfänger-Arrays detektiert. Jedoch fällt je ein Bild eines leuchtenden Flächenelementes FELj, z. B. ein Spaltbild, stets mit dem Bild eines Elemen­ tes des Empfängers für das Zeitintervall Δti zusammen, sozusagen immer in der "Erwartung" der Objekto­ berfläche. Im nächsten Zeitintervall Δti+1 kommt das nächste Element des Empfängers mit einem Bild ei­ nes leuchtenden Flächenelementes zur "Paarbildung". So bildet ein bestimmtes leuchtendes Flächenele­ mentes FELj mit Bildern wechselnder Elemente des Empfänger-Arrays für das Zeitintervall Δti jeweils ein Paar, wobei durch die getrennten Pupillen des Beleuchtungsobjektivs und des Abbildungsobjektivs ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildungstrahl besteht, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenelement detektieren kann, wenn gleichzeitig, also im Zeitintervall Δti, auch noch ein Element der Objektoberfläche zumindest nähe­ rungsweise mit dem gerade, also im Zeitintervall Δti, bestehenden Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flächenelementes zusammenfällt. So besteht ein Tripel. In dieser Position detektiert das Element des Empfänger-Arrays das Lichtspaltbild auf der Objektoberfläche. Weit außerhalb des Schärfevolumen detektiert es dagegen nur die undurchlässigen Bereiche der Maske auf der gegebenenfalls vorhandenen Objektoberfläche. Dazwischen besteht ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger-Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen 3D-Meßmikroskopen entspricht.Dabei kann sich auch stets das gleiche leuchtende Flächenelement FELj auf den Punkten der Verschie­ bungsstrecke befinden. Dies entspricht dem realen mechanischen Verschieben des leuchtenden Flä­ chenelementes FELj. Dies muß nicht immer so sein, da andererseits auch der Aufenthalt eines beliebi­ gen, leuchtendes Flächenelementes FELj zum Zeitpunkt ti innerhalb des Zeitintervalls Δti genügt.Dabei kann das strukturiert leuchtende Array auch aus zumindest näherungsweise punktförmigen oder linienhaften Strahlungsquellen in einer gerasterten Struktur bestehen. So kann ein strukturiert leuchtendes Array mit Bereichen unterschiedlicher Leuchtdichte gebildet sein. Weiterhin können auch leuchtende Flä­ chenelemente FEL mit lokalen Extrema der Leuchtdichte verschoben werden. Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mit­ teln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuerte Verschie­ bung möglich.Leuchtende Flächenelemente FEL können in einer Leuchtdichteverteilung mit einer zumindest nähe­ rungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte zeitlich nacheinander an unter­ schiedlichen Orten elektromagnetische Strahlung aussenden und gleichzeitig erfolgt die Detektion von elektromagnetischer Strahlung von den Elementen der Objektoberflächen für die Dauer eines Zeitinter­ valls Δti.Es wird weiterhin vorgeschlagen, die strukturierte Beleuchtung mit einem Beleuchtungsobjektiv mit einer vergleichsweise großen Pupillenöffnung und mit einem strukturiert leuchtendes Array, welches ein parallel zur optischen Achse des Beleuchtungsobjektivs verschobenes Liniengitter, beziehungsweise eine Punkt- oder eine Schlitzmaske sein kann, und die Abbildung mit einem Abbildungsobjektiv mit einer vergleichs­ weise besonders kleinen Pupillenöffnung durchzuführen. Die kleine Pupillenöffnung führt zu einem größe­ ren Tiefenschärfebereich und so wird erreicht, daß ein Objekt mit einer größeren Tiefenausdehnung er­ faßt werden kann, ohne daß das strukturiert leuchtendes Array bewegt werden muß. Da auch miniaturi­ sierte Objektive eingesetzt werden können, ergibt sich so eine besonders kompakte Anordnung. Wenn das Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können so bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz und ei­ nem Modulationsmaximum gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erheblichen Reduzierung der Rechenzeit bei der Bestimmung der absoluten Phase und führen. Bei der Verwendung von einer Punkt- oder Schlitzmaske entstehen dagegen in den Elementen des strukturiert leuchtenden Arrays Signale mit einem einzelnen Maximum. Aus der Lage des Maximums kann in der bekannter Weise die zugehörige zO-Position des Objektpunktes bestimmt werden.Weiterhin kann bei einem Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorzugswei­ se je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion in einem Zeitbereich ΔtB zumindest näherungsweise auf je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuch­ tungsobjektiv verschoben werden und durch das Beleuchtungsobjektiv abgebildet sein. Dabei bedeutet die Formulierung "relativ", daß auch die Position des leuchtenden Flächenelementes FELj ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Beleuchtungsobjektivs bewegen. Dieses leuchtende Flächenelement FELj wird zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf eine Strecke BSOj auf einen vorherbestimmten Abbildungsstrahl ABSO, im Objektraum abgebil­ det. Die Strecke BSOj kann dann auch das Bild der Verschiebungsstrecke VSBAj darstellen und sich der Ort des Bildes des leuchtenden Flächenelementes FELj auf der Verschiebungsstrecke VSBAj zumindest näherungsweise kontinuierlich - innerhalb eines Zeitbereich ΔtB - ändern und so das Bild des leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vorherbestimmt gleichbleibenden relativen Leuchtdichte nach und nach auf der Strecke BSOj durch den Objektraum verschoben werden. Außerdem wird eine zumindest näherungsweise geradlinige, relative Verschiebung des Empfänger-Arrays zum Ab­ bildungsobjektiv und parallel zur optischen Achse des Abbildungsobjektivs durchgeführt, wobei die For­ mulierung "relativ" bedeutet, daß auch die Position des Empfänger-Arrays ortsfest sein kann und sich in diesem Fall zumindest Komponenten des Abbildungsobjektivs bewegen. Bei der Verschiebung können mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen werden und so je ein Signalverlauf mittels eines einzelnen Empfängerelementes gebildet werden, wobei der Ort je ei­ nes Elementes des Empfänger-Arrays zumindest näherungsweise kontinuierlich ändert. Die geradlinige relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs wird vorzugsweise so durchgeführt, daß je ein Bild eines Elementes des Empfänger- Arrays mit dem Bild eines leuchtenden Flächenelementes FELj mit einer zumindest näherungsweise vor­ herbestimmt gleichbleibenden, relativen Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb des Zei­ tintervalls Δti im Objektraum zur Koinzidenz gebracht ist und so ein Paar von Bildern erzeugt wird, wel­ ches und nach durch den Objektraum geschoben wird.Dabei fallen vorzugsweise Schärfevolumina von Bildern der leuchtenden Flächenelemente mit Flä­ chenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitin­ tervalls ΔtB zusammen und die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzi­ denz einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße. Der Zeitbereich ΔtB kann dabei größer als das Zeitintervall Δti gemacht sein und so wird mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich eingepaßt.Hier wird der Fall mit einem bewegten Empfänger-Array dargestellt. Dieser ist ein sehr relevanter Fall, da so auch Objekte mit vergleichsweise großer Tiefenausdehnung vermessen werden können. Außerdem sind einseitig telezentrische Systeme mit einem geringen Bauvolumen in der Regel nicht extrem lichtstark, so daß für das Erreichen einer hinreichend schmalen Einhüllenden, um die Ordnung eines Streifens identifizieren zu können, beide Systeme hohe relative Öffnungen aufweisen sollten.Dabei ist die Lage des Abbildungsstrahls ABSO als Gerade durch den Ort des photometrischen Schwer­ punktes eines Elementes des Empfänger-Arrays und einen optisch konjugierten Ort des effektiven Zen­ trums der Öffnungsblende des Abbildungsobjektivs bestimmt.Auch ein beleuchteter Spalt kann als leuchtendes Array - im Sinne einer leuchtenden Struktur - eingesetzt werden. So fällt je ein Bild eines vorbestimmten beleuchteten Flächenelementes, z. B. ein Spaltbild, stets mit dem Bild eines vorbestimmten Elementes des Empfänger-Arrays zusammen und bildet so ein Bild­ paar. Durch die zumindest um einen kleinen Abstand getrennten Pupillen des Beleuchtungs- und des Abbildungsobjektivs besteht ein Triangulationswinkel zwischen dem Hauptbeleuchtungsstrahl und dem Hauptabbildunggstrahl, so daß das Element des Empfänger-Arrays nur dann das leuchtende Flächenele­ ment detektieren kann, wenn auch noch ein Element der Objektoberfläche mit dem Bildpaar koinzidiert, also auch das Element der Objektoberfläche mit dem Schärfevolumen des Bildes des leuchtenden Flä­ chenelementes zusammenfällt. Dann detektiert das Element des Empfänger-Arrays das Lichtspaltbild. Weit außerhalb des Schärfevolumen werden nur die undurchlässigen Bereiche der Maske detektiert. Da­ zwischen besteht jedoch ein Übergangsbereich. Die Signalwerte von den Elementen des Empfänger- Arrays, die innerhalb eines Zeitintervalls ΔtB zu einem Bildpaar gehört haben, bilden einen Signalverlauf mit einem Maximum, der dem von konfokalen Meßanordnungen entspricht. Der Abstand zwischen den Pupillen des Beleuchtungs- und des Abbildungsobjektivs kann dabei beispielsweise im Minimum nur ein Achtel der Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist die Tie­ fenempfindlichkeit auch nur sehr gering. Andererseits kann der Abstand zwischen den Pupillen des Be­ leuchtungs- und des Abbildungsobjektivs im Objektraum dabei beispielsweise das Bfache der mittleren Ausdehnung der Pupille des Beleuchtungsobjektivs betragen. Dementsprechend ist das Tiefenauflö­ sungsvermögen hier etwa um zwei Größenordnungen gegenüber dem vorherigen Beispiel vergrößert.Dieses Verfahren ist auch für die Anwendung von vollflächigen, strukturiert leuchtenden Arrays und Emp­ fänger-Arrays geeignet. So kann auch ein bewegtes, beleuchtetes Transmissionsgitter als strukturiert leuchtendes Array eingesetzt werden. Die detektierbaren Signale entsprechen in ihrer Charakteristik in diesem Fall denen der Kurzkohärenz-Interferometrie.Bei mehreren teildurchlässigen Objektoberflächen in Richtung der Hauptachse des Abbildungsstrahls mit einer jeweils geringen Lichtstreuung bringt jede Objektoberfläche ein eigenes relatives Extremum im Si­ gnalverlauf.Die permanente Koinzidenz vom Bild eines leuchtenden Flächenelementes FELj mit dem Bild eines Empfängerelemente im Objektraum kann, muß aber nicht bestehen. Im Fall der permanenten Koinzidenz bewegt sich das Bild eines leuchtenden Flächenelementes stets direkt auf einer Strecke auf dem Abbil­ dungsstrahl.Das leuchtende Flächenelement FELj in einer Leuchtdichteverteilung mit einer zumindest näherungswei­ se vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbestimmten Wellenlängenspek­ trum kann monochromatisches, quasi-monochromatisches oder polychromatisches Licht im sichtbaren oder im unsichtbaren Spektralbereich aussenden.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL an einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elek­ tronisch gesteuerte Verschiebung möglich.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise je ein leuchtendes Flächenelement FELj in den Zeitintervallen Δti der Detektion von Licht in einem Zeitbereich ΔtB zumindest näherungsweise an je einem eigenen Ort OABj im strukturiert leuchtenden Array relativ zum Beleuchtungsobjektiv angeordnet und durch Ansteuerung zum Leuchten gebracht werden und durch das Beleuchtungsobjektiv abgebildet wird und dieses leuchtende Flä­ chenelement FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einen vorher­ bestimmten Ort im Objektraum OOBj abgebildet wird. Dieser Bildort OOBj eines jeweils leuchtenden Flä­ chenelementes FEL wird im Objektraum durch eine Ansteuerung verändert, indem ein jeweils anderes, vorbestimmtes Flächenelement angesteuert und zum Leuchten gebracht wird, so daß das Bild je eines leuchtenden Flächenelementes FELj auf einer steuerbaren Bahnkurve, strukturiert aus Abstandsinkre­ menten AIO der Bilder der Abstände AIA der leuchtenden Flächenelementes FEL im Array-Raum, durch den Objektraum geschoben wird - im Sinne des gesteuerten Einnehmens vorherbestimmter, unterschied­ licher Positionen. In jeder Position nach der Verschiebung - um mindestens ein ganzzahliges Vielfaches n, einschließlich n = 1, des Abstandsinkrementes AIO - wird mindestens ein Signalwert aus einem Empfän­ gerelement detektiert und ausgelesen und so wird aus mehreren Vorgängen des Detektierens und Ausle­ sens von Elementen des Empfänger-Arrays ein Signalverlauf gebildet. So wird der Ort des detektierten und ausgelesenen Elementes des Empfänger-Arrays kontinuierlich verändert. Die Orte der detektierten und ausgelesenen Elemente des Empfänger-Arrays liegen an Orten OAAj im Empfänger-Array und das Bild dieses Ortes OAAj, der Bildort OOAj, ist mit dem vorherbestimmten Bildort OOBj des leuchtenden Flä­ chenelementes FELj im Objektraum optisch konjugiert. So ist je ein Bild eines detektierten und ausgele­ senen Elementes des Empfänger-Arrays mit dem Bild jeweils eines leuchtenden Flächenelementes FELj zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti im Objektraum zur Koinzidenz gebracht und so wird je ein Paar von Bildern mit wechselnden Bildern erzeugt, welches und nach verschiedene Positionen im Objektraum einnimmt. Der Objektraum wird so in der Tiefe nach und nach durch derartige Paare durchsetzt. Dabei fallen Schärfevolumina des Bildes je eines leuchtenden Flächenelementes FELj mit je einem Flächenelement der Objektoberfläche mindestens einmal im Zeitbereich ΔtB in einem Zeitin­ tervall ΔtB zusammen und die detektierten und die ausgelesenen Elemente des Empfänger-Arrays weisen im Zeitintervall Δti der Koinzidenz einen Signalverlauf mit mindestens einem relativen Extremum der Si­ gnalgröße auf, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti in den Zeitbereich ΔtB zeitlich eingepaßt wird.Dieses Verfahren kann auch ohne jede Bewegung eines Arrays realisiert werden, also vollständig elek­ tronisch. Das strukturiert leuchtende Array und das Empfänger-Array können in sich starre, vorzugsweise dreidimensionale Strukturen darstellen, beispielsweise kann das leuchtende Array Luminiszenzdioden oder vertikal abstrahlende Laserdioden in einer 3D-Anordnung aufweisen. Diese können vorzugsweise in einer Kompaktanordnung und starr miteinander gekoppelt sein. Nach und nach werden einzelne Flä­ chenelemente elektronisch angesteuert und zum Leuchten gebracht.Dabei kann auch ein beleuchteter Mikrospiegel eines zweidimensionalen oder dreidimensionalen Direct Mirror Device DMD oder ein beleuchtetes LCD-Element oder ein vertikal abstrahlendes Mikro- Laserelement oder eine Mikro-Luminiszenzdiode in der dreidimensionalen Struktur zur Anwendung kom­ men. Durch die Ansteuerung von vorherbestimmten, leuchtenden Flächenelementen und das Auslesen von Elementen eines Empfänger-Arrays, wobei deren Bilder im Objektraum ein Bildpaar darstellen, wird genau dann ein Extremum im Signalwert eines Elementes des Empfänger-Arrays gewonnen, wenn das Bildpaar mit einem Element der Objektoberfläche zumindest näherungsweise koinzidiert. Das ist der Fall, wenn das Schärfevolumen des Bildes des leuchtenden Flächenelementes das Element der Objektoberflä­ che durchsetzt.Das Verfahren kann auch als optoelektronische Abfrage des Vorhandenseins von Elementen einer Objekt­ oberfläche verstanden werden. Besonders gut möglich ist damit die Anwesenheitskontrolle von Bauele­ menten in einer komplexen, dreidimensionalen Struktur mit einer vergleichsweise großen Tiefenausdeh­ nung.Ein leuchtendes Flächenelement repräsentiert durch seine feste Position im Verbund des strukturiert leuchtenden Arrays und durch die Parameter seiner Abbildung in den Objektraum stets ein kleines Volu­ menelement. Durch das Auslesen genau des Elementes eines Empfänger-Arrays, welches im Objektraum ein Bild besitzt, welches zumindest mit dem Bild des leuchtenden Flächenelementes optisch konjugiert ist, erfolgt eine Abfrage des Vorhandenseins eines Elementes der Objektoberfläche in diesem Volumenele­ ment. Es kann hier durch eine Triggerschwelle eine ja/nein-Entscheidung getroffen werden. Dies ist bei Oberflächen ohne Textur ein gangbarer und schneller Weg. Besser ist es für die Genauigkeit der Orts­ bestimmung des jeweiligen Elementes der Objektoberfläche, mehrere Elemente des Empfänger-Arrays auszulesen und aus dem gebildeten Signalverlauf den Ort des relativen Extremums oder den Schwer­ punkt des Signalverlaufes zu bestimmen. Aus diesem kann bei Kenntnis der Geometrie der optischen An­ ordnung der Ort eines Elementes der Objektoberfläche bestimmt werden.Dabei kann der Wert der relativen Leuchtdichte eines leuchtenden Flächenelementes vorzugsweise nur zwei Werte annehmen, ein Minimum und ein Maximum, gleichbedeutend mit dem logischen 0 und L. Je­ doch kann wegen der Anpassung an den Reflexionsgrad des Elementes der Objektoberfläche, beispiels­ weise als Ergebnis einer zuvor durchgeführten Überblicksmessung, und der Berücksichtigung der Entfer­ nung des Elementes der Objektoberfläche vom Beleuchtungsobjektiv eine Veränderung des absoluten Wertes der Leuchtdichte vorgenommen werden.Weiterhin bilden die Abstandsinkremente, die zu den Bildern der leuchtenden Flächenelemente FELj ge­ hören, im Objektraum vorzugsweise Strecken auf einer Geraden, die zu einem Streckenbündel SB1 mit einem Konvergenzzentrum K1 gehören, vorzugsweise mit dem Konvergenzzentrum K1 in der Brennebene des Beleuchtungsobjektivs. So ist die Eindeutigkeit der Signalgewinnung gegeben, da sich die Strecken des Streckenbündels SB1 im Objektraum nicht überkreuzen.Bei Anwendung einer nachgeschalteten Abbildungsstufe im Beleuchtungsstrahlengang kann das Konver­ genzzentrum des Streckenbündels auch im Unendlichen liegen. Dies entspricht dem telezentrischen Fall. Vorteilhaft ist, wenn das Konvergenzzentrum in der Pupille eines Abbildungsobjektivs für die Aufnahme der Objektoberfläche liegt.Bei a priori-Kenntnissen über die Objektoberfläche können aus Abstandsinkrementen auch einzelne Bahnkurven oder Teilstrecken zusammengesetzt werden. So wird durch die Ansteuerung verschiedener leuchtender Flächenelemente FEL reale Verschiebung eines leuchtenden Flächenelemente FELj nach­ gebildet. Grundsätzlich kann das leuchtende Array sogar in seiner mechanischen Gestaltung ein verklei­ nertes 3D-Flächen-Modell der zu untersuchenden Objektoberfläche oder der prüftechnisch relevanten Be­ reiche derselben darstellen und die einzelnen leuchtenden Flächenelemente werden gleichzeitig oder nacheinander auf die Objektoberfläche abgebildet. Analog gilt dies auch für die Struktur des Empfänger- Arrays. Auch dieses kann eine objektangepaßte 3D-Struktur aufweisen. Universeller sind durch die Mög­ lichkeiten der Steuerung jedoch strukturiert leuchtende Arrays mit lateral äquidistanten Abständen der leuchtenden Flächenelemente FEL Empfänger-Arrays mit lateral äquidistanten Abständen der Elemente des Empfänger-Arrays in einer Fläche. Sowohl das leuchtende Array als auch das Empfänger-Array kön­ nen in der Tiefe mehrere aktive Flächen mit leuchtenden Elementen, beziehungsweise empfangenden, Elementen aufweisen, so daß die Erfassung von dreidimensionalen Objektoberflächen vergleichsweise großer Tiefe ohne jede mechanische Verschiebung möglich ist. So können mit diesen rechnergesteuerten leuchtenden Arrays und Empfänger-Arrays auch in einem definierten Meßvolumen völlig unbekannte Ob­ jektoberflächen erfaßt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL je einer eigenen Verschiebungsstrecke VSBAj relativ zum Beleuchtungsobjektiv verschoben werden.Die leuchtenden Flächenelemente FEL weisen dabei in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende, relative Leuchtdichte zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti auf. Weiterhin werden die leuchtenden Flächenelemente FEL auf einer B-Strecke BSAj positioniert, wobei die B-Strecke BSAj die Sollorte für die leuchtenden Flä­ chenelemente FEL zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen.Die Bilder dieser B-Strecken BSAj sind im Objektraum durch Abbildung mit mindestens einem Beleuch­ tungsobjektiv vorzugsweise stets zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt. Dabei ist der Konvergenzpunkt K1, mindestens in einem Abstand dK1 min von der optischen Achse des Be­ leuchtungsobjektivs vom 16ten Teil. Dementsprechend ist die Tiefenempfindlichkeit auch nur sehr gering. Maximal beträgt der Abstand dK1 max das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum des am weitesten entfernten Abbildungsobjektivs. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente auf Ver­ schiebungsstrecken VSBAj werden jeweils genau ein Bild von einem Empfängerelement und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem einzigen Zeit­ punkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.So wird vorzugsweise zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare erzeugt und diese derartigen Paare werden durch den Objektraum geschoben. Dabei fallen Schärfevolumina von Bildern der leuchtenden Flächenelemente FELj mit Flächenelementen der Objektoberfläche mindestens einmal im Verschiebungsvorgang innerhalb eines Zeitintervalls ΔtB zusammen. Am Ort dieser Paare ist im Schwerpunkt des aktuellen Schnittvolu­ mens des Schärfevolumens der beiden Bilder so zu diesem Zeitpunkt ti ein aktueller Koinzidenzpunkt Koj i gebildet, der durch den Objektraum geschoben wird. Dabei kann der aktuelle Koinzidenzpunkt Koj i mit konstanter Geschwindigkeit, aber auch sprunghaft verschoben werden.Die Elemente des Empfänger-Arrays detektieren im Zeitintervall Δti der Koinzidenz vorzugsweise einen Signalverlauf mit mindestens einem relativen Extremum der Signalgröße, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δti gemacht wird und so mindestens ein Zeitintervall Δti im Zeitbereich ΔtB zeitlich ein­ gepaßt wird. So werden die leuchtenden Flächenelemente FELj des strukturiert leuchtenden Arrays und die Elemente des Empfänger-Arrays jeweils zumindest zu einem Zeitpunkt ti innerhalb eines Zeitintervalls Δti, also stets zur gleichen Zeit, im Objektraum aufeinander abgebildet.Bei der Verschiebung werden die Positionen der leuchtenden Flächenelemente FEL des strukturiert leuchtenden Arrays und die Positionen der Elemente des Empfänger-Arrays stets nach der Newtonschen Abbildungsgleichung aus der Lage des Beleuchtungsobjektivs und der Lage des Abbildungsobjektivs in der 3D-Aufnahme-Anordnung und der Brennweite fB des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs bestimmt und realisiert. So werden im Objektraum sowohl die leuchtenden Flä­ chenelemente FEL des strukturiert leuchtenden Arrays als auch die Elemente des Empfänger-Arrays zu­ mindest näherungsweise in einem Teil des Objektraumes in die gleiche Ebene abgebildet.Typisch für dieses Verfahren ist vorzugsweise der Abstand dk1 = d. Es kann ein einmaliger oder mehrma­ liger Durchgang durch oder auch ständiger Aufenthalt eines leuchtenden Flächenelementes FELj auf ei­ ner B-Strecke BSAj erfolgen. Vorteilhaft ist hier die Verwendung eines vollflächigen und mechanisch be­ wegten, strukturiert leuchtenden Arrays. Dabei kann das Empfänger-Array auch fest angeordnet sein.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL einen anderen Ort kann mit mechanischen Mitteln oder mit mikromechanischen Mitteln erfolgen. Es ist auch eine rein elektronisch gesteuert Verschiebung möglich.A-priori-Kenntnisse über Lage der Objektoberfläche sind nicht notwendig, wenn eine große Anzahl von Zeitintervallen Δti nacheinander durchfahren wird. Deshalb ist dieses Verfahren für völlig unbekannte Ob­ jektlagen und Objektformen sehr geeignet. Bei a-priori-Kenntnissen über die Lage der Objektoberfläche und deren Tiefenausdehnung kann der Zeitbereich ΔtB - zumindest bei Objekten mit einer geringen Tie­ fenausdehnung - in der Regel kleiner gemacht werden, im Vergleich zu einer Situation mit einer völlig un­ bekannten Szene. Die Verschiebungsstrecken VSBAj stellen die Ist-Strecken, also die Ist-Orte oder die Ist- Positionen der photometrischen Schwerpunkte der leuchtenden Flächenelemente FELj 3A dar und die B- Strecken BSAj stellen die Soll-Orte dar, die zumindest zum Zeitpunkt ti des Zeitintervalls Δti eingenommen sein sollten. Nur zum Zeitpunkt der Detektion, d. h. nur zu einem Zeitpunkt ti im Bereich des Zeitintervalls Δti müssen die Ist- und Soll-Orte übereinstimmen und die Verschiebungsstrecken VSBAj sich mit den B- Strecken BSAj schneiden. Natürlich können die Verschiebungsstrecken VSBAj-Strecken mit den B- Strecken BSAj auch permanent im gesamten Verschiebungsvorgang zusammenfallen.Der Konvergenzpunkt K1 der Bilder der B-Strecken BSAj kann mindestens in einem Abstand dK1 min von der optischen Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d des Pupillenzentrums PZOB des Beleuchtungsobjektivs vom Pupillenzentrum PZO des Abbildungsobjektivs positioniert werden. Dieser kleine Abstand ist für strahlteilergekoppelte Strahlengänge für schnelle Messungen mit vergleichsweise geringer Tiefenauflösung sehr geeignet.Der maximale Abstand dK1 max kann das 16fache des Abstandes d des Pupillenzentrums PZOB des Be­ leuchtungsobjektivs vom Pupillenzentrum PZOA des Abbildungsobjektivs betragen. Dieser ist typisch für 3D-Aufnahme mit einer höheren Geschwindigkeit, beispielsweise mit kontinuierlich rotierenden Gittern. In diesem Fall erfolgt die Bestimmung der Phasenverschiebung ϕ auf der Basis eines Trägerfrequenzverfah­ rens zu einer von der Bewegung des strukturiert leuchtenden Arrays direkt abgeleiteten Trägerfrequenz im Sinne einer Referenzfrequenz. Dieses Verfahren ist auch geeignet, um Streifen im Objektraum auf­ grund der hohen Geschwindigkeit für Beobachter unsichtbar werden zu lassen. Bei einem begrenztem Szenenvolumen kann das durch die höhere Geschwindigkeit vergleichsweise geringere Einschaltverhält­ nis der Empfängerelemente akzeptiert werden.Vorzugsweise wird der Wert dk1 = d realisiert. In diesem Fall entspricht die im Signalverlauf auftretende Phasenveränderung der Ablage der detektierten Elemente der Objektoberfläche von einer vorbestimmten Position. Verfahrenstechnisch bringt ein größeres dk1 als d deshalb keinen Vorteil, da dieser für die Aus­ wertung sehr wichtige quantitative Zusammenhang verloren gehen kann. Außerdem muß im Fall mit ei­ nem größeren dk1 - bei der Bewegung der leuchtenden Flächenelemente FEL mit der gleicher Geschwin­ digkeit in z-Richtung wie für den Fall dk1 = d - die Kamera besonders schnell ausgelesen werden muß. Für sehr viele größere Werte für dK1 als d weist dieses Verfahren die Merkmale eines Trägerfrequenzverfah­ rens auf.Das dargestellte Verfahrensmerkmal ist auch sehr geeignet für die Aufnahme mit zwei zentralperspektivi­ schen Objektiven sein. Auch können die Hauptebenen derselben koinzidieren. Dabei ist das Empfänger- Array vorzugsweise feststehend. Hierbei wird davon ausgegangen, daß leuchtende Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich nicht wirklich auf einer B-Strecke BSAj bewegen müssen, sondern die Verschiebungs­ strecken VSBAj der leuchtenden Flächenelemente FEL schneiden nur zu einem Zeitpunkt ti, also kurzzei­ tig die B-Strecken BSAj, wobei vor und nach diesem Zeitpunkt ti die Elemente des Empfänger-Arrays be­ reits Licht detektieren, so daß sich leuchtende Flächenelemente FEL nur kurzzeitig auf den B-Strecken BSAj befinden.Ein zumindest näherungsweise kontinuierliches Verschieben bedeutet, eine Kurve oder eine Treppen­ funktion um eine Strecke oder Gerade als mittlere Lage zu erzeugen. Das Verschieben von Orten kon­ stanter, relativer Leuchtdichte einer Leuchtdichteverteilung bedeutet hier, daß vorzugsweise genau die Orte verschoben werden, die eine bestimmte gleichbleibende relative Leuchtdichte aufweisen, beispiels­ weise von 70%. Diese Orte mit einer relativen Leuchtdichte von 70% werden vorzugsweise entlang einer Strecke verschoben und die Leuchtdichte bleibt dabei stets 70%, bezogen auf das gesamte leuchtende Array oder einen Teilbereich desselben.Aus dem Signalverlauf kann auch die mittlere Objektpunkthelligkeit und die Farbinformation bei Verwen­ dung einer Farbkamera gewonnen werden. Dabei kann die Objektoberfläche mit weißem Licht oder mit farbigem Licht beleuchtet werden.Es ist weiterhin möglich, durch eine Verschiebung des Objektes oder eine schwingende Bewegung eine Mittelwertbildung über einen beliebigen Oberflächenbereich durchzuführen und so einen Anfangsphasen­ wert in jedem Element des Empfänger-Arrays zu bestimmen.Weiterhin wird vorzugsweise ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vor­ geschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchten­ des Flächenelement FELj auf je einer B-Strecke BSAj positioniert wird. Die B-Strecken BSAj werden dabei auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet, so daß der Konvergenz­ punkt K1 zumindest annähernd im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positio­ niert ist. Weiterhin ist der Konvergenzpunkt K1 auch in der Pupillenebene des Beleuchtungsobjektivs posi­ tioniert und so werden während des Verschiebungsvorganges jeweils ein Bild von einem Empfängerele­ ment und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest nähe­ rungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert.So kann aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet werden und so im Objektraum derarti­ ge Paare von Bildern erzeugt werden und während des Verschiebungsvorganges der leuchtenden Flä­ chenelemente FELjeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchten­ den Flächenelement FELj im Objektraum einmal zumindest näherungsweise zur Koinzidenz gebracht werden.Hierbei ist der Fall mit zwei zentralperspektivischen Objektiven mit koinzidierenden Hauptebenen einge­ schlossen. Dabei kann das Empfänger-Array feststehend und so eingestellt sein, daß der "durchlaufende" Schärfebereich oder die Schärfeebene, des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebe­ ne des Abbildungsobjektivs zusammenfällt. Dagegen ist es von Vorteil, wenn die "durchlaufende" Schär­ feebene des Beleuchtungsobjektivs stets im durch starke Abblendung vergleichsweise groß gemachten Tiefenschärfebereich des Abbildungsobjektivs verbleibt. Hierbei wird davon ausgegangen, daß die leuch­ tenden Flächenelemente FEL der strukturierten leuchtenden Fläche mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte sich wirklich auf einer B-Strecke bewegen, wobei diese B- Strecke, wie alle B-Strecken in diesem Fall, auf das Pupillenzentrum PZOA im Array-Raum zielt.Dieser Ansatz ist beispielsweise realisierbar mit elektronischen Gittern mit einer sehr hohen Pixelzahl, beispielsweise von mindestens einer Million Pixeln. Elektronische Gitter können im Verschiebungsvorgang kontinuierlich gedehnt oder gestaucht werden, um die Bedingung der Konvergenz des Streckenbündels zu erfüllen. Im Ergebnis kann das Bild jedes leuchtenden Flächenelementes FELj zumindest näherungs­ weise mit einem Bild eines Empfängerelementes zur Koinzidenz gebracht werden, so daß ein aktueller Koinzidenzpunkt gebildet wird, der sich durch den Objektraum bewegt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FEL zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf je einer B-Strecke BSAj positio­ niert wird. Dabei wird wobei der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Be­ leuchtungsobjektivs im Objektraum und zusätzlich im Pupillenzentrum PZOA der Pupille eines Abbildungs­ objektivs im Objektraum positioniert. Während des Verschiebungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objek­ traum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so zumindest zu diesem Zeitpunkt ti werden aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flä­ chenelementes FELjeweils im Objektraum ein Paar mit fester Zuordnung gebildet wird und so im Objek­ traum derartige Paare mit fester Zuordnung erzeugt. Während des Verschiebungsvorganges der leuch­ tenden Flächenelemente FEL werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum genau einmal zumindest näherungsweise zur Koinzidenz gebracht. Die B-Strecken BSAj werden dabei parallel einer zu Geraden gAP positioniert, wobei die Gerade gAP den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum schneidet und den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fB des Beleuchtungsobjektivs aufweist, wo­ bei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Es können zwei zentralperspektivische Objektive mit zueinander geneigten Achsen eingesetzt werden. Das Empfänger-Array kann vorzugsweise feststehend und so eingestellt sein, daß die "durchlaufende" Schärfeebene des Beleuchtungsobjektivs zumindest einmal mit der Schärfeebene des Abbildungsobjek­ tivs in einem Schnitt, zusammenfällt. Wenn das Abbildungsobjektivs stark abgeblendet wird, kann der Tiefenbereich der 3D-Aufnahme vergleichsweise groß gemacht werden. Dieser Fall kann als ein Stan­ dardfall mit einem starren Gitter angesehen werden.Hierbei wird vorzugsweise davon ausgegangen, daß die leuchtenden Flächenelemente FEL von einem Starrkörpergitter sich nicht wirklich auf einer B-Strecke bewegen müssen. Es ist möglich, daß sich die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL bei einem starren, beleuchteten Gitter nur zu einem Zeitpunkt ti, also kurzzeitig, die B-Strecken BSAj, schneiden. Dabei detektieren die Elemente des Empfänger-Arrays vorzugsweise sowohl vor als auch nach diesem Zeitpunkt ti Licht. So be­ finden sich die leuchtende Flächenelemente FEL von Starrkörpergittern nur kurzzeitig auf den B-Strecke. Der Vorteil liegt darin, daß so für die mechanische Verschiebung der Starrkörpergitter ein kürzerer Stell­ weg realisiert werden kann. Dies dient der Erhöhung der Aufnahmegeschwindigkeit.Für elektronisch steuerbare Gitter hat die Einschränkung der Detektion auf einen Bereich innerhalb des Zeitintervalls Δti keine praktische Bedeutung, da diese "masselosen Gitter" stets so gesteuert werden können, daß im gesamten Intervall Δti der Detektion die Bedingung der Koinzidenz der Strecken VSBAj und BSAj ohne Probleme zu erfüllen ist. Damit kann grundsätzlich im Vergleich zu starren Gittern ohne die Realisierung der Koinzidenz der Strecken VSBAj und BSAj, eine höhere relative Integrationszeit erreicht werden. Dies setzt jedoch eine entsprechend hohe Dynamik der elektronischen Gitter voraus.Hierbei können grundsätzlich für die strukturierte Beleuchtung der Objektoberfläche ein arrayseitig tele­ zentrisches Objektiv und für die Abbildung derselben ein arrayseitig telezentrisches Objektiv eingesetzt werden.Um die Konvergenzbedingung zu erfüllen, kann in diesem Fall ein Starrkörper-Gitter verwendet werden, da durch die Lage des Konvergenzzentrums K1 keine Dehnung im Array notwendig ist. Z. B. kann, um Verschiebeweg für das Starrkörper-Gitter bei der Generierung von +270°-Phasenschritten für ein Sub- Nyquist-Verfahren zu sparen, ein beleuchtetes Liniengitter in x-Richtung mit entgegengesetztem Rich­ tungssinn verschoben werden, um dann -90°-Phasenschritte zu realisieren. Denn wie bereits ausgeführt, nur zum Zeitpunkt der Detektion von Licht muß die Bedingung der Position des Gitters erfüllt sein. Die kürzeren Verschiebungswege bringen, die hier im Beispiel nur ein Drittel betragen, eine höhere Dynamik.Dieses Verfahren kann besonders vorteilhaft für eine Zeile, bzw. für einen eingeschränkten Tiefenbereich eingesetzt werden. Der besondere Vorteil liegt in der einfachen Anordnung und im hohen Tiefenauflö­ sungsvermögen, aufgrund des vergleichsweise großen Triangulationswinkels von beispielsweise 30°.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Verschiebungsstrecken VSBAj und die B-Strecken BSAj im Verschiebungsvorgang zumindest näherungsweise im Zeitintervall Δtk koinzidieren, wobei das Zeitintervall Δtk zumindest die Län­ ge des Zeitintervalls Δti und maximal die Länge des Zeitbereiches ΔtB aufweist. Während des Verschie­ bungsvorganges werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FEL im Objektraum zumindest zeitweilig und zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird aus dem Bild von einem Empfän­ gerelement und dem Bild eines leuchtenden Flächenelementes FELj jeweils im Objektraum ein perma­ nentes Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern er­ zeugt.Während des Verschiebungsvorganges im Zeitbereich ΔtB der leuchtenden Flächenelemente FEL werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise einmal zur Koinzidenz gebracht, wobei der Zeitbereich ΔtB größer als das Zeitintervall Δtk gemacht wird und das Zeitintervall Δtk in den Zeitbereich ΔtB eingepaßt ist und die leuchtenden Flächenelemente in einer gerasterten Struktur mit äquidistanten Abständen verschoben werden.Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL sich wirklich auf einer B- Strecke bewegen, und die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B- Strecken BSAi. Dies ist mit einem beleuchteten Liniengitter zu realisieren. Natürlich kann auch ein elektro­ nisches Gitter so angesteuert werden. Das Empfänger-Array kann dabei feststehen, so daß der Tiefen­ meßbereich begrenzt ist. Durch die Wahl einer kleinen Blende für das Abbildungsobjektiv sind sehr viele Meßaufgaben mit einem vergleichsweise großen Tiefenmeßbereich, bezogen auf den mittleren Abstand des Meßvolumens von der 3D-Aufnahmeanordnung, lösbar. Da für das Beleuchtungsobjektiv eine sehr große Blendenöffnung gewählt werden kann, wird die Szene gut strukturiert ausgeleuchtet, so daß das Umgebungslicht weitgehend für die 3D-Aufnahme unschädlich ist.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise durch die Steuerung der Dauer eines jeden Zeitintervalls Δti und durch die Steuerung der relativen Einschaltzeiten in Bezug zur Dauer eines jeden Zeitintervalls Δti der einzelnen leuchtenden Flächenelemente FEL, die über die Objektoberfläche jeweils ein Empfängerelement beleuchten und durch die Steuerung der Leuchtdichte der leuchtenden Flächenelemente, photometrisch der Fall der Verschie­ bung von leuchtenden Flächenelementen mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte auf B-Strecken BSAj nachgebildet wird. So werden vorzugsweise effektiv leuchtende Flä­ chenelemente FEL mit ihrem jeweiligen effektiven Schwerpunkt auf B-Strecken BSAj verschoben, wobei der Konvergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs und im Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum positioniert ist, und die B-Strecken BSAj auf das Pupillenzentrum PZOA des Abbildungsobjektivs im Array-Raum gerichtet sind.Es können zwei zentralperspektivische Objektive in einer Anordnung mit koinzidierenden Hauptebenen eingesetzt werden. Hierbei wird davon ausgegangen, daß die leuchtenden Flächenelemente FEL auf­ grund eines zu "groben" Rasters des strukturiert leuchtenden Arrays nicht genau genug auf einer B- Strecke bewegen können, sondern erst in der photometrischen Wirkung eine bessere Annäherung er­ reicht wird. So wird der Fall nachgebildet, daß sich zu einem Zeitpunkt die Verschiebungsstrecken der leuchtenden Flächenelemente FEL mit den B-Strecken BSAj schneiden. Für vergleichsweise kleine Meß­ volumina ist die kurze relative Detektionszeit kein Nachteil. Der besonders Vorteil besteht darin, daß ohne ein "dehnbares", strukturiert leuchtendes Array benutzen zu müssen, der Fall der Verschiebung auf den B-Strecken BSAj nachgebildet werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht jeweils ein leuchtendes Flächenele­ ment FELj eines strukturiert leuchtenden Arrays mit äquidistanten Abständen der leuchtenden Flä­ chenelemente zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti mit einer zumindest näherungsweise gleichbleibenden, relativen Leuchtdichte aufje einer B-Strecke BSAj positioniert wird. Da­ bei wird der Konvergenzpunkt K1 mit dem Brennpunkt FOA mindestens eines Abbildungsobjektivs im Ob­ jektraum zumindest annähernd zur Koinzidenz gebracht. Zumindest annähernd wird dabei eine geradlini­ ge relative Verschiebung des Empfänger-Arrays zum Abbildungsobjektiv parallel zur optischen Achse des Abbildungsobjektivs durchgeführt und bei der Verschiebung werden mehrfach nacheinander Signalwerte aus je einem einzelnen Empfängerelement ausgelesen und so wird je ein Signalverlauf mittels einem ein­ zelnen Empfängerelement gebildet und bei Abbildung von mehrfach so erzeugten Verschiebungsstrecken ASAj von Elementen des Empfänger-Arrays mit dem Abbildungsobjektiv wird aus deren Bildern im Objek­ traum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Brennpunkt FOA des Abbildungsobjektivs gebildet. Die geradlinige Verschiebung des Empfänger-Arrays wird parallel zur optischen Achse des Abbildungsobjektivs so durchgeführt, so daß während des Ver­ schiebungsvorganges jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest zu einem Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj zur Koinzidenz gebracht und verschoben werden und so aus dem Bild von je einem Element des Empfänger-Arrays und dem Bild je eines leuchtenden Flächenelementes FELj jeweils zumindest zu diesem Zeitpunkt ti ein Paar mit fester Zuordnung gebildet wird und so im Objektraum Paare von Bildern erzeugt werden.Da jedes Element des Empfänger-Arrays die Gewinnung eines eigenen Signalverlaufs ermöglicht, ist die Möglichkeit der Parallelverarbeitung mit einem Parallelrechner-System für die einzelnen Elemente eines Empfänger-Arrays gegeben. Es besteht die Möglichkeit einer sehr hohen Verarbeitungsgeschwindigkeit.Weiterhin ist das Erreichen eines sehr großen Tiefenmeßbereiches bei der 3D-Aufnahme möglich, da das Empfänger-Array so nachgeführt wird, daß die Schärfeflächen im Objektraum gemäß der bekannten Ab­ bildungsgleichungen zumindest näherungsweise zusammenfallen, beispielsweise bei einer Anordnung mit parallelen Achsen der Objektive.Es können je ein Bild eines leuchtenden Flächenelementes und je ein Bild eines Empfängerelementes in der gesamten Tiefe des Raumes koinzidieren. Es muß jedoch keine permanente Koinzidenz zwischen dem Bild eines leuchtenden Flächenelementes und dem eines Empfängerelementes bestehen.Weiterhin kann auch das Abbildungsobjektiv relativ zum Empfänger-Array verschoben werden, beispiels­ weise auch durch eine Innenfokussierung desselben. Deshalb kann es sich hierbei auch um eine relative Verschiebung handeln. Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise während des Verschiebungsvorganges der leuchtenden Flächenelemente FEL jeweils ein Bild von einem Element eines Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flä­ chenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild einer B-Strecke BSAj permanent zur Koinzidenz gebracht und verschoben werden. Die permanente Koinzidenz führt zu einem hohen relativen Detektionsverhältnis, beispielsweise von 90% bei 90°-Phasenschritten.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise der Konvergenzpunkt K1 des Streckenbüschels SB1 gemeinsam mit dem Konvergenz­ punkt K2 des Streckenbüschels SB2 im Objektraum sowohl mit dem Brennpunkt FOA als auch mit dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zumindest annähernd zur Koinzidenz gebracht werden, wobei das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils arrayseitig zumindest nähe­ rungsweise telezentrisch ausgeführt sind. Die leuchtenden Flächenelemente FEL werden zumindest an­ nähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum. Für die Gerade gA ist der An­ stieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist und wegen der Telezentrie des Abbildungsobjektivs im Array-Raum in diesem Fall die Gerade gA mit der Geraden gAP koinzidiert.Dieses Verfahren ermöglicht die 3D-Aufnahme in einem sehr großen Tiefenmeßbereich, wobei eine An­ ordnung mit parallelen und zumindest näherungsweise baugleichen Objektiven mit Vorteil gewählt werden kann. Die detektierten Signale weisen bei einer Bewegung des strukturiert leuchtenden Arrays, beispiels­ weise eines Liniengitters mit äquidistanten Linienabständen, eine konstante Frequenz auf. Die Schärfeflä­ chen werden durch das synchrone Stellen des strukturiert leuchtenden Arrays und des Empfänger-Arrays zur Koinzidenz gebracht. Dabei ist ein starre Kopplung des strukturiert leuchtenden Arrays und des Emp­ fänger-Arrays von Vorteil.Um für eine gute Ausleuchtung des Objektes ein Abbildungsobjektiv mit einer hohen relativen Öffnung einsetzen zu können und dennoch eine große Tiefenausdehnung bei der 3D-Aufnahme erreichen zu kön­ nen, wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbil­ dungsobjektivs durchgeführt. Bei der Verschiebung werden nacheinander Signalwerte aus einzelnen, ne­ beneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen Signalwerten wird ein Signalverlauf gebildet. Dabei werden zur Bildung eines einzelnen Signalverlaufes jedoch nur Elemente ausgewählt aus deren Orten zumindest näherungsweise jeweils eine Strecke erzeugt werden kann, die im Zentrum der Austrittspupille des Abbildungsobjektivs im Objektraum konvergiert. Die Abbildung dieser Strecke mit dem Abbildungsobjektiv liefert ein Bild, welches zumindest annähernd zu einem zweiten Streckenbüschel mit einem Konvergenzpunkt K2 der Strecken im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum gehört. Dieses Verfahren führt zu einem Signal mit einer zuminde­ stens näherungsweise konstanter Frequenz beim Verschieben des Liniengitters mit konstanter Ge­ schwindigkeit in zA-Richtung.Bei Objekten mit vergleichsweise großen Abmessungen und mit einer großen Tiefenausdehnung ist für die technische Realisierung folgendes von Vorteil: Die strukturierte Beleuchtung erfolgt vorzugsweise mit einem im Array-Raum telezentrischen Beleuchtungsobjektiv und einem beleuchteten Liniengitter sowie die Abbildung mit einem im Array-Raum telezentrischen Abbildungsobjektiv. Für das Empfänger-Array wird eine geradlinige Verschiebung parallel zur optischen Achse des Abbildungsobjektivs durchgeführt. So wird für jedes Element des Empfänger-Arrays eine eigene Verschiebungsstrecke erzeugt. Bei Abbildung dieser Verschiebungsstrecken mit dem Abbildungsobjektiv entsteht aus den Bildern dieser Verschiebungsstrec­ ken ein zweites Streckenbüschel mit einem Konvergenzpunkt K2 der abgebildeten Strecken im Objek­ traum im Brennpunkt FOA des Abbildungsobjektivs. Weiterhin werden der Konvergenzpunkt K1 und der Brennpunkt FOA des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht, so daß auch der Konvergenzpunkt K2 mit dem Konvergenzpunkt K1 zusammenfallen. Dabei wird der Kon­ vergenzpunkt K1 der Strecken im Objektraum so gebildet, indem die Orte bestimmter relativer Leuchtdich­ te des beleuchteten Liniengitters, beispielsweise die Maxima der Transmission des Liniengitters, auf Ver­ schiebungsstrecken zumindest annähernd parallel zu einer Geraden gA verschoben werden. Die Gerade gA durchstößt den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum, wobei für die Gerade gA der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Beleuchtungsobjektivs und Abstand des Brennpunktes FAA des Abbildungsobjektivs von der Achse des Beleuchtungsobjektivs im Objektraum rea­ lisiert wird, und dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist. Da das Beleuchtungsobjektiv und das Abbildungsobjektiv vorzugsweise je­ weils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sind, fallen im Objektraum der Brenn­ punkt FOA und das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs zusammen. So werden auch der Konvergenzpunkt K1 und der Konvergenzpunkt K2 im zusammenfallenden Pupillenzentrum PZOA und Brennpunkt FOA des Abbildungsobjektivs zur Koinzidenz gebracht. Weiterhin ist wesentlich, daß während des gesamten Verschiebungsvorganges jeweils ein Bildelement eines Ortes bestimmter relativer Leucht­ dichte des beleuchteten Liniengitters und jeweils ein Bildelement eines Elementes des Empfänger-Arrays im Objektraum wenigstens näherungsweise zur Koinzidenz gebracht werden und so im Objektraum flä­ chendeckend feste Paare von einander unveränderlich zugeordneten Bildelementen erzeugt werden. Dies bedeutet, daß im Objektraum die Schärfeflächen des Beleuchtungs- und des Abbildungsobjektivs stets zumindest teilweise koinzidieren. In den Elementen des Empfänger-Arrays können bei diesem Verfahren periodische Signale mit einem Modulationsmaximum detektiert werden, aus denen die Information über die absolute Phase eines Objektpunktes im Zusammenhang mit der Anordnung gewonnen werden kann.Wenn das beleuchtete Liniengitter mit einer konstanten Geschwindigkeit bewegt wird, können bei der Aufnahme in den Elementen des strukturiert leuchtenden Arrays periodische Signale mit einer konstanten Frequenz gewonnen werden. Dies vereinfacht die Signalauswertung und kann deshalb zu einer erhebli­ chen Reduzierung der Rechenzeit führen.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zumindest näherungsweise eine geradlinige Verschiebung des Empfänger-Arrays durchgeführt wird und bei der Verschiebung nacheinander Signalwerte aus einzelnen, auch nebeneinan­ der liegenden Elementen des Empfänger-Arrays ausgelesen werden und Signalverläufe auch durch ge­ wichtete Summierung der Signale einzelner Elemente des Empfänger-Arrays, so daß Signale von virtuel­ len Elementen gebildet werden. Zur Bildung eines einzelnen Signalverlaufes werden so Signalwerte von virtuellen Elementen des Empfänger-Arrays verwendet, wobei diese virtuellen Elemente des Empfänger- Arrays beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschie­ bungsstrecke ASAj im Array-Raum liegen, deren Verlängerung das Zentrum der Austrittspupille des Abbil­ dungsobjektivs schneidet. Bei Abbildung von mehrfach so erzeugten Strecken wird mit dem Abbildungsob­ jektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet und während des Verschiebungsvorganges der Elemente des Empfänger-Arrays werden diese mehrfach nacheinander ausgelesen.Innerhalb des Verschiebungsvorganges werden vorzugsweise jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest während eines Zeitintervalls Δti innerhalb des Verschiebungsvorganges zumindest näherungs­ weise zur Koinzidenz auf B-Strecken BSAj gebracht. So wird aus dem Bild von einem Empfängerelement und dem Bild von einem leuchtenden Flächenelement FELj, welches auch als ein aktueller Koinzidenz­ punkt angesehen werden kann, jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objek­ traum derartige Paare erzeugt.Hier durch wird erreicht, daß bei Verwendung von Arrays mit großen Pixelzahlen ein effektiv leuchtendes Flächenelement und ein virtuelles Empfängerelement so gebildet werden, daß diese für die Dauer eines Zeitintervalls der Detektion von Licht von einem Element der Objektoberfläche im Objektraum koinzidie­ ren. Das ist die Nachbildung des Falles, daß bei einer Anordnung mit zwei zumindest näherungsweise baugleichen zentralperspektivischen Objektiven in paralleler Lage und mit koinzidierenden der Hauptebe­ nen sowohl ein reales, leuchtendes Flächenelement FELj als auch ein reales Empfängerelement auf ei­ ner Verschiebungsstrecke in Richtung des Pupillenzentrums des Abbildungsobjektivs bewegt werden. Dies ist ein kostengünstiger Fall für die optischen Komponenten, da Standardobjektive eingesetzt werden können.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt werden und bei Abbildung der erzeugten, parallelen Verschiebungs­ strecken VSBAj mit dem Beleuchtungsobjektiv aus deren Bildern zumindest näherungsweise mindestens ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 im Objektraum im Brennpunkt FOB des Beleuch­ tungsobjektivs gebildet wird. Zusätzlich eine geradlinige Verschiebung des Empfänger-Arrays, die syn­ chronisiert mit den Verschiebungen der leuchtenden Flächenelemente FEL auf parallelen Verschie­ bungsstrecken VSBAj durchgeführt wird, werden während der Verschiebung nacheinander Signalwerte aus einzelnen, nebeneinander liegenden Elementen des Empfänger-Arrays ausgelesen. Aus diesen wer­ den Signalverläufe gebildet. Zur Bildung eines einzelnen Signalverlaufes werden nebeneinander liegende Elemente des Empfänger-Arrays ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zu­ mindest näherungsweise jeweils auf einer A-Strecke ASAj im Array-Raum liegen und die Verlängerung der A-Strecke ASAj jeweils auf das Pupillenzentrum PZAB des Beleuchtungsobjektivs im Array-Raum zielt. Bei Abbildung von mehrfach so erzeugten parallelen A-Strecken ASAj mit dem Abbildungsobjektiv wird aus de­ ren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konver­ genzpunkt K2 im Pupillenzentrum PZOB der Pupille des Beleuchtungsobjektivs gebildet. Die A-Strecken ASAj werden parallel zu einer Geraden gAA ausgerichtet und die Gerade gAA schneidet den Brennpunkt FAA des Abbildungsobjektivs im Array-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Ab­ stand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und der Brennweite fA des Abbildungsobjektivs auf, wobei dieser Anstieg der Ge­ raden gAA auf die Achse des Beleuchtungsobjektivs bezogen ist. Während des synchronisierten Verschie­ bungsvorganges der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays werden die Elemente des Empfänger-Arrays mehrfach nacheinander ausgelesen. Jeweils ein Bild von einem Element des Empfänger-Arrays und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Ob­ jektraum werden innerhalb des Verschiebungsvorganges zumindest während eines Zeitintervalls Δti in­ nerhalb des Verschiebungsvorganges zumindest näherungsweise zur Koinzidenz gebracht und so wird aus dem Bild von einem des Empfängerelement und dem Bildpunkt jeweils ein verschiebbares Paar mit fester Zuordnung gebildet und so werden im Objektraum verschiebbare Paare erzeugt.Dabei kann die Geraden gAA den Durchstoßpunkt einer zur Achse des Beleuchtungsobjektivs parallelen Geraden, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum enthält, durch die array-seitige Hauptebene des Beleuchtungsobjektiv schneiden.Dieser Ansatz stellt eine Möglichkeit für schnelle Überblicksmessungen ohne die Notwendigkeit der latera­ len Verschiebung eines beleuchteten Liniengitters dar. Sowohl das beleuchtete Liniengitter als auch das Empfänger-Array bewegen sich vorzugsweise synchron und parallel zu den parallelen Achsen der beiden Objektive. Dabei koinzidieren die Schärfeflächen des Beleuchtungs- und des Abbildungsstrahlenganges im Objektraum. Bei einem hochgeöffneten Abbildungsobjektiv ist die Verschmierung der Abbildung durch das laterale Bewegen der Abbildungsstrahlen über die Objektoberfläche für eine Überblicksmessung in der Regel zu tolerieren.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet. Dadurch ergibt sich im Ergebnis dieser Rechenope­ ration eine absolute Objektphase ϕObj für jeden Objektpunkt, die auf einen Referenzpunkt im Objektraum bezogen ist, wobei Informationen aus dem Signalverlauf des zugehörigen Referenzpunktes abgespeichert werden.Dabei kann die Position der Referenzplatte zOR im Objektraum vor der Messung der Objektoberfläche oder der Szenen zumindest im Nahbereich mehrfach gemessen werden und die gegebenenfalls ortsab­ hängige Zuordnung der jeweiligen Phasenlage des Signals zum Modulationsmaximum bestimmt werden. Dies stellt eine Möglichkeit dar, um Phasenkorrekturwerte zu gewinnen. Diese Veränderung der jeweiligen Phasenlage des Signals zum Modulationsmaximum resultiert beispielsweise aus den ortsabhängigen Verzeichnungen der Objektive. Dieser Phasengang wird in Abhängigkeit vom Ort bestimmt und für die rechnergestützte Korrektur tabelliert. Weitere Details hierzu wurden bereits im ersten Teil der Offenbarung dargestellt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise eine absolute Phasendifferenz ΔϕGitter in einem Bildpunkt, welcher zu einem Objekt­ punkt gehört, aus jeweils mindestens zwei Signalverläufen nämlich dem im genannten Objektpunkt selbst und dem im zugehörigen Referenzpunkt im jeweils gleichen Abbildungsstrahl unter Auswertung der Modu­ lation im Signal gebildet wird, wobei die errechnete absolute Phasendifferenz jeweils vorzeichenrichtig zur absoluten Referenzphase ϕR addiert wird, die sich aus der mindestens einmal experimentell vorbestimm­ ten Position der Referenzplatte zOR im Objektraum und bezogen auf das Beleuchtungsobjektiv und den Geometriedaten der optischen Anordnung errechnet, wodurch sich im Ergebnis dieser Rechenoperation eine absolute Objektphase ϕObj für jeden Objektpunkt ergibt, die auf einen Referenzpunkt im Objektraum bezogen ist,
und aus dem Signalverlauf des zugehörigen Referenzpunktes der absolute Referenzphasenwert berech­ net und als absoluter Referenzphasenwert abgespeichert wird.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Ar­ rays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des verschobenen strukturiert leuchtenden Arrays zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet werden kann, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und des Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Referenzpunktes und eines Objektpunkte - jeweils in der 2π-Umgebung des Modulationsmaximums errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase ϕR des mitverschobenen Referenzgitters zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase des strukturiert leuchtenden Arrays selbst so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Refe­ renzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π-Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des verschobenen strukturiert leuchtenden Arrays ϕR zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die absolute Phasendifferenz ΔϕGitter aus der Phase eines mitverschobenen Refe­ renzgitters so abgeleitet wird, daß die - aus dem beim Verschieben des strukturiert leuchtenden Arrays und Empfänger-Arrays in jedem Bildpunkt des Empfänger-Arrays entstehenden Signalverläufe eines Re­ ferenzpunktes und eines Objektpunkte - genau am Modulationsmaximum errechneten mod 2π- Phasenlagen vorzeichenrichtig zur ständig gemessenen absoluten Phase des mitverschobenen Refe­ renzgitters ϕR zugeordnet werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich über den Beleuchtungsstrahlengang eine Bildaufnahme des Objektes oder der Szene mit einem zusätzlichen Empfänger-Array durchgeführt wird und die Bildelemente des zusätzli­ chen Empfänger-Arrays dabei jeweils eine geradlinige Verschiebung im Array-Raum erfahren.Die Realisierung einer zweiten Beobachtungsrichtung ermöglicht eine bessere Erfassung der Szene. So kann die Schattenbildung verringert werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise zusätzlich eine Beleuchtung des Objektes oder der Szene durchgeführt wird mit einem zusätzlichen, strukturiert leuchtenden Array mit leuchtenden Flächenelementen mit Extrema der Leucht­ dichte und diese Extrema dabei jeweils parallel zu einer Geraden gAP2, die spiegelsymmetrisch zur Gera­ den gAP ist, auf Verschiebungsstrecken im Array-Raum verschoben werden.Die Realisierung einer zweiten Beleuchtungsrichtung ermöglicht eine bessere Ausleuchtung der Szene und reduziert gegebenenfalls Schatten auf den Objektoberflächen.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Verschiebung des strukturiert leuchtenden Arrays durch optische Kopplung mit einer gerasterten Struktur als Gegengitter und einem Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase abgeleitet wird.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die für das Auswerteverfahren benötigte Information über die absolute, lateral invarian­ te Objektphase durch optische Bestimmung der absoluten Phase ϕGitter direkt aus der Bewegung einer starr mit dem strukturiert beleuchteten Array gekoppelten Referenzstruktur abgeleitet wird. Dabei ist die­ ser ein Auswertesystem und ein Nullpunktgeber für die Berechnung der absoluten, lateral invarianten Objektphase zugeordnet.Der Referenzstruktur, beispielsweise am Umfang einer rotierenden Scheibe; ist vorzugsweise ein Auswer­ tesystem und ein Nullpunktgeber zugeordnet, um die Information der Referenzstruktur auswerten zu kön­ nen. So kann, von einem Nullpunkt beginnend, die absolute, lateral invarianten Objektphase bestimmt werden. Aber es kann auch allgemein in grundsätzlich beliebigen Einheiten, beispielsweise in einer Län­ geneinheit oder in der Form von Zählimpulsen, die Weginkremente verkörpern können, ein Referenzwert gewonnen werden, welcher ein Äquivalent für die absolute, lateral invariante Objektphase darstellt.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das Auslesen der Elemente des Empfänger-Arrays bei veränderlichen Werten der Referenzphase mod 2π durchgeführt wird, also asynchron zur Referenzphase ϕGitter durchgeführt wird, wobei der jeweils aktuelle Triggerimpuls für das Detektieren von Licht der Elemente des Empfänger- Arrays im Zeitintervall Δti bei einer gegebenen präzisonsmechanisch-optischen Anordnung zur 3D- Aufnahme sich in Abhängigkeit von deren Geometrie der Anordnung sowie der Lage der Konvergenz­ punkte K1 und K2 und in Abhängigkeit vom aktuellen Wert der absoluten Referenzphase ϕGitter für jedes Element berechnet wird und in einer Phasenkorrekturwert-Tabelle vorliegt. So wird in jedem Element des Empfänger-Arrays ein Signalverlauf mit zumindest näherungsweise konstanter Ortsfrequenz erzeugt. Da­ bei erfolgt das Auslesen der Elemente des Empfänger-Arrays in aufeinanderfolgend zumindest annähernd gleichen Phasenschritten ΔϕEmpfänger der Phase ϕEmpfänger in jedem Element des Empfänger-Arrays und die im Verhältnis zur Phasenschrittweite ΔϕEmpfänger selbst kleineren Abweichungen ΔΔϕ zwischen der Refe­ renzphase und der in einem Element des Empfänger-Arrays sich ergebenden Phase ϕEmpfänger als von der Referenzphase ϕGitter abhängige Phasenkorrekturwerte ΔΔϕ werden mindestens einmalig für jedes Ele­ ment des Empfänger-Arrays errechnet. Diese von der Referenzphase ϕGitter abhängige Phasenkorrektur­ werte ΔΔϕ und liegen so in einer Phasenkorrekturwert-Tabelle vor und werden gespeichert. Die Phasen­ korrekturwerte ΔΔϕ werden sowohl für die Bestimmung des jeweiligen Abtastpunktes als auch bei der Be­ rechnung der absoluten Phase verwendet. Weiterhin werden Verschiebungen der leuchtenden Flä­ chenelemente FEL durchgeführt, wobei die Bilder der Verschiebungsstrecken VSBAj ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 bilden.Hierbei wird bei Kenntnis der Geometrie der Anordnung, der Lage der Konvergenzpunkte K1 und K2 und der Kenntnis der Lage der realen Verschiebungsstrecken der Zeitpunkt des Abtastintervalls Δti verscho­ ben, um zumindest annähernd ein Signal mit einer konstanten Frequenz zu erhalten, das sehr schnell ausgewertet werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise leuchtende Flächenelemente FEL - und so auch leuchtende Flächenelemente FEL mit lokalen Extrema der Leuchtdichte - im Array-Raum auf Verschiebungsstrecken VSBAj verschoben werden, die mit den B-Strecken BSAj koinzidieren, und die B-Strecken BSAj mittels einer zweistufigen Abbildungs­ stufe abgebildet werden. Gleichzeitig erfolgt die Detektion von Licht von den Elementen der Objektober­ flächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays. Diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen und so wird jeweils ein leuchtendes Flä­ chenelement FELj auf je einer B-Strecke BSAj positioniert, und die Bilder dieser B-Strecken BSAj werden nach der ersten Abbildung mit einem Beleuchtungsobjektiv zu einem Streckenbüschel SB1 mit einem Konvergenzpunkt K1 geformt und ein zum Konvergenzpunkt K1 optisch konjugierter Punkt K1konj wird in den Objektraum in das Zentrum der Pupille PZOA des Abildungsstrahlenganges im Objektraum abgebildet. Während des Verschiebungsvorganges von strukturiert leuchtendem Array und Empfänger-Array werden jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtendes Flächenelement konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche im Objektraum zumindest nähe­ rungsweise gemeinsam auf das Bild einer B-Strecke BSAj gebracht und so werden aus dem Bild von ei­ nem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet wird und so im Objektraum derartige Paare von Bildern erzeugt.Bei diesem Verfahren ist der telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum ein­ geschlossen, d. h. die Pupille im Objektraum kann jeweils auch im Unendlichen liegen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden, nicht jedoch ein Objekt. Dieses Verfahren ist deshalb beispielswei­ se für das 3D-Aufnahmeverfahren bei chirurgischen Operationen geeignet, da der in sich bewegliche Pa­ tient und auch das schwere 3D-Aufnahmegerät in Ruhe verbleiben können. Weiterhin ist von Vorteil, daß bei einem telezentrischen Strahlengang die effektive Wellenlänge im gesamten Objektraum konstant ist.Die leuchtenden Flächenelemente FEL können sich hierbei ständig auf den B-Strecken BSAj befinden. Dabei sind keine Kenntnisse über die Lage und Form der Objektoberfläche notwendig, wenn ein großer Tiefenbereich im Objektraum gewählt wird. Bei A-priori-Kenntnissen über die Lage und Grobform der Ob­ jektoberfläche kann der Zeitbereich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet und die an die Objektoberfläche angrenzende Tangentialebene zumindest näherungsweise senkrecht zur optischen Achse des Beleuchtungsobjektivs steht.Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die B-Strecken BSAj mittels eines afokalen Beleuchtungsstrahlenganges mit einem in­ neren Brennpunkt FBi abgebildet werden und die Objektoberflächen mit einem afokalen Abbildungsstrah­ lengang mit einem inneren Brennpunkt FAi abgebildet werden und im Objektraum der Brennpunkt des afo­ kalen Beleuchtungsstrahlenganges und des afokalen Abbildungsstrahlenganges zusammenfallen. Gleich­ zeitig erfolgt die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitin­ tervalls Δti durch die Elemente des Empfänger-Arrays und diese werden ausgelesen und so wird jeweils ein Signalwert gewonnen. Der Konvergenzpunkt K1 wird in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs positioniert, wobei der Abstand dK1 dem halben Abstand vom inneren Brenn­ punkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht. Dabei sind das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt. So werden leuchtende Flächenelemen­ te FEL und so auch die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung mit lokalen Ex­ trema der Leuchtdichte zumindest annähernd parallel zu einer Geraden gA auf Verschiebungsstrecken VSBAj verschoben. Die Gerade gA durchstößt dabei den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und für die Gerade gA ist der Anstieg mit dem Betrag aus dem Quotienten Brennweite des Be­ leuchtungsobjektivs und Abstand dk1 realisiert, wobei der Anstieg auf die Hauptebene des Abbildungsob­ jektivs bezogen ist. Zumindest annähernd wird eine geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs mit der gleichen Geschwindigkeit wie das leuchten­ de Array durchgeführt und bei der Verschiebung der beiden Arrays werden mehrfach nacheinander Signalwerte aus je einem einzelnen Element des Empfänger-Arrays ausgelesen. So wird je ein Signalver­ lauf aus einem einzelnen Element des Empfänger-Arrays gebildet und bei Abbildung mit einer Abbil­ dungsstufe von mehrfach so erzeugten Verschiebungsstrecken von Elementen wird aus deren Bildern im Raum nach der Abbildungsstufe zumindest annähernd mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im inneren Brennpunkt FAi des Abbildungsobjektivs gebildet. Während des Verschiebungsvorganges von einem strukturiert leuchtendem Array und einem Empfänger- Array werden vorzugsweise jeweils ein Bild von einem Empfängerelement und jeweils ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zumindest näherungsweise gemeinsam auf dem Bild BSOj einer B-Strecke BSAj zur Koinzidenz gebracht und gemeinsam verschoben. So wird aus dem Bild von einem Element des Empfänger-Arrays und dem Bild eines leuchtenden Flächenelementes FELj jeweils ein Paar mit fester Zuordnung gebildet und so werden im Objektraum derartige Paare von Bildern ver­ schoben.Dieses Verfahren stellt den telezentrische Fall für die Beleuchtung und die Abbildung im Objektraum dar, d. h. die Pupille im Objektraum liegt jeweils im Unendlichen. Die Beobachtung kann mit einer Kamera von oben erfolgen. Vorteilhaft ist, daß nur das strukturiert leuchtende Array und das Empfänger-Array bewegt werden müssen. Die leuchtenden Flächenelemente FEL befinden sich vorzugsweise ständig auf den B- Strecken BSAj. Dabei sind keine Kenntnisse über die Lage und die Form der Objektoberfläche notwendig. Bei A-priori-Kenntnissen über die Lage und Grobform der Objektoberfläche kann in der Regel der Zeitbe­ reich ΔtB bei flachen Objekten kleiner gemacht werden, wenn bekannt ist, wo sich die Objektoberfläche befindet.Der Abstand dK1 entspricht dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstu­ fe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges. Dies ist gleichbedeutend mit der Tatsache, daß der Konvergenzpunkt K1 im Durchstoßpunkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbil­ dungsstrahlenganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt.Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse in Bezug zur Tangen­ tialebene der Objektoberfläche wählbar, so daß zum einen eine senkrechte Beobachtung und Schrägbe­ leuchtung möglich und andererseits eine senkrechte Beleuchtung und Schrägbeobachtung möglich sind.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Elemente des Empfänger-Arrays im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und die zwei Empfänger- Arrays, die zur Aufnahme der strukturiert beleuchteten Objektoberflächen in einer Szene im Objektraum verwendet werden, beim Aufnahmevorgang gleichzeitig im Array-Raum auf Verschiebungsstrecken ASA1 und ASA2 verschoben werden, die einen Winkel zueinander aufweisen.Dabei sind für die 3D-Aufnahme des Hintergrundes der Szene mindestens zwei Abbildungsstrahlengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbildungsstrah­ lengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet, wobei die Abbildungsobjektive räumlich getrennten Öffnungsblenden aufweisen und jedem Abbildungsobjektiv mit mindestens je einem Empfänger-Array mit Elementen oder einem Bild desselben zugeordnet ist. Die Brennebenen der Abbildungsstrahlengänge schneiden sich im Objektraum, wobei die Schnittgerade SG senkrecht auf der Symmetrielinie SL im Hauptschnitt steht, und die Bilder der Verschiebungsstrecken ASA1 und ASA2 die Strecken ASO1 und ASO1, annähernd auf der Symmetrielinie zwischen den beiden Ach­ sen der Objektive zur Konvergenz gebracht werden und dort in einem Koinzidenzpunkt K0 konvergieren.Im Konvergenzpunkt K0 werden das Streckenbüschel S21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j, mit dem Konvergenzpunkt K21 und das Streckenbüschel S22 der Bilder der Verschiebungsstrecken ASA2j der einzelnen Elementes des zweiten Empfänger-Arrays, der Strecken ASO2j, mit dem Konvergenzpunkt K22 zur Koinzidenz gebracht. Die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfän­ ger-Arrays werden im Objektraum für den Zeitbereich ΔtB paarweise zumindest näherungsweise zur Ko­ inzidenz gebracht und die paarbildenden Elemente der beiden Empfänger-Arrays stellen jeweils korre­ spondierende Elemente dar.Die Signalverläufe S1 des ersten Empfänger-Arrays werden durch Auslesen von je einem Element wäh­ rend der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und die Verschiebung des ersten Empfänger-Arrays wird parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben. Die Signalverläufe S2 des zweiten Empfänger-Arrays werden durch Auslesen von je einem Element während der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke AS2j gebildet und die Verschiebung des zweiten Empfänger-Arrays erfolgt gleich­ zeitig mit der des ersten Empfänger-Arrays und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben. Die Gerade gA1P wird in einem Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 in der Hauptebene des Abbildungsobjektivs zum Schnitt gebracht, wobei zusätzlich die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs enthält und die Ge­ rade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im A 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880rray-Raum enthält. Dabei liegt der Punkt PA1 im Durchstoßpunkt einer Geraden durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält. Der Punkt PA2 liegt im Durchstoßpunkt einer Geraden durch die Hauptebene des zweiten Abbildungsobjektivs im Array-Raum, die zur optischen Achse desselben parallel liegt, und zusätzlich den Koinzidenzpunkt K0 enthält.Bei Schärfeeinstellungen auf eine große Entfernung von der 3D-Aufnahmeanordnung, dies entspricht ei­ ner Positionierung der leuchtenden Flächenelemente FEL der strukturierten Beleuchtung in der Nähe der Brennebene des Beleuchtungsobjektivs im Array-Raum, beispielsweise auf den Hintergrund einer Szene, können die abgebildeten leuchtenden Flächenelemente FEL der strukturierten Beleuchtung nicht mehr detektiert werden. Die gegebene Beleuchtung und die strukturierte Beleuchtung, wenn diese noch einen detektierbaren Beitrag leistet, werden ohnehin vermischt. So kann die absoluten Phaseabs nicht mehr zu­ verlässig bestimmt werden. Hier kommt deshalb vorzugsweise dieses nachstehend Auswerteverfahren zur Anwendung.Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemein­ samen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Vorteilhaft sind Fensterlängen mit einer Länge von beispielsweise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Es erfolgt synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem In­ krement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.Die Invertierung ist notwendig um korrelierbare Signale zu erhalten, da die Abbildungsstrahlen der Ele­ mente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinander zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D- Aufnahmeanordnung.Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m be­ stimmt wird. Aus den m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in die­ ser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maxi­ malwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann eine Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum der Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können Interpolationsmethoden angewendet werden.So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannten ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden können, berechnet werden, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschie­ bung, der beiden Empfänger-Arrays vorbestimmt sind.Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objekt­ oberfläche bezeichnet werden. Es wird darauf in der Offenbarung unter dieser Bezeichnung auf dieses Korrelationsverfahren mit zwei gefensterten Signalverläufen noch weiter Bezug genommen.Weiterhin werden vorzugsweise für die Bestimmung der mittleren Beleuchtungsstärke von Elementen der Objektoberfläche zumindest die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfän­ ger-Arrays ausgelesen, die im Verschiebungsvorgang zumindest näherungsweise je auf einer Strecke lie­ gen im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist.Die elektronisch gesteuerte Verschiebung der leuchtenden Flächenelemente FEL und die der Empfänger- Arrays an einen anderen Ort kann mit mechanischen oder mit mikromechanischen Mitteln erfolgen.Die beiden Achsen der Abbildungsobjektive können zueinander geneigt sein. Bei einer parallelen Anord­ nung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zu­ sammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen und die Abbildungsobjektive zumindest näherungsweise baugleich sind und die Empfän­ ger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befinden bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Verschiebungen der beiden Emp­ fänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bilder ASO1 und ASO2 im Objek­ traum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y-Verfahren gesprochen werden kann. Bei der Bestimmung der 3D-Punktwolke kann im Vordergrund der Szene das bereits beschriebene Ver­ fahren mit der Verschiebung der leuchtenden Flächenelemente FEL und der Bestimmung der absoluten Phase eingesetzt werden. Für den Hintergrund wird das soeben beschriebene Korrelationsverfahren ein­ gesetzt. Es ist dabei ein Übergangsbereich notwendig. Gegebenenfalls müssen die Verfahren zeitlich nacheinander angewendet werden, um einen Übergangsbereich ohne Informationsverluste überbrücken zu können. Dies ist notwendig, da bei dem Verfahren zur Bestimmung der absoluten Phase sich in der Regel die Elemente des Empfänger-Arrays auf ASAj-Strecken, also parallel zu den Achse des jeweiligen Abbildungsobjektivs bewegen. Dagegen erfolgt die Verschiebung der Empfänger-Arrays beim 3D-Y- Verfahren vorzugsweise auf anderen Strecken, den beiden oberen Y-Ästen. Dies erfordert eine jeweils andere mechanische Bewegung und somit auch der Steuerung der Empfänger-Arrays. Für das 3D-Y- Verfahren mit der beschriebenen Bestimmung des Korrelationsmaximums Mj findet die Verschiebung der leuchtenden Flächenelemente FEL auf Strecken parallel zu der Achse des jeweiligen Beleuchtungsobjek­ tivs statt.Im phasenauswertenden Verfahren kann aus dem Signalverlauf, der von einem Element der Objektober­ fläche gewonnen werden kann, die mittlere Beleuchtungsstärke eines Elementes der Objektoberfläche und auch gegebenenfalls dessen Farbe, durch den Einsatz farbsensitiver Elemente des Empfänger- Arrays aus dem detektierten Signalverlauf bestimmt werden. Dies ist für das hier beschriebene Korrelati­ onsverfahren jedoch nicht ohne weiteres möglich, da ein verschobenes Element des Empfänger-Arrays nicht an einen ortsfesten Abbildungsstrahl gebunden ist, sondern an einen Abbildungsstrahl, der über die Objektoberfläche "wandert", beziehungsweise an unterschiedliche Abbildungsstrahlen von verschiedenen Elementen der Objektoberfläche oder der Szene.Deshalb werden zusätzlich für das Korrelationsverfahren zur Bestimmung der mittleren Beleuchtungsstär­ ke von Elementen der Objektoberfläche vorzugsweise genau die Elemente des Empfänger-Arrays im Verschiebungsvorgang der Empfänger-Arrays ausgelesen, die zumindest näherungsweise je auf einer Strecke im Array-Raum liegen, die durch einen ortsfesten Abbildungsstrahl im Objektraum vorgegeben ist, wobei ein ortsfester Abbildungsstrahl im Objektraum durch ein feststehendes Element der Objektoberflä­ che oder der Szene und das Pupillenzentrum des zugehörigen Abbildungsobjektivs vorbestimmt ist. Das heißt, bereits vor und nach dem Durchgang der Schärfevolumens durch die Elemente der Objektoberflä­ che wird von einem Element derselben mindestens ein Signalwert gewonnen. So kann der Einfluß des strukturierten Lichtes in den Elementen der Objektoberfläche durch dessen unscharfe Abbildung für die Bestimmung der mittleren Beleuchtungsstärke eliminiert werden und so auch die Farbe, beziehungsweise die spektrale Zusammensetzung des reflektierten Lichtes von einem Element der Objektoberfläche be­ stimmt werden. So kann auch von einer Freiraumszene mit einem Vordergrund die 3D-Punktwolke be­ stimmt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Gerade gA1P in einem Punkt PA in der Hauptebene des Abbildungsobjektivs und im Durchstoßpunkt der Symmetrielinie SL im Array-Raum und die Gerade gA2P im gleichen Punkt PA zum Schnitt gebracht werden, wobei die optischen Achsen der beiden Abbildungsstrahlengänge parallel ange­ ordnet sind, und die Gerade gA1P zusätzlich den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum enthalten. Bei dieser parallelen Anordnung der beiden Achsen der Abbildungsobjektive fallen der Punkt PA1 und der Punkt PA2 im Punkt PA zusammen. In diesem Fall und wenn die Rasterkonstanten und die aktiven Flächen der Empfänger-Arrays übereinstimmen sowie die Abbildungsobjektive zumindest näherungsweise bau­ gleich sind und die Empfänger-Arrays sich zumindest näherungsweise gemeinsam in einer Ebene befin­ den, bilden alle Elemente der beiden Empfänger-Arrays jeweils korrespondierende Paare. Die realen Ver­ schiebungen der beiden Empfänger-Arrays auf den Verschiebungsstrecken ASA1 und ASA2 und deren Bil­ der ASO1 und ASO2 im Objektraum bilden den Buchstaben Y, so daß hier zur Abgrenzung vom 3D-Y- Verfahren gesprochen werden kann.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise die Empfängerelemente im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren und beim Aufnahmevorgang die zwei Emp­ fänger-Arrays gleichzeitig und parallel zu jeweiligen optischen Achsen der parallelen Abbildungsobjektive, deren Hauptebenen zusammenfallen, verschoben werden. Dabei sind für die 3D-Aufnahme des Hinter­ grundes der Szene mindestens zwei parallele, zumindest näherungsweise baugleiche Abbildungsstrah­ lengänge für die Abbildung der Objektoberflächen mit einem ersten Abbildungsobjektiv im ersten Abbil­ dungsstrahlengang und einem zweiten Abbildungsobjektiv im zweiten Abbildungsstrahlengang angeordnet und die Abbildungsobjektive weisen räumlich getrennten Öffnungsblenden auf. Jedem Abbildungsobjektiv ist mindestens je ein Empfänger-Array mit Elementen oder ein Bildes desselben zugeordnet und das Si­ gnal S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß es dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal S1 zumindest annähernd entspricht, und das Signal S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen während der Verschiebung des zweiten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß dieses Signal S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zu­ mindest annähernd entspricht. Die Gerade gA1P wird in einem Punkt PA in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird im gleichen Punkt PA in der Hauptebene des zweiten Abbildungsobjektivs, die mit der Hauptebene des ersten Abbildungsobjektivs zumindest nä­ herungsweise zusammen fällt, zum Schnitt gebracht und zusätzlich enthält die Gerade gA1P den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbil­ dungsobjektivs im Array-Raum, wobei Verschiebungen der leuchtenden Flächenelemente FEL durchge­ führt werden und die zugehörigen Verschiebungsstrecken VSBAj parallel zur Symmetrielinie SL der beiden optischen Achsen ausgerichtet sind und der Punkt PA im Durchstoßpunkt der Symmetrielinie SL durch die zusammenfallenden Hauptebenen der beiden Abbildungsobjektive liegt. Aus den Bildern der Verschie­ bungsstrecken VSBAj wird ein Streckenbüschel SB1 mit einem Konvergenzpunkt K1 auf der Symmetrielinie SL gebildet, der mit dem Konvergenzpunkt K0 zusammenfällt.Der Vordergrund der Szene wird strukturiert beleuchtet. Der entfernte Hintergrund der Szene wird nicht mehr von der strukturiert leuchtenden Flächenelementen ausgeleuchtet. Hier wird anstelle der Bestim­ mung absoluten Phase ϕabs dann das Korrelationsprinzip zur Bestimmung der zO-Positionen der Elemente der Objektoberlläche angewendet. Von Vorteil ist, daß keine laterale Bewegung der leuchtenden Flä­ chenelemente notwendig ist. Dieses Verfahren ist auch für eine Freiraumszene geeignet. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebe­ ne des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So können der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 zur Koinzidenz gebracht werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise in den Zeitintervallen Δti der Detektion von Licht die leuchtenden Flächenelemente FEL relativ zum Beleuchtungsobjektiv verschoben werden und dabei zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti stets auf einer B-Strecke BSAj positioniert werden, wobei die B-Strecken die Sollorte für die leuchtenden Flächenelemente FEL zumindest zu einem Zeitpunkt ti innerhalb des Zeitintervalls Δti darstellen und die B-Strecken die Achse des Beleuchtungsobjektivs stets unter einem rechten Winkel schneiden. Zumindest in einem Zeitbereich ΔtB während des Verschiebungsvorganges der leuchtenden Flächenelemente werden jeweils genau ein Bild von einem feststehenden Element eines feststehenden Empfängers und jeweils genau ein Bild von einem leuchtenden Flächenelement FELj im Objektraum zu­ mindest zu einem einzigen Zeitpunkt ti innerhalb eines jeden Zeitintervalls Δti der Detektion zumindest nä­ herungsweise gemeinsam auf dem Bild einer B-Strecke BSAj positioniert und so wird zumindest zu diesem Zeitpunkt ti aus dem Bild von einem Empfängerelement und dem Bild eines leuchtenden Flächenelemen­ tes FELj jeweils im Objektraum ein Paar mit fester Zuordnung gebildet. Der Zeitpunkt ti für mindestens ein Element eines Empfänger-Arrays wird aus dem Durchgang mindestens eines leuchtenden Flächenele­ mentes durch einen vorbestimmten Referenzort abgeleitet. Die Elemente des Empfänger-Arrays detektie­ ren im Zeitintervall Δti der Koinzidenz einen periodischen Signalverlauf und die Phase diese Signalverlau­ fes wird in Bezug zur Phase am Referenzort ausgewertet.Dies ist ein Ansatz, bei dem nur der vorhandene Schärfentiefebereich im Abbildungsstrahlengang ausge­ nutzt wird. Es erfolgt keine Verschiebung der leuchtenden Flächenelemente FEL und der Elemente des Empfänger-Arrays in zA-Richtung im Array-Raum. Dieses Verfahren ermöglicht die Detektierung einer sich schnell ändernden Form einer Objektoberfläche oder deren Verformung, beziehungsweise die Detektion von Schwingungen der Elemente einer Oberfläche.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise mit einer von einer Strahlungsquelle beleuchteten Objektoberflächen mit einem ersten und mindestens einem zweiten Abbildungsstrahlengang, wobei die Achse eines ersten Abbildungsobjek­ tivs für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungsobjektivs für die Abbildung der Objektoberflächen ausgerichtet ist, und so zwischen den beiden Achsen der beiden Abbil­ dungsobjektive eine Symmetrielinie SL gebildet ist. Jedem Abbildungsstrahlengang ist mindestens ein zu­ geordneten Empfänger-Array zugeordnet und die beiden Empfänger-Arrays weisen jeweils Empfängere­ lemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Ob­ jektoberflächen im Objektraum detektieren und
die beiden Abbildungsobjektive weisen mindestens einen Abstand d von einem Achtel der Ausdehnung der Öffnungsblende des ersten Abbildungsobjektivs auf und die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine Verschiebung an einen anderen Ort. So werden auch die einzelnen Empfängerelemente verschoben und so detektieren die Empfängerelemente dabei an unter­ schiedlichen Orten elektromagnetische Strahlung. Zumindest näherungsweise erfolgt gleichzeitig die De­ tektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays und die Elemente des Empfänger-Arrays werden anschließend ausgele­ sen, wobei jeweils Signalwerte gewonnen werden.Die optischen Achsen der beiden Abbildungsstrahlengänge sind vorzugsweise parallel angeordnet. Es ist vorzugsweise eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gege­ benenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.Beim Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen op­ tischen Achsen der Abbildungsstrahlengänge, deren Brennebenen im Objektraum zusammenfallen, auf Verschiebungsstrecken ASA1 und ASA2 verschoben. Die Bilder der Verschiebungsstrecken ASA1 und ASA2, die Strecken ASO1 und ASO2, werden im Objektraum zumindest annähernd auf der Symmetrielinie zwi­ schen den beiden Achsen der Objektive positioniert.Aus dem Streckenbüschel SB21 der Bilder der Verschiebungsstrecken ASA1j der einzelnen Elementes des ersten Empfänger-Arrays, die Strecken ASO1j wird ein Konvergenzpunkt K21 gebildet und aus dem Strec­ kenbüschel SB22 der Bilder der Verschiebungsstrecken AS2j der einzelnen Elementes des zweiten Emp­ fänger-Arrays, die Strecken ASO2j, wird ein Konvergenzpunkt K22 gebildet und der Konvergenzpunkt K22 und der Konvergenzpunkt K22 werden auf der Symmetrielinie SL zur Koinzidenz gebracht und bilden auf der Symmetrielinie SL den Konvergenzpunkt K0 und die beiden Empfänger-Arrays werden so verschoben, daß deren Bilder zumindest teilweise im Objektraum zusammenfallen, so daß die Bilder der Elemente des ersten Empfänger-Arrays und die Bilder der Elemente des zweiten Empfänger-Arrays im Objektraum paarweise zumindest näherungsweise zur Koinzidenz gebracht werden, wobei die paarbildenden Elemen­ te der beiden Empfänger-Arrays jeweils korrespondierende Elemente darstellen. So wird vorzugsweise jeweils ein aktueller Koinzidenzpunkt aus diesen zwei Bildern von Elementen gebildet, der durch den Ob­ jektraum verschoben wird. Dies erfolgt vozugsweise mit allen Elementen der Empfänger-Arrays. Es wer­ den vorzugsweise Signalverläufe S1 des ersten Empfänger-Arrays durch Auslesen der Elemente während der Verschiebung des ersten Empfänger-Arrays auf der Verschiebungsstrecke ASA1j gebildet und es wird die Verschiebung des ersten Empfänger-Arrays parallel zu einer Geraden gA1P durchgeführt und so wer­ den die Elemente des ersten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA1P auf Verschiebungsstrecken ASA1j verschoben.Weiterhin werden Signalverläufe S2 des zweiten Empfänger-Arrays durch Auslesen der Elemente wäh­ rend der Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungsstrecke ASA2j gebildet und die Verschiebung des zweiten Empfänger-Arrays wird parallel zu einer Geraden gA2P durchgeführt und so werden die Elemente des zweiten Empfänger-Arrays zumindest annähernd parallel zu einer Geraden gA2P auf Verschiebungsstrecken ASA2j verschoben, wobei die Verschiebung des zweiten Empfänger-Arrays zumindest näherungsweise gleichzeitig mit der des ersten Empfänger-Arrays erfolgt. Die Gerade gA1P wird in einem Punkt PA1 auf der Symmetrielinie SL und in der Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 auf der Symmetrielinie SL und in der Hauptebe­ ne des zweiten Abbildungsobjektivs zum Schnitt gebracht, wobei die Gerade gA1P zusätzlich den Brenn­ punkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P den Brennpunkt FA2 des Abbildungsobjek­ tivs im Array-Raum enthält.Aus den beiden Signalverläufen S1j, S2j von zwei korrespondierenden Elementen 1j und 2j der Empfänger- Arrays wird durch das vordem bereits beschriebene Korrelationsverfahren mit zwei gefensterten Signal­ verläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung be­ rechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektober­ flächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Ver­ schiebungen der Empfänger-Arrays vorbestimmt sind.Bei der Verschiebung der Empfänger-Arrays kann es sich um eine elektronisch gesteuerte, mechanische Bewegung handeln. Es ist weiterhin möglich, daß die Hauptebene des Abbildungsobjektivs im Array- Raum und die Hauptebene des Abbildungsobjektivs in einer gemeinsamen Ebene zusammenfallen. So ist gegeben, daß der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symme­ trielinie SL liegt und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrie­ linie SL liegt und so die beiden Punkte PA1 und PA2 in einem Punkt PA zur Koinzidenz gebracht werden.Hierbei handelt es sich um das 3D-Y-Verfahren mit einer realen Verschiebung der beiden Empfänger- Arrays auf ASA1- und ASA2-Strecken, also auf den beiden oberen Y-Ästen. So kann von Freiraumszenen bei Tageslicht - einschließlich direktem Sonnenlicht - von Objektoberflächen auch im Hintergrund der Szene die 3D-Punktwolke gewonnen werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise beleuchtete Objektoberflächen mit einem ersten und mindestens einem zweiten Abbil­ dungsstrahlengang abgebildet werden. Dabei ist die Achse eines ersten Abbildungsobjektivs im Abbil­ dungsstrahlengang für die Abbildung der Objektoberflächen parallel zur Achse eines zweiten Abbildungs­ objektivs im Abbildungsstrahlengang für die Abbildung der Objektoberflächen ausgerichtet. So ist zwi­ schen den beiden Achsen der beiden Abbildungsobjektive eine Symmetrielinie SL gebildet.Jedem Abbildungsstrahlengang ist mindestens je ein Empfänger-Array zugeordnet und die beiden Emp­ fänger-Arrays weisen jeweils Elemente auf, die im Aufnahmevorgang im Zeitbereich ΔtB Licht von den Elementen der beleuchteten Objektoberflächen im Objektraum detektieren, und die beiden Abbildungsob­ jektive weisen einen Abstand d des Pupillenzentrums PZOB des ersten Abbildungsobjektivs vom Pupillen­ zentrum PZOA des zweiten Abbildungsobjektivs im Objektraum von mindestens einem Achtel der Ausdeh­ nung der Öffnungsblende des ersten Abbildungsobjektiv auf.Die beiden Empfänger-Arrays erfahren im Aufnahmevorgang im Zeitbereich ΔtB je eine elektronisch ge­ steuerte, mechanische Verschiebung im array-Raum und so werden auch die einzelnen Empfängerele­ mente verschoben und so detektieren dabei die Empfängerelemente an unterschiedlichen Orten elektro­ magnetische Strahlung.Die Detektion von Licht von den Elementen der Objektoberflächen für die Dauer eines Zeitintervalls Δti durch die Elemente des Empfänger-Arrays erfolgt zumindest näherungsweise gleichzeitig. Die Elemente des Empfänger-Arrays werden anschließend ausgelesen, und es werden jeweils Signalwerte gewonnen und im Aufnahmevorgang werden die zwei Empfänger-Arrays gleichzeitig und parallel zu den jeweiligen optischen Achsen der parallelen, zumindest näherungsweise baugleichen Abbildungsstrahlengänge, de­ ren Hauptebenen zusammenfallen, verschoben, wobei die Objektoberflächen in der Szene beleuchtet sind.Der Signalverlauf S1z wird durch Auslesen von lateral nebeneinander liegenden Elementen des ersten Empfänger-Arrays während der Verschiebung des ersten Empfänger-Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger-Arrays zur Signalbildung benutzt werden, die auf Strecken ASA1 liegen, die parallel zu einer Geraden gA1P ausgerichtet sind und die den Punkt PA1 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet. So entspricht der gebilde­ te Signalverlauf dem bei einer realen Verschiebung parallel zu einer Geraden gA1P entstehenden Signal­ verlauf S1 zumindest annähernd und der Signalverlauf S2z wird durch Auslesen von lateral nebeneinander liegenden Elementen des zweiten Empfänger-Arrays während der Verschiebung des zweiten Empfänger- Arrays in Richtung der optischen Achsen so gebildet, daß jeweils genau die Elemente des Empfänger- Arrays zur Signalbildung benutzt werden, die auf Strecken ASA2 liegen, die parallel zu einer Geraden gA2P ausgerichtet sind und die den Punkt PA2 in der gemeinsamen Hauptebene der Abbildungsobjektive schneidet.So entspricht der gebildete Signalverlauf S2z dem bei einer realen Verschiebung parallel zu einer Geraden gA2P entstehenden Signal S2 zumindest annähernd. So wird zumindestens jeweils zu einem Zeitpunkt ti in einem Zeitintervall Δti ein aktueller Koinzidenzpunkt von Elementen der beiden Empfänger-Arrays gebil­ det, der im Zeitbereich ΔtB nacheinander jeweils an verschiedenen vorbestimmten Orten des Objektrau­ mes gebildet wird.Die Gerade gA1P wird in einem Punkt PA1 im Durchstoßpunkt der Symmetrielinie SL durch die Hauptebene des ersten Abbildungsobjektivs im Array-Raum und die Gerade gA2P wird in einem Punkt PA2 im Durch­ stoßpunkt der Symmetrielinie SL durch die Hauptebene des zweiten Abbildungsobjektivs zum Schnitt ge­ bracht und zusätzlich enthält die Gerade gA1P den Brennpunkt FA1 des ersten Abbildungsobjektivs und die Gerade gA2P enthält den Brennpunkt FA2 des Abbildungsobjektivs im Array-Raum.Aus den beiden Signalverläufen S1j, S2j von zwei zumindestens jeweils zu einem Zeitpunkt korrespondie­ renden Elementen der Empfänger-Arrays wird durch das vordem bereits beschriebene Korrelationsverfah­ ren mit zwei gefensterten Signalverläufen und einem dabei invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objektoberfläche die zO-Koordinate des jeweiligen Elementes der Objek­ toberfläche berechnet und so auch deren xO- und yO-Position und so wird die gesamte 3D-Punktwolke von Objektoberflächen in einer Szene berechnet, wobei die Geometrie der 3D-Aufnahmeanordnung bekannt und die Verschiebungen der Empfänger-Arrays vorbestimmt sind.Die optischen Achsen der beiden Abbildungsstrahlengänge sind auch in diesem Fall vorzugsweise paral­ lel angeordnet. Es ist eine räumlich gleichmäßige Beleuchtung von Objektoberflächen im Vordergrund und gegebenenfalls auch des weiter entfernter Hintergrundes der Szene, beispielsweise auch von einer Frei­ raumszene, gegeben.Die Hauptebene des Abbildungsobjektivs im Array-Raum und die Hauptebene des Abbildungsobjektivs können in einer gemeinsamen Ebene zusammenfallen. So kann der Punkt PA1 in der Hauptebene des Abbildungsobjektivs im Array-Raum auf der Symmetrielinie SL und der Punkt PA2 in der Hauptebene des Abbildungsobjektivs Raum auf der Symmetrielinie SL liegen und so die beiden Punkte PA1 und PA2 in ei­ nem Punkt PA zur Koinzidenz gebracht werden. Auch kann es sich bei der Verschiebung der Empfänger- Arrays um eine elektronisch gesteuerte, mechanische Bewegung handeln.Es erfolgt keine reale Verschiebung der beiden Empfänger-Arrays auf den oberen Y-Ästen, sondern eine Verschiebung parallel zu den optischen Achsen der beiden Abbildungsobjektive. So wird durch das Aus­ leseverfahren der Elemente der Fall des Bewegens auf den oberen Y-Ästen nachgebildet.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschiedenfarbigen Flächenelemente entspricht.Nach einem Zeitbereich, der zumindest näherungsweise dem Zeitbereich ΔtB entspricht, wird das struktu­ riert farbig leuchtende Array um den 1,5fachen Abstand der einzelnen farbigen Flächenelemente, dies entspricht der halben Wiederholungsperiode WP lateral weiterverschoben, wobei Elemente des Empfän­ ger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die in der Regel höhere Anzahl von lichtempfindlichen Elementen bei farbsensitiven Emp­ fänger-Arrays, eine grundsätzlich höhere Streifendichte verwendet werden kann, wenn jedes leuchtende Flächenelement FELj in einer Richtung als Farbstreifen einzeln gezählt wird. Es werden die Signale in den einzelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektier­ tes Element einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielswei­ se in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf. Die zu diesem rotempfindlichen Element unmittelbar benachbarten Elemente mit einer nicht rotempfindli­ chen Charakteristik registrieren dann nur ein sehr schwaches oder gar kein Signal.Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den vorzugsweise 1,5fachen Abstand der einzelnen farbigen Flächenelemente wird erreicht, das die zuvor nicht vom einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun ausgeleuchtet werden. Dabei wird davon ausgegangen, daß durch die Abbildung der farbig leuchtenden Flächenelemente FEL eine Verbreiterung auf der Objektoberfläche stattfindet, so daß keine Lücken zwischen den Farbstreifen. Mit diesem Verfahren können auch verschiedenfarbige Elemente in der Objektoberfläche erfaßt werden.Es ist aber auch grundsätzlich möglich, die Signalauswertung mit dem bereits beschriebenen phasenaus­ wertenden Verfahren, beispielsweise im Nahbereich der Szene, durchzuführen. In diesem Fall werden die farbig leuchtenden Flächenelemente FEL auf den bereits beschriebenen Verschiebungsstrecken VBSAj bewegt und die Auswertung für die farbsensitiven Elemente des Empfänger-Arrays durchgeführt. Aus der Verrechnung der Signalintensitäten in den drei Farben oder Wellenlängenspektren kann in der aus der Farbfernsehtechnik bekannten Art und Weise das Farb- und das Helligkeitssignal für jedes erfaßte Ele­ ment der Objektoberfläche gewonnen werden. So kann für jedes Element der Objektoberfläche die Infor­ mation über die mittlere Helligkeit, beziehungsweise Beleuchtungsstärke oder Leuchtdichte, und die zu­ mindest näherungsweise spektrale Zusammensetzung, also die Farbe, und der zO-Wert gewonnen wer­ den. Aus der bekannten, vorbestimmten Lage der Elemente der mindestens zwei Empfänger-Arrays und der bekannten Geometrie der 3D-Aufnahmeanordnung können so auch die zO-, die xO- und die yO- Raumkoordinaten für die Gesamtheit der detektierten Elemente der Oberflächen in einer Szenen eindeu­ tig bestimmt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene vorgeschlagen, bei dem vorzugsweise das strukturiert leuchtende Array mit Bereichen LBARRAY J unterschiedlicher Leuchtdich­ te und mit leuchtenden Flächenelemente FEL mit zumindest näherungsweise gleichem Abstand der Flä­ chenelemente in den Farben rot, grün und blau gebildet ist, wobei die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen, farbig leuchtenden Flächenelemente FEL entspricht.Nach einem Zeitbereich ΔtB, wird das strukturiert farbig leuchtende Array um den einfachen Abstand der einzelnen, farbig leuchtenden Flächenelemente FEL, welcher einem Drittel der Wiederholungsperiode WP entspricht, lateral weiterverschoben, wobei die Elemente des Empfänger-Arrays farbsensitiv sind und auf das Wellenlängenspektrum der leuchtenden Flächenelemente FEL abgestimmt sind.Dieses Verfahren ermöglicht für das bereits beschriebene Korrelationsverfahren eine höhere Tiefenauflö­ sung, da durch die höhere Anzahl von Elementen bei farbempfindlichen Empfänger-Arrays, eine grund­ sätzlich höhere Streifendichte verwendet werden kann. Es werden vorzugsweise die Signale in den ein­ zelnen Wellenlängenbereichen, beziehungsweise Farben einzeln verarbeitet. Wenn ein detektiertes Ele­ ment einer Objektoberfläche oder eines Bereiches der Objektoberfläche einfarbig ist, beispielsweise in der Farbe rot, detektiert nur das rotempfindliche Element des Empfänger-Arrays einen Signalverlauf.Durch das laterale Weiterverschieben des strukturiert farbig leuchtenden Arrays um den einfachen Ab­ stand der einzelnen farbigen Flächenelemente wird erreicht, daß die zuvor nicht von einer vorbestimmten Farbe ausgeleuchteten Elemente der Objektoberfläche nun vollständig ausgeleuchtet werden. Dies ist vorteilhaft, wenn als Beleuchtungsobjektiv ein Präzisionsobjektive mit einer sehr guten Modulationsüber­ tragung verwendet wird. Dadurch ergibt sich im Aufnahmevorgang eine gleichmäßige Ausleuchtung der Objektoberfläche, und es können so auch Elemente in verschiedenen Farben der Objektoberfläche erfaßt werden.Weiterhin wird ein Verfahren zur 3D-Aufnahme von Objektoberflächen in einer Szene mit mindestens ei­ ner Strahlungsquelle vorgeschlagen, die als ein strukturiert leuchtendes Array mit Bereichen unterschied­ licher Leuchtdichte ausgebildet ist. Weiterhin ist vorzugsweise mindestens eine elektromagnetische Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenelementen FEL ausgebildet.Dabei kann vorzugsweise auch ein strukturiertes Array in der Art eines Liniengitters mit einer vorgeordne­ ten Strahlungsquelle zur Anwendung kommen. Weiterhin kann im Array-Raum ein strukturiert leuchtendes Array angeordnet sein, welches als ein von der Strahlungsquelle beleuchtetes klassisches Liniengitter, als strukturiertes Array, aber auch als elektronisch steuerbares Liniengitter ausgeführt sein kann. Das Lini­ engitter kann dabei ein symmetrisches Transparenzprofil mit einer cos2-Verteilung oder auch ein stark un­ symmetrisches Transparenzprofil mit einem Rechteckprofil aufweisen, wobei letzteres vergleichsweise nur wenige Linien oder nur eine einzelne Linie besitzt. Der letztgenannte Fall sichert bei einem einfachen Auswertealgorithmus die Eindeutigkeit der Gewinnung von Meßpunkten. Die Strahlungsquelle und das strukturierte Array bilden gemeinsam das strukturiert leuchtende Array. Die Orte bestimmter relativer Leuchtdichte des strukturiert leuchtenden Arrays und auch die der lokalen Extrema der Leuchtdichte die­ ses strukturiert leuchtenden Arrays können elektronisch verschiebbar gemacht sein. Die leuchtenden Flä­ chenelemente FEL können sich dabei an den Orten der Phase ϕ = 0, als Ort der maximalen Transparenz befinden.Die Strahlungsquelle kann für elektromagnetische Strahlung im sichtbaren und im unsichtbaren Spektral­ bereich ausgelegt sein, beispielsweise im Spektralbereich von 750 nm bis 900 nm. Auch elektromagneti­ sche Strahlung im infraroten Spektralbereich mit Wellenlängen größer als 900 nm kann zur Anwendung kommen.Weiterhin ist mindestens ein Beleuchtungsstrahlengang mit mindestens einem Beleuchtungsobjektiv an­ geordnet. Dem Beleuchtungsobjektiv ist das strukturiert leuchtende Array zugeordnet. Es kann aber auch ein Bild des strukturiert leuchtenden Arrays dem Beleuchtungsobjektiv zur Abbildung zugeordnet sein. Dabei weist das Beleuchtungsobjektiv eine effektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB auf. Das strukturiert leuchtende Array und das Beleuchtungsobjektiv dienen zur strukturierten Beleuchtung der Objektoberflächen in der Szene.Weiterhin ist mindestens ein Abbildungsstrahlengang mit mindestens einer Abbildungsstufe für die Abbil­ dung der Elemente der Objektoberflächen in der Szene angeordnet. Diesem Abbildungsobjektiv ist min­ destens ein Empfänger-Array zugeordnet. Das Abbildungsobjektiv weist zur Abbildung der Elemente der Objektoberflächen eine effektive Öffnungsblende mit einem Blendenzentrum BZA auf. Diesem Abbil­ dungsobjektiv ist mindestens ein Empfänger-Array mit Elementen, die im Aufnahmevorgang Licht von den Elementen der strukturiert beleuchteten Objektoberflächen im Objektraum detektieren, zugeordnet. Dabei beträgt der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzen­ trums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzen­ trums BZA im Objektraum, mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuch­ tungsobjektivs.Dabei wird aus einem leuchtenden Flächenelement in einer Leuchtdichteverteilung mit einer vorzugsweise zumindest näherungsweise vorherbestimmt gleichbleibenden, relativen Leuchtdichte mit einem vorbe­ stimmten Wellenlängenspektrum, wobei diese im weiteren als leuchtende Flächenelemente FEL bezeich­ net werden, durch Abbildung mit dem Beleuchtungsobjektiv ein Bild eines leuchtenden Flächenelementes FEL im Objektraum gebildet.Speziell bei kleinen Objekten können der Beleuchtungs- und der Abbildungsstrahlengang ein gemeinsa­ mes Frontobjektiv besitzen.Weiterhin ist ein Bewegungssystem mit vorzugsweise mindestens einer beweglichen Komponente ange­ ordnet, welches dem strukturiert leuchtenden Array dieses Bewegungssystem zugeordnet ist. Die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL im Array-Raum und sind vorzugsweise aus der mechanischen Bewegung des strukturiert leuchtenden Arrays gebildet. Es ist aber auch möglich, daß zeitgleich eine elektronische Verschiebung der leuchtenden Flächenelemente FEL, beispielsweise in lateraler Richtung stattfindet und das Bewegungssystem mit mindestens einer beweglichen Komponente eine Bewegung des strukturiert leuchtenden Arrays parallel zur optischen Achse des Beleuchtungsobjek­ tivs realisiert.Nach Abbildung dieser Verschiebungsstrecken VSBAj durch das Beleuchtungsobjektiv in den Objektraum, ist deren Bild zumindest näherungsweise als mindestens ein Streckenbüschel SB1 mit einem Konver­ genzpunkt K1 gebildet. Der Konvergenzpunkt K1 weist dabei vorzugsweise einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil und einen maximalen Abstand dK1 max vom 16fachen des Abstandes d auf.Die Pupillen des Beleuchtungs- und des Abbildungsstrahlenganges sind stets räumlich getrennt. Jedoch fallen die Schärfebereiche des Beleuchtungsstrahlenganges im Objektraum mit Schärfebereichen des Abbildungsstrahlenganges zumindest teilweise zusammen. Die Beleuchtungsstrahlen und die Abbil­ dungsstrahlen schließen im Objektraum miteinander einen Winkel, den Triangulationswinkel, ein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit der Kon­ vergenzpunkt K1 zumindest annähernd in der Pupillenebene des Beleuchtungsobjektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel ange­ ordnet sein und so der Konvergenzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungs­ objektivs im Objektraum und im Pupillenzentrum des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Konver­ genzpunkt K1 zumindest annähernd in der Brennebene des Beleuchtungsobjektivs und im Brennpunkt des Abbildungsobjektivs im Objektraum positioniert sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der das leuchtende Array als elektronisch steuerbares Liniengitter mit einer Steuerbarkeit des Ortes der Linien und der Linienbreite ausgebildet sein. Dabei können die Linien senkrecht zum Hauptschnitt angeordnet sein und die Verschiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL und so auch der leuchten­ den Flächenelemente FEL mit lokalen Extrema der Leuchtdichte im Array-Raum - als Resultat der me­ chanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des struktu­ riert leuchtenden Arrays im Array-Raum gebildet sein. Aus diesen Verschiebungsstrecken VSBAj kann im Array-Raum im Hauptschnitt und in jeder zum Hauptschnitt parallelen Schnittebene zumindest nähe­ rungsweise mindestens ein Streckenbüschel mit einem Konvergenzpunkt K1 gebildet sein und dabei der Konvergenzpunkt K1 einen minimalen Abstand dK1 min von der Achse des Beleuchtungsobjektivs vom 16ten Teil des Abstandes d aufweisen. Der Konvergenzpunkt K1 kann dabei einen maximalen Abstand dK1 max von der Achse des Beleuchtungsobjektivs vom 16fachen des Abstandes d aufweisen und zwischen Pupillenebene und Brennebenen des Beleuchtungsobjektivs im Objektraum angeordnet sein. Weiterhin kann der Konvergenzpunkt K1 des Streckenbüschels im Hauptschnitt im Pupillenzentrum PZAA des Abbil­ dungsobjektivs im Array-Raum angeordnet sein und die Konvergenzpunkte in den zum Hauptschnitt paral­ lelen Schnitten gemeinsam mit dem Konvergenzpunkt K1 des Hauptschnittes auf einer Geraden senkrecht zum Hauptschnitt angeordnet sein. Das Pupillenzentrum PZOA des Abbildungsobjektivs und das Pupillen­ zentrum PZ0B des Beleuchtungsobjektivs im Objektraum können gemeinsam auf einer Geraden angeord­ net sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist.Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsob­ jektivs werden vorzugsweise nur Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines einzelnen Signalverlaufes nur Elemente ausgewählt, deren Orte beim Verschieben des Empfänger-Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke ASAj im Array- Raum angeordnet sind, deren Verlängerungsgerade jeweils mit einer Geraden senkrecht zum Haupt­ schnitt, die das Zentrum der Austrittspupille des Abbildungsobjektivs enthält, zum Schnitt gebracht ist, wobei bei der Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bil­ dern im Objektraum im Hauptschnitt zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das leuch­ tende Array als elektronisch steuerbares Gitter ausgebildet sein und vorzugsweise die Verschiebungs­ strecken der Orte konstanter relativer Leuchtdichte der strukturierten, leuchtenden Fläche und so auch der Orte lokaler Extrema der Leuchtdichte im Array-Raum als Resultat der mechanischen Bewegung des strukturiert leuchtenden Arrays und der elektronischen Steuerung des strukturiert leuchtenden Arrays im Array-Raum ausgerichtet sein und aus diesen Verschiebungsstrecken im Array-Raum kann zumindest näherungsweise mindestens ein Streckenbündel mit einem Konvergenzpunkt KA1 gebildet sein. Der Kon­ vergenzpunkt KA1 des Streckenbündels kann im Pupillenzentrum PZAA, des Abbildungsobjektivs im Array- Raum angeordnet sein und so kann der Konvergenzpunkt K1 im Objektraum im Pupillenzentrum PZ0A des Abbildungsobjektivs angeordnet sein. Das Pupillenzentrum PZ0A des Abbildungsobjektivs und das Pupil­ lenzentrum PZ0B des Beleuchtungsobjektivs können im Objektraum gemeinsam auf einer Geraden ange­ ordnet sein, welche senkrecht zur Achse des Beleuchtungsobjektivs ausgerichtet ist. Bei einer geradlinige Verschiebung des Empfänger-Arrays parallel zur optischen Achse des Abbildungsobjektivs können nur die Elemente des Empfänger-Arrays ausgelesen und Signalverläufe gebildet und zur Bildung eines ein­ zelnen Signalverlaufes nur Elemente ausgewählt werden, deren Orte beim Verschieben des Empfänger- Arrays zumindest näherungsweise jeweils auf einer Verschiebungsstrecke im Array-Raum angeordnet sind, deren Verlängerungsgerade jeweils das Zentrum der Austrittspupille des Abbildungsobjektivs schneidet, und bei Abbildung von mehrfach so erzeugten Strecken mit dem Abbildungsobjektiv aus deren Bildern im Objektraum zumindest annähernd mindestens ein Streckenbündel mit einem Konvergenzpunkt K2 im Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs gebildet ist.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Ver­ schiebungsstrecken VSBAj der leuchtenden Flächenelemente FEL zumindest annähernd parallel zu einer definierten Geraden gAP angeordnet sein. Dabei weisen die leuchtenden Flächenelemente FEL in einer Leuchtdichteverteilung vorzugsweise eine zumindest näherungsweise vorherbestimmt gleichbleibende relative Leuchtdichte auf. Die Gerade gAP schneidet den Brennpunkt FAB des Beleuchtungsobjektivs im Ar­ ray-Raum und weist den Anstieg mit dem Betrag aus dem Quotienten Abstand des Pupillenzentrums PZOA der Pupille des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs und Brennweite fB des Beleuchtungsobjektivs auf, wobei dieser Anstieg der Geraden gAP auf die Achse des Beleuchtungsobjektivs bezogen ist.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, dem eine Komponente des Bewegungssystems dem Empfänger-Array zugeordnet ist, und so bei der mechani­ schen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke A5 dessen Elemente Verschie­ bungsstrecken ASAj auf parallelen Geraden zugeordnet sein, wobei vorzugsweise aus den Bildern ASOj dieser Strecken ASAj bei Abbildung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet sein kann. Dabei kann der Konvergenzpunkt K1 und der Konvergenzpunkt K2 mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Achse des Beleuchtungsobjektivs und die Achse des Abbildungsobjektivs parallel zueinander angeordnet sind und das Abbildungsobjektiv auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine Kom­ ponente des Bewegungssystems dem Empfänger-Array zugeordnet sein und so bei der mechanischen Bewegung des Empfänger-Arrays auf einer Verschiebungsstrecke AS dessen Elemente Verschiebungs­ strecken ASAj auf parallelen Geraden zugeordnet sein, wobei aus den Bildern dieser Strecken bei Abbil­ dung durch das Abbildungsobjektiv zumindest näherungsweise mindestens ein Streckenbüschel SB2 mit einem Konvergenzpunkt K2 im Objektraum gebildet ist. Der Konvergenzpunkt K1 und der Konvergenz­ punkt K2 können mit dem Brennpunkt FOA und dem Pupillenzentrum PZOA der Pupille des Abbildungsob­ jektivs im Objektraum zumindest annähernd zur Koinzidenz gebracht sein und das Beleuchtungsobjektiv und das Abbildungsobjektiv jeweils auf der Seite des Raumes der Arrays telezentrisch ausgeführt sein. So können die Achsen des Beleuchtungsobjektivs und des Abbildungsobjektivs parallel zueinander angeord­ net sein und die Brennebenen derselben im Objektraum zur Koinzidenz gebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der die Komponenten des Bewegungssystem so angeordnet sein, daß im Array-Raum mit dem Brennpunkt FAB des Beleuchtungsobjektivs als Bezugspunkt für das leuchtende Array eine Gesamtbewegungsrichtung zumindest annähernd parallel zu einer Geraden gA im Array-Raum realisiert ist, so daß die Elemente des strukturiert leuchtenden Arrays sich auf parallelen Geraden zur Gerade gA bewegen und diese Gerade gA mit dem Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum zum Schnitt gebracht ist und den Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Abstand d des Brennpunktes FAA des Abbildungsobjektivs im Objektraum von der Achse des Beleuchtungsobjektivs auf­ weist, wobei dieser Anstieg der Geraden gA auf eine achssenkrechte Gerade zur Achse des Beleuch­ tungsobjektivs bezogen ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung dem Emp­ fänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Abbildungsobjektivs justiert sein und die zweite Linearführung der ersten Linearführung und dem strukturiert leuchtenden Array zugeordnet sein und die Bewegungsrichtung der zweiten Linearführung zumindest annähernd senkrecht zur optischen Achse des Beleuchtungsobjektivs justiert sein, so daß als Resultat der linearer Einzelbewegungen der beiden Linearführungen das struktu­ riert leuchtende Array zumindest annähernd parallel zur Geraden gA bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem, bestehend aus einer einzigen Linearführung mit einem Schlitten und einer Basis, im Raum des strukturiert leuchtenden Arrays und Empfänger-Array angeordnet sein und die Linearführung wenig­ stens dem strukturiert leuchtenden Array fest zugeordnet sein und die Bewegungsrichtung für das struk­ turiert leuchtende Array zumindest annähernd parallel zur Geraden gA im Array-Raum ausgerichtet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus mindestens zwei einzelnen Linearführungen aufgebaut sein und die erste Linearführung beweglichen Komponenten des Beleuchtungsobjektivs zur Innenfokussierung und beweglichen Kompo­ nenten des Abbildungssobjektivs zur Innenfokussierung fest zugeordnet sein und die zweite Linearfüh­ rung dem strukturiert leuchtenden Array zur Bewegung senkrecht zur optischen Achse des Beleuchtungs­ objektivs fest zugeordnet sein. Bei der Verwendung von präzisen Linearführungen kann so eine hochdy­ namische 3D-Aufnahme-Anordnung realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Bewe­ gungssystem aus einer Linearführung aufgebaut und diese dem Empfänger-Array zugeordnet sein und die Bewegungsrichtung dieser Linearführung zumindest annähernd parallel zur optischen Achse des Ab­ bildungsobjektivs angeordnet sein und ein rotatorischer Antrieb der Linearführung zuordnet sein und das strukturiert leuchtende Array wiederum dem rotatorischen Antrieb zugeordnet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array als Gitter mit einer spiralförmigen Figur als Archimedische Spirale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein und mindestens ein Ausschnitt des Gitters mit der spiralförmigen Figur als strukturiertes Array benutzt werden, wobei vorzugsweise in Verbindung mit der Strahlungsquelle das strukturiert leuchtende Array gebildet ist, und die Drehachse des Gitters mit der spi­ ralförmigen Figur parallel zur Achse des Beleuchtungsobjektivs angeordnet und außerdem ein rotatori­ scher Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet ist. Um eine kontinuierliche Aufnahme von bewegten Objekten mit einer hohen Geschwindigkeit erreichen zu können und dabei gleichzeitig die störende Wirkung von impulsförmigen Reaktionskräften auf die 3D- Aufnahme-Anordnung zu vermeiden, kann ein Gitter mit einer spiralförmigen Figur als Archimedische Spi­ rale mit mindestens einem Gang ausgebildet und drehbar angeordnet sein. Das Gitter mit der spiralförmi­ gen Figur ist dabei bezüglich seiner Drehachse sorgfältig ausgewuchtet. Es wird eine Präzisionslagerung verwendet. Ein Ausschnitt des rotierenden Gitters mit der spiralförmigen Figur dient als strukturiert leuch­ tendes Array. Die Drehachse des Gitters mit der spiralförmigen Figur ist dabei vorzugsweise parallel zur Achse des Beleuchtungsobjektivs angeordnet. Es wird für die Erzeugung der Drehbewegung ein rechner­ gesteuerter rotatorischer Antriebsmotor dem Gitter mit der spiralförmigen Figur zugeordnet. Die Phase des Gitters mit der spiralförmigen Figur kann mit einer radial angeordneten, schnell auslesbaren Foto- Diodenzeile bestimmt werden. Es kann auch eine CCD-Zeile mit einer Bildauslesefrequenz im 10 KHz- Bereich eingesetzt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Abbil­ dungsobjektiv gemeinsam mit dem Empfänger-Array und den zugeordneten Komponenten des Bewe­ gungssystems um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beobachtet werden, ohne daß die durch die Beleuchtung vorgegebene ab­ solute Phase verändert wird.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Be­ leuchtungsobjektiv gemeinsam mit dem strukturiert leuchtenden Array und den zugeordneten Komponen­ ten des Bewegungssystems und der Strahlungsquelle um eine Achse, welche das Pupillenzentrum PZOA der Pupille des Abbildungsobjektivs durchstößt, im Objektraum drehbar angeordnet sein. So können die Objektflächen in einer Szene aus unterschiedlichen Richtungen beleuchtet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array eine gerasterte Struktur mit äquidistanten Abständen aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem Lini­ engitter ein Gegengitter mit der gleichen Gitterkonstante und ein Nullpunktgeber zugeordnet sein. Da­ durch ist eine besonders präzise Gewinnung der absoluten IstphaseGitter möglich. So kann die für das Auswerteverfahren benötigte Information über die absolute, lateral invariante Objektphase durch optische Bestimmung der absoluten IstphaseGitter direkt aus der Bewegung des beleuchteten Liniengitters durch optische Kopplung des Liniengitters mit einem Gegengitter und einem Nullpunktgeber unter Verwendung eines elektronischen Auswerte-Moduls mit einem Rechnerinterface für die Berechnung der absoluten, la­ teral invarianten Objektphase abgeleitet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene eine trans­ parente optische Platte der 3D-Aufnahme-Anordnung als permanent verbleibende Referenzplatte in der Nahdistanz zugeordnet sein, wobei vorzugsweise auf mindestens einer der beiden Flächen der optischen Platte eine schwach lichtstreuende Mikrostruktur aufgebracht ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Beleuch­ tungsstrahlengang mit einem afokalen System mit einem inneren Brennpunkt FBi aufgebaut sein und der Abbildungsstrahlengang mit einem inneren Brennpunkt FAi und im Objektraum der Brennpunkt des afoka­ len Beleuchtungsstrahlenganges und der Brennpunkt des afokalen Abbildungsstrahlenganges zumindest näherungsweise zusammenfallen und der Konvergenzpunkt K1 in einem Abstand dK1 von der optischen Achse des Beleuchtungsobjektivs angeordnet sein, wobei der Abstand dK1 dem halben Abstand vom inne­ ren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlen­ ganges durch die innere Brennebene Fi des Beleuchtungsstrahlenganges entspricht, wobei das Beleuch­ tungsobjektiv und das Abbildungsobjektiv jeweils auf der nach außen gekehrten Seite der afokalen Abbil­ dungsstufen zumindest näherungsweise telezentrisch ausgeführt sind.Das Bewegungssystem kann mit mindestens einer beweglichen Komponente so angeordnet sein, daß dessen Bewegungsrichtung zumindest annähernd parallel zu einer Geraden gA justiert ist und so leuch­ tende Flächenelemente FEL auf Verschiebungsstrecken VSBAj verschoben werden und die Gerade gA kann den Brennpunkt FAB des Beleuchtungsobjektivs im Array-Raum durchstoßen und für die Gerade gA kann der Anstieg mit dem Betrag aus dem Quotienten Brennweite fB des Beleuchtungsobjektivs und Ab­ stand dK1 realisiert sein, wobei der Anstieg auf die Hauptebene des Abbildungsobjektivs bezogen ist, und eine zur optischen Achse des Abbildungsobjektivs zumindest annähernd parallele Verschiebung des Empfänger-Arrays besteht.Weiterhin kann mindestens ein feststehender Umlenkspiegel dem Abbildungsobjektiv zugeordnet sein und so strukturiert leuchtendes Array und Empfänger-Array in zueinander parallelen Ebenen liegen und so nur ein einziger z-Schlitten für das leuchtende Array und das Empfänger-Array angeordnet ist.Diese Anordnung ist für 3D-Aufnahmen im Makro-Raum sehr geeignet. Dabei können die beiden Objekti­ ve im afokalen System auch sehr unterschiedliche Brennweiten aufweisen. Von Vorteil ist weiterhin, daß die effektive Wellenlänge im gesamten Objektraum konstant ist. Die leuchtenden Flächenelemente FEL befinden sich ständig auf den B-Strecken BSAj.Der Abstand dK1 entspricht vorzugsweise dem halben Abstand vom inneren Brennpunkt FBi der afokalen Abbildungsstufe vom Durchstoßpunkt der Achse des Abbildungsstrahlenganges durch die innere Brenne­ bene Fi des Beleuchtungsstrahlenganges. Dies bedeutet, daß der Konvergenzpunkt K1 im Durchstoß­ punkt der Winkelhalbierenden der Achsen des Beleuchtungsstrahlenganges und des Abbildungsstrahlen­ ganges durch die innere Brennebene des Beleuchtungsstrahlenganges liegt. Grundsätzlich ist der Winkel für die Beobachtungssachse und die Abbildungsachse wählbar, so daß sowohl eine senkrechte Beobach­ tung und Schrägbeleuchtung als auch eine senkrechte Beobachtung und Schrägbeobachtung möglich sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf der Verschiebungstrecke ASA1 und die Verschiebung des zweiten Empfänger-Arrays auf der Verschiebungstrecke ASA2 stattfindet. Die Ver­ schiebungsstrecken ASA1 und die Verschiebungstrecke ASA2 können sich in einem Punkt PA in der zu­ sammenfallenden array-seitigen Hauptebene schneiden, wobei sich die Elemente des ersten Empfänger- Arrays auf den Verschiebungsstrecken ASA1j und sich die Elemente des zweiten Empfänger-Arrays auf den Verschiebungsstrecken ASA2j bewegen.Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuchtungsstrahlenganges können im Koinzi­ denzpunkt KO zusammenfallen. Zu den beiden parallelen Abbildungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP ver­ schiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfän­ ger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen optische Achse, und dessen array­ seitiger Hauptpunkt HAB kann mit dem Punkt PA zusammenfallen. Der objektseitige Brennpunkt FOB des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen, und es kann ein be­ leuchtetes Liniengitter als strukturiert leuchtendes Array angeordnet sein.Die Empfänger-Arrays bewegen sich hierbei vorzugsweise real auf den Verschiebungsstrecken ASA1 und ASA2 und die Elemente der Empfänger-Arrays auf den Verschiebungsstrecken ASA1j und ASA2j.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zwei ver­ schiebbare Empfänger-Arrays in parallelen Abbildungsstrahlengänge in einer gemeinsamen Ebene ange­ ordnet sein, wobei die Verschiebung des ersten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse und die Verschiebung des zweiten Empfänger-Arrays auf einer Verschiebungstrecke parallel zur optischen Achse stattfindet. Die Elemente der beiden Empfänger-Arrays können so ausgele­ sen werden und Signale gebildet werden, als ob sich die Empfänger-Arrays auf Verschiebungsstrecken ASA1 befinden würden und die Verschiebungstrecke ASA2 sich in einem Punkt PA in der zusammenfallen­ den array-seitigen Hauptebene schneiden. Der Koinzidenzpunkt K21 der Bilder der Verschiebungsstrecken ASA1j, die Strecken ASO1j, des ersten Abbildungsstrahlenganges und der Koinzidenzpunkt K22 der Bilder der Verschiebungsstrecken ASA2j, die Strecken ASO2j, des zweiten Abbildungsstrahlenganges Beleuch­ tungsstrahlenganges können im Koinzidenzpunkt KO zusammenfallen. Zu den beiden parallelen Abbil­ dungsstrahlengängen kann mittig und symmetrisch ein paralleler Beleuchtungsstrahlengang mit einem auf der Verschiebungsstrecke VSAP verschiebbaren strukturiert leuchtenden Array mit linienhaften Elementen in der Ebene der beiden Empfänger-Arrays angeordnet sein und das Beleuchtungsobjektiv kann mittig und symmetrisch angeordnet sein, also mit einer zu den beiden Abbildungsstrahlengängen parallelen op­ tische Achse, und dessen arrayseitiger Hauptpunkt HAB mit dem Punkt PA zusammenfällt. Der objektseiti­ ge Brennpunkt des Beleuchtungsstrahlenganges kann mit dem Koinzidenzpunkt KO zusammenfallen und es kann ein strukturiert leuchtendes Array angeordnet sein.Die Empfänger-Arrays bewegen sich vorzugsweise nicht real auf den Verschiebungsstrecken ASA1 und ASA2, sondern es werden die Elemente der Empfänger-Arrays ausgelesen, die in Zusammenwirken mit der Parallelverschiebung den Effekt ergeben, als ob diese sich auf den Verschiebungsstrecken ASA1j und ASA2j bewegen würden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen können im Objektraum koinzidieren. Das leuchtende Array kann mit leuchtenden Farbstreifen gebildet sein, die zumindest näherungsweise lückenlos aneinandergereiht sind, wobei das leuchtende Array aus transmittierenden Mikroelementen und aus reflektierenden Mikro­ elementen aufgebaut ist, und dem strukturierten Array kann eine Rotlichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet sein, wobei das Licht mindestens einer Lichtquelle das strukturierte Array in einer fokussierenden Struktur durchsetzt und das Licht von mindestens zwei Lichtquellen auf Mikro­ spiegelelemente trifft.Die beiden Empfänger-Arrays und das strukturierten Array können mit einem Bewegungssystem zur prä­ zisen, synchronen Bewegung verbunden sein, wobei die optisch aktiven Ebenen der beiden verschiebba­ ren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebene gehalten werden können, wodurch die optisch konjugierten Ebenen im Objektraum stets koinzidie­ ren.Dadurch wird erreicht, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung ver­ lustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Die Strah­ lungsquellen können dabei als Laserlichtquellen, farbige Lichtquellen oder als konventionelle weiße Licht­ quellen mit Farbfiltern gebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein farbig leuchtendes Array als Gitter mit einem asymmetrischen Furchenprofil gebildet sein. Dieses besteht aus Dreieckprofilen, die Makro-Profilflächen aufweisen, und besitzt eine auf dem gesamten Gitter zumindest näherungsweise gleichbleibenden Gitterkonstante zwischen 0,01 mm und 2 mm, die als Makro- Gitterkonstante bezeichnet wird. Dem Gitter ist mindestens eine Strahlungsquelle zur Beleuchtung zuge­ ordnet.Auf der Oberfläche des Gitters können zumindest näherungsweise Dreieckprofile gebildet sein und auf den Makro-Profilflächen derselben jeweils zusätzlich ein Mikrofurchenprofil mit einer innerhalb einer Ma­ kro-Profilfläche veränderlichen Gitterkonstante des Mikrofurchenprofils und einer mittleren Mikro- Gitterkonstante desselben zwischen 0,0005 mm und 0,01 mm ausgebildet sein. So besteht für das einfal­ lende Licht eine fokussierende Wirkung verbunden mit einer Farbaufspaltung zumindest in die drei Farb­ bereiche blau grün rot. Hierbei kann auch ein diffraktives Reflexionsgitter eingesetzt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Mi­ krofurchenprofil auf den Makro-Flächen als ein asymmetrischen Mikro-Dreieckprofil ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter als Transmissionsgitters mit einem asymmetrischen Furchenprofil mit Makro-Dreieckprismen ausgebildet sein, Dabei ist vorzugsweise das Mikroprofil auf den Hauptflächen der Makro-Dreieckprismen als ein asymmetrischen Mikro-Dreieckprofil mit Mikroprismen ausgebildet.Dabei können je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, re­ flektierende Elemente zugeordnet sein. Dem Transmissionsgitters können eine Rotlichtquelle, eine Grün­ lichtquelle und eine Blaulichtquelle zugeordnet sein, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von mindestens zwei separa­ ten Lichtquellen auf die reflektierenden Elemente trifft.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Abbil­ dungsobjektive für die beiden Empfänger-Arrays und das leuchtende Array zumindest näherungsweise baugleich sein und deren Brennebenen im Objektraum koinzidieren. Das strukturiert leuchtende Array ist dabei aus transmittierenden und gleichzeitig fokussierenden Mikroelementen und aus reflektierenden Mi­ kroelementen gebildet, wobei je einem transmittierenden und gleichzeitig fokussierenden Element zwei flankierende, reflektierende Elemente zugeordnet sind. Dem strukturiert leuchtende Array ist eine Rot­ lichtquelle, eine Grünlichtquelle und eine Blaulichtquelle zugeordnet, wobei vorzugsweise das Licht einer Lichtquelle das leuchtende Array in den fokussierenden Elementen durchsetzt und das Licht von minde­ stens zwei separaten Lichtquellen unter einem Einfallswinkel von mindestens 10° auf die reflektierenden Elemente trifft. So kann mit drei einzelnen Lichtquellen mit vergleichsweise wenig Lichtverlusten ein farbig leuchtendes Array realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die beiden Empfänger-Arrays und das leuchtende Array mit einem Bewegungssystem zur präzisen, synchronen Be­ wegung verbunden sein, wobei vorzugsweise die optisch aktiven Ebenen der beiden verschiebbaren Empfänger-Arrays und die des verschiebbaren, strukturiert leuchtenden Arrays stets in der gleichen Ebe­ ne gehalten sind, wodurch die optisch konjugierten Ebenen im Objektraum permanent zur Koinzidenz ge­ bracht sind.So ist gegeben, daß eine im strukturiert leuchtenden Array im Vergleich zu einer Farbfilterung besonders verlustarme Erzeugung von zumindest näherungsweise lückenlosen Farbstreifen ermöglicht ist. Ein gro­ ßer Anteil des transmittierten Anteils kann das leuchtende Array passieren und trägt so zur Ausleuchtung der Objektoberfläche bei. Weiterhin wird dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest nähe­ rungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem struk­ turierten Array ein steuerbarer Stellmechanismus zur lateralen Bewegung zugeordnet sein.Dieser Stellmechanismus am strukturierten Array dient vorzugsweise der vergleichsweise langsamen late­ ralen Bewegung, um im Aufnahmevorhang nach und nach jedes Element einer Objektoberfläche mit den Farben rot, grün und blau beleuchten zu können. Dieser Stellmechanismus zur lateralen Bewegung kann sich dabei schrittweise vorwärts und rückwärts bewegen. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberllächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j unterschiedlicher Leuchtdichte und mit leuchtenden Flä­ chenelemente FEL mit Mikro-Farbteilern ausgebildet sein, so daß vorzugsweise eine nahezu planare Struktur gebildet ist. Dies führt zu einem sehr guten Lichtwirkungsgrad.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array mit Bereichen LBARRAY j mit zumindest näherungsweise gleichem Abstand der leuchtenden Flächenelemente FEL in einer Ebene in den Farben rot, grün und blau gebildet sein, wobei vorzugsweise die Wiederholungsperiode WP dem dreifachen Streifenabstand der einzelnen verschieden­ farbigen Flächenelemente entspricht und vorzugsweise Elemente des Empfänger-Arrays farbsensitiv und auf das Wellenlängenspektrum der leuchtenden Flächenelemente abgestimmt FEL sind.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array zumindest auf einem Teilbereich einer Scheibe ausgebildet sein, der vorzugsweise eine rota­ torische Präzisionslagerung mit einer Welle mit einem rotatorischen Präzisionsmotor zugeordnet ist, so daß eine rotierende Scheibe gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ riert leuchtende Array auf einer rotierenden Scheibe als ein rotationssymmetrisches Transmissions-Gitter ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene an einem äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsystem zur Erfassung der axialen Ablage eines Teilbereiches der rotierenden Scheibe von einer axialen Sollposition angeordnet sein.Dabei ist das Meßsystem in seiner messenden Funktion vorzugsweise einem kreisringförmigen Bereich der rotierenden Scheibe zugeordnet, so daß jeweils die axiale Ablage in einem kreisringförmigen Bereich derselben, verursacht durch Axialschlag und Taumelschlag der rotierenden Scheibe hochgenau und hochdynamisch gemessen werden kann.Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Das Meß­ systems befindet sich in unmittelbarer Nähe des jeweils abgebildeten Ausschnittes des strukturierten Ar­ rays auf der Kreisscheibe. Für die optische Messung befindet sich auf der Scheibe dazu vorzugsweise auf einer stetigen Planfläche ein zumindest teilweise reflektierender Bereich. Das Meßsystem befindet sich vorzugsweise in einem Rachen des hochstabilen Gestells aus einem Werkstoff mit einem vorzugsweise geringen Temperaturausdehnungskoeffizienten wie beispielsweise Keramik oder eine Eisen-Nickel- Legierung.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises der rotierenden Scheibe zuge­ ordnet ist, so daß die axiale Ablage eines Sektors, verursacht durch Axialschlag und Taumelschlag bei der Rotation der Kreisscheibe, hochdynamisch ausgeregelt und so vorzugsweise jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage zumindest eines Teilbereiches des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann als Piezo- Steller als Komponente eines Lage-Regelkreises ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der axialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe angeord­ net sein, welches vorzugsweise als Komponente eines Lage-Regelkreises ausgebildet und der rotieren­ den Welle zugeordnet ist, so daß vorzugsweise die axiale Ablage eines Teilbereiches der rotierenden Scheibe, verursacht durch Taumelschlag bei der Rotation derselben, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe und so auch die axiale Lage des strukturiert leuchtenden Arrays hochgenau in der axialen Sollposition gehalten wird. Das Stellsystem kann auch Komponenten des Beleuchtungsobjektivs zugeordnet sein, so daß im Objektraum das Bild des strukturiert leuchtenden Ar­ rays sich stets in der gleichen Position befindet.Das Stellsystem kann als Piezo-Steller als Komponente eines Lage-Regelkreises ausgebildet sein. Im Effekt werden sowohl der Axialschlag als auch ein gegebenenfalls vorhandener Taumelschlag der rotie­ renden Scheibe ausgeregelt. Es ist auch möglich, daß die rotierende Scheibe keine sehr hohe Steifigkeit aufweist und das Stellsystem durch eine elastische Deformation die axiale Sollposition realisiert, bei­ spielsweise durch die Wirkung magnetischer Kräfte.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisch messendes Meßsy­ stem zur Erfassung der radialen Ablage von einer Sollposition eines Teilbereiches der rotierenden Schei­ be angeordnet sein, welches vorzugsweise der rotierenden Scheibe zugeordnet ist, so daß in einem Kreisring der rotierenden Scheibe jeweils die radiale Ablage derselben, verursacht durch Radialschlag bei der Rotation der Kreisscheibe, hochdynamisch und hochgenau gemessen werden kann.Das Meßsystem kann ein kapazitives, induktives oder auch optisches Meßprinzip aufweisen. Im Fall der Anwendung eines optischen Meßverfahrens kann sich eine Referenzspur in Form eines konzentrischen Kreises in unmittelbarer Nachbarschaft, beispielsweise in einem mittleren Abstand maximal 10 mm, zum strukturiert leuchtenden Array auf der rotierenden Scheibe befinden. Diese Referenzspur kann mit einer Genauigkeit von 0,1 µm zu einer Referenz- oder Symmetrielinie des strukturiert leuchtenden Arrays posi­ tioniert sein. Es kann auch ein präziser Ringspalt als Referenzspur gebildet sein, so daß das transmittierte Licht für die Bestimmung der radialen Ablage ausgewertet wird.Als Basiswerkstoff kann aus Gründen der Invarianz gegenüber Temperaturänderungen Quarzglas für die rotierenden Scheibe eingesetzt werden. Für nichttransparente Bereiche der Scheibe kann auch ein faser­ verstärkter Werkstoff eingesetzt werden. Der abgebildete Ausschnitt des strukturierten Arrays befindet sich vorzugsweise in unmittelbarer Nähe des Meßsystems. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Steilsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Dieses Steilsystem ist vorzugsweise als Komponente eines Lage-Regelkreises der rotieren­ den Welle der rotierenden Scheibe zugeordnet, so daß die radiale Ablage eines Teilbereiches, verursacht durch Radialschlag bei der Rotation der rotierenden Scheibe, hochdynamisch ausgeregelt und so jeweils ein Teilbereich der rotierenden Scheibe mit dem strukturiert leuchtenden Array in der radialen Sollposition gehalten und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten werden kann. So kann vorzugsweise auch der laterale Abstand der Lage eines vorbestimmten Elementes des Empfänger-Arrays und eines vorbestimmten leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays im Array-Raum konstant gehalten werden kann.Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag konstant gehalten und die genaue laterale Zuordnung zwischen ei­ nem vorbestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flä­ chenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich ΔtB erhalten. Dies ist für die Genauigkeit bei phasenauswertenden Verfahren wichtig.Das Stellsystem kann als Piezo-Steller als Komponente eines Lage Regelkreises ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage-Regelkreises darstellt. Als Kriterium für die Lageregelung gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenelementes FELj und eines vorbestimmten Element des Empfänger-Arrays während der Rotation der rotierenden Scheibe konstant gehalten werden soll, so daß gegebenenfalls auftretender Radialschlag gemessen und durch das Stellsy­ stem ausgeregelt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene am äußeren Gestellbereich der 3D-Aufnahmeanordnung ein hochgenaues und hochdynamisches Stellsystem zur Be­ einflussung der radialen Ablage von der Sollposition eines Teilbereiches der rotierenden Scheibe ange­ ordnet sein. Das Stellsystem ist vorzugsweise als Komponente eines Lage-Regelkreises dem Empfänger- Array im Abbildungsstrahlengang zugeordnet, so daß die laterale Lage des Empfänger-Arrays hochdy­ namisch geregelt und so und so der laterale Abstand des Empfänger-Arrays vom strukturiert leuchtenden Array konstant gehalten und so der laterale Abstand der Lage eines vorbestimmten Elementes des Emp­ fänger-Arrays und eines vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchten­ den Arrays im Array-Raum konstant gehalten werden kann.Dadurch wird der Triangulationswinkel, bezogen auf jedes Element der Objektoberfläche im Objektraum jeweils unabhängig vom Radialschlag gehalten und die genaue laterale Zuordnung zwischen einem vor­ bestimmten Elementes des Empfänger-Arrays und einem vorbestimmten, leuchtenden Flächenelementes FELj des strukturiert leuchtenden Arrays bleibt im Zeitbereich tB erhalten. Das Stellsystem kann als Pie­ zo-Steller ausgebildet sein, der gemeinsam mit dem Meßsystem eine Komponente eines Lage- Regelkreises darstellt. Als Kriterium gilt, daß der Abstand eines vorbestimmtes leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays von einem vorbestimmten Element des Empfänger- Arrays während der Rotation der Scheibe konstant gehalten werden soll, so daß eine gegebenenfalls auf­ tretende Abweichung vom Sollabstand des Empfänger-Arrays vom strukturiert leuchtenden Array gemes­ sen und durch das Stellsystem, welches die laterale Position des Empfänger-Arrays bestimmt, ausgere­ gelt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe mit mindestens zwei Sektoren ausgebildet sein und die Sektorenflächen die Stufenflächen ei­ ner Wendeltreppe darstellen.So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich deren geometrisch-optische Weglänge zum Beleuchtungsobjektiv definiert än­ dert, und so deren Bild in unterschiedliche Tiefen des Objektraumes abgebildet wird.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ renflächen jeweils die Begrenzungsflächen einer transparenten Platte darstellen, wobei diese so gestalte­ te rotierenden Scheibe im weiteren als Wendeltreppenscheibe bezeichnet wird.So können unterschiedliche Bereiche eines strukturierten Arrays in den Beleuchtungsstrahlengang ge­ bracht werden, wobei sich die axiale Gegenstandsweite der unterschiedlichen Bereiche des strukturierten Arrays im Beleuchtungsstrahlengang durch die Dicke der Platte ändert, und so deren Bilder in unter­ schiedliche Tiefen des Objektraumes abgebildet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe mit zumindest näherungsweise regelmäßigen, gleichflächigen Stufenflächen als vollflächi­ ge Wendeltreppenscheibe mit Stufenabsätzen mit Stufenhöhen Δhj gebildet sein und auf die gleichflächi­ gen Stufenflächen der Sektoren der transparenten Platte je ein strukturiertes Array aufgebracht sein und vorzugsweise das Licht der Strahlungsquelle erst nach dem Passieren der Fläche des strukturierten Ar­ rays die Platte passiert. Weiterhin können die Stufenflächen zumindest näherungsweise senkrecht zur Drehachse ausgerichtet sein und vorzugsweise mindestens ein einziger Absatz auf der Wendeltreppen­ scheibe mit mindestens der zweifachen Stufenhöhe ausgebildet sein. Die Wendeltreppenscheibe kann dabei eine zumindest näherungsweise mittlere Steigung pro Umdrehung von maximal einem Zwanzigstel des Radius' der Wendeltreppenscheibe aufweisen.Vorzugsweise kommt auf der Wendeltreppenscheibe nur die Fläche einer Stufe, beziehungsweise eines Sektors in den optischen Strahlengang zu einem Zeitpunkt zur Wirkung. Es ist aber auch möglich, daß mehrere Sektorenflächen, wenn diese sehr schmal ausgeführt sind, im optischen Strahlengang zur Wir­ kung kommen. In diesem Fall detektieren die Bereiche eines Empfänger-Arrays zu unterschiedlichen Zeiten Signalwerte von verschiedenen Sektorenflächen.So kann der mittlere geometrisch-optische Abstand eines strukturierten Array, die Gegenstandsweite, dem jeweils eine Strahlungsquelle zugeordnet ist, vom zugeordneten Beleuchtungsobjektiv bei der Rotati­ on der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die Stufenwirkung verändert werden. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Wendel­ treppenscheibe als ein in sich hochstabiler Körper aus gebildet sein und die Sektorenflächen der transpa­ renten Platten auf einer Seite der Wendeltreppenscheibe können in einer gemeinsamen Ebene liegen und so eine Fläche bilden. So kann die geometrisch-optische Weglänge der transparenten Platten den Stufe zu Stufe vorbestimmt verändert werden, indem vorzugsweise verschieden dicke, transparente Platten gebildet sind.So kann der mittlere geometrisch-optische Abstand, die Gegenstandsweite, eines strukturierten Array dem jeweils eine Strahlungsquelle und das Beleuchtungsobjektiv zugeordnet ist, vom zugeordneten Be­ leuchtungsobjektiv bei der Rotation der Wendeltreppenscheibe sehr schnell, hochgenau und vorbestimmt durch die geometrisch-optische Weglängenänderung durch die verschieden dicken transparenten Platten verändert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in den Stu­ fenflächen der vollflächigen Wendeltreppenscheibe je ein weiterer transparenter und unstrukturierter Sektorenbereich für den Abbildungsstrahlengang angeordnet sein.So kann für den Abbildungsstrahlengang ebenfalls sehr schnell und auch synchron sowie hochgenau und vorbestimmt eine geometrisch-optische Weglängenänderung im Zeitbereich ΔtB realisiert werden und so können bei zumindest näherungsweise baugleicher Ausführung, paralleler Achslage und entsprechender Justierung sowohl der Beleuchtungsstrahlengang als auch der Abbildungsstrahlengang auf die jeweils gleiche Schärfeebene fokussiert sein. Die Rotationsbewegung der Wendeltreppenscheibe wird so mit dem Auslesen der Elemente des Empfänger-Array synchronisiert, daß in der Integrationszeit beispielsweise einer Matrixkamera eine bewegte Segmentfläche die Fläche der Matrixkamera vollständig überdeckt, wo­ bei die Segmentfläche größer als die Fläche der Matrixkamera ist. Es ist jedoch auch eine gesteuerte teil­ weise Überdeckung möglich. In diesem Fall können die Elemente der Matrixkamera zeilenweise oder in Gruppen von Zeilen ausgelesen werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten in der Art eines als Tangentialgitters auf­ gebracht sein. So kann über der Rotation der Scheibe eine nur vergleichsweise geringe oder gar keine Phasenänderung in einem Feld eines strukturiert leuchtenden Arrays erzeugt werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays auf den Stufenflächen der zugehörigen Platten der Wendeltreppenscheibe in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein. So kann die Phase von einem Signal, welches aus einem Feld eines strukturiert leuchtenden Arrays bei der Rotation innerhalb eines Zeitintervalls gewonnen wird, beispielsweise des Zeitintervalls der Inte­ gration zumindest eines Bereiches des Empfänger-Arrays, beispielsweise einer Zeile, konstant gehalten werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Gitter mit äquidistanten konzentrischen Kreisen von Stufenflächen zu Stufenflächen der Wendeltreppenscheibe einen Sprung in der Struktur dieses Gitter in radialer Richtung in der Art eines Phasensprunges aufwei­ sen. So besteht die Möglichkeit, die Phasenlage bei der Rotation der Wendeltreppenscheibe im Beleuch­ tungsstrahlengang in definierten Schritten zu verändern.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem ganzzahligen Vielfachen eines Viertels der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Phasen- Auswerte-Algorithmen eingesetzt werden, die vorzugsweise mit einem ganzzahligen Vielfachen von 90° arbeiten, wobei der Wert von 90° eingeschlossen ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Stufenfläche zu Stufenfläche der Wendeltreppenscheibe einem Dreiviertel der mittleren Gitterkonstanten des Gitters betragen. So können bekannte Sub-Nyquist-Phasen-Auswerte-Algorithmen eingesetzt werden, die insgesamt weniger Stützstellen benötigen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den Stufenflächen der Wendeltreppenscheibe zumindest in Teilbereichen auf der planen Fläche der Wendel­ treppenscheibe ein Referenzgitter aufgebracht sein. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe gemessen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der planen Fläche der Wendeltreppenscheibe zumindest näherungsweise eine Radialstruk­ tur aufweisen. So kann die Rotation und die aktuelle Winkellage der Wendeltreppenscheibe hochgenau gemessen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter zumindest näherungsweise eine Radialstruktur mit einer cos2-Transparenz-Verteilung und eine Ortsfrequenz aufweisen, die vorzugsweise der Ortsfrequenz entspricht, die aus der mittleren Phasenän­ derung des strukturierten Arrays auf einer konzentrischen Bahn der Wendeltreppenscheibe über dem Vollkreis resultiert. So kann mittels geeignetem optoelektronischem Zubehör und Auswerte-Modulen ein cos2-ähnliches Signal als Referenzsignal gewonnen werden, in welches der detektierte Signalverlauf, der zumindest näherungsweise ein cos2-Signal darstellen kann, phasenmäßig eingepaßt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene, daß an der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Beispielsweise kann die Referenzmarke am Ort des maximalen geometrisch-optischen Abstandes der leuchtenden Flä­ chenelemente FEL von der zugeordneten Brennebene des Beleuchtungsobjektivs aufgebracht sein, bei­ spielsweise auch am Umfang oder auf der planen Fläche. Dann beginnt an der Referenzmarke das Ein­ zählen von Impulsen in einen Zähler und gleichzeitig detektieren die Elemente des Empfänger-Arrays vor­ zugsweise periodische Signale mit einer Modulation und ein Signal mit einem Maximum, wenn sich ein Oberflächenelement im Schärfevolumen des Bildes eines leuchtenden Flächenelementes FELj und gleichzeitig im Schärfevolumen des Bildes eines Elementes des Empfänger-Arrays befindet. Der Impuls, der dem Ort des absoluten Signalmaximums entspricht, wird zur Berechnung der zO-Position benutzt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf den gleichflächigen Stufenflächen der Platten je ein weiterer lichtdurchlässiger Teilbereich für den Abbil­ dungsstrahlengang mit einem Farbfilter angeordnet sein. Dieser lichtdurchlässige Teilbereich kann als Farbfilter und vorzugsweise auch einen Farbteiler aufweisen, wobei vorzugsweise die Anteile der ge­ wünschten Farbe transmittieren. So kann ein Filterrad gebildet sein und eine Farbfilterung des Lichtes von den Elementen der Objektoberflächen in einer Szene realisiert und so die Farbinformation gewonnen werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene in jedem Sektor der vollflächigen Wendeltreppenscheibe mindestens eine Referenzmarke aufgebracht sein. Da­ durch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächen 99999 00070 552 001000280000000200012000285919988800040 0002019919584 00004 99880elemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Sekto­ ren eine geringere Ausdehnung in tangentialer Verschiebungsrichtung aufweisen als die Ausdehnung des Empfänger-Arrays und so vorzugsweise das Empfänger-Array streifenweise ausgelesen wird. Die strei­ fenweise Auslesung, im speziellen sogar die zeilenweise Auslesung, ermöglicht eine hohe Anzahl von Segmenten. Dadurch ist gegebenenfalls eine Verringerung der Umfangsgeschwindigkeit der Wendeltrep­ penscheibe möglich. So wird für die Wendeltreppenscheibe der stetige Fall angenähert. Durch das An­ wenden von Auftragetechniken für die Segmente der Wendeltreppenscheibe können Dickenzuwächsen z. B in 5 µm-Schritten von Segment zu Segment einer Platte realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene gleichflä­ chige Stufenflächen mit der Anzahl 2 Exponent n auf der vollflächigen Wendeltreppenscheibe angeordnet sein. Dies ist für die schnelle numerische Auswertung oft von Vorteil.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Durch eine Ausführung der Scheibe in Kunststoff ist so eine Low­ cost-Realisierung möglich. Ein auftretender Axialschlag kann gegebenenfalls im Elastizitätsbereich der Scheibe ausgeregelt werden. Es können dazu magnetische, elektrostatische, elektromagnetische Kraft­ wirkungen zur Anwendung kommen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als ein Flügelrad mit Flügeln in Form transparenter Platten-Sektoren unterschiedlicher geome­ trisch-optischer Dicke ausgebildet sein. Die Platten können dabei Planparallelplatten darstellen. Es kann die geometrische Dicke von Flügel zu Flügel verändert sein. Möglich ist auch der Einsatz unterschiedli­ cher Brechungsindizes für den Optikwerkstoff. So kann eine geometrisch-optischen Weglängenänderung im Beleuchtungsstrahlengang und für die leuchtenden Flächenelemente eine axiale Gegenstandsver­ schiebung erreicht werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Keilscheibe ausgebildet sein. So kann ebenfalls eine geometrisch-optische Weglängenän­ derung im Beleuchtungsstrahlengang und für das auf die Taumelscheibe aufgebrachte strukturierte Array eine axiale Gegenstandsverschiebung erreicht werden. Im Abbildungsstrahlengang kann so eine axiale Bildverschiebung für die abgebildeten Elemente der mindestens einen Objektoberfläche realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche einer Keilscheibe mit einer planen Unterfläche ausgebildet sein, wobei vor­ zugsweise jedoch nur ein Teilbereich der Keilscheibe als strukturiertes Array zur Anwendung kommt und der Keilscheibe eine rotatorische Präzisionslagerung mit einer Drehachse mit einem rotatorischen Präzisi­ onsmotor zugeordnet ist. So kann das strukturiertes Array auf einer Planfläche aufgebracht sein. Dies ist für dessen Herstellung vorteilhaft.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe als transparenter Körper ausgebildet ist und eine Fläche der Keilscheibe senkrecht zur Drehach­ se ausgebildet sein. Dies ist für die Justierung der 3D-Aufnahme-Anordnung und zur Vermeidung eines variablen lateralen Versatzes bei der Rotation der Scheibe von Vorteil.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Keil­ scheibe eine Dickenänderung von maximal einem Zwanzigstel des Radius' der Keilscheibe aufweisen, wobei jedoch vorzugsweise nur ein Ausschnitt der Keilscheibe als strukturiertes Array zur Anwendung kommt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene ein Refe­ renzgitter auf der vollflächigen Keilscheibe zumindest näherungsweise eine Radialstruktur aufweisen. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines Referenzwertes, beispielsweise als Referenzphase verwendet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Keilscheibe mindestens eine Referenzmarke aufgebracht sein. Diese kann optisch hochgenau erfaßt werden und zur Bestimmung eines absoluten Wertes der Referenzphase verwendet werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Keil­ scheibe mehrere strukturierte Arrays in einzelnen Sektoren aufgebracht sind. Diese strukturierte Arrays werden beleuchtet bei der Rotation der Scheibe nacheinander vom Beleuchtungsobjektiv in den Objek­ traum abgebildet.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein. Diese strukturierte Arrays in der Art eines Tangentialgitters ermöglichen auch bei einer vergleichsweise hohen Drehgeschwindigkeit eine ver­ gleichsweise geringe Veränderung der Phase.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die einzel­ nen Tangentialgitter von Sektor zu Sektor einen Sprung in der Gitterstruktur in radialer Richtung in der Art eines Phasensprunges aufweisen. So kann die für die Auswertung benötigte Veränderung der Phase im Signalverlauf realisiert werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase von Sektor zu Sektor ein Viertel der Periode des Tangentialgitters betragen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Taumelscheibe ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array auf der Oberfläche eines Teilbereiches einer Taumelscheibe mit einem Taumelschlag und mit einer planen Unterfläche ausgebildet sein. Auch ein Taumelschlag erzeugt bei der Rotation einer Scheibe eine geometrisch-optische Weglängenänderung für das auf die Taumelscheibe aufgebrachte strukturierte Array somit eine axiale Gegenstandsverschiebung bei der Abbildung desselben.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Taumel­ scheibe als vollflächige Scheibe und als transparenter Körper ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Axial­ schlag der Taumelscheibe maximal ein Zwanzigstel des Radius der Taumelscheibe aufweisen, wobei vor­ zugsweise jedoch nur ein Ausschnitt der Taumelscheibe als strukturiertes Array zur Anwendung kommt.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene zumindest auf einem Teilbereich der Taumelscheibe ein strukturiertes Array aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das struktu­ rierte Array als Gitter in der Art einer Archimedischen Spirale mit mindestens einem Gang aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe zumindest in Teilbereichen ein Referenzgitter aufgebracht sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das Refe­ renzgitter auf der Taumelscheibe zumindest näherungsweise eine Radialstruktur aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der voll­ flächigen Taumelscheibe mindestens eine Referenzmarke aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Segmenten aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die struk­ turierten Arrays in der Art eines Tangentialgitters aufgebracht sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Tan­ gentialgitter von Sektor zu Sektor einen Sprung in der Struktur in der Art eines Phasensprunges aufwei­ sen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene der Sprung in der Phase mindestens einen ganzzahligen Teil von einem Viertel der Periode des Tangentialgit­ ters betragen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Taumelscheibe mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistanten konzentrischen Kreisen aufgebracht sein, wobei vorzugsweise der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet ist und vorzugsweise die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweist und der Sprung in der Phase von Sektor zu Sektor ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Dadurch wird erreicht, daß sich zumin­ dest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenele­ mente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die rotieren­ de Scheibe als Schraubenfläche ausgebildet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene das rotati­ onssymmetrisches Transmissionsgitter auf einer Schraubenfläche einer beleuchteten, rotierenden Schei­ be mit maximal einem Gang, also mit einem Kreisausschnitt von maximal 360° ausgebildet sein, und so mindestens einen Absatz aufweisen, und das rotatorische Transmissionsgitter kann als Schraubenfläche eine Steigung pro Umdrehung von maximal einem Zehntel des Durchmessers der beleuchteten, rotieren­ den Scheibe aufweisen, wobei vorzugsweise jedoch nur ein Ausschnitt des Transmissionsgitters als strukturiertes Array im Beleuchtungsstrahlengang zur Anwendung kommen. Dabei kann der Absatz vor­ zugsweise einen zumindest näherungsweise radialen Verlauf aufweisen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene die Steigung der Schraubenfläche und die Anzahl der Gänge der Spirale in der Schraubenfläche so gewählt werden, daß bei der Drehung der schraubenförmigen Gitterfläche die leuchtenden Flächenelementen FEL sich auf Verschiebungsstrecken VSAj befinden, die vorzugsweise zumindest näherungsweise parallel zu einer Ge­ raden gA angeordnet sind.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene dem rotati­ onssymmetrischen Transmissionsgitter auf einer Schraubenfläche zur Bestimmung der Referenzphase eine Baugruppe mit einem Laser und einem Kollimator zugeordnet sein und mindestens eine feine Markie­ rung als Referenzmarke auf der Schraubenfläche aufgebracht sein, wobei der Baugruppe vorzugsweise ein Gitter mit einer Teilungskonstanten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entsprechen kann, nachgeordnet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf der Schraubenfläche mehrere strukturierte Array in einzelnen Sektoren in der Art eines Gitters mit äquidistan­ ten konzentrischen Kreisen aufgebracht sein und der Mittelpunkt der konzentrischen Kreise zumindest näherungsweise der Drehachse einer angeordneten Präzisionslagerung zugeordnet sein die Gitterstruktur von Sektor zu Sektor in radialer Richtung einen Sprung in der Art eines Phasensprunges aufweisen und der Sprung in der Phase von Sektor zu Sektor vorzugsweise ein ganzzahliges Vielfaches eines Viertels der mittleren Gitterkonstanten des Gitters beträgt. Um bei Rotation der Schraubenfläche die Referenzpha­ se hochgenau zu bestimmen und die dabei auftretenden unterschiedlichen Abstände auszugleichen zu können, wird mittels einem Laser und einem nachgeordnetem Kollimator eine Planwelle erzeugt. Diese trifft entweder auf ein ebenfalls miniaturisiertes Interferometer oder ein Gitter mit einer Teilungskonstan­ ten, welche beispielsweise dem mittleren Abstand der leuchtenden Flächenelemente FEL entspricht. So kann in der Gitterebene des rotationssymmetrischen Transmissionsgitters als Schraubenfläche eine strukturierte Beleuchtung mit einer bei der Drehung dieses Transmissionsgitters in der Tiefe nicht ver­ schwindender Struktur erzeugt werden. Die aktuelle relative Referenzphase kann dabei durch die Auswer­ tung von Licht in Transmission bestimmt werden. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumin­ dest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene im Beleuch­ tungsstrahlengang dem Beleuchtungsobjektiv ein bewegliches Keilprisma aus einem transparenten opti­ schen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensationsprisma aus einem transpa­ renten optischen Werkstoff zugeordnet sein. Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem Keilprisma ein strukturiertes Array aufgebracht sein und dem Keilprisma eine Linearführung mit einem Li­ nearmotor zugeordnet sein, wobei und auch im Abbildungsstrahlengang ein bewegliches Keilprisma aus einem transparenten optischen Werkstoff und diesem ein gleichwinkliges, feststehendes Kompensati­ onsprisma dem Abbildungsobjektiv zugeordnet sein kann. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene auf dem beweglichem Keilprisma ein Referenzgitter mit einer Referenzmarke aufgebracht sein und eine Lichtquelle und ein opto-elektronisches Auswertemodul dem Referenzgitter zugeordnet sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für ein be­ wegtes Keilprisma im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise jeweils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Bewegung des Keilprismas und p die Gitterkon­ stante des strukturiert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupillenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Ab­ bildungsobjektivs im Objektraum. Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Ar­ rays auf dem Keilprisma kann sowohl durch eine Dickenänderung des Keilprismas, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein.Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbe­ reich ΔtB die leuchtenden Flächenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene für eine ro­ tierende Scheibe oder Teile derselben im Beleuchtungsstrahlengang bei der Abbildung des strukturiert leuchtenden Arrays durch das Beleuchtungsobjektiv dessen axiale Gegenstandsweite vorzugsweise je­ weils entsprechend der folgenden Bedingung
|(Δϕ.p)/(2π.zAG)| = |d/fB|
zumindest näherungsweise verändert werden und die leuchtenden Flächenelemente FEL so auf Strecken BSAj zumindest näherungsweise parallel zu einer Geraden gAP verschoben werden.Dabei bedeuten der linke Term die Phasenänderung Δϕ des strukturiert leuchtenden Arrays, bezogen auf die Änderung der geometrisch-optischen Weglänge ΔzAG im Strahlengang in Richtung der optischen Ach­ se, also die axiale optische Gegenstandsverschiebung bei der Abbildung eines leuchtenden Flächenele­ mentes FELj des strukturiert leuchtenden Arrays bei der Rotation und p die Gitterkonstante des struktu­ riert leuchtenden Arrays und fB die Brennweite des Beleuchtungsobjektivs und d den Abstand des Pupil­ lenzentrums des Beleuchtungsobjektivs im Objektraum vom Pupillenzentrums des Abbildungsobjektivs im Objektraum.Der in Lichtrichtung veränderliche Ort des strukturiert leuchtenden Arrays auf der rotierenden Scheibe kann sowohl durch eine Dickenänderung der rotierenden Scheibe, aber auch durch eine Änderung des Brechungsindexes, aber auch durch deren Kombination verursacht sein. Diese Beziehung gilt grundsätz­ lich sowohl für stetige als auch für segmentierte rotierende Scheiben. Dadurch wird erreicht, daß sich zumindest zu einem Zeitpunkt ti in einen Zeitbereich Δti in einem Zeitbereich ΔtB die leuchtenden Flä­ chenelemente FEL zumindest näherungsweise auf einer Strecke parallel zu einer Geraden gAP bewegen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Emp­ fänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist, dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein. Die resultierende Bewegungsrichtung des ersten Empfänger-Array kann dabei auf einer Strecke ASA1 auf dem ersten oberen Ast eines Buchstabens Y erfolgen und die Strecke ASA1 kann parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet so daß sich die detek­ tierenden Elemente des erstes Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 auf dem zweiten oberen Ast des Buchstabens Y erfolgen, und die Strecke ASA1 kann parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So können sich die detektierenden Elemente des zweites Empfänger-Arrays auf den Strecken ASA1j bewegen, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Die Szene kann eine Freiraumszene sein.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, dem mindestens je ein Bewegungssystem zugeordnet ist dem ersten und dem zweiten Empfänger-Array mindestens je ein Bewegungssystem zugeordnet sein und die resultieren­ de Bewegungsrichtung des ersten Empfänger-Array auf einer Strecke ASA1 parallel zur optischen Achse des ersten Abbildungsobjektivs erfolgen, und genau die Elemente des ersten Empfänger-Arrays ausgele­ sen werden und aus diesen ein Signalverlauf gebildet werden, welche sich auf Strecken ASA1j befinden, die parallel zu einer Geraden gA1P liegen, die zum einen den Brennpunkt des ersten Abbildungsobjektivs im Array-Raum schneiden und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneiden. So entsprechen die zur Signalbildung verwendeten Elemente des erstes Empfänger-Array denen, welche sich auf Strecken ASA1j befinden, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet und die resultierende Bewegungsrichtung des zweiten Empfänger-Array kann auf einer Strecke ASA2 parallel zur optischen Achse des zweiten Abbildungsobjektivs erfolgen, wobei ge­ nau die Elemente des zweiten Empfänger-Arrays ausgelesen werden und aus diesen ein Signalverlauf gebildet wird, welche sich auf Strecken ASA2j befinden, die parallel zu einer Geraden gA2P liegen, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbil­ dungsobjektive durch die zusammenfallenden Hauptebenen schneidet. So entsprechen die zur Signalbil­ dung verwendeten Elemente des zweiten Empfänger-Array denen, welche sich auf Strecken ASA2j befin­ den, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Auch hier kann die Szene eine Freiraumszene sein.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transpa­ renten Platte, die vorzugsweise planparallel ausgeführt ist, mit einer vorbestimmten geometrisch­ optischen Dicke zugeordnet sein und auf der rotierenden Scheibe Referenzmarken aufgebracht sein, wo­ bei die optische Dicke der transparenten Platte stetig veränderlich sein kann. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor ei­ nem Empfänger-Arrays angeordnet ist, enthalten.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit jedem Empfänger-Array eine rotierende Scheibe mit mindestens einer transparenten Platte, die vorzugsweise planparallel ausgeführt ist, und jeder transparenten Platte eine vorbestimmten ortsabhängigen geome­ trisch-optischen Dicke zugeordnet sein und auf der rotierenden Scheibe mindestens eine Referenzmarke aufgebracht sein und so kann so die optische Dicke sich von transparenter Platte zu transparenter Platte vorherbestimmt verändert werden. In den Referenzmarken ist die Information über die optische Dicke der transparenten Platte, welche gerade im Strahlengang vor einem Empfänger-Arrays angeordnet ist, enthal­ ten. Dabei kann das Empfänger-Array mit einer Steuerung Länge und des Beginns der Integrationszeit in Teilbereichen ausgelesen werden, so daß Bereiche gleicher Dicke ohne Sprungstelle in der Platte ausge­ lesen werden können. So kann jeweils eine Stelle gleicher optische Dicke fast in der gesamten Verweilzeit vor einem zugeordneten Element des Empfänger-Arrays detektiert werden. Weiterhin ist es möglich, daß sich vor einem elektronisch steuerbaren Array eine rotierende Scheibe mit mehreren transparenten Platte mit einer vorbestimmten optischen Dicke befinden, die eine vorbestimmte optische Dicke aufweisen und sich die optische Dicke von Platte zu Platte ändert, wobei Referenzmarken angeordnet sind, welche die Information über aktuelle optische Dicke der jeweils optisch wirksamen transparenten Platte enthalten und die transparenten Platten zumindest näherungsweise als planparallele Platten ausgeführt sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von Objektoberflächen in einer Szene mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zu Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, für fotografische 3D-Farb-Aufnahmen für die Gewinnung der 3D-Punktwolke zwischen jedem Abbildungsobjektiv und jedem Empfänger-Array je mindestens zwei gleichwinklige Pris­ men aus einem Optikwerkstoff mit vorzugsweise je einem gleichen Brechungsindex und vorzugsweise gleicher Dispersion angeordnet sein, die als Keilprismen bezeichnet werden, wobei je zwei Keilprismen ein Parallelstück mit einem parallelen Zwischenraum konstanter Dicke bilden. Die Strahlachse steht auf den äußeren Flächen des Parallelstückes jeweils senkrecht.Dieser Zwischenraum konstanter Dicke wird vorzugsweise von den einander zugekehrten Innenflächen der beiden Keilprismen begrenzt. Der Zwischenraum ist vorzugsweise mit Luft ausgefüllt, kann aber auch mit einem transparenten Optikwerkstoff ausgefüllt sein, der vorzugsweise einen geringeren Brechungsin­ dex als die beiden gleichwinkligen Keilprismen aufweist. Durch die Dispersion können lateral verschobene Bilder in der Bildebene erzeugt werden. Durch Zuordnung einer Empfänger-Arrays mit zeilenweise aufge­ brachten Farbfiltern in den Farbbereichen rot grün blau kann der Farbwert eines jeden Objektpunktes zumindest näherungsweise vom gleichen Element der Objektoberfläche gewonnen werden. Dabei kann das feststehende Prisma als Fenster des Empfänger-Arrays angeordnet sein.Weiterhin kann mindestens ein Keilprisma zumindest näherungsweise geradlinig verschoben werden, wo­ bei die Verschiebungsrichtung parallel zur inneren Fläche des verschobenen Keilprismas liegt und in je­ dem Fall eine Querkomponente zur Lichtausbreitungsrichtung enthält. Durch die Verschiebung des Keilprismas wird in jedem der beiden Abbildungsstrahlengänge die gleiche axiale Bildverschiebung in zA- Richtung erzeugt, so daß die korrespondierenden Pixel Informationen aus unterschiedlichen Tiefen des Objektraumes detektieren können. Beispielsweise können so 16 Bilder aus unterschiedlichen Tiefen des Objektraumes aufgenommen werden. Bei Aufnahmen von Objektoberflächen in der Szene mit der Einstel­ lung auf den Nahbereich kann synchron zur Aufnahme von Bildern eine Blitzlichtquelle die Objektoberflä­ chen in der Szene ausleuchten. So kann eine Bildfolge mit 16 Bildern mit 16 Einzelblitzen in 0,2 s aufge­ nommen werden. Eine höhere Blitzfrequenz ist grundsätzlich möglich. Dabei sendet die Blitzlichtquelle vorzugsweise kein strukturiertes Licht aus. Jedoch ist mit einer spezielle Blitzlichtquelle auch eine struktu­ rierte Beleuchtung möglich, jedoch sollte dann eine laterale Verschiebung der strukturierten Beleuchtung stattfinden, um zumindest näherungsweise die Elemente der Objektoberfläche gleichmäßig ausleuchten zu können.Weiterhin kann zur Kompensation des anamorphotischen Effektes bei Keilprismen mit einem Winkel oberhalb von 5° ein zweites baugleiches Parallelstück mit einem gleichgestalteten Zwischenraum ange­ ordnet werden, welches um die Strahlachse um 90° gedreht wurde. Von den vier einzelnen Keilprismen können dabei die beiden inneren zu einen Monolithen vereinigt sein. Weiterhin sind die Projektionen der Verschiebungsrichtungen der beiden äußeren Keilprismen auf die Au­ ßenfläche eines Parallelstückes vorzugsweise senkrecht zueinander ausgerichtet, wobei dei beiden äuße­ ren Keilprismen je eine oszillierende Bewegung mit einer 90°-Phasenverschiebung der Bewegung zuein­ ander ausführen können.Die Auswertung der beispielsweise 16 Bilder erfolgt mittels des bereits genannten Korrelationsverfahren über die korrespondierenden Pixel durch die Bestimmung eines Korrelationsmaximums Mj. So kann von einer Standard-Szene die 3D-Punktwolke der Elemente der Objektoberflächen in der Szene, einschließ­ lich der Farbinformation durch die Auswertung der Farbwerte in den Bildern der Elemente der Objektober­ flächen, errechnet werden. Die Wiedergabe als 3D-Bild erfolgt nach einer automatischen oder einer inter­ aktiven Weiterverarbeitung der 3D-Punktwolke zu einem 3D-Flächen-Modell. Die Betrachtung der farbigen 3D-Flächen-Modell kann beispielsweise mittels eines digitalen 3D-Monitors erfolgen.Weiterhin kann bei der Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer min­ destens einer Szene das Empfänger-Array eine Farbkamera darstellen.Weiterhin ist in einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in mindestens einer Szene mit mindestens einer elektromagnetischen Strahlungsquelle und die Strahlungsquelle mittels mindestens eines strukturierten Arrays als ein strukturiert leuchtendes Array mit leuchtenden Flächenele­ menten FEL ausgebildet.Es ist mindestens ein Beleuchtungsstrahlengang mit mindestens Beleuchtungsobjektiv, welches eine ef­ fektive Öffnungsblende mit einer Ausdehnung DB und einem Blendenzentrum BZB aufweist, zur struktu­ rierten Beleuchtung der Objektoberflächen im Objektraum angeordnet. Der Objektraum, entspricht dem Szenenraum. Das Beleuchtungsobjektiv ist einem dem strukturiert leuchtenden Array, einschließlich ei­ nem Bild desselben, zugeordnet.Außerdem ist dem mindestens einen Beleuchtungsstrahlengang ein Abbildungsstrahlengang zugeordnet, der mit mindestens einer Abbildungsstufe für die mindestens eine Objektoberflächen mit mindestens ei­ nem dem Empfänger-Array oder einem Bildes desselben zugeordneten Abbildungsobjektiv zur Abbildung der Elemente der Objektoberflächen, welches eine effektive Öffnungsblende mit einem Blendenzentrum BZA aufweist. Mittels Elementen des mindestens einem Empfänger-Arrays wird im Aufnahmevorgang elektromagnetische Strahlung von den Elementen der beleuchteten Objektoberflächen im Objektraum detektiert.Der Abstand d des Pupillenzentrums PZOB des Beleuchtungsobjektivs, als Bild des Blendenzentrums BZB im Objektraum, vom Pupillenzentrum PZOA des Abbildungsobjektivs, als Bild des Blendenzentrums BZA im Objektraum, beträgt mindestens ein Achtel der Ausdehnung DB der Öffnungsblende des Beleuchtungsob­ jektivs. Die leuchtenden Flächenelemente FEL weisen in einer Leuchtdichteverteilung eine zumindest nä­ herungsweise vorherbestimmten Leuchtdichteauf, so daß durch die Abbildung mit dem Beleuchtungsob­ jektiv mindestens ein Bild eines leuchtenden Flächenelementes FELj im Objektraum gebildet ist.So ist erfindungsgemäß im Objektraum das Schärfevolumen mindestens eines Bildes eines leuchtenden Flächenelementes FELj in einem strukturiert leuchtenden Array - durch die vorbestimmte Zuordnung des leuchtenden Flächenelementes FELj zum Beleuchtungsobjektiv und die Zuordnung der Elemente des Empfänger-Arrays zum Abbildungsobjektiv und die Zuordnung von Beleuchtungsobjektiv zum Abbildungsobjektiv in der 3D-Aufnahme-Anordnung unter Anwendung der Newtonschen Abbildungsgleichung - permanent in das Schärfevolumen eingepaßt, welches durch die Gesamtheit der Bilder der Elemente des Empfänger-Arrays im Objektraum dargestellt ist. Dabei weist das Schärfevolumen, welches durch die Ge­ samtheit der Bilder der Elemente des Empfänger-Arrays in Strahlausbreitungsrichtung gegeben ist, min­ destens eine so große Tiefenausdehnung wie das Schärfevolumen eines einzelnen Bildes eines leuch­ tenden Flächenelementes FELj auf, so daß für alle Bilder eines leuchtenden Flächenelementes FELj ein diese umschließendes Schärfevolumen von Bildern der Elemente des Empfänger-Arrays gegeben ist und im Objektraum jeweils ein Bild eines leuchtenden Flächenelementes FELj eines strukturierten Arrays mindestens einem Bild eines Elementes des Empfänger-Arrays fest zugeordnet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sind, wobei mindestens eine Sub-Matrix angeordnet ist und mindestens in einer strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet sind, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche angeordnet ist und diese mindestens eine Fensterflä­ che eine mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv aufweist, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist und in einer Fensterfläche in einer strukturier­ ten Zelle jeweils im Zusammenwirken mit der Strahlungsquelle mindestens ein leuchtendes Flächenele­ ment FELj dargestellt ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene in einem strukturierten Array räumlich strukturierte Sub-Matrizen angeordnet sein. Dabei sind in der strukturierten Sub-Matrix wiederum strukturierte Zellen angeordnet, wobei wiederum in jeder strukturierten Zelle durch eine Maskierung in der Fläche der strukturierten Zelle mindestens eine Fensterfläche ange­ ordnet ist. Diese mindestens eine Fensterfläche weist eine mittlere optische Gegenstandsweite zum Be­ leuchtungsobjektiv auf, die unterschiedlich zur Fensterfläche der Nachbarzelle im Hauptschnitt gemacht ist. So entsteht das Bild der Maskierung in einer anderen Tiefe des Objektraumes, wodurch in verschie­ denen Tiefen des Objektraumes Bilder der Maskierung erzeugt werden können. Außerdem ist in einer Fensterfläche in einer strukturierten Zelle jeweils mindestens ein selbstleuchtendes Flächenelement FELj angeordnet. Dieses wird in den Objektraum abgebildet.Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne die Fensterfläche vorzugsweise zumindest näherungsweise in einer Ebene senkrecht zur optischen Achse des Beleuchtungsobjektivs angeordnet.Weiterhin ist bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Sze­ ne vorzugsweise mindestens eine strukturierte Sub-Matrix als eine Transmissionsanordnung mit einem optischen Werkstoff ausgebildet.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche in einer Szene mindestens die optisch aktive Oberfläche der strukturierten Zellen jeweils einen räumlich struktu­ rierten Bereich aufweisen, wobei in diesem räumlichen strukturierten Bereich die Fensterfläche als plane Fläche ausgebildet sein. In der planen Fläche des Fensterelementes ist vorzugsweise eine Maske ange­ ordnet und in einem Teilbereich der räumlich strukturierten Zelle ist neben der Maske auf der planen Flä­ che des Fensterelementes eine Mikrolinse mit einer fokussierenden Wirkung angeordnet ist, wobei deren Fokus zumindest näherungsweise in der Fläche des Fensterelementes positioniert ist. Dabei weist die Maske ein Binär-Code-Transparenzprofil zur Codierung einer maschinenlesbaren Zahl als Positionsnum­ mer. So sind die Masken innerhalb einer Zelle jeweils eindeutig maschinenlesbar und voneinander unter­ scheidbar. Damit ist zumindestens innerhalb einer Zelle die Mikrolinse ist neben der Maske auf der planen Fläche des Fensterelementes eindeutig zu identifizieren, so daß aus der lateralen Lage des Fokuspunktes im aufgenommenen Bild die zO-Koordinate sowie die xO- und die yO-Koordinate des zugehörigen Objekt­ punktes bestimmt werden kann.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Mikro­ linse in einem Teilbereich der räumlich strukturierten Zelle neben der Maske auf der Fensterfläche jeweils als eine Zylinderlinse ausgebildet sein. Dadurch gibt es jeweils eine Lichtspur auf der Objektoberfläche mit einer vergleichsweise hohen Beleuchtungsstärke über die Länge der Zylinderlinse. So ist diese Lichtspur unabhängig von lateralen Verschiebungen problemlos detektierbar und somit ist eine hohe Detektionssi­ cherheit gegeben.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer die Mikrolinse so angeordnet sein, daß deren Fokuspunkt zumindest näherungsweise in der Ebene der Maske positioniert ist. Dadurch ist eine besonders feine Lichtspur realisierbar.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als opakes Reliefstück mit mehreren, mindestens jedoch zwei, feinen Durchbrüchen, die gegenüber dem Beleuchtungsobjektiv angeordnet sind, ausgebildet sein. Beim Einsatz des Reliefstückes in die 3D-Aufnahme-Anordnung befinden sich die feinen Durchbrüchen in unterschiedlichen Tiefen des Array-Raumes, so daß deren Bilder sich an unterschiedlich tiefen Punktes des Objektraumes befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein nichttransparentes Reliefstück mit Durchbrüchen versehen sein. Die Oberfläche des Reliefstückes weist zum Beleuchtungsobjektiv und ist vorzugsweise so gefertigt, daß diese zumindestens näherungsweise die optisch konjugierte Fläche eines zu prüfenden Sollstückes darstellt und die Durch­ brüche auf der Oberfläche des Reliefstückes zumindestens näherungsweise die optisch konjugierten Orte der Sollfläche eines Prüflings darstellen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das struk­ turierte Array als ein transparentes Mikrolinsen-Array ausgebildet ist und die Brennweite und die axiale Lage der Mikrolinsen so gestaltet sein, daß deren Foki in einer 3D-Fläche angeordnet sind, die zuminde­ stens näherungsweise eine zur Sollfläche optisch konjugierte Fläche darstellt. Die Foki der Mikrolinsen stellen zumindestens näherungsweise einige optisch konjugierten Orte der Sollfläche eines Prüflings dar. So kann durch die Bestimmung der Fokuslage im Bild die Abweichung von einer Sollage bestimmt wer­ den.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche auf dem strukturierten Array mindestens ein Relief mit einer räumlichen Struktur mit mindestens einer Periode in Form von mindestens einer Rampe mit mindestens einer in der Ausgleichsfläche schrägen Rampenfläche gebildet sein. Dabei ist vorzugsweise mindestens eine Rampenfläche jeweils zum Beleuchtungsobjektiv ausgerichtet. Auf der schrägen Rampenfläche sind vorzugsweise leuchtende Flächenelemente FEL an­ geordnet. Diese leuchtende Flächenelemente FEL werden durch Fensterflächen gebildet, die von der Strahlungsquelle beleuchtet werden.Die Rampenflächen sind vorzugsweise so geneigt, daß die Ausgleichsgerade AGAj durch die schräge Rampenfläche im Hauptschnitt nach Abbildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj liefert, die zumindestens näherungsweise auf das Pupillenzentrum PZOA des Abbil­ dungsobjektivs zielt. In der Regel sind mehrere Rampen vorhanden, so daß die verschiedenen Aus­ gleichsgeraden AGOj von mehreren verschiedenen Rampen nach deren Abbildung durch das Beleuch­ tungsobjektivs aus deren Bildern ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist. Das Beleuchtungsobjektiv ist dabei vorzugsweise hoch geöffnet. Der Konvergenzpunkt K1 ist dabei zuminde­ stens näherungsweise im Pupillenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht. So ist gegeben, daß sich bei der Aufnahme von Bildern der Objektoberfläche in allen Tiefen eindeutig eine Rampe verfolgt werden kann, ohne daß es Probleme mit lateralen Fehllagen gibt, da der verfolgende Abbildungsstrahl stets aus dem Pupillenzentrum des Abbildungsobjektivs kommt. Das Abbildungsobjektiv kann vergleichsweise kurzbrennweitig sein, kürzer als das Beleuchtungsobjektiv, und ist dabei so weit ab­ geblendet, beispielsweise auf die Blende 11, daß ein großer Tiefenschärfebereich gegeben ist. Damit bestimmt der Tiefenschärfebereich des Abbildungsobjektivs hier den Tiefenbereich für die 3D- Aufnahmeanordnung. Dabei kann im Objektraum das Bild einer Rampe mit der Achse des Abbildungsob­ jektivs zusammenfallen. Die anderen Bilder der Rampen bilden im Hauptschnitt ein Büschel mit dem Ur­ sprungspunkt im Pupillenzentrum. So wird die zu detektierend Objektoberfläche von den Rampenbildern durchschnitten. Im Schnittpunkt eines Rampenbildes mit der Objektoberfläche entsteht ein jeweils ein scharfes Bild von der Maske auf der Rampenfläche.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf der Rampenfläche, die eine mittlere Länge WP aufweist, jeweils mindestens eine Maske mit einem Binär- Code-Transparenzprofil mit der Sequenzlänge bz auf einem stetigen Flächenbereich derselben gebildet sein. Die in der Maske mit einem Binär-Code-Profil verwendete minimale Strukturbreite p ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv noch ohne merklichen Kontrastverlust scharf abgebildet werden kann. Die Länge WP ist dabei vorzugsweise größer als bz.d/DB gemacht und die auf einer Rampenfläche aufgebrachten Masken sind mit einem Binär-Code-Transparenzprofil jeweils eindeutig und maschinenlesbar voneinander unterscheidbar. So kann auch bei einem lateralen Auswan­ dern aufgrund des Triangulationseffektes die Masken sicher identifiziert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mehrere Rampenflächen hintereinander in zum Hauptschnitt parallelen Zeilen in einer Sub-Matrix angeordnet sein, und deren mittlere optische Gegenstandsweite zum Beleuchtungsobjektiv von Zeile zu Zeile, also in y- Richtung jeweils unterschiedlich gemacht ist, beispielsweise stets ansteigend. So entstehen ein mittlerer Anstieg in einer zweiten Richtung, der y-Richtung, und so können besonders viele unterscheidbare Hö­ henstufen realisiert werden. wodurch sich ein besonders großer Tiefenerfassungsbereich für die 3D- Aufnahme-Anordnung ergibt. Dem Abbildungsobjektiv kann, um bei einem sehr großen Tiefenerfassungs­ bereich nicht zu stark abblenden zu müssen, eine transparente Platte mit Keilprismen zugeordnet sein, die eine Platte mit Rampen darstellt, wobei die Rampenanzahl der Anzahl der Sub-Matrizen entspricht und der Keilwinkel dieser Platte sich aus dem Abbildungsmaßstab ergibt. Dabei steigen die Prismenkeile auf diese Platte in diesem Beispiel ebenfalls in y-Richtung an, so daß vom Abbildungsobjektiv scharte Bil­ der von Ebenen gesehen werden können, die nicht senkrecht zur optische Achse desselben angeordnet sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche inner­ halb der Rampenflächen mehrere Stufen ausgebildet sein, wobei sich auf einer Fläche einer Stufe je min­ destens eine Maske mit einem Binär-Code-Transparenzprofil mit mindestens einem transparenten Feld aufgebracht ist. Dabei müssen die Stufen nicht unbedingt stetig steigend oder fallend sein. So können auch Stufen vertauscht werden. Die Ausgleichsgerade bezieht sich auf den Fall, ohne das Vertauschen von Stufen. Die Ausgleichsgerade AGAj schneidet die nicht vertauschten Stufen jeweils etwa in der Mitte der Stufenflächen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Binär- Code-Profil als Balken-Code-Profil Transparenzprofil mit mindestens einem transparenten Balken aus­ gebildet sein. Ein Balken-Code-Profil Transparenzprofil kann so zeilenweise und damit besonders schnell gelesen werden. Die Balken sind vorzugsweise parallel zum Hauptschnitt angeordnet und so erfolgt die Detektierung des Balken-Code-Transparenzprofils senkrecht zum Hauptschnitt. Die Balken überdecken jeweils vorzugsweise mehrere Spalten bei einer Abbildung auf eine Empfängerfläche, beispielsweise min­ destens zwei Spalten. Dabei kann vorzugsweise das Tastverhältnis der Balken-Codierung bei einer kon­ stanten Periodenlänge des Balken-Codes ausgewertet werden. So ist beim Detektieren eine hohe Erken­ nungssicherheit unabhängig von der Position gegeben. Andererseits können die nebeneinander liegenden Balken als Balken gleicher Breite in nebeneinander liegenden Zellen auf Lücke gesetzt sein, so daß durch eine laterale Verschiebung infolge eines Höhenversatzes auf der Objektoberfläche keine Fehlinformation bei der Bildaufnahme entstehen kann. Weiterhin kann sich in einem äquidistanten Raster jeweils ein Dun­ kel-Hell-Übergang am gleichen Ort der Zellen befinden. Vorzugsweise kann es auch ein quadratisches Raster sein. Dies ist sehr vorteilhaft, da sich zumindestens bei einer zumindest näherungsweisen ebenen Fläche ein äquidistantes Raster von Meßpunkten gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das auf den Rampenflächen mit der Länge WP eine Gitterstruktur mit einem cos2-Transparenzprofil mit minde­ stens einer Periodenlänge bz aufgebracht sein. Die Periodenlänge bz ist vorzugsweise mindestens so groß gemacht, daß diese vom Beleuchtungsobjektiv mit einer hohen relativen Lichtstärke noch ohne merklichen Kontrastverlust abgebildet werden kann. Die Länge WP der Rampenfläche ist jeweils größer als bz.d/DB gemacht ist, wobei die Länge der Rampenfläche mindestens gleich der Periodenlänge bz gemacht.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche leuchtende Flächenelemente FEL als von der Strahlungsquelle beleuchtete, transparente Fensterflächen, einschließ­ lich Bilder von diesen, im Array-Raum positioniert sein. Die dem Beleuchtungsobjektiv zugewandte Seite des strukturierten transparenten Arrays ist mindestens als ein einziges Relief mit einer räumlichen Struk­ tur mit mindestens einer Periode in Form von mindestens einer Rampe gebildet, die jeweils ein transpa­ rentes Keilprisma darstellt.Die Keilprismen weisen vorzugsweise einen Keilwinkel auf, der so gewählt ist, daß durch dessen abbil­ dende Wirkung die Bilder der leuchtende Flächenelemente FEL zumindestens näherungsweise auf einer Ausgleichsgerade AGAj im Hauptschnitt liegen. Die Ausgleichsgerade AGAj liefert vorzugsweise nach Ab­ bildung durch das Beleuchtungsobjektivs im Objektraum als Bild eine Gerade AGOj, die auf das Pupillen­ zentrum PZOA des Abbildungsobjektivs zielt. Dabei ist vorzugsweise für mehrere Ausgleichsgeraden AGOj von mehreren Rampen nach deren Abbildung durch das Beleuchtungsobjektivs aus deren Bildern ein Ge­ radenbündel mit einen Konvergenzpunkt K1 gebildet, der zumindestens näherungsweise mit dem Pupil­ lenzentrum PZOA des Abbildungsobjektivs zur Koinzidenz gebracht ist. So kann vermieden werden, daß auf den schrägen Flächen einer Rampe eine Maskierung aufgebracht werden muß. Die Maskierung be­ findet sich auf der Vorderseite des vorzugsweise zur Strahlungsquelle planen Reliefs.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die trans­ parenten Keilprismen jeweils so gefertigt sein, daß diese im Mittel zumindestens näherungsweise den Keilwinkel im Bogenmaß mit dem Betrag fB.n/[d.(n-1)] aufweisen. Bei diesem Winkel ergibt sich eine Drehung der leuchtenden Flächenelemente, die auf einer planen Fläche, senkrecht zur Achse des Be­ leuchtungsobjektivs, angeordnet sind.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise gleichwinklig ausgebildet sein. So stellen vorzugsweise, wenn nicht die Rampenflächen selbst, aufgrund einer räumlichen Strukturierung derselben, wenigstens die Ausgleichsgeraden AGAj durch die schrägen Rampenflächen im Hauptschnitt der 3D-Aufnahme-Anordnung zueinander parallele Geraden dar.Die Rampenflächen sind so gestaltet, daß nach Abbildung durch das Beleuchtungsobjektivs aus den Bil­ dern der parallelen Ausgleichsgeraden ein Geradenbündel GB1 mit einen Konvergenzpunkt K1 gebildet ist, der zumindestens näherungsweise mit dem Pupillenzentrum PZOA des Abbildungsobjektivs im Objektraum zur Koinzidenz gebracht ist. Die Herstellung von derartigen Rampen ist vergleichsweise einfach. Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche bei ei­ nem im Array-Raum telezentrischen Abbildungsobjektiv die Rampenflächen im strukturierten Array, die zum Beleuchtungsobjektiv weisen, zumindestens näherungsweise mit der gleichen Länge ausgebildet sein. Die Herstellung von derartigen Rampen ist vergleichsweise einfach.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv eine transparente Platte mit Keilprismen nachgeordnet sein, die eine Platte mit Rampen darstellt, wobei die Anzahl der Rampen der Anzahl der Sub-Matrizen auf dem strukturierten Array ent­ spricht. Weiterhin können die Rampen Mikro-Stufen aufweisen, die senkrecht zur Achse des Abbildungs­ objektivs ausgerichtet sein. So kann die brechende Wirkung eines Prismas vermieden werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche im Abbil­ dungsstrahlengang mindestens ein Mikrolinsen-Array angeordnet sein, beispielsweise in einer Zwischen­ abbildungsstufe, die dem Objektiv vor dem Empfänger-Array vorgeordnet ist, wobei die Mikrolinsen inner­ halb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senkrecht zur optischen Achse des Abbildungsstrahlenganges aufweisen. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte scharf abgebildet werden. Es können zwei ein Mikrolinsen-Arrays mit jeweils koaxialen Mikrolinsen angeordnet sein, die ein Mikro-Teleskop bilden, wobei ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite gefertigt ist, dem ein Mikrolinsen-Array mit Mikrolinsen gleicher Brennweite zugeordnet ist, so daß ein Array aus Mikro-Teleskopen gebildet ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Mikrolinsen-Array vorgeordnet ist, wobei die Mikrolinsen innerhalb eines Mikrolinsen-Arrays mindestens zwei verschiedene axiale Lagen der Foki in Bezug auf eine Ebene senk­ recht zur optischen Achse des Abbildungsobjektivs aufweisen. Auch hier können mit einer planen Emp­ fängerfläche aus verschiedenen Tiefen des Objektraumes Objektpunkte gleichzeitig scharf abgebildet werden, ohne daß eine Zwischenabbildungsstufe benötigt wird. So ist vorzugsweise ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite angeordnet.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf einem räumlichen Profil angeordnet sind. Dieses kann ein Sinusprofil sein, welches sich optimal herstellen läßt.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Orte der Foki der Mikrolinsen eines Mikrolinsen-Arrays auf Rampenflächen angeordnet sein. So können mit ei­ ner planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebildet werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche dem Abbil­ dungsobjektiv mindestens ein Lichtwellenleiter-Array, welches aus Mikrofasern gefertigt ist, vorgeordnet sein, wobei die Mikrofasern zumindest näherungsweise parallel zur optischen Achse des Abbildungsob­ jektiv angeordnet sind. Dabei liegen die Mikrofaserenden vorzugsweise auf der einen Seite des Lichtwel­ lenleiter-Arrays in einer gemeinsamen Ebene und sind den Elementen des Empfänger-Arrays unmittelbar zugeordnet. Auf der anderen Seite des Lichtwellenleiter-Arrays sind die Faserenden dem Abbildungsob­ jektiv zugeordnet. Hier sind die Faserenden auf einem räumlichen Profil angeordnet. So kann Licht aus unterschiedlichen Ebenen des Array-Raumes detektiert werden. Die Punkte der Detektion entsprechen unterschiedlich weit entfernten Punkten im Objektraum, so daß Elemente einer Objektoberfläche aus un­ terschiedlichen Tiefen des Objektraumes gleichzeitig aufgenommen werden können. Das räumlichen Profil kann ein Stufenflächenprofil mit Rampenflächen darstellen. Die Ausbildung kann auch als Sinusprofil erfolgen.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das räum­ liche Profil der Faserenden zumindestens näherungsweise mit Rampenflächen ausgebildet ist. So können mit einer planen Empfängerfläche aus verschiedenen Tiefen des Objektpunkte gleichzeitig scharf abgebil­ det werden, die sich zumindest näherungsweise im Objektraum auf Ebenen befinden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array mit mindestens acht Elementen ausgebildet sein. Es gibt vorzugsweise mindestens zwei Be­ reiche mit mindestens je vier Elementen, wobei die vier Elemente dann genau zwei Zellen darstellen, mit einer unterschiedlichen mittleren Höhe der Elemente in einer Fläche gebildet sein, die als Sub-Fläche be­ zeichnet wird. So sind auf dem Empfänger-Array Bereiche gebildet, die zu einer Sub-Fläche mit einer mittleren Höhe gehören, und auf dem Empfänger-Array mindestens Elemente in vier unterscheidbaren Höhenstufen angeordnet. Damit kann ein größerer Tiefenbereich im Objektraum zumindest näherungs­ weise scharf auf die einzelnen Elemente des Empfänger-Arrays abgebildet werden, ohne daß eine Fo­ kussierung durch eine mechanische Verschiebung erforderlich ist.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche eine Rampenfläche mit einer gleichen Höhe darstellen, so daß mindestens zwei Rampenflächen auf dem Empfänger-Arrays gebildet sind, die zumindest näherungsweise gleich gemacht sind und auch die Form der Rampenfläche zumin­ dest näherungsweise gleich gemacht ist. So kann in mindestens zwei Bereichen der abgebildeten Objek­ toberfläche der volle Tiefenerfassungsbereich realisiert werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche die An­ zahl der Bereiche, die zu einer Sub-Fläche gehören, mit der Anzahl der Sub-Matrizen im strukturierten Ar­ ray übereinstimmen und ein Bereich, der zu einer Sub-Fläche gehört, sich über mindestens zwei linienhaf­ te Bereiche des Empfänger-Arrays, die getrennt elektromagnetische Strahlung detektieren können, er­ strecken. So können die von leuchtenden Flächenelementen FEL, die durch beleuchtete Fensterflächen in unterschiedlicher Höhe auf einer Sub-Matrix des strukturierten Arrays gebildet sind, im Objektraum ent­ stehenden Bilder auf der Objektoberfläche auf Elemente der Empfänger-Arrays zumindestens nähe­ rungsweise scharf abgebildet werden. Die laterale Anordnung der Bereiche, die zu einer Sub-Fläche ge­ hören, auf der Oberfläche des Empfänger-Arrays ist mit der lateralen Anordnung der Sub-Matrizen auf dem strukturierten Array zumindest näherungsweise geometrisch ähnlich gemacht. Dabei stellt eine Aus­ gleichsfläche über die Elemente des Empfänger-Arrays einer Sub-Fläche jeweils eine Rampenfläche dar. Es können mindestens zwei Sub-Flächen auf dem Empfänger-Arrays gebildet sein. In der Regel können bis zu 128 bei einer 256 × 256 Pixel CCD-Matrix oder gar 512 Sub-Flächen bei einer 1024 × 1024 Pixel CCD-Matrix gebildet sein, um von möglichst vielen Bereichen der Objektoberfläche scharfe Bildpunkte über einen vergleichsweise großen Tiefenbereich detektieren zu können, ohne dabei das Abbildungsob­ jektiv sehr stark abblenden zu müssen. Jeweils zwei Zeilen bilden im Minimum eine Sub-Fläche. Grund­ sätzlich ist auch die Bildung von Sub-Flächen über mindestens zwei Spalten des Empfänger-Arrays, also einer CCD-Matrix, möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Matrix-Kamera ausgebildet sein. Damit ist eine optimale Bildaufnahme bei Standar­ daufgaben mit einem guten Signal-Rausch-Verhältnis möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CMOS-Matrix-Kamera ausgebildet sein. Damit ist durch den wahlfreien Zugriff auf Pixel eine Verfolgung von bewegten Elementen der Objektoberfläche im Raum möglich.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das Emp­ fänger-Array als CCD-Zeilen-Kamera ausgebildet sein. Dies ist zur Aufnahme von sehr schnell ablaufen­ den Vorgängen in einem Schnitt von großem Vorteil.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sein und jedem Abbildungsstrahlengang kann jeweils zumindestens eine kippbare Spiegelfläche vorgeordnet werden und die vorgeordneten, kippbaren Spiegelflächen kön­ nen starr miteinander verbunden sein und diesen können rechnergesteuerte Komponenten zur Durchfüh­ rung einer definierten Verkippung zugeordnet sein. Durch das Kippen der Spiegelflächen mittels eines rechnergesteuerten Schwingspiegels können unterschiedliche Schnitte für die 3D-Aufnahme ausgewählt werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge angeordnet sind und den beiden Abbildungsstrahlengängen gemeinsam ein rechnergesteuertes, rotierendes Spiegelpolygon vorgeordnet sein. So kann eine schnelle Aufnahme von Objektoberflächen im Objektraum erfolgen.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Dabei kann das erste Abbildungsobjektiv als ein Referenzsystem arbeiten, um beispielsweise eine absolu­ te Messung in der bereits beschriebenen Art durchführen zu können. Das zweite Abbildungsobjektiv ist im Abstand k.d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet, wobei k ≧ 2 gemacht ist. Beispielsweise kann das zweite Abbildungsobjektiv im vierfachen Abstand angeordnet sein und ein be­ sonders großes oder ein asymmetrisches Objektfeld besitzen. So ergibt sich ein größerer Triangulations­ winkel und damit eine höhere Tiefenauflösung, wobei die Informationen, die vom ersten Abbildungsobjek­ tiv gewonnen werden dazu dienen, die Ergebnisse die mit dem zweiten Abbildungsobjektiv gewonnen werden, bezüglich der gemessenen Phaseninformationen zu überprüfen und gegebenenfalls hinsichtlich der Streifenordnung zu korrigieren.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche zwei Abbildungsstrahlengänge mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven angeordnet sein. Dabei ist das erste Abbildungsobjektiv mit einer zumindest näherungs­ weiser einseitiger Telezentrie im Array-Raum ausgeführt und das zweite Abbildungsobjektiv ebenfalls mit zumindest näherungsweiser einseitiger Telezentrie im Array-Raum ausgeführt, wobei die beiden Haup­ tebenen der beiden Abbildungsobjektive zur Koinzidenz gebracht sind. Dabei ist das Pupillenzentrum PZOA1 des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOA2 des zweiten Abbildungs­ objektiv angeordnet. Jedem Abbildungsobjektivs ist je ein räumlich strukturiertes Empfänger-Array zuge­ ordnet, so daß ein erstes und ein zweites Empfänger-Array angeordnet sind. Das erste und das zweite räumlich strukturierte Empfänger-Array weisen je mindestens zwei Empfängerflächen auf räumlich ge­ trennten Stufenflächen auf, die jeweils senkrecht zum Hauptschnitt liegen, wobei die Empfängerflächen des ersten Empfänger-Arrays jeweils parallel zur Geraden gA1P angeordnet sind, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA1 des ersten Abbildungsobjektivs enthält.Die Empfängerflächen des zweiten Empfänger-Arrays sind vorzugsweise jeweils parallel zur Geraden gA2P angeordnet, die den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen und den Brennpunkt FAA2 des zweiten Abbildungsobjektivs enthält, wobei sich je zwei durch die Empfängerflächen und sowie und gehenden Ausgleichsgeraden in der Hauptebene schneiden und der mittlere Abstand dieser Empfänger­ flächen sowie von der Hauptebene jeweils gleich gemacht ist.Aufgrund der natürlichen Strukturierung der teilweise strukturiert oder natürlich beleuchteten und auch selbstleuchtenden Objektoberfläche sind die in jedem Element des Empfänger-Arrays aufgenommenen Signalverläufe S1j und S2j mehr oder weniger moduliert. Aus der Auswertung dieser Modulation, die be­ sonders an den scharf abgebildeten Elementen der Objektoberfläche auftritt, soll die zO-Position des je­ weils zugehörigen Elementes der Objektoberfläche bestimmt werden.Die beiden Signalverläufe S1j und S2j von zwei korrespondierenden Elementen 1j und 2j der beiden Emp­ fänger-Arrays sind über dem Weg der Verschiebung der beiden Empfänger-Arrays im Speicher eines Rechners abgelegt. Dabei stellen genau die Elemente von zwei Empfänger-Arrays korrespondierende Elemente dar, deren Bilder im Objektraum in einem Schärfevolumen zumindestens zu einem Zeitpunkt koinzidieren. So bilden genau ein Element des ersten und ein Element des zweiten Empfänger-Arrays in einem gemeinsamen Schärfevolumen zumindestens zu einem Zeitpunkt ein Paar korrespondierender Elemente.Es werden nun aus jedem der beiden Signalverläufe S1j und S2j mittels einer Fensterfunktion mit minde­ stens einem einzigen Fenster, mit einer minimalen Fensterlänge entsprechend zwei Signalwerten und ei­ ner maximalen Fensterlänge, die zumindestens näherungsweise der Länge der Signalverläufe S1j und S2j entspricht, sich überdeckende Signalstücke S1 teil j und S2 teil j in jedem der beiden Signalverläufe S1j und S2j aus den Fenstern gebildet. Fenster, vorteilhaft sind Fensterlängen mit einer Länge von beispiels­ weise 8 oder 16 Signalwerte, andere, auch größere Werte sind möglich.Es erfolgt das in beiden Signalverläufen S1j und S2j synchrone Verschieben dieser Fensterfunktion, um mindestens einen Signalwert, der einem Inkrement der Verschiebung der Empfänger-Arrays entspricht, über jeden dieser beiden Signalverläufe S1j und S2j und aus jedem aktuellen Fenster in der Position k, mit 1 ≦ k ≦ m, wird je ein Signalstück S1 teil Position k j und S2 teil Position k j gebildet.Dabei überdecken sich diese nacheinander gebildeten Signalstücke S1 teil j Position k j und S2 teil j Position k j in je­ dem der beiden Signalverläufe S1j und S2j in einem Teilbereich und wobei jeweils am gleichen Ende der beiden Signalverläufe S1j und S2j mit dem Verschieben der Fensterfunktion in beiden Signalstücken be­ gonnen wird.Anschließend wird, jeweils ausgehend von zwei Signalstücken in der Position 1 S1 teil Position 1 j und S2 teil Position 1 j, die Kreuzkorrelationsfunktion berechnet, wobei jedoch vorher eines der beiden Signalstücke invertiert wird, das heißt alle Werte desselben gespiegelt werden, und so aus einem originalen Signal- Stück S1 Teil Position 1 j und aus einem invertierten Signalstück S2 Teil Position 1 INV j das Maximum der Kreuzkorre­ lationsfunktion MCC1 2 j Position 1 zwischen 0 und 1 berechnet und gespeichert wird.Die Invertierung ist notwendig, da die Abbildungsstrahlen der Elemente eines korrespondierenden Paares sich im Objektraum bei der Verschiebung in einem zumindest näherungsweise gleichen Ausschnitt der Szene im Verschiebungsvorgang entlang einer Spur gegensinnig bewegen, also beispielsweise aufeinan­ der zu. Dabei liegt diese Spur parallel zum Hauptschnitt der 3D-Aufnahmeanordnung.Nach dem Berechnen des Maximums der Kreuzkorrelationsfunktion MCC1 2 j Position 1 in der Position 1 er­ folgt das Verschieben der Fensterfunktion in die Position 2, so daß für die beiden nächsten Signalstücke das Maximum der Kreuzkorrelationsfunktion MCC1 2 j Position 2 in der beschriebenen Art berechnet wird bis die Fensterfunktion am anderen Ende der beiden Signalverläufe S1j und S2j in der Position m angekom­ men ist und wiederum das Maximum MCC1 2 j Position m der Kreuzkorrelationsfunktion MCC1 2 j Position m bestimmt wird. Aus den von m berechneten Maxima MCCm wird eine Maximalwert-Kurve gebildet, wobei in dieser Maximalwert-Kurve wiederum das sich ergebende Maximum Mm j zwischen 0 und 1 bestimmt wird und der Ort des Maximums Mm j der Maximalwert-Kurve den beiden originalen Signalverläufen und damit dem Weg der Verschiebung der beiden Empfänger-Arrays zugeordnet wird. Diese so berechnete Maximalwert-Kurve kann den Verlauf einer Gauß-Funktion aufweisen. Um Fehlern vorzubeugen, kann ei­ ne Intensitätsschwelle verwendet werden, wodurch Signalstücke mit sehr geringer mittlerer Intensität von der weiteren Verarbeitung ausgeschlossen werden. Das Maximum Mj Maximalwert-Kurve kann auch über eine Schwerpunktbildung erfolgen. Dabei können lnterpolationsmethoden angewendet werden.So wird der Ort des jeweiligen so bestimmten Maximums Mj als Ort des zu den beiden korrespondieren­ den Elementen 1j und 2j zugehörigen Bildes des jeweiligen Elementes der Objektoberfläche im Array- Raum definiert.Aus dem Ort dieses Maximums Mj im Array-Raum wird die zO-Koordinate des jeweiligen Elementes der Objektoberfläche in zO-Richtung mittels der Newtonschen Abbilddungsgleichung berechnet und so auch die xO- und yO-Position des jeweiligen Elementes einer Objektoberfläche, da die Geometrie der 3D- Aufnahmeanordnung bekannt ist. So können die Positionen von den Elementen einer Objektoberfläche, von welchen Signalverläufe aufgenommen werden, berechnet werden, wobei die Geometrie der 3D- Aufnahmeanordnung bekannt und die Verschiebungen, einschließlich die Schrittweite der Verschiebung, der beiden Empfänger-Arrays vorbestimmt sind.Dieser so berechnete Kurvenzug über dem Weg der Verschiebung kann den Verlauf einer Gauß-Funktion aufweisen. Es wird in diesem Kurvenzug das Maximum bestimmt, wobei der Ort des Maximums des Kur­ venzuges den beiden originalen Signalverläufen S1j und S2j und damit dem Weg der Verschiebung zuge­ ordnet wird. Das Maximums des Kurvenzuges kann auch über eine Schwerpunktbildung erfolgen. Der Ort des Maximums wird als Ort des zugehörigen Elementes der Objektoberfläche definiert. Dabei können In­ terpolationsmethoden angewendet werden.Dieses Verfahren kann als Korrelationsverfahren mit zwei gefensterten Signalverläufen und einem dabei stückweise jeweils invertierten Signalverlauf zur Bestimmung der zO-Position eines Elementes der Objek­ toberfläche bezeichnet werden.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit zwei Abbildungsstrahlengängen mit zwei zumindest näherungsweise baugleichen, parallel angeordneten Abbil­ dungsobjektiven, einem ersten Abbildungsobjektiv und einem zweiten Abbildungsobjektiv, wobei die Hauptebenen der beiden Abbildungsobjektive zumindest näherungsweise zur Koinzidenz gebracht sind und jedem derselben je ein Empfänger-Array mit detektierenden Elementen zugeordnet ist, so daß ein erstes und ein zweites Empfänger-Array mit Elementen angeordnet sind, und das erste und das zweite Empfänger-Array mindestens je eine Empfängerfläche aufweisen, die jeweils senkrecht zum Hauptschnitt liegt. Dabei enthält die Empfängerfläche des ersten Empfänger-Arrays vorzugsweise die Strecke ASA1, die auf einer Strecke auf dem ersten oberen Ast eines Buchstabens Y liegt. Weiterhin liegt vorzugsweise die Strecke ASA1 parallel zu einer Geraden gA1P, die zum einen den Brennpunkt des ersten Abbildungsobjek­ tivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebe­ nen schneidet, so daß die detektierenden Elemente des erstes Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind. Dabei bildet vorzugsweise ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y.Mindestens eine Empfängerfläche des zweiten Empfänger-Array liegt vorzugsweise auf einer Strecke AS2 auf dem zweiten oberen Ast des Buchstabens Y und enthält die Strecke ASA2, die parallel zu einer Gera­ den gA2P liegt, die zum einen den Brennpunkt des zweiten Abbildungsobjektivs im Array-Raum schneidet und andererseits den Durchstoßpunkt PA der Symmetrieachse SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive durch die zusammenfallenden Hauptebenen schneidet, so daß die detek­ tierenden Elemente des zweites Empfänger-Arrays im Hauptschnitt auf der Strecke ASA1 angeordnet sind, wobei ein Teil der Symmetrielinie SL den unteren Teil des Buchstabens Y bildet. Diese Anordnung ermög­ licht die Detektion von beleuchteten Elementen der Objektoberfläche im Objektraum auf einer Ebene senkrecht zum Hauptschnitt.Die Empfänger-Matrizen sind im Aufbau gleich und in einer zur Symmetrieilinie SL symmetrischen Positi­ on und in gleicher Höhe angeordnet. Die Signale der beiden Empfängerflächen werden zeilenweise aus­ gelesen, so daß die Empfängerfläche des ersten Empfänger-Arrays die Signalverläufe S1 und die Emp­ fängerfläche des zweiten Empfänger-Arrays die Signalverläufe S2 liefert. Diese Signalverläufe werden Zeile für Zeile ausgewertet, wobei die Zeilen in gleicher Entfernung vom Hauptschnitt die jeweils korre­ spondierenden Elemente enthalten. Für das Auffinden des Ortes eines Elementes der Objektoberfläche im Objektraum kommt die Auswertung entsprechend dem bereits beschriebenen Korrelationsverfahren mit zwei gefensterten Signalverläufen zur Anwendung. Auch hier werden durch eine Fensterfunktion Si­ gnalstücke erzeugt. Ein Signalstück wird dabei jeweils invertiert, indem die Signalwerte gespiegelt werden. Es wird die Kreuzkorrelation jeweils von einem originalen Signalstück und jeweils von einem invertierten Signalstück, wobei die Signalstücke jeweils symmetrisch angeordnete Zeilenausschnitte in der 3D- Anordnung repräsentieren, durchgeführt und jeweils ein Korrelationskoeffizient gewonnen und abgespei­ chert. Dabei wird das Fenster der Fensterfunktion, welches beispielsweise eine Länge von 64 Pixeln auf­ weisen kann, beispielsweise in Schritten von einem Inkrement verschoben, das hier einem Pixel in der je­ weils ausgewerteten Zeile entspricht. Für Überblicksmessungen kann auch ein größerer Verschiebung­ schritt des Fensters als um ein Pixel erfolgen, beispielsweise um vier Pixel. Die Länge des Fensters wird in Abhängigkeit von der relativen Öffnung und vom mittleren Abstand der Objektoberfläche gewählt. Dabei kann die Fensterlänge auch variabel gestaltet werden, beispielsweise kann für die fokusnahen Bereiche der Empfänger-Matrix eine geringere Fensterlänge gewählt werden. So erfolgt die Bestimmung der zO- Position der Elemente der Objektoberfläche in einer zum Hauptschnitt senkrechten Ebene in der Symme­ trielinie SL zwischen den beiden optischen Achsen der beiden Abbildungsobjektive.Die Auswertung erfolgt mit dem Korrelationsverfahren mit zwei gefensterten Signalverläufen wie oben be­ reits dargestellt.Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche einem Beleuchtungsobjektiv eine erstes Abbildungsobjektiv mit einem Empfänger-Array und ein zweites Abbil­ dungsobjektiv mit einem Empfänger-Array zugeordnet sind, wobei das Pupillenzentrum PZOA des ersten Abbildungsobjektivs im Abstand d vom Pupillenzentrum PZOB des Beleuchtungsobjektivs angeordnet ist. Jedem der beiden Abbildungsobjektiv ist je ein räumlich strukturiertes Empfänger-Array zugeordnet, so daß ein erstes und ein zweites Empfänger-Array im Array-Raum angeordnet sind.Dabei weisen das erste und das zweite räumlich strukturierte Empfänger-Array mindestens je zwei Emp­ fängerflächen auf räumlich getrennten Flächen auf und die Empfängerflächen des ersten Empfänger- Arrays sind jeweils so angeordnet und die Empfängerflächen des zweiten Empfänger-Arrays sind jeweils so angeordnet, daß zumindest näherungsweise Paare von optisch konjugierten Bildern zumindestens von Teilen von Empfängerflächen des ersten Empfänger-Arrays sowie von Teilen der Empfängerflächen des zweiten Empfänger-Arrays im Objektraum gebildet sind. Auch hier erfolgt die Auswertung mit dem Korre­ lationsverfahren mit zwei gefensterten Signalverläufen wie oben bereits dargestellt. Weiterhin können bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche mit min­ destens zwei Abbildungsstrahlengängen mit mindestens je einem Abbildungsobjektiv in jedem Abbil­ dungsstrahlengang. Dabei ist das Pupillenzentrum (PZOA1) eines Abbildungsobjektivs eines Abbildungs­ strahlenganges mindestens im Abstand d vom Pupillenzentrum (PZOA2) eines anderen Abbildungsobjek­ tivs eines anderen Abbildungsstrahlenganges angeordnet, wobei der Abstand d mindestens ein Achtel der Ausdehnung der Öffnungsblende des Abbildungsobjektivs mit der größten Ausdehnung der Öffnungs­ blende entspricht. Weiterhin ist jedem Abbildungsobjektiv mindesten je ein Empfänger-Array mit minde­ stens zwei detektierenden Element zugeordnet.Erfindungsgemäß ist dabei jedem Empfänger-Array mindestens jeweils ein mikrooptisches Array mit mi­ krooptischen Elementen zur Beeinflussung der geometrisch-optischen Gegenstandsweite der detektie­ renden Elemente zum zugehörigen Abbildungsobjektiv zugeordnet und im Objektraum ist mindestens ein Paar von zumindest näherungsweise koinzidierenden Bildern von je einem Bild eines Elementes der Empfängerflächen je eines Abbildungsstrahlenganges gebildet.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikroprismen-Array ausgebildet sein. Dabei kann ein Mikropisma mehrere detektie­ rende Elemente überdecken, so daß aufgrund der unterschiedlichen optischen Dicke des Mikroprismas die mehrere detektierende Elemente eine jeweils andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. So kann aus den Bildern von mehreren detektierende Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes ei­ ner Oberfläche bestimmt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher axialer Lage ausgebildet ist. So kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Ge­ genstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine andere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detek­ tierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelationsverfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden.Weiterhin kann bei einer Anordnung zur 3D-Aufnahme von mindestens einer Objektoberfläche das mikro­ optische Array als ein Mikrolinsen-Array mit Mikrolinsen unterschiedlicher Brennweite ausgebildet sein. Auch hierbei kann jedes Empfängerelement durch die abbildende Wirkung der Mikkrolinse eine andere optische Gegenstandsweite zum zugehörigen Abbildungsobjektiv aufweisen und so dessen Bild eine an­ dere Lage im Objektraum einnehmen. Dadurch kann an unterschiedlichen Orten des Objektraumes ein Bild der detektierenden Elementen erzeugt sein. So kann aus den Bildern von mehreren detektierenden Elementen eine Spur im Objektraum gebildet sein. Mittels des bereits beschriebenen Kreuzkorrelations­ verfahrens kann so mindestens der Ort eines Elementes einer Oberfläche bestimmt werden. Die Mikrolin­ sen können dabei Bestandteil eines Mikro-Teleskopes sein. 6. AusführungsbeispieleIn der Fig. 1 werden die Anordnung und das Verfahren dargestellt. Es wird zwischen dem Array-Raum und dem Objektraum unterschieden. Es wird die folgende Notation verwendet, die von der üblichen abweicht, sich aber bei dieser und den im weiteren dargestellten optischen Schaltungen als vorteilhaft für die Beschreibung erwiesen hat: Die Größen und Punkte des Array-Raumes der werden an erster Stelle mit dem Buchstaben A indiziert und die Größen und Punkte des Objektraumes mit dem Buchstaben O. An zweiter Stelle im Index wird das zugehörige Objektiv gekennzeichnet und zwar im Falle der Zugehörigkeit zum Beleuchtungsobjektiv 1 mit dem Buchstaben B und im Falle der Zugehörigkeit zum Abbildungsobjektiv 2 mit dem Buchstaben A.Im Array-Raum befinden sich ein Liniengitter 3 mit der Gitterkonstante p und eine vorgeordnete Strahlungsquelle mit sichtbarem Licht, also eine Lichtquelle 4. Diese Lichtquelle 4 kann rechnergesteuert sein, so daß die mittlere Beleuchtungsstärke der Entfernung des jeweiligen Schärfebene nach dem photometrischen Gesetz angepaßt ist. Dies stellt eine gute Ausnutzung der Lichtenergie dar.Das Liniengitter 3 ist dem Beleuchtungsobjektiv 1 mit einem streng telezentrischen Strahlengang im Array-Raum achssenkrecht und extrafokal zugeordnet. Das Beleuchtungsobjektiv 1 bildet das Liniengitter 3 in den Objektraum ab, wodurch zumindest zu einem Zeitpunkt eine strukturierte Beleuchtung der Objektoberfläche 5 entsteht. Zur Vereinfachung sind die beiden Hauptebenen des Beleuchtunsobjektivs 1, HAB und HOB, in der Fig. 1 zusammengelegt. Bei realen Objektiven dieser K1asse liegen die beiden Hauptebenen weit auseinander.Im Array-Raum ist eine Empfänger-Matrix 6 dem Abbildungsobjektiv 2, welches einen ebenfalls streng telezentrischen Strahlengang im Array-Raum aufweist, achssenkrecht und extrafokal zugeordnet. Das Abbildungsobjektiv 2 bildet die Objektoberfläche 5 in den Array-Raum ab. Ein einzelner Abbildungsstrahl AO1 ist dargestellt. Zur Vereinfachung sind die beiden Hauptebenen des Abbildungsobjektivs 2, HAA und HOA, in der Fig. 1 ebenfalls zusammengelegt.Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 sind mit ihren optischen Achsen zueinander parallel mit dem Achsenabstand d angeordnet. Das Beleuchtungs- 1 und das Abbildungsobjektiv 2 weisen die array-seitigen Brennpunkte FAB und FAA und im Objektraum die Brennpunkte FOB und FOA auf. Wegen der Telezentrie fallen im Objektraum die Brennpunkte FOB und FOA mit den Austrittspupillen PZOB und PZOA zusammen. Es sind zwei Beleuchtungsstrahlen BSO1 und BSO2 und ein Abbildungsstrahl ABSO dargestellt.Die hier nicht dargestellte, erste Linearführung des Bewegungssystems ist mit der Empfänger-Matrix 6 starr verbunden und trägt eine zweite, hier ebenfalls nicht dargestellte, kleinere Linearführung, die wiederum das Liniengitter 3 trägt. Dieses Liniengitter 3 ist deutlich länger ausgeführt als es dem vom Beleuchtungsobjektiv 1 erfaßten Bildfeld entspricht, um im gesamten Bewegungsvorgang stets das gesamte Bildfeld zu überdecken. Die erste Linearführung ist mit einem hochgenauen Längen-Meßsystem verbunden, welches einen hochstabilen Nullpunkt aufweist. Die Bewegungsachse der ersten Linearführung ist parallel zu den Objektivachsen und die Meßachse des Längen-Meßsystems liegt dabei parallel zu den beiden Objektivachsen. Die Bewegungsrichtung der zweiten Linearführung liegt senkrecht zu den Objektivachsen. Dem Liniengitter 3 auf der zweiten Linearführung ist ein mit der ersten Linearführung fest verbundenes Gegengitter mit einer kompletten Beleuchtungs- und Empfänger-Optik in der Art eines inkrementalen Längenmeßsystems zugeordnet. Die vorhandene Auswerte-Elektronik weist eine elektronische Schnittstelle zum Rechner auf, um die berechnete Verschiebung des Liniengitters 3 als Phaseninformation echtzeitnah im Rechner zur Verfügung zu haben. Gleichzeitig ist auf dem Liniengitter 3 im Teil außerhalb des genutzten Bildfeldes eine erste Referenzstruktur aufgebracht, die von einer zweiten Referenzstruktur, die ebenfalls auf dem Gegengitter aufgebracht ist, optisch abgetastet wird. Auch dabei ist eine Beleuchtungs- und Empfänger-Optik beigeordnet und eine Auswerte-Elektronik vorhanden. Die zweite Auswerte-Elektronik weist ebenfalls eine elektronische Schnittstelle zum Rechner auf, um das Durchfahren des Nullpunktes des Liniengitters in Echtzeit im Rechner zur Verfügung zu haben.Beide Linearführungen des Bewegungssystems starten aus der Nullposition heraus. Die Bewegungsrichtung der ersten Linearführung ist parallel zur optischen Achse des Abbildungsobjektivs ausgerichtet. Die Bewegung erfolgt zu den Brennpunkten hin. Der kleineren, zweiten Linearführung, die das Liniengitter 3 trägt, ist ein Positions-Regelsystem zugeordnet, um eine Bewegung des Liniengitters mit einer möglichst konstanten Geschwindigkeit und damit auch mit einer konstanten Phasengeschwindigkeit realisieren zu können. Die Bewegungsrichtung der zweiten Linearführung ist senkrecht zur optischen Achse des Beleuchtungsobjektiv 1 und erfolgt nach dem Start in Richtung des Beleuchtungsobjektivs 1.Aus der aktuellen, absoluten Istphase ϕGitter des Liniengitters 3, die von einem Nullpunkt abgeleitet ist, werden die Sollwerte für die Position der ersten Linearführung errechnet. Dies erfolgt so, daß sich die Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA, beispielsweise parallel zur Geraden gA2, auf der B-Strecke BSA2 bewegen. Diese Gerade gA ist so definiert, daß sie den Brennpunkt FAB des Beleuchtungsobjektivs 1 und außerdem den Hauptpunkt HAA des Abbildungsobjektivs 2 schneidet.Die leuchtenden Flächenelemente FEL bewegen sich im Array-Raum auf den Verschiebungsstrecken VSAj, die hier durch die Sollstrecken, die B-Strecken BSAj, repräsentiert sind. Die Bilder dieser B-Strecken BSAj, einschließlich der in der Fig. 1 dargestellten B-Strecken BSA1 und BSA2, werden in den Objektraum abgebildet. Beispielsweise werden aus den B-Strecken BSA1 und BSA2 die Bilder BSA1 und BSA2. Die Bilder BSA1 und BSA2 bilden ein Streckenbüschel SB1 mit dem Konvergenzpunkt K1, der mit den Brennpunkt FOA des Abbildungsobjektivs 2 zusammenfällt. Weiterhin werden die Elemente des Empfänger-Arrays auf Strecken ASAj verschoben. Dargestellt sind die Strecken ASA1 und ASA2. Deren Bilder stellen im Objektraum das Streckenbündel SB2 mit den Strecken ASO1 und ASO2 mit dem Konvergenzpunkt K2 dar, der im Brennpunkt FOA des Abbildungsobjektivs 2 mit dem Konvergenzpunkt K1 koinzidiert, wobei der Koinzidenzpunkt von Konvergenzpunkt K1 und von Konvergenzpunkt K2 im allgemeinen stets der Koinzidenzpunkt K0 ist.Durch dieses Bewegungsregime werden die achssenkrechten Ebenen des Objektraumes von der Schärfefläche nacheinander "durchfahren", indem sich in jeder dieser Ebenen bei Vorhandensein einer Objektoberfläche ein vom Beleuchtungsobjektiv 1 scharf abgebildetes Streifenmuster beobachten läßt, welches durch das Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 abgebildet wird. Durch das so realisierte Bewegen der Orte gleicher Phase oder gleicher relativer Leuchtdichte auf dem Liniengitter 3 parallel zu einer Geraden gA wird das sogenannte "Mitführen der Phase in der Schärfefläche erreicht. Dies führt dazu, daß jedes hinreichend kleine Objektdetail, im Objektraum, wenn es von der Schärfefläche "erfaßt" wird, ein moduliertes periodisches Signal im zugehörigen Pixel ij auf der Empfänger-Matrix 6 erzeugt, in welchem die Information über die absolute Phase des Objektpunktes ϕObj_ij enthalten ist. Diese absolute Phase entspricht beispielsweise für den Objektpunkt AO2 in Fig. 1 der gedachten Anzahl der Streifen n, einschließlich der Streifenbruchteile Δn, zwischen den beiden Objektiv-Achsen, also n + Δn. Diese Streifen sind im Fall einer ebenen, achssenkrecht angeordneten Platte direkt zu beobachten. Dennoch kann im allgemeinen die so zu beobachtende absolute Objektphase aufgrund der nicht genau bekannten Zuordnung der beiden optischen Achsen zu den Pixeln der Empfänger-Matrix 6 nicht bestimmt werden.Anhand der Fig. 1 läßt sich zeigen, daß in der Position AO1BO1 die Anzahl der Streifen n + 1 + Δn, die zwischen den beiden Objektivachsen zu beobachten ist, genau der Anzahl n + 1 + Δn der Gitterperioden des Liniengitters 3 im Array-Raum entspricht, die sich beim Zählen von der Achse des Beleuchtungsobjektivs 1 in xAB-Richtung ergibt. Weiterhin definiert der Punkt GAB genau den Ort auf dem Gitterelement des Liniengitters 3, welcher beim Bewegen auf der Geraden gA im Teilbereich des Gitterinkrements den Brennpunkt FAB des Beleuchtungsobjektivs 1 schneidet. Demzufolge entspricht, die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene dem Abstand GQ.Bei Kenntnis des zugehörigen Punktes GAB auf dem Liniengitter 3 und des Wertes xAB1 sowie der Gitterkonstanten p läßt sich grundsätzlich die absolute, lateral invariante Objektphase ϕObj der achssenkrechten Ebene im Objektraum mit
errechnen. Im Fall der Übereinstimmung der realen Lage der Objektivachse des Abbildungsobjektivs mit der Geraden gO, die ja definitionsgemäß parallel zur Objektivachse des Beleuchtungsobjektivs 1 liegt, gelten die dargestellten Zusammenhänge nach Gleichung (7).Bevor die Messung, d. h. die Gewinnung der Punktwolke einer unbekannten Objektoberfläche 5 erfolgen kann, muß das System mit Hilfe einer Referenzplatte in einer achssenkrechten Position erfolgen. Dies erfolgt mit Vorteil in der Nahdistanz der 3D-Aufnahme-Anordnung, kann aber auch in jeder anderen Entfernung im Aufnahmebereich der 3D-Aufnahme-Anordnung erfolgen. Die in den Pixel der Empfänger-Matrix 6 sich dabei ergebenden Signalverläufe werden gespeichert. Aus diesen Signalverläufen wird mit Hilfe eines phasenauswertenden Algorithmus' die relative Referenzphase ϕRR_ij im Pixel ij des Empfänger-Arrays im Bereich des Modulationsmaximums berechnet, welches ein Signal von der Referenzplatte erhält. Die so bestimmten relativen Referenzphasen mod 2π werden der absoluten Phase ϕGitter des Liniengitters zugeordnet, siehe Fig. 2, und unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert und in einem Feld als Phasenwerte ϕGitterR_ij - in der Regel - längerfristig gespeichert. Die relativen Objektphasen der Objektpunkte ϕRObj_ij mod 2π werden jeweils von der absoluten Phase 9 Gitter des Liniengitters 3 unter Beachtung des jeweiligen Vorzeichens von dieser subtrahiert, wodurch die Phasenwerte ϕGitterObj_ij als Feld entstehen. Aus diesen Feldern werden punktweise die Phasendifferenzen ΔϕGitter_ij gebildet.Zuvor wurde aus der möglichst gut bekannten Entfernung zOR der Referenzplatte von der Brennebene die absolute, lateral invariante Phase ϕR der Referenzfläche mit der hier noch einmal dargestellten Gleichung (2)
bestimmt, wobei diese Bestimmung iterativ zur Annäherung an deren wahren Wert mehrfach erfolgen kann. Es stellen d den Achsenabstand der beiden Objektive 1 und 2, fB die Brennweite des Beleuchtungsobjektivs 1 und p die Gitterkonstante des Liniengitters 3 dar.Mit der Beziehung entsprechend Gleichung (4), wobei ΔϕGitter_ij sich für den Objektpunkt ij aus der Gleichung (3) ergibt,
(-)ϕObj_ij = (-)ϕR + ΔϕGitter_ij (8)
wird für den Objektpunkt ij die absolute Objektphase (-)ϕObj_ij aus Gleichung (8) gewonnen. Aus der Beziehung
kann die zos-Koordinate des Objektpunktes zObj_ij im Objektraum berechnet werden, wobei der Objektpunkt mit dem Pixel ij der Empfänger-Matrix 6 optisch konjugiert ist.Durch achsparallele Verschiebungen ΔzOB von Planplatten, wobei die Verschiebungen mit einem Präzisions-Längenmeßsystem gemessenen werden, können Fehler abgeschätzt werden, indem die errechneten Verschiebungen mit den gemessenen verglichen werden. Die Nachjustierung der 3D-Aufnahme-Anordnung erfolgt iterativ. Die Restabweichungen werden in ein numerisches Modell eingegeben, welches hier nicht dargestellt ist, und können zur Korrektur benutzt werden.Aus der Einrechnung des zu jedem Objektpunkt mit der Koordinate zObj_ij gehörenden aktuellen Abbildungsmaßstabes werden die kartesischen Koordinaten für jeden Objektpunkt ermittelt. Dabei kann ein neues Koordinatensystem mit dem Brennpunkt des Abbildungsobjektivs 2 als Nullpunkt für die lateralen Koordinaten in x- und y-Richtung verwendet werden. Damit stehen die 3D-Koordinaten der Objektoberfläche in digitaler Form als Punktwolke zur Verfügung. Diese Punktwolke wird je nach Aufgabenstellung für meßtechnische Applikationen oder Aufgaben mit einer 3D-Wiedergabe verwendet.Bei der Verschiebung eines Objektpunktes, der sich in der AO1BO1-Position in Fig. 1 befindet, in die AO2BO2-Position entlang des gezeichneten Abbildungsstrahls ABSO erfährt das im Bildpunkt dieses Objektpunktes detektierte Signal eine Änderung in der Phasenlage von 2π. Die Änderung in der zOB-Koordinate entspricht dem Δz2 π-Wert, also der Tiefenänderung, die einer Phasenänderung von 2π entspricht. Dieser Δz2 π-Wert wird als effektive Wellenlänge bezeichnet und ist tiefenabhängig.Fig. 2 zeigt beispielsweise die Signalverläufe SO und SR in einem Bildpunkt der Empfänger-Matrix 6 in Bezug zum Signalverlauf SG, der am Liniengitter 3 mit Hilfe eines Gegengitters beim Bewegen des Gitters 3 detektiert werden kann. Dargestellt werden der Signalverlauf im Bildpunkt SO eines Objektpunktes und der Signalverlauf SR im Bildpunkt eines Referenzpunktes. Hierbei befindet sich die Referenzplatte näher am Brennpunkt FOB als die Objektoberfläche. Am Abtastpunkt APR im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Referenzpunktes wird die relative Phase ϕRR errechnet und am Abtastpunkt APO im Bereich des Modulationsmaximums des Signals im Bildpunkt eines Objektpunktes die relative Phase ϕRObj. Mittels der Gleichung (3) wird die absolute Phasendifferenz ΔϕGittzer errechnet und mit Gleichung (4) die absolute Objektphase ϕObj, aus der mit der Gleichung (5) die zOB-Koordinate eines jeden Objektpunktes, nämlich zObj, bestimmt wird. Der hochstabile Nullpunkt N dient als Startpunkt.Fig. 3 zeigt eine vorteilhafte 3D-Aufnahme-Anordnung mit nur einer Linearführung 7, beispielsweise für eine 3D-Aufnahme-Anordnung für Multimedia-Applikationen. Der Schlitten 8 der Linearführung 7 trägt ein Liniengitter 3 zur strukturierten Beleuchtung der Objektoberfläche 5. Die Beleuchtung erfolgt mittels einer Lichtquelle 4 durch eine Öffnung in der Basis 9 der Linearführung 7. Weiterhin trägt der Schlitten 8 die beweglichen Teile für ein Meßsystem 10 für den Verschiebeweg s, wobei auch ein Nullpunktgeber 11 angeordnet ist. Außerdem ist eine Auswerteelektronik mit Schnittstelle zum hier nicht dargestellten Auswerterechner vorhanden.Der Schlitten 8 wird von einem Linear-Motor 12 angetrieben und die Führung 7 weist ein miniaturisiertes Präzisionslager 13 auf. Als Empfänger-Matrix 6 kann auch eine farbtüchtige Kamera eingesetzt werden, wobei die farbsensitiven Pixel jeweils auf einer Linie quer zu den Linien des Liniengitters 3 angeordnet sein sollten.Nach dem Start des Schlittens 8 in (-)s-Richtung wird der Nullpunkt durchfahren und das Liniengitter 3 durch das Beleuchtungsobjektiv 1 nacheinander in unterschiedliche Tiefen des Objektraumes scharf abgebildet. Auf der Oberfläche der Objektoberfläche 5 entsteht beim Verschieben des Liniengitters 3 im Zeitbereich ΔtB zumindestens einmal im Verschiebevorgang das scharfe Bild desselben, beispielsweise zum Zeitpunkt ti. Dieses scharfe Bild wird auch zum Zeitpunkt ti vom Abbildungsobjektiv 2 auf die Empfänger-Matrix 6 scharf abgebildet, da diese sich in der gleichen Ebene wie das Liniengitter 3 befindet. Durch die Bewegung des Schlittens 8 der Führung 7 gibt es eine laterale Bewegung der Empfänger-Matrix 6, wobei das Bild der Objektoberfläche 5 in Bezug auf die Basis 9 feststeht. Um diese laterale Bewegung zu kompensieren, um eine feste Zuordnung der Punkte der Objektoberfläche 5, also der Abbildungsstrahlen, zu den Pixeln der Empfänger-Matrix 6 beizubehalten, werden die gewonnenen Bildinformationen pixelweise im Bilddaten-Massiv entsprechend der lateralen Bewegung der Empfänger-Matrix 6 verschoben. Damit wird erreicht, daß ein realer Abbildungsstrahl jeweils einem lateral feststehenden Bildpunkt unabhängig von der lateralen Bewegung der Empfänger-Matrix 6 fest zugeordnet bleibt.
DE1999119584 1999-04-29 1999-04-29 Verfahren und Anordnung zur 3D-Aufnahme Withdrawn DE19919584A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE1999119584 DE19919584A1 (de) 1999-04-29 1999-04-29 Verfahren und Anordnung zur 3D-Aufnahme
AU43913/00A AU4391300A (en) 1999-04-29 2000-04-01 Method and device for scanning objects
PCT/DE2000/000991 WO2000066972A1 (de) 1999-04-29 2000-04-01 Verfahren und vorrichtung zur objektabtastung
DE10081176T DE10081176D2 (de) 1999-04-29 2000-04-01 Verfahren und Vorrichtung zur Objektabtastung
EP00925063A EP1188035A1 (de) 1999-04-29 2000-04-01 Verfahren und vorrichtung zur objektabtastung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1999119584 DE19919584A1 (de) 1999-04-29 1999-04-29 Verfahren und Anordnung zur 3D-Aufnahme

Publications (1)

Publication Number Publication Date
DE19919584A1 true DE19919584A1 (de) 2000-11-02

Family

ID=7906332

Family Applications (2)

Application Number Title Priority Date Filing Date
DE1999119584 Withdrawn DE19919584A1 (de) 1999-04-29 1999-04-29 Verfahren und Anordnung zur 3D-Aufnahme
DE10081176T Expired - Fee Related DE10081176D2 (de) 1999-04-29 2000-04-01 Verfahren und Vorrichtung zur Objektabtastung

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE10081176T Expired - Fee Related DE10081176D2 (de) 1999-04-29 2000-04-01 Verfahren und Vorrichtung zur Objektabtastung

Country Status (4)

Country Link
EP (1) EP1188035A1 (de)
AU (1) AU4391300A (de)
DE (2) DE19919584A1 (de)
WO (1) WO2000066972A1 (de)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003101089A1 (de) * 2002-05-23 2003-12-04 Cobra Electronic Gmbh Miniaturisierte kamera
DE102008016766A1 (de) 2008-04-02 2009-11-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
DE102010060448A1 (de) * 2010-11-09 2012-05-10 Eberhard Lange Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts
CN101514893B (zh) * 2005-12-14 2012-08-08 株式会社高永科技 三维形状测量装置及方法
DE102010030833B4 (de) * 2009-07-03 2014-07-03 Koh Young Technology Inc. Vorrichtung zur Messung einer dreidimensionalen Form
DE102014119126B3 (de) * 2014-12-19 2015-08-06 Sick Ag Streifenprojektor zum Beleuchten einer Szenerie mit einem veränderlichen Streifenmuster
DE102017004428A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017004429A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/ fokussierenden Streifen-Triangulation
US10352995B1 (en) 2018-02-28 2019-07-16 Nxp Usa, Inc. System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device
US10782343B2 (en) 2018-04-17 2020-09-22 Nxp Usa, Inc. Digital tests with radiation induced upsets
CN115540759A (zh) * 2022-11-16 2022-12-30 南京科天力电子科技有限公司 一种基于图像识别技术修饰金属的检测方法及检测系统
RU2791666C2 (ru) * 2018-11-15 2023-03-13 Ксепикс Са Способ и система автоматического измерения физических и размерных параметров многосегментных изделий

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE602005004332T2 (de) 2004-06-17 2009-01-08 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
US9675430B2 (en) 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
EP3575773A1 (de) * 2018-05-28 2019-12-04 Universität für Bodenkultur Wien Verfahren zur bestimmung einer dreidimensionalen partikelverteilung in einem medium
CN114693936B (zh) * 2022-04-18 2024-07-02 华中科技大学 一种基于白光干涉测量的微沟槽特征分割方法及系统
CN118447460A (zh) * 2024-07-08 2024-08-06 湖州丰源农业装备制造有限公司 一种基于人工智能的自动驾驶收割机监控管理系统及方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4689480A (en) * 1985-04-25 1987-08-25 Robotic Vision Systems, Inc. Arrangement for improved scanned 3-D measurement
US5003166A (en) * 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003101089A1 (de) * 2002-05-23 2003-12-04 Cobra Electronic Gmbh Miniaturisierte kamera
US7830528B2 (en) 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
CN101514893B (zh) * 2005-12-14 2012-08-08 株式会社高永科技 三维形状测量装置及方法
DE102006059132B4 (de) * 2005-12-14 2012-12-06 Koh Young Technology Inc. Dreidimensionales Bildmessverfahren
DE102008016766A1 (de) 2008-04-02 2009-11-19 Sick Ag Optoelektronischer Sensor und Verfahren zur Detektion von Objekten
DE102010030833B4 (de) * 2009-07-03 2014-07-03 Koh Young Technology Inc. Vorrichtung zur Messung einer dreidimensionalen Form
DE102010060448A1 (de) * 2010-11-09 2012-05-10 Eberhard Lange Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts
DE102010060448B4 (de) * 2010-11-09 2021-07-01 Eberhard Lange Projektionsvorrichtung zum Projizieren eines zu projizierenden Objekts
DE102014119126B3 (de) * 2014-12-19 2015-08-06 Sick Ag Streifenprojektor zum Beleuchten einer Szenerie mit einem veränderlichen Streifenmuster
WO2018206233A1 (de) 2017-05-08 2018-11-15 Universität Stuttgart Verfahren und anordnung zur robusten, tiefenscannenden/fokussierenden streifen-triangulation mit mehreren wavelets
DE102017004429A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/ fokussierenden Streifen-Triangulation
DE102017004428B4 (de) 2017-05-08 2018-11-29 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE102017004429B4 (de) 2017-05-08 2019-05-09 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
US10866088B2 (en) 2017-05-08 2020-12-15 Universität Stuttgart Method and arrangement for robust, depth-scanning/focusing strip triangulation by means of a plurality of wavelets
DE102017004428A1 (de) * 2017-05-08 2018-11-08 Universität Stuttgart Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
US10352995B1 (en) 2018-02-28 2019-07-16 Nxp Usa, Inc. System and method of multiplexing laser triggers and optically selecting multiplexed laser pulses for laser assisted device alteration testing of semiconductor device
US10782343B2 (en) 2018-04-17 2020-09-22 Nxp Usa, Inc. Digital tests with radiation induced upsets
RU2791666C2 (ru) * 2018-11-15 2023-03-13 Ксепикс Са Способ и система автоматического измерения физических и размерных параметров многосегментных изделий
CN115540759A (zh) * 2022-11-16 2022-12-30 南京科天力电子科技有限公司 一种基于图像识别技术修饰金属的检测方法及检测系统
CN115540759B (zh) * 2022-11-16 2023-05-09 江西滕创洪科技有限公司 一种基于图像识别技术修饰金属的检测方法及检测系统

Also Published As

Publication number Publication date
DE10081176D2 (de) 2002-03-28
EP1188035A1 (de) 2002-03-20
AU4391300A (en) 2000-11-17
WO2000066972A1 (de) 2000-11-09

Similar Documents

Publication Publication Date Title
DE19919584A1 (de) Verfahren und Anordnung zur 3D-Aufnahme
EP0932816B1 (de) Verfahren und vorrichtung zum messen des verlaufs reflektierender oberflächen
EP3033588B1 (de) Verfahren und vorrichtung zum berührungslosen vermessen von oberflächenkonturen
DE112009005524B3 (de) Vorrichtung und Verfahren zum Messen von sechs Freiheitsgraden
DE69207176T2 (de) Optischer Sensor
DE102015122842A1 (de) Kalibrierplatte zum Kalibrieren einer 3D-Messvorrichtung und Verfahren hierfür
DE3016361A1 (de) Verfahren und einrichtung zur elektro-optischen bestimmung der abmessungen, lage oder haltung eines objekts
DE102009009372A1 (de) Monitoring von kippbaren Spiegeln
EP2948732B1 (de) System zur lagebestimmung eines prüfobjektes
DE102012002161A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten
DE69116852T2 (de) Ausrichtung eines verkippten Spiegels
DE102017004428A1 (de) Verfahren und Anordnung zur robusten, tiefenscannenden fokussierenden Streifen-Triangulation mit mehreren Wavelets
DE19846145A1 (de) Verfahren und Anordung zur 3D-Aufnahme
DE102019201272B4 (de) Vorrichtung, Vermessungssystem und Verfahren zur Erfassung einer zumindest teilweise spiegelnden Oberfläche unter Verwendung zweier Spiegelungsmuster
DE102006031833A1 (de) Verfahren zum Erzeugen von Bildinformationen
DE102015011427A1 (de) Bildaufnahmesystem und Bildauswertesystem
EP0671679A1 (de) Vorrichtung und Verfahren zum berührungslosen Vermessen dreidimensionaler Objekte auf der Basis optischer Triangulation
DE102017004429B4 (de) Verfahren und Anordnung zur robusten, tiefenscannenden/fokussierenden Streifen-Triangulation
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102014016087B4 (de) Dreidimensionale optische Erfassung von Objektoberflächen
DE19749974C2 (de) Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke
DE102012001307A1 (de) Verfahren und Vorrichtung zur 3D-Messung von Objekten, insbesondere unter hinderlichen Lichtverhältnissen
WO2012076182A1 (de) Verfahren und system zur bestimmung der position und/oder lage eines objektes in einem räumlichen messvolumen
DE10244767A1 (de) Verfahren und Vorrichtung zum Bestimmen des Abstands zwischen einer Referenzebene und einer inneren oder äußeren optischen Grenzfläche eines Objekts sowie Verwendung derselben zum Bestimmen eines Oberflächenprofils eines, inbesondere metallischen, Objekts, Autofokus-Modul, Mikroskop und Verfahren zum Autofokussieren eines Mikroskops
WO2016071078A2 (de) Vermessen der topographie und/oder des gradienten und/oder der krümmung einer das licht reflektierenden fläche eines brillenglases

Legal Events

Date Code Title Description
8122 Nonbinding interest in granting licences declared
8143 Withdrawn due to claiming internal priority
8170 Reinstatement of the former position
8110 Request for examination paragraph 44
8139 Disposal/non-payment of the annual fee