DE19536294A1 - Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten - Google Patents
Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von ObjektenInfo
- Publication number
- DE19536294A1 DE19536294A1 DE1995136294 DE19536294A DE19536294A1 DE 19536294 A1 DE19536294 A1 DE 19536294A1 DE 1995136294 DE1995136294 DE 1995136294 DE 19536294 A DE19536294 A DE 19536294A DE 19536294 A1 DE19536294 A1 DE 19536294A1
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- navigation
- coordinate system
- cameras
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die Erfindung betrifft ein Verfahren zur geometrischen Na
vigation von optischen 3D-Sensoren zum dreidimensionalen
Vermessen von Objekten innerhalb eines Navigationsvolumens
relativ zu einem Referenzkoordinatensystem, beruhend auf
den Prinzipien der Streifenprojektion und der Triangula
tion unter Verwendung wenigstens einer Kamera, einer Ein
richtung zur Digitalisierung und Speicherung von Bildfol
gen der Kamera, mindestens einem zur Kamera fixierten Be
leuchtungsprojektor, der zeitlich nacheinander Lichtstruk
turen aus wenigstens eindimensionalen Streifen erzeugt und
mindestens einer im Referenzkoordinatensystem bestimmten
Navigationseinrichtung.
Es sind flächenhaft messende optische Meßverfahren mit Ma
trixkamera und Projektor für uncodierte oder codierte
Streifen bekannt, bei denen die dreidimensionalen Koordi
naten der Oberflächenpunkte aus den beiden Bildkoordinaten
des Kamerabildes und der an der jeweiligen Bildkoordinate
detektierten Streifennummer berechnet werden (Reinhard W.
Malz: Codierte Lichtstrukturen für 3-D-Meßtechnik und In
sektion, Thesis, Universität Stuttgart 1992, Reihe: Be
richte aus dem Institut für technische Optik der Universi
tät Stuttgart). Ebenso sind Verfahren unter Verwendung
mehreren Projektoren bekannt.
Des weiteren sind photogrammetrische optische Meßverfahren
mit mehreren Matrixkameras oder eine Matrixkamera in meh
reren Positionen bekannt, bei denen die dreidimensionalen
Koordinaten eindeutig bestimmbarer Punkte im Raum aus meh
reren Ansichten derselben numerisch bestimmt werden. Zur
Erzeugung eindeutig bestimmbarer Punkte im Objektraum wer
den natürliche Objektmerkmale, zum Beispiel reguläre oder
stochastische Grauwert- oder Farbverteilungen am Objekt,
ebenso genutzt wie künstliche Merkmale wie aufgeklebte
oder aufprojizierte Marken bzw. reguläre oder stochasti
sche Grauwert- oder Farbverteilungen.
Zur Bestimmung optisch nicht markierbarer oder nicht zu
gänglicher Oberflächenpunkte ist es bekannt, vermittelnde
Körper, Taster, einzusetzen, deren Position im Raum ihrer
seits mittels aufgebrachter Marken vermessen werden kann.
Damit ist indirekt auch die Position der Tastspitze be
kannt.
Bekannt sind des weiteren photogrammetrische Verfahren,
die die räumliche Lage einer Kamera relativ zu mehreren
sichtbaren Referenzpunkten bestimmen können, deren abso
lute Koordinaten bekannt sind (Räumlicher Rückwärts
schnitt). Ebenso sind photogrammetrische Verfahren be
kannt, die mehrere räumliche Lagen einer Kamera relativ
zueinander bestimmen können, sofern die aus mehreren Lagen
aufgenommenen Bilder mehrere gemeinsame Referenzpunkte
enthalten, deren Koordinaten vorab nicht bekannt sein müs
sen (Bündelausgleichung). Bei diesem Verfahren werden zu
sätzlich zu den Lagen der Kamera auch die Koordinaten der
in mehreren Bildern sichtbaren Punkte berechnet (Punktmes
sung).
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren
der genannten Gattung zu schaffen, mit welchem Objekte mit
optischen Sensoren dreidimensional vermessen werden sol
len, wobei sich die räumliche Anordnung von Sensor und Ob
jekt ändern kann, um anschließend Teilansichten paßgenau
zusammenfügen zu können.
Zweck der Erfindung ist zum Beispiel, Herstellungsmaschi
nen, wie Pressen oder Fräsen oder Werkzeugmaschinen, mit
tels der Erfindung so zu steuern, daß über die optische
Aufnahme eines Probenkörpers ein hochgenaues Werkstück als
Abbild des Probenkörpers hergestellt werden kann oder
softwaremäßig praktisch beliebige Manipulationen am virtu
ellen Datenmaterial vorgenommen und wieder ausgegeben wer
den können, um damit ein neues Werkstück herzustellen.
Die Lösung der Aufgabe besteht im Verfahren zur geometri
schen Navigation von optischen 3D-Sensoren zum dreidimen
sionalen Vermessen von Objekten innerhalb eines Navigati
onsvolumens relativ zu einem Referenzkoordinatensystem,
beruhend auf den Prinzipien der Streifenprojektion und der
Triangulation, unter Verwendung wenigstens einer Kamera,
vorzugsweise Videokamera, einer Einrichtung zur Digitali
sierung und Speicherung von Bildfolgen der Kamera, minde
stens einem zur Kamera fixierten Beleuchtungsprojektor,
der zeitlich nacheinander Lichtstrukturen aus wenigstens
eindimensionalen Streifen erzeugt, mindestens einer im Re
ferenzkoordinatensystem bestimmten Navigationseinrichtung,
die entweder aus reflektierenden und/oder streuenden Si
gnalmarken mit einer Beleuchtungseinrichtung oder aus
lichtemittierenden Signalmarken oder aus einem Signalkon
tinuum besteht, und einem Rechner zur Steuerung und Verar
beitung der Bilder, wobei der 3D-Sensor im Raum beweglich
ist und wenigstens drei Signalmarken oder drei voneinander
unabhängige Signalwerte des Signalkontinuums optisch de
tektiert werden, die Positionen der detektierten Signal
marken bzw. Signalwerte sowie deren Identifikationsindices
(Labeling) innerhalb eines gegebenen sensoreigenen Koordi
natensystems bestimmt und gespeichert werden, die Positio
nen der detektierten Signalmarken bzw. Signalwerte inner
halb des gegebenen sensoreigenen Koordinatensystems mit
den bekannten Positionen der identifizierten Signalmarken
bzw. Signalwerte innerhalb des gegebenen Referenzkoordina
tensystems verglichen werden, mittels eines numerischen
Ausgleichsverfahrens aus dem Vergleich eine Transformati
onsmatrix bestimmt wird, welche das Sensorkoordinatensy
stem in das Referenzkoordinatensystem transformiert, bei
unveränderter Stellung oder bei absolut bekannter Stel
lungsveränderung des Sensors die Transformationsmatrix
dazu verwendet wird, die von einem im Navigationsraum be
findlichen Objekt im Sensorkoordinatensystem mit codierter
Streifenprojektion gemessenen Koordinaten in das Refe
renzkoordinatensystem zu überführen.
Der Vorteil des erfindungsgemäßen Verfahrens ist darin zu
sehen, daß Objekte mit optischen Sensoren dreidimensional
vermessen werden können, wobei sich die räumliche Anord
nung von Sensor und Objekt ändern darf, und anschließend
Teilansichten des Objekts paßgenau zusammengefügt werden
können. Des weiteren sind aufgrund des Verfahrens Kosten
reduktionen zu erzielen, weil das Verfahren auf teure me
chanische Präzisionspositioniereinrichtungen, wie Koordi
natenmeßgeräte, Präzisionsmeßroboter, Fräsmaschinen, Step
per o.a. verzichtet.
Vorteilhaft können Kamera und Projektor und deren relative
Anordnung mit Hilfe mehrfacher Meßaufnahmen aus verschie
denen Richtungen erst während des Verfahrens simultan ka
libriert werden. Die Navigationseinrichtung kann mit Hilfe
mehrfacher Meßaufnahmen aus verschiedenen Richtungen erst
während des Verfahrens vermessen werden.
Die Navigationseinrichtung kann aus mehreren relativ zu
einander beweglichen Teilen bestehen, deren relative Lage
oder Lageänderung mit Hilfe von Meßaufnahmen und Ähnlich
keitstransformationen bestimmt wird. Ebenso kann als Teil
der Navigationseinrichtung ein mit Signalmarken ausgestat
tetes Referenzobjekt, wie zum Beispiel ein Meßtaster, ver
wendet werden, der einschließlich einer mechanischen Tast
spitze vorher vermessen und kalibriert worden ist und mit
dem anschließend optisch unzugängliche Punkte vermessen
werden, wobei der Meßtaster nicht zum Navigieren des Sen
sors dient.
Des weiteren können die Relativbewegungen zwischen Sensor
und Navigationseinrichtung oder zwischen Referenzobjekten
mit Hilfe einer Mechanik und/oder einer Meßeinrichtung ge
nau als bekannt ermittelt werden, beispielsweise die Win
keländerung einer einachsigen Rotation oder der Abstand
einer linearen Translation, wobei in Positionen innerhalb
der Relativbewegungen bei verdeckten Signalmarken die Na
vigation mit Hilfe einer Interpolation oder Extrapolation
von Navigationsdaten durchgeführt wird, welche vorher in
anderen Positionen optisch gewonnen worden sind. Vorteil
haft können damit auch bei verdeckten Signalmarken Naviga
tionsmessungen durchgeführt werden.
Der Sensor kann vorteilhaft mit mehreren Kameras ausge
stattet sein, deren relative Position und Orientierung zu
einander für die Dauer einer Messung temporär oder dauer
haft bekannt sind, die Kameras können über gleiche oder
unterschiedliche Fokussierung für verschiedene Entfernun
gen sowie über gleichen oder unterschiedlichen Bildwinkel
verfügen, sie können gleiche oder unterschiedliche spek
trale Empfindlichkeit aufweisen, in die gleiche oder in
verschiedene Raumrichtungen blicken, wobei alle Kameras
imstande sind, gleichzeitig Bilder aufnehmen zu können.
Die relative Position und Orientierung des Sensors mit
mehreren Kameras kann durch eine mechanische starre Ver
bindung derselben untereinander oder durch eine relative
Orientierungsbestimmung als bekannt gewonnen werden. Zur
Navigation können eine oder mehrere zusätzliche Kameras
verwendet werden, die sowohl die Navigationseinrichtung
bzw. Navigationseinrichtungen als auch den mit Signalmar
ken ausgerüsteten Sensor gleichzeitig in einem gemeinsamen
Bildfeld beobachten und vermessen, wobei zur Navigation
des Sensors relativ zur Navigationseinrichtung sowohl die
vom Sensor gemessenen Koordinaten der Navigationseinrich
tung als auch die von den zusätzlichen Kameras gemessenen
Koordinaten der Navigationseinrichtung und des Sensors in
einem einzigen numerischen Ausgleichsalgorithmus verwendet
werden.
Vorteilhaft können zusätzliche Kameras auf einem Referenz
objekt befestigt sein. Derartige zusätzliche Kameras kön
nen auf einem Drehtisch mit dem Werkstück befestigt sein,
der Teil der Navigationseinrichtung ist.
Als numerisches Ausgleichsverfahren kann eine räumliche
Ähnlichkeitstransformation verwendet werden, die die Koef
fizienten der Transformationsmatrix so bestimmt, daß die
Summe aller quadratischen Koordinatenfehler minimiert
wird.
In vorteilhafter Weise können wenigstens ein Teil der ver
wendeten Kameras jeweils über eine eigene Bildspeicherein
richtung und/oder Bildverarbeitungseinrichtung verfügen,
wobei die Bildaufnahme, die in allen Kameras synchron er
folgt, mittels eines optischen Signals gemeinsam ausgelöst
wird und die Bilder bereits in der Kamera vorverarbeitet
werden, um eine Datenreduktion zu erzielen.
Das vorbeschriebene Verfahren und die Varianten hierzu
setzen voraus, daß die Navigationseinrichtung normaler
weise in Ruhe ist und die Bilder bzw. Streifen sequentiell
erhalten werden. In einer vorteilhaften Variante des Ver
fahrens ist es aber auch möglich, mit einem 3D-Sensor zu
arbeiten, der sich nicht in Ruhe befindet, beispielsweise
ohne Stativ. Ein derartiger 3D-Sensor arbeitet mit einem
relativ und inkrementell messenden Streifenmeßverfahren,
welches zur Messung von stetigen Oberflächen nur ein ein
ziges Bild, welches gleichzeitig mit den Retros aufgenom
men wird, erfordert, wobei die absolute Position der Koor
dinaten eines stetigen Flächenstücks jeweils durch einen
Signalisierungspunkt innerhalb der gemessenen Objektfläche
bestimmt wird.
Oder der 3D-Sensor arbeitet mit einem Streifenmeßverfah
ren, bei dem die üblichen mehreren Streifenbilder jeweils
gleichzeitig mit der Retrobeleuchtung geblitzt werden, wo
nach die gegeneinander leicht verschobenen Bilder mit
Hilfe der Navigation aus jeweils einem Bild in ein einzi
ges Koordinatensystem transformiert und dann decodiert
werden. Die Bilder werden quasi zurechtgeruckt und dann
decodiert.
Kurzbeschreibung der Zeichnung, in der zeigt
Fig. 1 eine schematische Darstellung eines 3D-
Sensors unter Verwendung von zwei Kameras
mit Beleuchtungseinrichtung, einem zu den
Kameras fixierten Beleuchtungsprojektor und eine
Navigationseinrichtung aus reflektierenden
Signalmarken auf Referenzkörpern,
Fig. 2 zusätzlich zur Darstellung in Fig. 1 einen
beweglichen Meßobjektträger,
Fig. 3 zusätzlich zur Darstellung in Fig. 2 eine
weitere unabhängige Beobachtungseinrichtung
mit mindestens einer Kamera,
Fig. 4 zusätzlich zur Darstellung in Fig. 3 eine
weitere zusätzliche Beobachtungseinrichtung die
mit dem Meßobjektträger fest verbunden ist,
Fig. 5 zusätzlich zur Darstellung in Fig. 4 einen
weiteren Referenzkörper mit Signalisierungen,
der in die Navigationseinrichtung temporär
eingebracht ist.
Fig. 1 zeigt einen 3D-Sensor 1, bestehend aus zwei auf
einem Stativ 7 mit Querbalken montierten Kameras 2, 3, die
jeweils mit einer Beleuchtungseinrichtung 4, 5 für retrore
flektierende Signalisierungen oder Signalmarken ausgestat
tet sind sowie einem zwischen den Kameras auf dem Querträ
ger angeordneten, programmierbaren Streifenprojektor 6;
gemessen wird ein Meßprojekt 8. Eine ein- oder mehrteilige
Navigationseinrichtung besteht im einfachsten Fall aus Si
gnalisierungen 9 auf dem Meßobjekt 8 und/oder aus einem
einteiligen oder mehrteiligen Referenzkörper 10, 11 eben
falls mit Signalisierungen 9.
Fig. 2 zeigt zusätzlich zu Fig. 1 auf dem Referenzkörper
11 einen beweglich gehalterten, beispielsweise drehbaren,
Meßobjektträger 12, der ebenfalls Signalisierungen trägt,
die vom 3D-Sensor 1 oder von einer zusätzlichen Beobach
tungseinrichtung (Fig. 3) mit mindestens einer Kamera 13
beobachtet werden.
Der Meßobjektträger 12 kann beispielsweise eine exakt be
kannte Linear- oder Rotationsbewegung ausführen. Oder der
Sensorträger 7 (Stativ) kann beweglich gestaltet sein mit
exakt bekannter Linear- oder Rotationsbewegung.
Fig. 3 zeigt zusätzlich zu Fig. 2 eine unabhängige Beob
achtungseinrichtung mit mindestens einer Kamera 13, die
ebenfalls eine Beleuchtungseinrichtung 4 aufweisen kann
und die die Referenzkörper 10, 11 sowie den beweglichen
Meßobjektträger 12 einschließlich des Meßobjekts 8
und/oder den mit Signalisierungen 9 ausgestatteten beweg
lichen 3D-Sensor 1 beobachtet.
Fig. 4 zeigt zusätzlich zu Fig. 3 eine weitere Beobach
tungseinrichtung mit mindestens einer Kamera 14, 15, welche
mit einem Teil der Navigationseinrichtung, beispielsweise
mit dem Meßobjektträger 12, fest verbunden sind und deren
Relativbewegung aus der Beobachtung der übrigen Referenz
körper 10, 11 bestimmt werden kann.
Fig. 5 zeigt zusätzlich zu Fig. 4 einen weiteren Refe
renzkörper 16, beispielsweise Taster, mit Signalisierungen
9, der mit dem Meßobjekt 8 - oder einem anderen Referenz
körper, beispielsweise der Meßobjektträger 12 - temporär
verbunden ist. Durch Navigation bzw. Vermessung des Refe
renzkörpers 16 können auch die aktuellen Koordinaten der
mit ihm verbundenen Objekte genauer bestimmt werden.
Das Verfahren zur geometrischen Navigation von optischen
3D-Sensoren zum dreidimensionalen Vermessen von Objekten
innerhalb eines Navigationsvolumens ist insbesondere für
Herstellungsmaschinen, wie Pressen oder Fräsen oder Werk
zeugmaschinen anwendbar, die mittels des Verfahrens so ge
steuert werden können, daß über die optische Aufnahme ei
nes Probenkörpers ein hochgenaues Werkstück als Abbild des
Probenkörpers hergestellt werden kann oder softwaremäßig
praktisch beliebige Manipulationen am virtuellen Datenma
terial vorgenommen und wieder ausgegeben werden können, um
damit ein neues Werkstück herzustellen.
Claims (15)
1. Verfahren zur geometrischen Navigation von optischen
3D-Sensoren zum dreidimensionalen Vermessen von Objekten
innerhalb eines Navigationsvolumens relativ zu einem Refe
renzkoordinatensystem, beruhend auf den Prinzipien der
Streifenprojektion und der Triangulation, unter Verwendung
wenigstens einer Kamera, vorzugsweise Videokamera, einer
Einrichtung zur Digitalisierung und Speicherung von Bild
folgen der Kamera, mindestens einem zur Kamera fixierten
bzw. zu mehreren Kameras zugeordneten Beleuchtungsprojek
tor, der zeitlich nacheinander Lichtstrukturen aus wenig
stens eindimensionalen Streifen erzeugt, mindestens einer
im Referenzkoordinatensystem bestimmten Navigationsein
richtung, die entweder aus reflektierenden und/oder streu
enden Signalmarken mit einer Beleuchtungseinrichtung oder
aus lichtemittierenden Signal
marken mit einer Beleuchtungseinrichtung oder aus lichte
mittierenden Signalmarken oder aus einem Signalkontinuum
besteht, und einem Rechner zur Steuerung und Verarbeitung
der Bilder, dadurch gekennzeichnet, daß
der 3D-Sensor im Raum beweglich ist und wenigstens drei
Signalmarken oder drei voneinander unabhängige Signalwerte
des Signalkontinuums optisch detektiert werden, die Posi
tionen der detektierten Signalmarken bzw. Signalwerte so
wie deren Identifikationsindices (Labeling) innerhalb ei
nes gegebenen sensoreigenen Koordinatensystems bestimmt
und gespeichert werden, die Positionen der detektierten Si
gnalmarken bzw. Signalwerte innerhalb des gegebenen senso
reigenen Koordinatensystems mit den bekannten Positionen
der identifizierten Signalmarken bzw. Signalwerte inner
halb des gegebenen Referenzkoordinatensystems verglichen
werden, mittels eines numerischen Ausgleichungsverfahrens
aus dem Vergleich eine Transformationsmatrix bestimmt
wird, welche das Sensorkoordinatensystem in das Referenz
koordinatensystem transformiert, bei unveränderter Stel
lung oder bei absolut bekannter Stellungsveränderung des
Sensors die Transformationsmatrix dazu verwendet wird, die
von einem im Navigationsraum befindlichen Objekt im Sen
sorkoordinatensystem mit codierter Streifenprojektion ge
messenen Koordinaten in das Referenzkoordinatensystem zu
überführen.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
Kamera und Projektor und deren relative Anordnung mit
Hilfe mehrfacher Meßaufnahmen aus verschiedenen Richtungen
erst während des Verfahrens simultan kalibriert werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die Navigationseinrichtung mit Hilfe mehrfacher Meßaufnah
men aus verschiedenen Richtungen erst während des Verfah
rens vermessen wird.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
die Navigationseinrichtung aus mehreren relativ zueinander
beweglichen Teilen besteht, deren relative Lage oder Lage
änderung mit Hilfe von Meßaufnahmen und Ähnlichkeitstrans
formationen bestimmt wird.
5. Verfahren nach den Ansprüchen 3 und 4, dadurch gekenn
zeichnet, daß als Teil der Navigationseinrichtung ein mit
Signalmarken ausgestatteter Meßtaster verwendet wird, der
einschließlich einer mechanischen Tastspitze vorher ver
messen und kalibriert worden ist, und mit dem anschließend
optisch unzugängliche Punkte vermessen werden.
6. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeich
net, daß Relativbewegungen zwischen Sensor und Navigati
onseinrichtung oder zwischen Teilen der Navigationsein
richtung mit Hilfe einer Mechanik und/oder einer Meßein
richtung genau als bekannt ermittelt werden, beispiels
weise die Winkeländerung einer einachsigen Rotation oder
der Abstand einer linearen Translation, daß in Positionen
innerhalb der Relativbewegungen bei verdeckten Signalmar
ken die Navigation mit Hilfe einer Interpolation oder Ex
trapolation von Navigationsdaten durchgeführt wird, welche
vorher in anderen Positionen optisch gewonnen worden sind.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
der Sensor mit mehreren Kameras ausgestattet ist, deren
relative Position und Orientierung zueinander für die
Dauer einer Messung temporär oder dauerhaft bekannt sind,
daß die Kameras über gleiche oder unterschiedliche Fokus
sierung für verschiedene Entfernungen sowie über gleichen
oder unterschiedlichen Bildwinkel verfügen, gleiche oder
unterschiedliche spektrale Empfindlichkeit aufweisen, in
die gleiche oder in verschiedene Raumrichtungen blicken
können und alle Kameras imstande sind, gleichzeitig Bilder
aufnehmen zu können.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß
relative Position und Orientierung des Sensors mit mehre
ren Kameras durch eine mechanische starre Verbindung der
selben untereinander oder durch eine relative Orientie
rungsbestimmung als bekannt gewonnen werden.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß
zur Navigation eine oder mehrere zusätzliche Kameras ver
wendet werden, die sowohl die Navigationseinrichtung bzw.
Navigationseinrichtungen als auch den mit Signalmarken
ausgerüsteten Sensor gleichzeitig in einem gemeinsamen
Bildfeld beobachten und vermessen, und daß zur Navigation
des Sensors relativ zur Navigationseinrichtung sowohl die
vom Sensor gemessenen Koordinaten der Navigationseinrich
tung als auch die von den zusätzlichen Kameras gemessenen
Koordinaten der Navigationseinrichtung und des Sensors in
einem einzigen numerischen Ausgleichsalgorithmus verwen
det werden.
10. Verfahren nach Anspruch 9, dadurch gekennzeichnet,
daß zusätzliche Kameras auf einem Teil der Navigationsein
richtung befestigt sind.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet,
daß die zusätzlichen Kameras auf einem Drehtisch mit dem
Werkstück befestigt sind, der Teil der Navigationseinrich
tung ist.
12. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß als numerisches Ausgleichsverfahren eine räumliche
Ähnlichkeitstransformation verwendet wird, welche die Ko
effizienten der Transformationsmatrix so bestimmt, daß die
Summe aller quadratischen Koordinatenfehler minimiert
wird.
13. Verfahren nach Anspruch 9, dadurch gekennzeichnet,
daß wenigstens ein Teil der verwendeten Kameras jeweils
über eine eigene Bildspeichereinrichtung und/oder Bildver
arbeitungseinrichtung verfügen und die Bildaufnahme, die
in allen Kameras synchron erfolgt, mittels eines optischen
Signals gemeinsam ausgelöst wird und die Bilder zur Daten
reduktion bereits in der Kamera vorverarbeitet werden.
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß der 3D-Sensor mit einem relativ und inkrementell mes
senden Streifenmeßverfahren arbeitet, welches zur Messung
von stetigen Oberflächen nur ein einziges Bild, welches
gleichzeitig mit den Retros aufgenommen wird, erfordert,
wobei die absolute Position der Koordinaten eines stetigen
Flächenstücks jeweils durch einen Signalisierungspunkt in
nerhalb der gemessenen Objektfläche bestimmt wird.
15. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
daß der 3D-Sensor mit einem Streifenmeßverfahren arbeitet,
bei dem die üblichen mehreren Streifenbilder jeweils
gleichzeitig mit der Retrobeleuchtung geblitzt werden, und
die gegeneinander leicht verschobenen Bilder mit Hilfe der
Navigation aus jeweils einem Bild in ein einziges Koordi
natensystem transformiert und erst dann decodiert werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1995136294 DE19536294C2 (de) | 1995-09-29 | 1995-09-29 | Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE1995136294 DE19536294C2 (de) | 1995-09-29 | 1995-09-29 | Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten |
Publications (2)
Publication Number | Publication Date |
---|---|
DE19536294A1 true DE19536294A1 (de) | 1997-04-03 |
DE19536294C2 DE19536294C2 (de) | 2003-12-18 |
Family
ID=7773558
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1995136294 Expired - Lifetime DE19536294C2 (de) | 1995-09-29 | 1995-09-29 | Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19536294C2 (de) |
Cited By (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999039158A1 (de) * | 1998-02-02 | 1999-08-05 | Daimlerchrysler Ag | Vorrichtung zur verwendung als navigationskulisse bei der vermessung von objekten |
EP1022541A2 (de) * | 1999-01-22 | 2000-07-26 | Wohlenberg Schneidesysteme GmbH | Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon |
EP1134546A3 (de) * | 2000-03-14 | 2001-10-04 | DaimlerChrysler AG | Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten |
WO2001088471A1 (de) * | 2000-05-16 | 2001-11-22 | Steinbichler Optotechnik Gmbh | Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes |
DE10033366A1 (de) * | 2000-07-08 | 2002-01-31 | Festo Ag & Co | Verfahren und Erfassungsvorrichtung zur Erfassung von Parametern an maschinellen Einrichtungen |
WO2002063240A1 (en) * | 2001-02-02 | 2002-08-15 | Snap-On Technologies Inc | Method and apparatus for mapping system calibration |
DE19956192C2 (de) * | 1999-11-23 | 2003-04-17 | Daimler Chrysler Ag | Robustes erweitertes Kalibrier- und Messverfahren |
DE10112653B4 (de) * | 2000-03-21 | 2004-02-12 | Romain Granger | System zur Positionspeilung |
DE10311111A1 (de) * | 2003-03-12 | 2004-09-30 | Universität Karlsruhe (TH) - Körperschaft des öffentlichen Rechts | Positionierverfahren und -vorrichtung |
DE102005002190B4 (de) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner und Verfahren zum Betreiben eines Scanners |
DE10354078B4 (de) * | 2003-11-19 | 2008-09-04 | Daimler Ag | Spannvorrichtung für Werkstücke zur dreidimensionalen optischen Oberflächenmessung |
DE102007017675A1 (de) * | 2007-04-14 | 2008-10-16 | Volkswagen Ag | Mobile Messeinrichtung |
FR2921492A1 (fr) * | 2007-09-21 | 2009-03-27 | Cap Tech Sarl | Procede de positionnement cartesien d'un objet sur une surface et dispositif pour sa mise en oeuvre |
WO2009065418A1 (de) * | 2007-11-19 | 2009-05-28 | Corpus.E Ag | Hochauflösende optische erfassung der raumform von körpern |
DE102008019435A1 (de) * | 2008-04-17 | 2009-10-29 | Aicon Metrology Gmbh | Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile |
DE202008011332U1 (de) * | 2008-08-26 | 2010-02-11 | Dmg Microset Gmbh | Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs |
DE202009017401U1 (de) | 2009-12-22 | 2010-05-12 | Corpus.E Ag | Kalibrationsfreie und genaue optische Erfassung der Raumform |
US7830529B2 (en) | 2005-11-15 | 2010-11-09 | Mtu Aero Engines Gmbh | Optical measurement of metallic surfaces |
US7907265B2 (en) | 2006-08-03 | 2011-03-15 | Dürr Assembly Products GmbH | Method for the determination of the axle geometry of a vehicle |
EP2381214A1 (de) * | 2010-04-22 | 2011-10-26 | Metronor A/S | Optisches Messsystem |
EP2230482B1 (de) * | 2005-03-11 | 2013-10-30 | Creaform Inc. | Selbstreferenziertes System und Vorrichtung zum dreidimensionalen Scannen |
DE102005009549B4 (de) * | 2004-03-02 | 2014-03-13 | Institut Straumann Ag | Oberflächenerfassungshalterung sowie Verfahren zur Oberflächenerfassung |
DE102013211342A1 (de) * | 2013-06-18 | 2014-12-18 | Siemens Aktiengesellschaft | Fotobasiertes 3D-Oberflächen-Inspektionssystem |
WO2015023483A1 (en) * | 2013-08-06 | 2015-02-19 | Smart Picture Technology, Inc. | 3d mapping device for modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements |
WO2016103125A1 (en) * | 2014-12-22 | 2016-06-30 | Bombardier Inc. | Reference system for online vision inspection |
EP3252458A1 (de) * | 2016-06-01 | 2017-12-06 | Hijos de Jose Sivo, S.L. | System und verfahren zur digitalisierung dreidimensionaler objekte |
US10068344B2 (en) | 2014-03-05 | 2018-09-04 | Smart Picture Technologies Inc. | Method and system for 3D capture based on structure from motion with simplified pose detection |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
EP3396590A1 (de) * | 2017-04-26 | 2018-10-31 | Mashgin Inc. | Synchronisation von bilddaten mehrerer dreidimensionaler kameras zur bilderkennung |
US10200670B2 (en) | 2011-09-30 | 2019-02-05 | Carl Zeiss Optotechnik GmbH | Method and apparatus for determining the 3D coordinates of an object |
US10304254B2 (en) | 2017-08-08 | 2019-05-28 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
US10366445B2 (en) | 2013-10-17 | 2019-07-30 | Mashgin Inc. | Automated object recognition kiosk for retail checkouts |
US10540551B2 (en) | 2018-01-30 | 2020-01-21 | Mashgin Inc. | Generation of two-dimensional and three-dimensional images of items for visual recognition in checkout apparatus |
US10628695B2 (en) | 2017-04-26 | 2020-04-21 | Mashgin Inc. | Fast item identification for checkout counter |
JP2020512537A (ja) * | 2017-02-17 | 2020-04-23 | リミテッド ライアビリティー カンパニー “フィッティン” | 靴の形状、寸法及び伸縮性を測定するための方法及び装置 |
EP3447681B1 (de) * | 2017-08-24 | 2020-04-29 | Mashgin Inc. | Trennung von objekten in bildern von dreidimensionalen kameras |
US11138757B2 (en) | 2019-05-10 | 2021-10-05 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
US11281888B2 (en) | 2017-04-26 | 2022-03-22 | Mashgin Inc. | Separation of objects in images from three-dimensional cameras |
CN114485479A (zh) * | 2022-01-17 | 2022-05-13 | 吉林大学 | 基于双目相机和惯性导航的结构光扫描测量方法及系统 |
US11551287B2 (en) | 2013-10-17 | 2023-01-10 | Mashgin Inc. | Automated object recognition kiosk for retail checkouts |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3122712A1 (de) * | 1980-06-11 | 1982-03-18 | General Electric Co., Schenectady, N.Y. | "verfahren und vorrichtung zum beruehrungslosen messen von oberflaechenprofilen" |
DE4115445A1 (de) * | 1990-07-05 | 1992-01-23 | Reinhard Malz | Verfahren zum aufnehmen eines dreidimensionalen bildes eines objektes nach dem aktiven triangulationsprinzip und vorrichtung hierzu |
DE4115846A1 (de) * | 1991-05-15 | 1992-11-19 | Ameling Walter | Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen |
DE4134546A1 (de) * | 1991-09-26 | 1993-04-08 | Steinbichler Hans | Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objektes |
WO1994028375A1 (en) * | 1993-05-24 | 1994-12-08 | Metronor As | Method and system for geometry measurement |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4205406A1 (de) * | 1992-02-20 | 1993-09-02 | Gerhard Dipl Ing Lutter | Verfahren zur photogrammetrischen vermessung eines statischen objektes mit weitgehend handelsueblichen video- oder ccd-kameras |
DE19502459A1 (de) * | 1995-01-28 | 1996-08-01 | Wolf Henning | Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten |
-
1995
- 1995-09-29 DE DE1995136294 patent/DE19536294C2/de not_active Expired - Lifetime
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3122712A1 (de) * | 1980-06-11 | 1982-03-18 | General Electric Co., Schenectady, N.Y. | "verfahren und vorrichtung zum beruehrungslosen messen von oberflaechenprofilen" |
DE4115445A1 (de) * | 1990-07-05 | 1992-01-23 | Reinhard Malz | Verfahren zum aufnehmen eines dreidimensionalen bildes eines objektes nach dem aktiven triangulationsprinzip und vorrichtung hierzu |
DE4115846A1 (de) * | 1991-05-15 | 1992-11-19 | Ameling Walter | Verfahren zur beruehrungslosen raeumlichen positionsmessung in roboterarbeitsraeumen |
DE4134546A1 (de) * | 1991-09-26 | 1993-04-08 | Steinbichler Hans | Verfahren und vorrichtung zur bestimmung der absolut-koordinaten eines objektes |
WO1994028375A1 (en) * | 1993-05-24 | 1994-12-08 | Metronor As | Method and system for geometry measurement |
Non-Patent Citations (4)
Title |
---|
DIETMAYER,Klaus, KRÜGER,Klaus: Verfahren zur berührungslosen Erfassung ebener Bewegungen mit einer CCD-Kamera. In: tm - Technisches Messen 61, 1994, 2, S.65-74 * |
GERDES,R., u.a.: Kalibrierung eines digitalen Bildverarbeitungssystems mit CCD-Kamera, Teil 1: Modellbildung und Verfahren. In: tm - Technisches Messen 60, 1993, 6, S.255-261 * |
JANOCHA,Hartmut, ZAPP,Michael: Fertigungsnahe 3D-Koordinatenmessung mit bewegter CCD-Kamera. In: tm - Technisches Messen 61, 1994, 9, S.329- S.334 * |
STAHS,Thomas, WAHL,Friedrich: Oberflächenvermessung mit einem 3D-Robotersensor. In: ZPF-Zeitschrift für Photogrammetrie und Fernerkundung, 6/1990, S.190-202 * |
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1999039158A1 (de) * | 1998-02-02 | 1999-08-05 | Daimlerchrysler Ag | Vorrichtung zur verwendung als navigationskulisse bei der vermessung von objekten |
US6591512B2 (en) | 1998-02-02 | 2003-07-15 | Daimlerchrysler | Device for use as a navigation link when measuring objects |
EP1022541A2 (de) * | 1999-01-22 | 2000-07-26 | Wohlenberg Schneidesysteme GmbH | Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon |
EP1022541A3 (de) * | 1999-01-22 | 2001-10-10 | Wohlenberg Schneidesysteme GmbH | Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon |
DE19956192C2 (de) * | 1999-11-23 | 2003-04-17 | Daimler Chrysler Ag | Robustes erweitertes Kalibrier- und Messverfahren |
EP1134546A3 (de) * | 2000-03-14 | 2001-10-04 | DaimlerChrysler AG | Anlage zur messtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten |
DE10112653B4 (de) * | 2000-03-21 | 2004-02-12 | Romain Granger | System zur Positionspeilung |
WO2001088471A1 (de) * | 2000-05-16 | 2001-11-22 | Steinbichler Optotechnik Gmbh | Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes |
US7414732B2 (en) | 2000-05-16 | 2008-08-19 | Steinbichler Optotechnik Gmbh | Method and device for determining the 3D profile of an object |
DE10033366A1 (de) * | 2000-07-08 | 2002-01-31 | Festo Ag & Co | Verfahren und Erfassungsvorrichtung zur Erfassung von Parametern an maschinellen Einrichtungen |
DE10033366B4 (de) * | 2000-07-08 | 2007-10-04 | Festo Ag & Co. | Verfahren und Erfassungsvorrichtung zur Erfassung von Parametern an maschinellen Einrichtungen |
WO2002063240A1 (en) * | 2001-02-02 | 2002-08-15 | Snap-On Technologies Inc | Method and apparatus for mapping system calibration |
DE10311111A1 (de) * | 2003-03-12 | 2004-09-30 | Universität Karlsruhe (TH) - Körperschaft des öffentlichen Rechts | Positionierverfahren und -vorrichtung |
DE10311111B4 (de) * | 2003-03-12 | 2005-12-08 | Universität Karlsruhe (TH) - Körperschaft des öffentlichen Rechts | Positionierverfahren und -vorrichtung |
DE10354078B4 (de) * | 2003-11-19 | 2008-09-04 | Daimler Ag | Spannvorrichtung für Werkstücke zur dreidimensionalen optischen Oberflächenmessung |
DE102005009549B4 (de) * | 2004-03-02 | 2014-03-13 | Institut Straumann Ag | Oberflächenerfassungshalterung sowie Verfahren zur Oberflächenerfassung |
DE102005002190B4 (de) * | 2005-01-17 | 2007-04-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Scanner und Verfahren zum Betreiben eines Scanners |
US7469834B2 (en) | 2005-01-17 | 2008-12-30 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Scanner and method for operating a scanner |
EP2230482B1 (de) * | 2005-03-11 | 2013-10-30 | Creaform Inc. | Selbstreferenziertes System und Vorrichtung zum dreidimensionalen Scannen |
US7830529B2 (en) | 2005-11-15 | 2010-11-09 | Mtu Aero Engines Gmbh | Optical measurement of metallic surfaces |
US7907265B2 (en) | 2006-08-03 | 2011-03-15 | Dürr Assembly Products GmbH | Method for the determination of the axle geometry of a vehicle |
EP2047211B1 (de) * | 2006-08-03 | 2014-05-07 | Dürr Assembly Products GmbH | Verfahren zur bestimmung der achsgeometrie eines fahrzeugs |
DE102007017675A1 (de) * | 2007-04-14 | 2008-10-16 | Volkswagen Ag | Mobile Messeinrichtung |
FR2921492A1 (fr) * | 2007-09-21 | 2009-03-27 | Cap Tech Sarl | Procede de positionnement cartesien d'un objet sur une surface et dispositif pour sa mise en oeuvre |
WO2009065418A1 (de) * | 2007-11-19 | 2009-05-28 | Corpus.E Ag | Hochauflösende optische erfassung der raumform von körpern |
US8363927B2 (en) | 2007-11-19 | 2013-01-29 | Corpus.E Ag | High-resolution optical detection of the three-dimensional shape of bodies |
DE102008019435A1 (de) * | 2008-04-17 | 2009-10-29 | Aicon Metrology Gmbh | Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile |
DE102008019435B4 (de) * | 2008-04-17 | 2012-06-06 | Aicon Metrology Gmbh | Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile |
DE202008011332U1 (de) * | 2008-08-26 | 2010-02-11 | Dmg Microset Gmbh | Vorrichtung zum Vermessen und/oder Einstellen eines Werkzeugs |
WO2011076292A1 (de) | 2009-12-22 | 2011-06-30 | Corpus.E Ag | Kalibrationsfreie und genaue optische erfassung der raumform |
DE202009017401U1 (de) | 2009-12-22 | 2010-05-12 | Corpus.E Ag | Kalibrationsfreie und genaue optische Erfassung der Raumform |
US8874406B2 (en) | 2010-04-22 | 2014-10-28 | Metronor As | Optical measurement system |
EP2381214A1 (de) * | 2010-04-22 | 2011-10-26 | Metronor A/S | Optisches Messsystem |
US10200670B2 (en) | 2011-09-30 | 2019-02-05 | Carl Zeiss Optotechnik GmbH | Method and apparatus for determining the 3D coordinates of an object |
DE102013211342A1 (de) * | 2013-06-18 | 2014-12-18 | Siemens Aktiengesellschaft | Fotobasiertes 3D-Oberflächen-Inspektionssystem |
WO2015023483A1 (en) * | 2013-08-06 | 2015-02-19 | Smart Picture Technology, Inc. | 3d mapping device for modeling of imaged objects using camera position and pose to obtain accuracy with reduced processing requirements |
US11551287B2 (en) | 2013-10-17 | 2023-01-10 | Mashgin Inc. | Automated object recognition kiosk for retail checkouts |
US10366445B2 (en) | 2013-10-17 | 2019-07-30 | Mashgin Inc. | Automated object recognition kiosk for retail checkouts |
US10068344B2 (en) | 2014-03-05 | 2018-09-04 | Smart Picture Technologies Inc. | Method and system for 3D capture based on structure from motion with simplified pose detection |
WO2016103125A1 (en) * | 2014-12-22 | 2016-06-30 | Bombardier Inc. | Reference system for online vision inspection |
US10466041B2 (en) | 2014-12-22 | 2019-11-05 | Bombardier Inc. | Reference system for online vision inspection |
US10083522B2 (en) | 2015-06-19 | 2018-09-25 | Smart Picture Technologies, Inc. | Image based measurement system |
EP3252458A1 (de) * | 2016-06-01 | 2017-12-06 | Hijos de Jose Sivo, S.L. | System und verfahren zur digitalisierung dreidimensionaler objekte |
JP2020512537A (ja) * | 2017-02-17 | 2020-04-23 | リミテッド ライアビリティー カンパニー “フィッティン” | 靴の形状、寸法及び伸縮性を測定するための方法及び装置 |
EP3584532A4 (de) * | 2017-02-17 | 2020-12-09 | Limited Liability Company "Fittin" | Verfahren und vorrichtung zur messung der form, abmessungen und flexibilität von schuhen |
EP3396590A1 (de) * | 2017-04-26 | 2018-10-31 | Mashgin Inc. | Synchronisation von bilddaten mehrerer dreidimensionaler kameras zur bilderkennung |
US11281888B2 (en) | 2017-04-26 | 2022-03-22 | Mashgin Inc. | Separation of objects in images from three-dimensional cameras |
US10628695B2 (en) | 2017-04-26 | 2020-04-21 | Mashgin Inc. | Fast item identification for checkout counter |
US10467454B2 (en) | 2017-04-26 | 2019-11-05 | Mashgin Inc. | Synchronization of image data from multiple three-dimensional cameras for image recognition |
US11869256B2 (en) | 2017-04-26 | 2024-01-09 | Mashgin Inc. | Separation of objects in images from three-dimensional cameras |
US20180314877A1 (en) * | 2017-04-26 | 2018-11-01 | Mashgin Inc. | Synchronization of image data from multiple three-dimensional cameras for image recognition |
US10803292B2 (en) | 2017-04-26 | 2020-10-13 | Mashgin Inc. | Separation of objects in images from three-dimensional cameras |
US10304254B2 (en) | 2017-08-08 | 2019-05-28 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
US11164387B2 (en) | 2017-08-08 | 2021-11-02 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
US10679424B2 (en) | 2017-08-08 | 2020-06-09 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
US11682177B2 (en) | 2017-08-08 | 2023-06-20 | Smart Picture Technologies, Inc. | Method for measuring and modeling spaces using markerless augmented reality |
EP3447681B1 (de) * | 2017-08-24 | 2020-04-29 | Mashgin Inc. | Trennung von objekten in bildern von dreidimensionalen kameras |
US10540551B2 (en) | 2018-01-30 | 2020-01-21 | Mashgin Inc. | Generation of two-dimensional and three-dimensional images of items for visual recognition in checkout apparatus |
US11138757B2 (en) | 2019-05-10 | 2021-10-05 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
US11527009B2 (en) | 2019-05-10 | 2022-12-13 | Smart Picture Technologies, Inc. | Methods and systems for measuring and modeling spaces using markerless photo-based augmented reality process |
CN114485479A (zh) * | 2022-01-17 | 2022-05-13 | 吉林大学 | 基于双目相机和惯性导航的结构光扫描测量方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
DE19536294C2 (de) | 2003-12-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19536294C2 (de) | Verfahren zur geometrischen Navigation von optischen 3D-Sensoren zum dreidimensionalen Vermessen von Objekten | |
DE19536297C2 (de) | Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu | |
DE102004061338B4 (de) | Automatische Bauteilprüfung | |
EP1285224A1 (de) | Verfahren und vorrichtung zum bestimmen der 3d-form eines objektes | |
EP1420264B1 (de) | Verfahren und Vorrichtung zur Kalibrierung eines Messsystems | |
DE112014005911T5 (de) | Dreidimensionaler Koordinatenscanner und Betriebsverfahren | |
AT506110A1 (de) | Vorrichtung und verfahren zur erfassung von körpermassdaten und konturdaten | |
DE4301538A1 (de) | Verfahren und Anordnung zur berührungslosen dreidimensionalen Messung, insbesondere zur Messung von Gebißmodellen | |
DE102006049695A1 (de) | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur | |
EP2133659B1 (de) | Verfahren und Vorrichtung zur Ermittlung der Lage eines Sensors | |
DE19947374A1 (de) | Verfahren zur Ermittlung geometrischer Abweichungen von Koordinatenmeßgeräten und Werkzeugmaschinen | |
DE19637682A1 (de) | Verfahren zur Bestimmung der räumlichen Koordinaten von Gegenständen und/oder deren zeitlicher Änderung und Vorrichtung zur Anwendung dieses Verfahrens | |
DE10127304C2 (de) | Verfahren und Vorrichtung zur Bestimmung der dreidimensionalen Kontur einer spiegelnden Oberfläche eines Objektes | |
DE112015006593T5 (de) | Positionsfinder eines freien Raums | |
DE102015109612B4 (de) | Koordinatenmessgerät und Verfahren zum Kalibrieren desselben mit einer Time-of-Flight-Kamera | |
DE102019103519A1 (de) | Vorrichtung zum Bestimmen von dimensionalen und/oder geometrischen Eigenschaften eines Messobjekts | |
DE19626889A1 (de) | Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen | |
EP3640583A1 (de) | Verfahren zur 3d-erfassung eines messobjekts | |
EP3418680A1 (de) | System und verfahren zur positionierungsmessung | |
DE4142676A1 (de) | Verfahren und vorrichtung zur vermessung von objekten, insbesondere zahnraedern, mittels projizierter streifenmuster | |
EP0563058B1 (de) | Verfahren und lagegeber zur lagebestimmung eines positionierkörpers relativ zu einem bezugskörper | |
Uffenkamp | State of the art of high precision industrial photogrammetry | |
EP1657678B1 (de) | Videobildunterstützte Patientenregistrierung | |
DE19846145A1 (de) | Verfahren und Anordung zur 3D-Aufnahme | |
DE102019113799A1 (de) | Messsystem zum Vermessen eines Messobjekts |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8110 | Request for examination paragraph 44 | ||
8127 | New person/name/address of the applicant |
Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE |
|
8304 | Grant after examination procedure | ||
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: 3D IMAGING TECHNOLOGIES GMBH, CREMINES, CH |
|
8328 | Change in the person/name/address of the agent |
Representative=s name: SEFFER, A., RECHTSANW., 60549 FRANKFURT |
|
R071 | Expiry of right |