DE19713945A1 - Vorrichtung zur Ortung von beweglichen Objekten - Google Patents
Vorrichtung zur Ortung von beweglichen ObjektenInfo
- Publication number
- DE19713945A1 DE19713945A1 DE1997113945 DE19713945A DE19713945A1 DE 19713945 A1 DE19713945 A1 DE 19713945A1 DE 1997113945 DE1997113945 DE 1997113945 DE 19713945 A DE19713945 A DE 19713945A DE 19713945 A1 DE19713945 A1 DE 19713945A1
- Authority
- DE
- Germany
- Prior art keywords
- numbered
- sensors
- photosensors
- odd
- optical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/16—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/783—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
- G01S3/784—Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Description
Die vorliegende Erfindung betrifft eine Vorrichtung zur Ortung bzw. Ortserfassung von
beweglichen Objekten in Echtzeit, bezogen auf ein räumliches Bezugssystem.
Aus der Patentschrift FR-A-2 583 523 ist ein System zur Ortung von beweglichen
Objekten bezüglich einer Achse (nachfolgend auch x-Achse genannt) bekannt. Dieses
System umfaßt einen ortsfesten Photodetektor und einen optischen Sender. Der Detektor
ist mit einer Optik verbunden, welche die Umgebung der besagten Achse überwacht, wo
mit einer Bewegung des Objektes gerechnet wird, während der optische Sender mit dem
beweglichen Objekt verbunden ist und Lichtblitze- bzw. Lichtsignale erzeugt. Das
System zeichnet sich dadurch aus, daß
- - der Photodetektor zum einen eine ortsfeste Matrix mit steuerbaren Photoelementen und zum anderen elektronische Mittel zur Steuerung der Photoelemente umfaßt, und daß
- - Synchronisierungsmittel vorgesehen sind um sicherzustellen, daß die elektronischen Steuermittel Steuerimpulse abgeben, welche die Aufnahme von Bildern auslösen bzw. triggern, die synchron mit den Lichtblitzen erfolgt.
So wird die jeweilige Position des beweglichen Objektes bezüglich der Achse (x-Achse)
durch die Position des einen oder der mehreren Photoelemente der Matrix festgelegt, das
bzw. die durch die Abbildung der Lichtblitze angeregt bzw. ausgeleuchtet wurden.
Ein derartiges herkömmliches Ortungssystem hat also den Nachteil, daß das bewegliche
Objekt mit einem Sender versehen werden muß, damit es von den Photoelementen der
Matrix geortet werden kann, und daß mit einem solchen System die Koordinate bzw. der
Standort auf der x-Achse nicht ermittelt werden kann.
Um die Position in einer orthogonalen und insbesondere vertikalen Richtung (z-Achse)
zu bestimmen, muß ferner eine zeilenweise Berechnung durchgeführt werden, was den
Betrieb in Echtzeit unmöglich macht.
Aufgabe der vorliegenden Erfindung ist es, eine passive Vorrichtung vorzuschlagen, mit
der die Koordinaten eines beweglichen Objektes in Echtzeit ermittelt werden können und
die nicht die Nachteile der bekannten Vorrichtung aufweist.
Eine erfindungsgemäße Vorrichtung zur Ortung von beweglichen Objekten umfaßt zu
diesem Zweck mindestens ein ortsfestes optisches System, dessen Aufnahmeachse
zusammen mit einer dazu senkrechten Ebene, in der sich ein Photodetektor befindet, ein
Bezugssystem festlegt. Die Vorrichtung ist dadurch gekennzeichnet, daß der
Photodetektor, die paarweise und in Zeilen bzw. versetzt angeordnet sind, Photosensoren
umfaßt, wobei die einzelnen Sensoren alternierend an einen geradzahligen bzw.
ungeradzahligen Ausgang angeschlossen sind, und die Ausgänge mit der Steuer- und
Verarbeitungseinheit für die Sensoren so verbunden sind, daß die von den Photosensoren
empfangenen Signale durch Bildsubtraktion weiterverarbeitet werden.
Gemäß einem Merkmal der Erfindung legen die an den Rechner übermittelten Daten
Adreßhalbworte fest, so daß der Rechner die jeweilige Position des beweglichen
Objektes aus einer Tabelle mit vorausberechneten Werten auslesen kann.
Gemäß einem weiteren Merkmal der Erfindung arbeiten die Photosensoren nach dem
Prinzip der Ladungsverschiebung. Vorzugsweise werden als Photoelemente solche
ladungsgekoppelten Elemente verwendet, die allgemein als CCD (Charge-Coupled De
vices) bezeichnet werden und deren getaktetes und ortsaufgelöstes Ausgangssignal sich
besonders gut zur numerischen Verarbeitung eignet.
Gemäß einem weiteren Merkmal der Erfindung haben die optischen Sensoren die Form
eines Dreiecks und sind in wechselnder Lage so angeordnet, daß aus dem Am
plitudenverhältnis der von den geradzahligen/ungeradzahligen Sensoren abgegebenen
Signale die geometrische Position des Objektes bezüglich des mit dem optischen System
fest verbundenen Bezugssystem ermittelt werden kann.
Die Photosensoren haben vorzugsweise die Form von gleichschenkligen Dreiecken, die
abwechselnd mit der Spitze bzw. der Grundseite in ein und dieselbe Richtung weisen.
Gemäß einem weiteren Merkmal der Erfindung umfaßt die Vorrichtung zwei optische
Systeme, von denen je eines einem Photodetektor zugeordnet ist.
Gemäß einem weiteren Merkmal der Erfindung haben die Photosensoren die Form von
langgestreckten Rechtecken, die nebeneinander bzw. versetzt angeordnet sind.
Gemäß einem weiteren Merkmal der Erfindung haben die optischen Sensoren die Form
von Rechtecken, wobei alle geradzahligen Rechtecke ebenso miteinander fluchten wie
alle ungeradzahligen Sensoren, wobei allerdings die ungeradzahligen Sensoren gegenüber
den geradzahligen Rechtecke versetzt angeordnet sind.
Die nachfolgende Beschreibung von Ausführungsbeispielen mit den zugehörigen Figuren
soll zum besseren Verständnis der vorstehend dargelegten Merkmale der Erfindung
sowie weiterer Merkmale dienen.
Fig. 1 zeigt eine schematische Darstellung der erfindungsgemäßen Vorrichtung zur
Ortsbestimmung.
Fig. 2 zeigt die erfindungsgemäßen Erfassungssektoren.
Fig. 3 zeigt in schematischer Darstellung das Gitternetz des
durch die erfindungsgemäße Ortungsvorrichtung überwachten Raumes.
Fig. 4 zeigt in schematischer Darstellung ein von den
Photosensoren abgeleitetes Videosignal nach der Subtraktion.
Fig. 5 zeigt in schematischer Darstellung die Verarbeitung
des Erfassungssignals.
Fig. 6 zeigt eine schematische Darstellung der Photosensoren
gemäß einer bevorzugten Ausführungsform.
Fig. 7 zeigt in graphischer Darstellung die lineare
Abhängigkeit bzw. Funktion der Photosensoren aus Fig. 6.
Fig. 8 zeigt eine schematische Darstellung der Photosensoren
gemäß einer anderen Ausführungsform.
Die in Fig. 1 dargestellte erfindungsgemäße Vorrichtung zur Ortung eines beweglichen
Objektes 1 besteht im wesentlichen aus zwei ortsfest angeordneten optischen Systemen
2 und 3, die jeweils einem Photodetektor 4 bzw. 4′ zugeordnet sind, aus einer Steuer-
und Verarbeitungseinheit 5 für die Sensoren, einem Rechner 6, einer Steuereinheit 7
sowie einer Entscheidungseinheit 8.
Mit einer derartigen Vorrichtung kann ein bewegliches Objekt 1 erfaßt und dessen
Koordinaten in Echtzeit ermittelt werden. Als Bezug dient dabei ein Bezugs- bzw. Ko
ordinatensystem, das durch die optische Aufnahmeachse zusammen mit einer hierzu
senkrechten Ebene, in der sich der Photodetektor befindet, festgelegt wird.
Dabei wird die optische Aufnahmeachse z. B. durch die optische Achse eines optischen
Systems vorgegeben, falls nur ein solches System verwendet wird, oder durch die
Symmetrieachse von zwei optischen Systemen, falls zwei solche Systeme verwendet
werden.
Es ist zu beachten, daß die beiden optischen Systeme und insbesondere die Detektoren
synchron arbeiten müssen und daß die Brennweite der Objektive auf die Abmessungen
des beweglichen Objektes und die maximale Erfassungsentfernung abgestimmt sein muß.
Auch muß der Zeitbedarf für die Integration der Lichtenergie durch die ladungs
gekoppelten Photosensoren (CCD-Sensoren) auf die Geschwindigkeit des beweglichen
Objekts abgestimmt sein.
Gemäß einer ersten Ausführungsform umfaßt der Photodetektor 4 bzw. 4′ eine
elektronische Schaltung, die mit einem Quarzfenster versehen ist, hinter dem die
Photosensoren in Form von langgestreckten Rechtecken angeordnet sind. Die Sensoren
sind in einem Streifen angeordnet d. h. in Zeilen wobei die einzelnen Sensoren
alternierend an einen geradzahligen und an einen ungeradzahligen Ausgang
angeschlossen sind. Dabei ist es zweckmäßig, daß die Zeilen horizontal ausgerichtet
sind.
Die Detektoren 4 bzw. 4′ befinden sich hinter dem optischen System 2 bzw. 3. Jedem
der beiden optischen Systeme 2 und 3 ist somit eine Geländedarstellung zugeordnet, die
durch eine Schar bzw. einen Fächer von Winkelsektoren (nachfolgend
Erfassungssektoren genannt; Fig. 2) aufgespannt wird.
Jeder Erfassungssektor entspricht einem dieser Photosensoren bzw. wird auf ein Paar aus
Einzelsensoren abgebildet. Auf diese Weise erhält man eine bestimmte Höhe Zmax (Fig.
2), die vom verwendeten optischen System und insbesondere von dessen Brennweite
abhängt und proportional zum Abstand d zwischen dem optischen System und dem
Objekt ist. Die Gesamtheit der Erfassungssektoren eines optischen Systems bildet einen
Fächer aus bzw. überspannt fächerartig das Gesichtsfeld der Vorrichtung.
Bei den verwendeten Photodetektoren sitzen die Mittel zur elektronischen Si
gnalverarbeitung aus Platzersparnisgründen zu beiden Seiten der einzelnen
Photosensoren. Die Signale der geradzahligen Sensoren werden auf der einen Seite
verarbeitet und die Signale der ungeradzahligen Sensoren auf der anderen Seite. Es gibt
zwei Ausgänge p und i, die auch als Meßwege bezeichnet werden, nämlich einen gerad
zahligen Ausgang p und einen ungeradzahligen Ausgang i. Mit einer dem Fachmann
wohlbekannten Elektronik können die beiden Ausgänge auf eine gemeinsame Leitung
oder auf zwei getrennte Leitungen geschaltet werden.
Die beiden Meßwege werden dann in der gemeinsamen Sensorüberwachungseinheit 5
aufbereitet, um die Steuerung des gesamten Funktionsablaufs, die Parallelverarbeitung
der Signale, ihre Überführung in den Schreib-/Lesespeicher sowie auch die
Bildsubtraktion zu ermöglichen, wodurch die von den ortsfesten bzw. unbeweglichen
Teilen des überwachten Geländes stammenden elektrischen Signale eliminiert werden.
Es ist zu beachten, daß die Sensorsteuer- und Verarbeitungseinheit 5 für jedes optische
System einen eigenen Bildsubtrahierer enthält.
Anschließend werden die Daten von der Steuer- und Verarbeitungseinheit über eine
Schnittstelle 9 an den Rechner 6 übermittelt, der dann die Erfassungssignale auswertet
und die Koordinaten des beweglichen Objektes errechnet.
Die errechneten Koordinaten werden an die Entscheidungseinheit 8 übermittelt.
Es sei angemerkt, daß die Entscheidungseinheit 8 aus einem Bildschirm bestehen kann,
auf dem die Informationen über das bewegliche Objekt für einen Bediener dargestellt
werden. Es kann aber auch sein, daß die Entscheidungseinheit automatisch bei
Annäherung des beweglichen Objektes eine Maßnahme einleitet.
Die Steuereinheit 7 der Ortungsvorrichtung ist zur Gewährleistung der Synchronisierung
der optischen Systeme 2 und 3 und insbesondere Synchronisierung der Photosensoren an
den Rechner 6 und die Sensorüberwachungseinheit 5 angeschlossen.
Vorteilhafterweise werden als Photosensoren ladungsgekoppelte Elemente, sogenannte
CCD-Sensoren, verwendet, deren getaktetes und ortsaufgelöstes Ausgangssignal sich be
sonders gut für eine numerische Verarbeitung eignet.
Die derzeit verwendeten CCD-Sensoren bestehen aus Streifen mit 512 Photodioden im
Format 12 × 2500 µm², die in parallelen Zeilen und mit 12 µm Abstand angeordnet
sind. Ihre Anordnung quer zu dem optischen Aufnahmesystem und insbesondere entlang
der y-Achse legt eine Gesamtheit bzw. einen Fächer mit 512 aneinandergrenzenden
Erfassungssektoren fest.
Gemeinsam bilden die beiden optischen Systeme 2 und 3, deren optische Achsen sich in
einem im voraus festgelegten Punkt schneiden auf diese Weise ein Gitternetz aus,
welches das gemeinsame Gesichtsfeld überdeckt, wie in Bild 3 dargestellt. Die
Gesamtvorrichtung erbringt somit eine Darstellung des Raumes in einzelnen Zellen bzw.
eine eindeutige Abbildung des Gesichtsfeldes auf einzelne Zellen, deren reale
Koordinaten im voraus errechnet werden können.
Jede Einzelzelle, die durch die Überschneidung der beiden von überwachten
Erfassungssektoren aufgespannten Fächern entsteht, kann individuell bzw. eindeutig
identifiziert werden anhand des Ranges bzw. der Nummer, den die beiden die Zelle
bildenden Photosensoren in dem zugehörigen Fächer einnehmen. Somit ist jeder
Einzelzelle ein Photosensor-Paar von jedem Photodetektor zugeordnet.
Das bewegliche Objekt wird anhand seiner Ortsveränderung nachgewiesen.
Für jede Zelle können die realen (Raum-) Koordinaten in einem ortsfest mit dem
Beobachtungsstandort verbundenen Bezugssystem im voraus berechnet und in eine
Ergebnistabelle eingegeben werden. Diese Tabelle wird im Rechner gespeichert.
Im folgenden wird nun die Funktionsweise der Vorrichtung erläutert.
Die Erfassung des beweglichen Objektes erfolgt durch Bildsubtraktion.
Bilder ein und desselben Geländes, die man von zwei voneinander entfernt liegenden
Beobachtungsstandorten aus aufnimmt, sind nicht identisch. Aus den Bildunterschieden
läßt sich die Entfernung der im Gesichtsfeld befindlichen sichtbaren Objekte ableiten.
Hierbei wird der stereoskopische Effekt genutzt. Wird andererseits von nur einem
Beobachtungsstandort aus ein Bild mit positivem Bildamplituden und ein Bild mit
negativen Bildamplituden von demselben Gelände aufgenommen und überlagert bzw.
addiert, so verschwinden sämtliche Bildpunkte dieser beiden Bilder. Es wurde nach
diesem Prinzip eine Bildsubtraktion durchgeführt, wobei alles, was zwischen den beiden
Aufnahmezeitpunkten konstant geblieben ist, verschwindet während Signalanteile des
beweglichen Objekts an seiner Ausgangsposition (mit positiver Bildamplitude) und an
seiner Endposition (mit negativer Bildamplitude) erkennbar sind.
Ein zum Zeitpunkt to aufgenommenes bzw. aufintegriertes Bild io wird in einer
Verzögerungsleitung oder einem Digitalspeicher gespeichert. Zum Zeitpunkt to+dt wird
ein weiteres Bild i₁ aufgenommen bzw. aufintegriert, das sich im Prinzip nur wenig vom
Bild io unterscheidet, und Punkt für Punkt von io subtrahiert.
Das so erhaltene Differenzsignal enthält folgendes: das Eigenrauschen für jedes Bild, die
örtlichen Variationen in der Helligkeit und der Position des Objektes, vor allem aber die
Spur des beweglichen Objektes, d. h. die zurückgelegte Strecke L sowie die Länge l und
die Richtung bzw. Orientierung des Objektes, wie in Fig. 4 dargestellt. Das
"unveränderte Gelände" ist wie bei der Überlagerung bzw. Addition eines Negativs mit
dem zugehörigen Positiv verschwunden.
So kann beispielsweise Fig. 4 ein Differenzsignal darstellen, das von der Bewegung
eines vergleichsweise ausgedehnten Objektes mit Hilfe eines CCD-Photodetektors
aufgenommen wurde. Die Signalform hängt in eindeutiger Weise von den Parametern
des optischen Systems sowie von der Größe und Bewegung des Objektes ab. Zur
Signalauswertung kann man die Tatsache verwenden, daß der Signalanstieg im linken
Bildbereich der Bewegung des Objektes aus den zugeordneten Einzelzellen heraus
entspricht während der Signalabfall im rechten Bildbereich der Bewegung des Objekts in
die zugeordneten Einzelzellen entspricht. Für vergleichsweise kleine Objekte liegen die
entsprechenden Signalanteile jedoch in nur wenigen Pixelelementen und die Position des
Objektes kann ohne weiters abgeleitet werden.
Bei der Echtzeitverarbeitung dieses Differenzsignals bleiben nur die Signaturen der
neuen Objekte bzw. der sich ändernden Bildelemente erhalten, die in "Logikmarken"
umgewandelt werden, wie in Fig. 5 dargestellt.
Sobald also die einzelnen Photosensoren ein Objekt in einem Feld erfaßt haben, werden
von den beiden optischen Systemen 2 und 3 zu verschiedenen Zeitpunkten t₁, t₂ usw.
"Logikmarken" an den Rechner übermittelt. Dabei wird der Rang bzw. die Nummer
(dem Wert des Taktzählers entsprechend) jedes Photosensors des ersten Fächers als
Adreßhalbwort ni für die Tabelle der realen Koordinaten verwendet. Der zweite Fächer
liefert die entsprechenden Adreßhalbworte ni′. Die Raumposition des gesamten
beweglichen Objektes kann dann ohne weitere Berechnungen der Ergebnistabelle 10
entnommen bzw. aus dieser ausgelesen werden. So kann vorteilhafterweise in Echtzeit
gearbeitet werden, wobei die Entsprechungen zwischen den Zellen und den XY-
Koordinaten bezogen, auf einen Festpunkt des Beobachtungsstandortes, verwendet
angegeben werden. Diese Koordinaten werden anschließend an die Entscheidungseinheit
weitergeleitet.
Die Z-Koordinate ist nicht genau festgelegt. Bekannt ist die Richtung, d. h. die Position
des beweglichen Objektes in einer sich vertikal erstreckenden Ebene (Erfassungssektor),
die je nach verwendeter Optik mehr oder weniger stark eingeengt ist.
Bei einer anderen bevorzugten Ausführungsform entspricht die Ortungsvorrichtung der
vorstehend beschriebenen Ausführungsform, mit dem Unterschied, daß die einzelnen
Photosensoren der Detektoren die Form von dreieckigen Pixels haben, vorzugsweise von
gleichschenkligen Dreiecken, wie in Fig. 6 dargestellt. Ist dieses Merkmal erfüllt, kann
die Z-Koordinate, d. h. die Höhe des beweglichen Objektes, genau ermittelt werden.
Vorteilhafterweise haben die Photosensoren die Form von gleichschenkligen Dreiecken
und sind abwechselnd mit der Spitze bzw. der Grundseite in dieselbe Richtung weisend
angeordnet. Dabei sitzen alle geradzahligen Sensoren (p) - diese weisen mit der Spitze
nach unten und sind alle an dieselbe Leitung angeschlossen - sowie alle ungeradzahligen
Sensoren (i) - diese weisen mit der Spitze nach oben und sind alle an eine zweite
Leitung angeschlossen - in einer Zeile. Eine derartige Sensorform (mit entsprechender
Pixelform) hat den Vorteil, daß die zugehörige Funktion linear ist, insbesondere die
Abhängigkeit der Signalamplitude der geradzahligen bzw. ungeradzahligen Sensoren von
der Objekthöhe. Demzufolge kann die lineare Abhängigkeit der geradzahligen und der
ungeradzahligen Sensoren wie in Fig. 7 dargestellt werden, wobei die Summe der
beiden Signale konstant ist.
Nach dem vorstehend beschriebenen Verfahren kann anhand der Fächerscharen der
beiden optischen Systeme die Entfernung des beweglichen Objektes und die maximale
Höhe des Erfassungssektors, in dem sich das Objekt befindet, ermittelt werden. Der
Rang bzw. die Nummer des Pixels des ersten Fächers zum Zeitpunkt t₁ dient als
Adreßhalbwort zum Lesen eines Speichers, und der Rang bzw. die Nummer des Pixels
des zweiten Fächers bildet das entsprechende zweite Adreßhalbwort: Unter dieser
Adresse findet man die X- und die Y-Koordinate. Anhand der X-Koordinate läßt sich in
einer Ergebnistabelle die entsprechende maximale Höhe Zmax des Erfassungssektors
direkt ablesen, die ja insbesondere durch die Brennweite und Auslegung des optischen
Systems sowie durch die x-Koordinate festgelegt ist. Die Antwort steht innerhalb von
etwa 20 ns nach der Abfrage zur Verfügung.
Die auf diese Weise ermittelten Werte für X, Y und Zmax werden gespeichert, damit der
Rechner die Z-Koordinate anhand der folgenden Gleichung errechnen kann:
Z/Zmax = A/(A+B)
wobei A die Signalamplitude am Ausgang des geradzahligen Sensors darstellt und
B die Signalamplitude am Ausgang des ungeradzahligen Sensors.
Wird z. B. das Bild eines beweglichen Objektes, das sich in der Nähe von Zmax befindet,
auf diese Ortungsvorrichtung projiziert, so ist die Signalamplitude A am Ausgang der
geradzahligen Sensoren klein und die Signalamplitude B am Ausgang der
ungeradzahligen Sensoren groß. Umgekehrt, wenn sich das Objekt in sehr niedriger
Höhe befindet, so ist die Signalamplitude A am Ausgang der geradzahligen Sensoren
groß und die Signalamplitude B am Ausgang der ungeradzahligen Sensoren klein. Liegt
die Position des beweglichen Objektes etwa auf halber Höhe von Zmax, so haben die
Signale dieselbe Amplitude (A = B).
Die Ergebnistabelle 10 wurde vollständig in einen Speicher eingelesen. In ihr sind die
Brennweite, die Abmessungen der beiden Fächer und der Abstand zwischen den beiden
optischen Systemen 2 und 3 berücksichtigt.
Bei dem von dreieckigen Sektoren aufgespanntem Fächer liegt das Erfassungssignal
zwischen den beiden Werten A und B.
Bei einer anderen in Fig. 8 dargestellten Ausführungsform des Detektors können die
einzelnen Photosensoren eine Rechteckform aufweisen, wobei alle geradzahligen
Rechtecke (Pp) ebenso miteinander fluchten wie alle ungeradzahligen Rechtecke (Pi). Die
ungeradzahligen Sensoren sind aber gegenüber den geradzahligen Sensoren versetzt
angeordnet. Bei einer derartigen Form der Sensoren können drei Zonen gegeneinander
abgegrenzt werden: eine obere, eine untere und eine mittlere Zone. Die Funktionsweise
ist dieselbe wie bei der vorstehend beschriebenen Ausführungsform. In diesem Fall wird
die Position eines beweglichen Objektes in einer der drei Zonen ermittelt.
Es sei darauf hingewiesen, daß die erfindungsgemäße Vorrichtung ebensogut im Bereich
des sichtbaren Lichts wie im Infrarotbereich arbeitet.
Selbstverständlich kann die Ortungsvorrichtung auch nur ein einziges optisches System
umfassen, ohne daß dies über den Rahmen der vorliegenden Erfindung hinausgehen
würde. Bei dieser Ausführungsform werden dann entweder rechteckige Einzelsensoren
(mit den entsprechenden Pixeln) verwendet, mit denen lediglich ein bewegliches Objekt
in einem Erfassungssektor erfaßt werden kann, ohne daß die genauen Koordinaten
ermittelt werden können, oder dreieckige Einzelsensoren, mit denen das Objekt in einem
Erfassungssektor erfaßt und seine Z-Koordinate ermittelt werden kann. Diese
Ausführungsform kann beispielsweise für die Ortung eines Objektes auf einem
Förderband von Vorteil sein.
Claims (9)
1. Vorrichtung zur Ortung von beweglichen Objekten, die mindestens ein optisches
System umfaßt, dessen Aufnahmeachse bzw. optische Achse zusammen mit einer
dazu senkrechten Ebene, in der sich ein Photodetektor (4, 4′) befindet, ein
Bezugssystem bildet, dadurch gekennzeichnet, daß der Photodetektor (4, 4′)
Photosensoren umfaßt, die paarweise und in Zeilen bzw. versetzt angeordnet sind,
wobei die einzelnen Sensoren alternierend an einen geradzahligen bzw.
ungeradzahligen Ausgang angeschlossen sind und Ausgänge mit einer Sensorsteuer-
und Verarbeitungseinheit (5) so verbunden sind, daß die von den Photosensoren
empfangenen Signale durch Bildsubtraktion verarbeitet werden.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die von der Sensorsteuer-
und Verarbeitungseinheit (5) aufbereiteten Daten an einen Rechner (6) übermittelt
werden und daß die übermittelten Daten Adreßhalbworte festlegen, dergestalt daß der
Rechner (6) die Position des Objektes (1) aus einer Ergebnistabelle (10) mit
vorausberechneten Werten entnehmen kann.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als optische
Sensoren ladungsgekoppelte Elemente (CCD) verwendet werden.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß sie zwei
optische Systeme umfaßt, deren jeweils ein Photodetektor zugeordnet ist.
5. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß
die Photosensoren die Form von Dreiecken haben, die in wechselnder Lage so
angeordnet sind, daß aus dem Amplitudenverhältnis der von den
geradzahligen/ungeradzahligen Sensoren abgegebenen Signale die geometrische
Position des Objektes bezüglich des mit dem optischen System fest verbundenen
Bezugssystems ermittelt werden kann.
6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die
optischen Sensoren die Form von gleichschenkligen Dreiecken haben, die
abwechselnd mit der Spitze bzw. der Grundseite in ein und dieselbe Richtung weisen.
7. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die
Photosensoren die Form von langgestreckten Rechtecken haben.
8. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die
optischen Sensoren die Form von Rechtecken haben, wobei alle geradzahligen
Rechtecke (Pp) ebenso miteinander fluchten wie alle ungeradzahligen Rechtecke (Pi)
und die ungeradzahligen Sensoren gegenüber den geradzahligen Sensoren versetzt
angeordnet sind.
9. Vorrichtung nach einem der vorigen Ansprüche, dadurch gekennzeichnet, daß der
Rechner (6) mit einer Entscheidungseinheit (8) verbunden ist.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR9604229A FR2747199B1 (fr) | 1996-04-04 | 1996-04-04 | Dispositif pour la localisation d'un objet mobile |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19713945A1 true DE19713945A1 (de) | 1997-10-30 |
Family
ID=9490901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE1997113945 Ceased DE19713945A1 (de) | 1996-04-04 | 1997-04-04 | Vorrichtung zur Ortung von beweglichen Objekten |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE19713945A1 (de) |
FR (1) | FR2747199B1 (de) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10306417A1 (de) * | 2002-09-23 | 2004-04-15 | Stefan Reich | Verfahren und Vorrichtung zur optischen Abtastung |
DE10313194A1 (de) * | 2003-03-25 | 2004-10-21 | Leuze Lumiflex Gmbh + Co. Kg | Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objekten mittels eines optischen Sensors |
US7400950B2 (en) | 2002-09-23 | 2008-07-15 | Stefan Reich | Optical sensing system and system for stabilizing machine-controllable vehicles |
CN100485418C (zh) * | 2006-12-21 | 2009-05-06 | 哈尔滨工业大学 | 机器人的三角形阵列红外传感器 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2794246B1 (fr) * | 1999-05-31 | 2001-08-10 | Saint Louis Inst | Dispositif apte a determiner la position d'un objet dans un repere oxz |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3642196A1 (de) * | 1986-12-10 | 1988-06-23 | Mel Mikro Elektronik Gmbh | Optoelektronische kollisionsschutzvorrichtung fuer fahrzeuge |
KR930006386B1 (ko) * | 1988-08-08 | 1993-07-14 | 휴우즈 에어크라프트 캄파니 | 이동 목표물을 분절하여 검출하는 방법 및 검출장치 |
DE4137068A1 (de) * | 1991-11-12 | 1993-06-17 | Mel Mikroelektronik Gmbh | Integrierter optischer vielfach abstandssensor |
CA2148231C (en) * | 1993-01-29 | 1999-01-12 | Michael Haysom Bianchi | Automatic tracking camera control system |
-
1996
- 1996-04-04 FR FR9604229A patent/FR2747199B1/fr not_active Expired - Fee Related
-
1997
- 1997-04-04 DE DE1997113945 patent/DE19713945A1/de not_active Ceased
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10306417A1 (de) * | 2002-09-23 | 2004-04-15 | Stefan Reich | Verfahren und Vorrichtung zur optischen Abtastung |
DE10306417B4 (de) * | 2002-09-23 | 2004-07-22 | Stefan Reich | Verfahren und Vorrichtung zur optischen Abtastung |
US7400950B2 (en) | 2002-09-23 | 2008-07-15 | Stefan Reich | Optical sensing system and system for stabilizing machine-controllable vehicles |
DE10313194A1 (de) * | 2003-03-25 | 2004-10-21 | Leuze Lumiflex Gmbh + Co. Kg | Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objekten mittels eines optischen Sensors |
DE10313194B4 (de) * | 2003-03-25 | 2006-07-20 | Leuze Lumiflex Gmbh + Co. Kg | Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objekten mittels eines optischen Sensors |
CN100485418C (zh) * | 2006-12-21 | 2009-05-06 | 哈尔滨工业大学 | 机器人的三角形阵列红外传感器 |
Also Published As
Publication number | Publication date |
---|---|
FR2747199B1 (fr) | 1998-06-12 |
FR2747199A1 (fr) | 1997-10-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009005861B4 (de) | Fahrzeugumgebungs-Erkennungssystem | |
DE60037360T2 (de) | Verfahren und Vorrichtung zur Geschwindigkeitsmessung von Fahrzeugen mit ein Bildverarbeitungssystem | |
DE10026586B4 (de) | Objekterfassungssystem | |
DE102008030555B4 (de) | Vorrichtung zur Verarbeitung von Stereobildern | |
DE4308776C2 (de) | Einrichtung zum Überwachen des Außenraums eines Fahrzeugs | |
DE102008053472B4 (de) | Objekt-Erfassungssystem | |
EP1267178B1 (de) | Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes | |
EP0792555B1 (de) | Vorrichtung und verfahren zur detektion und demodulation eines intensitätsmodulierten strahlungsfeldes | |
EP2854106B1 (de) | 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten | |
DE102010062496B4 (de) | Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems | |
DE4130010C2 (de) | Vorrichtung zur laufenden Beobachtung eines Fahrzeuges und zur Messung seines Abstandes | |
DE4410406A1 (de) | Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs | |
EP3663963B1 (de) | Lesen von optischen codes | |
EP3479141B1 (de) | Verfahren zum betrieb eines laserentfernungsmessgeräts | |
DE3417666A1 (de) | Bilderzeuger | |
EP1460454B1 (de) | Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern | |
DE69407188T2 (de) | Verfahren und gerät zur kalibrierung eines dreidimensionalen raumes für anwendung in maschinenvision | |
DE102010025953B4 (de) | Positionsmessvorrichtung und -verfahren | |
DE69825525T2 (de) | Vorrichtung zur Erstellung eines Bildes sowie Verfahren und Vorrichtung zur Entfernungsmessung | |
DE10154861A1 (de) | Verfahren zur Bereitstellung von Bildinformationen | |
EP3813355A1 (de) | Kamera zur erfassung eines objektstroms und verfahren zur bestimmung der höhe von objekten | |
DE69211925T2 (de) | Entfernungsmesser für Abstand zwischen Fahrzeugen mit Nachführung des vorausfahrenden Fahrzeugs | |
WO2015197641A1 (de) | Bestimmung mindestens eines merkmals eines fahrzeugs | |
DE19713945A1 (de) | Vorrichtung zur Ortung von beweglichen Objekten | |
DE10248416B4 (de) | Vorrichtung und Verfahren zur Bestimmung einer Relativbewegung eines Fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8131 | Rejection |