[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

DE19713945A1 - Vorrichtung zur Ortung von beweglichen Objekten - Google Patents

Vorrichtung zur Ortung von beweglichen Objekten

Info

Publication number
DE19713945A1
DE19713945A1 DE1997113945 DE19713945A DE19713945A1 DE 19713945 A1 DE19713945 A1 DE 19713945A1 DE 1997113945 DE1997113945 DE 1997113945 DE 19713945 A DE19713945 A DE 19713945A DE 19713945 A1 DE19713945 A1 DE 19713945A1
Authority
DE
Germany
Prior art keywords
numbered
sensors
photosensors
odd
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE1997113945
Other languages
English (en)
Inventor
Christian Dr Baras
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institut Franco Allemand de Recherches de Saint Louis ISL
Original Assignee
Institut Franco Allemand de Recherches de Saint Louis ISL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institut Franco Allemand de Recherches de Saint Louis ISL filed Critical Institut Franco Allemand de Recherches de Saint Louis ISL
Publication of DE19713945A1 publication Critical patent/DE19713945A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/783Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems
    • G01S3/784Systems for determining direction or deviation from predetermined direction using amplitude comparison of signals derived from static detectors or detector systems using a mosaic of detectors

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

Die vorliegende Erfindung betrifft eine Vorrichtung zur Ortung bzw. Ortserfassung von beweglichen Objekten in Echtzeit, bezogen auf ein räumliches Bezugssystem.
Aus der Patentschrift FR-A-2 583 523 ist ein System zur Ortung von beweglichen Objekten bezüglich einer Achse (nachfolgend auch x-Achse genannt) bekannt. Dieses System umfaßt einen ortsfesten Photodetektor und einen optischen Sender. Der Detektor ist mit einer Optik verbunden, welche die Umgebung der besagten Achse überwacht, wo mit einer Bewegung des Objektes gerechnet wird, während der optische Sender mit dem beweglichen Objekt verbunden ist und Lichtblitze- bzw. Lichtsignale erzeugt. Das System zeichnet sich dadurch aus, daß
  • - der Photodetektor zum einen eine ortsfeste Matrix mit steuerbaren Photoelementen und zum anderen elektronische Mittel zur Steuerung der Photoelemente umfaßt, und daß
  • - Synchronisierungsmittel vorgesehen sind um sicherzustellen, daß die elektronischen Steuermittel Steuerimpulse abgeben, welche die Aufnahme von Bildern auslösen bzw. triggern, die synchron mit den Lichtblitzen erfolgt.
So wird die jeweilige Position des beweglichen Objektes bezüglich der Achse (x-Achse) durch die Position des einen oder der mehreren Photoelemente der Matrix festgelegt, das bzw. die durch die Abbildung der Lichtblitze angeregt bzw. ausgeleuchtet wurden.
Ein derartiges herkömmliches Ortungssystem hat also den Nachteil, daß das bewegliche Objekt mit einem Sender versehen werden muß, damit es von den Photoelementen der Matrix geortet werden kann, und daß mit einem solchen System die Koordinate bzw. der Standort auf der x-Achse nicht ermittelt werden kann.
Um die Position in einer orthogonalen und insbesondere vertikalen Richtung (z-Achse) zu bestimmen, muß ferner eine zeilenweise Berechnung durchgeführt werden, was den Betrieb in Echtzeit unmöglich macht.
Aufgabe der vorliegenden Erfindung ist es, eine passive Vorrichtung vorzuschlagen, mit der die Koordinaten eines beweglichen Objektes in Echtzeit ermittelt werden können und die nicht die Nachteile der bekannten Vorrichtung aufweist.
Eine erfindungsgemäße Vorrichtung zur Ortung von beweglichen Objekten umfaßt zu diesem Zweck mindestens ein ortsfestes optisches System, dessen Aufnahmeachse zusammen mit einer dazu senkrechten Ebene, in der sich ein Photodetektor befindet, ein Bezugssystem festlegt. Die Vorrichtung ist dadurch gekennzeichnet, daß der Photodetektor, die paarweise und in Zeilen bzw. versetzt angeordnet sind, Photosensoren umfaßt, wobei die einzelnen Sensoren alternierend an einen geradzahligen bzw. ungeradzahligen Ausgang angeschlossen sind, und die Ausgänge mit der Steuer- und Verarbeitungseinheit für die Sensoren so verbunden sind, daß die von den Photosensoren empfangenen Signale durch Bildsubtraktion weiterverarbeitet werden.
Gemäß einem Merkmal der Erfindung legen die an den Rechner übermittelten Daten Adreßhalbworte fest, so daß der Rechner die jeweilige Position des beweglichen Objektes aus einer Tabelle mit vorausberechneten Werten auslesen kann.
Gemäß einem weiteren Merkmal der Erfindung arbeiten die Photosensoren nach dem Prinzip der Ladungsverschiebung. Vorzugsweise werden als Photoelemente solche ladungsgekoppelten Elemente verwendet, die allgemein als CCD (Charge-Coupled De­ vices) bezeichnet werden und deren getaktetes und ortsaufgelöstes Ausgangssignal sich besonders gut zur numerischen Verarbeitung eignet.
Gemäß einem weiteren Merkmal der Erfindung haben die optischen Sensoren die Form eines Dreiecks und sind in wechselnder Lage so angeordnet, daß aus dem Am­ plitudenverhältnis der von den geradzahligen/ungeradzahligen Sensoren abgegebenen Signale die geometrische Position des Objektes bezüglich des mit dem optischen System fest verbundenen Bezugssystem ermittelt werden kann.
Die Photosensoren haben vorzugsweise die Form von gleichschenkligen Dreiecken, die abwechselnd mit der Spitze bzw. der Grundseite in ein und dieselbe Richtung weisen.
Gemäß einem weiteren Merkmal der Erfindung umfaßt die Vorrichtung zwei optische Systeme, von denen je eines einem Photodetektor zugeordnet ist.
Gemäß einem weiteren Merkmal der Erfindung haben die Photosensoren die Form von langgestreckten Rechtecken, die nebeneinander bzw. versetzt angeordnet sind.
Gemäß einem weiteren Merkmal der Erfindung haben die optischen Sensoren die Form von Rechtecken, wobei alle geradzahligen Rechtecke ebenso miteinander fluchten wie alle ungeradzahligen Sensoren, wobei allerdings die ungeradzahligen Sensoren gegenüber den geradzahligen Rechtecke versetzt angeordnet sind.
Die nachfolgende Beschreibung von Ausführungsbeispielen mit den zugehörigen Figuren soll zum besseren Verständnis der vorstehend dargelegten Merkmale der Erfindung sowie weiterer Merkmale dienen.
Fig. 1 zeigt eine schematische Darstellung der erfindungsgemäßen Vorrichtung zur Ortsbestimmung.
Fig. 2 zeigt die erfindungsgemäßen Erfassungssektoren.
Fig. 3 zeigt in schematischer Darstellung das Gitternetz des durch die erfindungsgemäße Ortungsvorrichtung überwachten Raumes.
Fig. 4 zeigt in schematischer Darstellung ein von den Photosensoren abgeleitetes Videosignal nach der Subtraktion.
Fig. 5 zeigt in schematischer Darstellung die Verarbeitung des Erfassungssignals.
Fig. 6 zeigt eine schematische Darstellung der Photosensoren gemäß einer bevorzugten Ausführungsform.
Fig. 7 zeigt in graphischer Darstellung die lineare Abhängigkeit bzw. Funktion der Photosensoren aus Fig. 6.
Fig. 8 zeigt eine schematische Darstellung der Photosensoren gemäß einer anderen Ausführungsform.
Die in Fig. 1 dargestellte erfindungsgemäße Vorrichtung zur Ortung eines beweglichen Objektes 1 besteht im wesentlichen aus zwei ortsfest angeordneten optischen Systemen 2 und 3, die jeweils einem Photodetektor 4 bzw. 4′ zugeordnet sind, aus einer Steuer- und Verarbeitungseinheit 5 für die Sensoren, einem Rechner 6, einer Steuereinheit 7 sowie einer Entscheidungseinheit 8.
Mit einer derartigen Vorrichtung kann ein bewegliches Objekt 1 erfaßt und dessen Koordinaten in Echtzeit ermittelt werden. Als Bezug dient dabei ein Bezugs- bzw. Ko­ ordinatensystem, das durch die optische Aufnahmeachse zusammen mit einer hierzu senkrechten Ebene, in der sich der Photodetektor befindet, festgelegt wird.
Dabei wird die optische Aufnahmeachse z. B. durch die optische Achse eines optischen Systems vorgegeben, falls nur ein solches System verwendet wird, oder durch die Symmetrieachse von zwei optischen Systemen, falls zwei solche Systeme verwendet werden.
Es ist zu beachten, daß die beiden optischen Systeme und insbesondere die Detektoren synchron arbeiten müssen und daß die Brennweite der Objektive auf die Abmessungen des beweglichen Objektes und die maximale Erfassungsentfernung abgestimmt sein muß.
Auch muß der Zeitbedarf für die Integration der Lichtenergie durch die ladungs­ gekoppelten Photosensoren (CCD-Sensoren) auf die Geschwindigkeit des beweglichen Objekts abgestimmt sein.
Gemäß einer ersten Ausführungsform umfaßt der Photodetektor 4 bzw. 4′ eine elektronische Schaltung, die mit einem Quarzfenster versehen ist, hinter dem die Photosensoren in Form von langgestreckten Rechtecken angeordnet sind. Die Sensoren sind in einem Streifen angeordnet d. h. in Zeilen wobei die einzelnen Sensoren alternierend an einen geradzahligen und an einen ungeradzahligen Ausgang angeschlossen sind. Dabei ist es zweckmäßig, daß die Zeilen horizontal ausgerichtet sind.
Die Detektoren 4 bzw. 4′ befinden sich hinter dem optischen System 2 bzw. 3. Jedem der beiden optischen Systeme 2 und 3 ist somit eine Geländedarstellung zugeordnet, die durch eine Schar bzw. einen Fächer von Winkelsektoren (nachfolgend Erfassungssektoren genannt; Fig. 2) aufgespannt wird.
Jeder Erfassungssektor entspricht einem dieser Photosensoren bzw. wird auf ein Paar aus Einzelsensoren abgebildet. Auf diese Weise erhält man eine bestimmte Höhe Zmax (Fig. 2), die vom verwendeten optischen System und insbesondere von dessen Brennweite abhängt und proportional zum Abstand d zwischen dem optischen System und dem Objekt ist. Die Gesamtheit der Erfassungssektoren eines optischen Systems bildet einen Fächer aus bzw. überspannt fächerartig das Gesichtsfeld der Vorrichtung.
Bei den verwendeten Photodetektoren sitzen die Mittel zur elektronischen Si­ gnalverarbeitung aus Platzersparnisgründen zu beiden Seiten der einzelnen Photosensoren. Die Signale der geradzahligen Sensoren werden auf der einen Seite verarbeitet und die Signale der ungeradzahligen Sensoren auf der anderen Seite. Es gibt zwei Ausgänge p und i, die auch als Meßwege bezeichnet werden, nämlich einen gerad­ zahligen Ausgang p und einen ungeradzahligen Ausgang i. Mit einer dem Fachmann wohlbekannten Elektronik können die beiden Ausgänge auf eine gemeinsame Leitung oder auf zwei getrennte Leitungen geschaltet werden.
Die beiden Meßwege werden dann in der gemeinsamen Sensorüberwachungseinheit 5 aufbereitet, um die Steuerung des gesamten Funktionsablaufs, die Parallelverarbeitung der Signale, ihre Überführung in den Schreib-/Lesespeicher sowie auch die Bildsubtraktion zu ermöglichen, wodurch die von den ortsfesten bzw. unbeweglichen Teilen des überwachten Geländes stammenden elektrischen Signale eliminiert werden.
Es ist zu beachten, daß die Sensorsteuer- und Verarbeitungseinheit 5 für jedes optische System einen eigenen Bildsubtrahierer enthält.
Anschließend werden die Daten von der Steuer- und Verarbeitungseinheit über eine Schnittstelle 9 an den Rechner 6 übermittelt, der dann die Erfassungssignale auswertet und die Koordinaten des beweglichen Objektes errechnet.
Die errechneten Koordinaten werden an die Entscheidungseinheit 8 übermittelt.
Es sei angemerkt, daß die Entscheidungseinheit 8 aus einem Bildschirm bestehen kann, auf dem die Informationen über das bewegliche Objekt für einen Bediener dargestellt werden. Es kann aber auch sein, daß die Entscheidungseinheit automatisch bei Annäherung des beweglichen Objektes eine Maßnahme einleitet.
Die Steuereinheit 7 der Ortungsvorrichtung ist zur Gewährleistung der Synchronisierung der optischen Systeme 2 und 3 und insbesondere Synchronisierung der Photosensoren an den Rechner 6 und die Sensorüberwachungseinheit 5 angeschlossen.
Vorteilhafterweise werden als Photosensoren ladungsgekoppelte Elemente, sogenannte CCD-Sensoren, verwendet, deren getaktetes und ortsaufgelöstes Ausgangssignal sich be­ sonders gut für eine numerische Verarbeitung eignet.
Die derzeit verwendeten CCD-Sensoren bestehen aus Streifen mit 512 Photodioden im Format 12 × 2500 µm², die in parallelen Zeilen und mit 12 µm Abstand angeordnet sind. Ihre Anordnung quer zu dem optischen Aufnahmesystem und insbesondere entlang der y-Achse legt eine Gesamtheit bzw. einen Fächer mit 512 aneinandergrenzenden Erfassungssektoren fest.
Gemeinsam bilden die beiden optischen Systeme 2 und 3, deren optische Achsen sich in einem im voraus festgelegten Punkt schneiden auf diese Weise ein Gitternetz aus, welches das gemeinsame Gesichtsfeld überdeckt, wie in Bild 3 dargestellt. Die Gesamtvorrichtung erbringt somit eine Darstellung des Raumes in einzelnen Zellen bzw. eine eindeutige Abbildung des Gesichtsfeldes auf einzelne Zellen, deren reale Koordinaten im voraus errechnet werden können.
Jede Einzelzelle, die durch die Überschneidung der beiden von überwachten Erfassungssektoren aufgespannten Fächern entsteht, kann individuell bzw. eindeutig identifiziert werden anhand des Ranges bzw. der Nummer, den die beiden die Zelle bildenden Photosensoren in dem zugehörigen Fächer einnehmen. Somit ist jeder Einzelzelle ein Photosensor-Paar von jedem Photodetektor zugeordnet.
Das bewegliche Objekt wird anhand seiner Ortsveränderung nachgewiesen.
Für jede Zelle können die realen (Raum-) Koordinaten in einem ortsfest mit dem Beobachtungsstandort verbundenen Bezugssystem im voraus berechnet und in eine Ergebnistabelle eingegeben werden. Diese Tabelle wird im Rechner gespeichert.
Im folgenden wird nun die Funktionsweise der Vorrichtung erläutert.
Die Erfassung des beweglichen Objektes erfolgt durch Bildsubtraktion.
Bilder ein und desselben Geländes, die man von zwei voneinander entfernt liegenden Beobachtungsstandorten aus aufnimmt, sind nicht identisch. Aus den Bildunterschieden läßt sich die Entfernung der im Gesichtsfeld befindlichen sichtbaren Objekte ableiten. Hierbei wird der stereoskopische Effekt genutzt. Wird andererseits von nur einem Beobachtungsstandort aus ein Bild mit positivem Bildamplituden und ein Bild mit negativen Bildamplituden von demselben Gelände aufgenommen und überlagert bzw. addiert, so verschwinden sämtliche Bildpunkte dieser beiden Bilder. Es wurde nach diesem Prinzip eine Bildsubtraktion durchgeführt, wobei alles, was zwischen den beiden Aufnahmezeitpunkten konstant geblieben ist, verschwindet während Signalanteile des beweglichen Objekts an seiner Ausgangsposition (mit positiver Bildamplitude) und an seiner Endposition (mit negativer Bildamplitude) erkennbar sind.
Ein zum Zeitpunkt to aufgenommenes bzw. aufintegriertes Bild io wird in einer Verzögerungsleitung oder einem Digitalspeicher gespeichert. Zum Zeitpunkt to+dt wird ein weiteres Bild i₁ aufgenommen bzw. aufintegriert, das sich im Prinzip nur wenig vom Bild io unterscheidet, und Punkt für Punkt von io subtrahiert.
Das so erhaltene Differenzsignal enthält folgendes: das Eigenrauschen für jedes Bild, die örtlichen Variationen in der Helligkeit und der Position des Objektes, vor allem aber die Spur des beweglichen Objektes, d. h. die zurückgelegte Strecke L sowie die Länge l und die Richtung bzw. Orientierung des Objektes, wie in Fig. 4 dargestellt. Das "unveränderte Gelände" ist wie bei der Überlagerung bzw. Addition eines Negativs mit dem zugehörigen Positiv verschwunden.
So kann beispielsweise Fig. 4 ein Differenzsignal darstellen, das von der Bewegung eines vergleichsweise ausgedehnten Objektes mit Hilfe eines CCD-Photodetektors aufgenommen wurde. Die Signalform hängt in eindeutiger Weise von den Parametern des optischen Systems sowie von der Größe und Bewegung des Objektes ab. Zur Signalauswertung kann man die Tatsache verwenden, daß der Signalanstieg im linken Bildbereich der Bewegung des Objektes aus den zugeordneten Einzelzellen heraus entspricht während der Signalabfall im rechten Bildbereich der Bewegung des Objekts in die zugeordneten Einzelzellen entspricht. Für vergleichsweise kleine Objekte liegen die entsprechenden Signalanteile jedoch in nur wenigen Pixelelementen und die Position des Objektes kann ohne weiters abgeleitet werden.
Bei der Echtzeitverarbeitung dieses Differenzsignals bleiben nur die Signaturen der neuen Objekte bzw. der sich ändernden Bildelemente erhalten, die in "Logikmarken" umgewandelt werden, wie in Fig. 5 dargestellt.
Sobald also die einzelnen Photosensoren ein Objekt in einem Feld erfaßt haben, werden von den beiden optischen Systemen 2 und 3 zu verschiedenen Zeitpunkten t₁, t₂ usw. "Logikmarken" an den Rechner übermittelt. Dabei wird der Rang bzw. die Nummer (dem Wert des Taktzählers entsprechend) jedes Photosensors des ersten Fächers als Adreßhalbwort ni für die Tabelle der realen Koordinaten verwendet. Der zweite Fächer liefert die entsprechenden Adreßhalbworte ni′. Die Raumposition des gesamten beweglichen Objektes kann dann ohne weitere Berechnungen der Ergebnistabelle 10 entnommen bzw. aus dieser ausgelesen werden. So kann vorteilhafterweise in Echtzeit gearbeitet werden, wobei die Entsprechungen zwischen den Zellen und den XY- Koordinaten bezogen, auf einen Festpunkt des Beobachtungsstandortes, verwendet angegeben werden. Diese Koordinaten werden anschließend an die Entscheidungseinheit weitergeleitet.
Die Z-Koordinate ist nicht genau festgelegt. Bekannt ist die Richtung, d. h. die Position des beweglichen Objektes in einer sich vertikal erstreckenden Ebene (Erfassungssektor), die je nach verwendeter Optik mehr oder weniger stark eingeengt ist.
Bei einer anderen bevorzugten Ausführungsform entspricht die Ortungsvorrichtung der vorstehend beschriebenen Ausführungsform, mit dem Unterschied, daß die einzelnen Photosensoren der Detektoren die Form von dreieckigen Pixels haben, vorzugsweise von gleichschenkligen Dreiecken, wie in Fig. 6 dargestellt. Ist dieses Merkmal erfüllt, kann die Z-Koordinate, d. h. die Höhe des beweglichen Objektes, genau ermittelt werden. Vorteilhafterweise haben die Photosensoren die Form von gleichschenkligen Dreiecken und sind abwechselnd mit der Spitze bzw. der Grundseite in dieselbe Richtung weisend angeordnet. Dabei sitzen alle geradzahligen Sensoren (p) - diese weisen mit der Spitze nach unten und sind alle an dieselbe Leitung angeschlossen - sowie alle ungeradzahligen Sensoren (i) - diese weisen mit der Spitze nach oben und sind alle an eine zweite Leitung angeschlossen - in einer Zeile. Eine derartige Sensorform (mit entsprechender Pixelform) hat den Vorteil, daß die zugehörige Funktion linear ist, insbesondere die Abhängigkeit der Signalamplitude der geradzahligen bzw. ungeradzahligen Sensoren von der Objekthöhe. Demzufolge kann die lineare Abhängigkeit der geradzahligen und der ungeradzahligen Sensoren wie in Fig. 7 dargestellt werden, wobei die Summe der beiden Signale konstant ist.
Nach dem vorstehend beschriebenen Verfahren kann anhand der Fächerscharen der beiden optischen Systeme die Entfernung des beweglichen Objektes und die maximale Höhe des Erfassungssektors, in dem sich das Objekt befindet, ermittelt werden. Der Rang bzw. die Nummer des Pixels des ersten Fächers zum Zeitpunkt t₁ dient als Adreßhalbwort zum Lesen eines Speichers, und der Rang bzw. die Nummer des Pixels des zweiten Fächers bildet das entsprechende zweite Adreßhalbwort: Unter dieser Adresse findet man die X- und die Y-Koordinate. Anhand der X-Koordinate läßt sich in einer Ergebnistabelle die entsprechende maximale Höhe Zmax des Erfassungssektors direkt ablesen, die ja insbesondere durch die Brennweite und Auslegung des optischen Systems sowie durch die x-Koordinate festgelegt ist. Die Antwort steht innerhalb von etwa 20 ns nach der Abfrage zur Verfügung.
Die auf diese Weise ermittelten Werte für X, Y und Zmax werden gespeichert, damit der Rechner die Z-Koordinate anhand der folgenden Gleichung errechnen kann:
Z/Zmax = A/(A+B)
wobei A die Signalamplitude am Ausgang des geradzahligen Sensors darstellt und B die Signalamplitude am Ausgang des ungeradzahligen Sensors.
Wird z. B. das Bild eines beweglichen Objektes, das sich in der Nähe von Zmax befindet, auf diese Ortungsvorrichtung projiziert, so ist die Signalamplitude A am Ausgang der geradzahligen Sensoren klein und die Signalamplitude B am Ausgang der ungeradzahligen Sensoren groß. Umgekehrt, wenn sich das Objekt in sehr niedriger Höhe befindet, so ist die Signalamplitude A am Ausgang der geradzahligen Sensoren groß und die Signalamplitude B am Ausgang der ungeradzahligen Sensoren klein. Liegt die Position des beweglichen Objektes etwa auf halber Höhe von Zmax, so haben die Signale dieselbe Amplitude (A = B).
Die Ergebnistabelle 10 wurde vollständig in einen Speicher eingelesen. In ihr sind die Brennweite, die Abmessungen der beiden Fächer und der Abstand zwischen den beiden optischen Systemen 2 und 3 berücksichtigt.
Bei dem von dreieckigen Sektoren aufgespanntem Fächer liegt das Erfassungssignal zwischen den beiden Werten A und B.
Bei einer anderen in Fig. 8 dargestellten Ausführungsform des Detektors können die einzelnen Photosensoren eine Rechteckform aufweisen, wobei alle geradzahligen Rechtecke (Pp) ebenso miteinander fluchten wie alle ungeradzahligen Rechtecke (Pi). Die ungeradzahligen Sensoren sind aber gegenüber den geradzahligen Sensoren versetzt angeordnet. Bei einer derartigen Form der Sensoren können drei Zonen gegeneinander abgegrenzt werden: eine obere, eine untere und eine mittlere Zone. Die Funktionsweise ist dieselbe wie bei der vorstehend beschriebenen Ausführungsform. In diesem Fall wird die Position eines beweglichen Objektes in einer der drei Zonen ermittelt.
Es sei darauf hingewiesen, daß die erfindungsgemäße Vorrichtung ebensogut im Bereich des sichtbaren Lichts wie im Infrarotbereich arbeitet.
Selbstverständlich kann die Ortungsvorrichtung auch nur ein einziges optisches System umfassen, ohne daß dies über den Rahmen der vorliegenden Erfindung hinausgehen würde. Bei dieser Ausführungsform werden dann entweder rechteckige Einzelsensoren (mit den entsprechenden Pixeln) verwendet, mit denen lediglich ein bewegliches Objekt in einem Erfassungssektor erfaßt werden kann, ohne daß die genauen Koordinaten ermittelt werden können, oder dreieckige Einzelsensoren, mit denen das Objekt in einem Erfassungssektor erfaßt und seine Z-Koordinate ermittelt werden kann. Diese Ausführungsform kann beispielsweise für die Ortung eines Objektes auf einem Förderband von Vorteil sein.

Claims (9)

1. Vorrichtung zur Ortung von beweglichen Objekten, die mindestens ein optisches System umfaßt, dessen Aufnahmeachse bzw. optische Achse zusammen mit einer dazu senkrechten Ebene, in der sich ein Photodetektor (4, 4′) befindet, ein Bezugssystem bildet, dadurch gekennzeichnet, daß der Photodetektor (4, 4′) Photosensoren umfaßt, die paarweise und in Zeilen bzw. versetzt angeordnet sind, wobei die einzelnen Sensoren alternierend an einen geradzahligen bzw. ungeradzahligen Ausgang angeschlossen sind und Ausgänge mit einer Sensorsteuer- und Verarbeitungseinheit (5) so verbunden sind, daß die von den Photosensoren empfangenen Signale durch Bildsubtraktion verarbeitet werden.
2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die von der Sensorsteuer- und Verarbeitungseinheit (5) aufbereiteten Daten an einen Rechner (6) übermittelt werden und daß die übermittelten Daten Adreßhalbworte festlegen, dergestalt daß der Rechner (6) die Position des Objektes (1) aus einer Ergebnistabelle (10) mit vorausberechneten Werten entnehmen kann.
3. Vorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß als optische Sensoren ladungsgekoppelte Elemente (CCD) verwendet werden.
4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß sie zwei optische Systeme umfaßt, deren jeweils ein Photodetektor zugeordnet ist.
5. Vorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß die Photosensoren die Form von Dreiecken haben, die in wechselnder Lage so angeordnet sind, daß aus dem Amplitudenverhältnis der von den geradzahligen/ungeradzahligen Sensoren abgegebenen Signale die geometrische Position des Objektes bezüglich des mit dem optischen System fest verbundenen Bezugssystems ermittelt werden kann.
6. Vorrichtung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die optischen Sensoren die Form von gleichschenkligen Dreiecken haben, die abwechselnd mit der Spitze bzw. der Grundseite in ein und dieselbe Richtung weisen.
7. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Photosensoren die Form von langgestreckten Rechtecken haben.
8. Vorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die optischen Sensoren die Form von Rechtecken haben, wobei alle geradzahligen Rechtecke (Pp) ebenso miteinander fluchten wie alle ungeradzahligen Rechtecke (Pi) und die ungeradzahligen Sensoren gegenüber den geradzahligen Sensoren versetzt angeordnet sind.
9. Vorrichtung nach einem der vorigen Ansprüche, dadurch gekennzeichnet, daß der Rechner (6) mit einer Entscheidungseinheit (8) verbunden ist.
DE1997113945 1996-04-04 1997-04-04 Vorrichtung zur Ortung von beweglichen Objekten Ceased DE19713945A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9604229A FR2747199B1 (fr) 1996-04-04 1996-04-04 Dispositif pour la localisation d'un objet mobile

Publications (1)

Publication Number Publication Date
DE19713945A1 true DE19713945A1 (de) 1997-10-30

Family

ID=9490901

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997113945 Ceased DE19713945A1 (de) 1996-04-04 1997-04-04 Vorrichtung zur Ortung von beweglichen Objekten

Country Status (2)

Country Link
DE (1) DE19713945A1 (de)
FR (1) FR2747199B1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10306417A1 (de) * 2002-09-23 2004-04-15 Stefan Reich Verfahren und Vorrichtung zur optischen Abtastung
DE10313194A1 (de) * 2003-03-25 2004-10-21 Leuze Lumiflex Gmbh + Co. Kg Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objekten mittels eines optischen Sensors
US7400950B2 (en) 2002-09-23 2008-07-15 Stefan Reich Optical sensing system and system for stabilizing machine-controllable vehicles
CN100485418C (zh) * 2006-12-21 2009-05-06 哈尔滨工业大学 机器人的三角形阵列红外传感器

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2794246B1 (fr) * 1999-05-31 2001-08-10 Saint Louis Inst Dispositif apte a determiner la position d'un objet dans un repere oxz

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3642196A1 (de) * 1986-12-10 1988-06-23 Mel Mikro Elektronik Gmbh Optoelektronische kollisionsschutzvorrichtung fuer fahrzeuge
KR930006386B1 (ko) * 1988-08-08 1993-07-14 휴우즈 에어크라프트 캄파니 이동 목표물을 분절하여 검출하는 방법 및 검출장치
DE4137068A1 (de) * 1991-11-12 1993-06-17 Mel Mikroelektronik Gmbh Integrierter optischer vielfach abstandssensor
CA2148231C (en) * 1993-01-29 1999-01-12 Michael Haysom Bianchi Automatic tracking camera control system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10306417A1 (de) * 2002-09-23 2004-04-15 Stefan Reich Verfahren und Vorrichtung zur optischen Abtastung
DE10306417B4 (de) * 2002-09-23 2004-07-22 Stefan Reich Verfahren und Vorrichtung zur optischen Abtastung
US7400950B2 (en) 2002-09-23 2008-07-15 Stefan Reich Optical sensing system and system for stabilizing machine-controllable vehicles
DE10313194A1 (de) * 2003-03-25 2004-10-21 Leuze Lumiflex Gmbh + Co. Kg Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objekten mittels eines optischen Sensors
DE10313194B4 (de) * 2003-03-25 2006-07-20 Leuze Lumiflex Gmbh + Co. Kg Optoelektronische Vorrichtung und Verfahren zur Erfassung von Objekten mittels eines optischen Sensors
CN100485418C (zh) * 2006-12-21 2009-05-06 哈尔滨工业大学 机器人的三角形阵列红外传感器

Also Published As

Publication number Publication date
FR2747199B1 (fr) 1998-06-12
FR2747199A1 (fr) 1997-10-10

Similar Documents

Publication Publication Date Title
DE102009005861B4 (de) Fahrzeugumgebungs-Erkennungssystem
DE60037360T2 (de) Verfahren und Vorrichtung zur Geschwindigkeitsmessung von Fahrzeugen mit ein Bildverarbeitungssystem
DE10026586B4 (de) Objekterfassungssystem
DE102008030555B4 (de) Vorrichtung zur Verarbeitung von Stereobildern
DE4308776C2 (de) Einrichtung zum Überwachen des Außenraums eines Fahrzeugs
DE102008053472B4 (de) Objekt-Erfassungssystem
EP1267178B1 (de) Verfahren zur Verarbeitung eines tiefenaufgelösten Bildes
EP0792555B1 (de) Vorrichtung und verfahren zur detektion und demodulation eines intensitätsmodulierten strahlungsfeldes
EP2854106B1 (de) 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zum Erfassen von Tiefenkarten
DE102010062496B4 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE4130010C2 (de) Vorrichtung zur laufenden Beobachtung eines Fahrzeuges und zur Messung seines Abstandes
DE4410406A1 (de) Vorrichtung zum Überwachen der Umgebung eines Fahrzeugs
EP3663963B1 (de) Lesen von optischen codes
EP3479141B1 (de) Verfahren zum betrieb eines laserentfernungsmessgeräts
DE3417666A1 (de) Bilderzeuger
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE69407188T2 (de) Verfahren und gerät zur kalibrierung eines dreidimensionalen raumes für anwendung in maschinenvision
DE102010025953B4 (de) Positionsmessvorrichtung und -verfahren
DE69825525T2 (de) Vorrichtung zur Erstellung eines Bildes sowie Verfahren und Vorrichtung zur Entfernungsmessung
DE10154861A1 (de) Verfahren zur Bereitstellung von Bildinformationen
EP3813355A1 (de) Kamera zur erfassung eines objektstroms und verfahren zur bestimmung der höhe von objekten
DE69211925T2 (de) Entfernungsmesser für Abstand zwischen Fahrzeugen mit Nachführung des vorausfahrenden Fahrzeugs
WO2015197641A1 (de) Bestimmung mindestens eines merkmals eines fahrzeugs
DE19713945A1 (de) Vorrichtung zur Ortung von beweglichen Objekten
DE10248416B4 (de) Vorrichtung und Verfahren zur Bestimmung einer Relativbewegung eines Fahrzeugs

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8131 Rejection