DE3432892A1 - ELECTROOPTICAL TARGET - Google Patents
ELECTROOPTICAL TARGETInfo
- Publication number
- DE3432892A1 DE3432892A1 DE19843432892 DE3432892A DE3432892A1 DE 3432892 A1 DE3432892 A1 DE 3432892A1 DE 19843432892 DE19843432892 DE 19843432892 DE 3432892 A DE3432892 A DE 3432892A DE 3432892 A1 DE3432892 A1 DE 3432892A1
- Authority
- DE
- Germany
- Prior art keywords
- electro
- image
- acquisition device
- target acquisition
- optical target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
84-03 M84-03 M
Elektrooptisches ZielgerätElectro-optical aiming device
Die Erfindung bezieht sich auf ein elektrooptisches Zielgerät zum automatisierten Suchen, Erfassen und Vermessen von Zielen mit einem auf einer schwenkbaren Stabilisierungsplattform angeordneten Bildsensor und einer davon angesteuerten Bildauswerte- und Bilddarstellungseinrichtung, in welcher Korrelatoren die Sensorbilddaten mit gespeicherten, statistischen Bilddaten verarbeiten.The invention relates to an electro-optical targeting device for automated Searching, capturing and measuring of targets with an image sensor arranged on a swiveling stabilization platform and an image evaluation and image display device controlled by it, in which correlators the sensor image data with stored, process statistical image data.
Bei der Überwachung von Einsatzräumen und zur Erfassung von Zielobjekten ist es bekannt, die betreffenden Räume zum Beispiel mit Luftfahrzeugen zu überfliegen und mit Bildsensoren abzutasten. Die bei einem solchen Einsatz gewinnbaren Bilddaten können dann zum Beispiel zu einem Bodenleitstand übertragen und dort nach entsprechender Aufbereitung auf Monitoren wiedergegeben werden. Es ist durch Beobachtung der Monitore mit einer Kontrollperson möglich, die Bilddaten der erfaßten Einsatzräume auszuwerten und Objektbestimmungen, wie zum Beispiel in der DE-OS 25 19 241 beschrieben, vorzunehmen.For the monitoring of operational areas and for the detection of target objects it is known to fly over the relevant spaces with aircraft, for example, and scan them with image sensors. The one with one Image data that can be obtained in this way can then, for example, be transmitted to a ground control station and there after appropriate processing can be played back on monitors. It is possible by observing the monitors with a control person, the image data of the captured Evaluate operational areas and property determinations, such as in the DE-OS 25 19 241 described to make.
Die zuvor beschriebene Maßnahme zur Zielerfassung und Objektbestimmung ist jedoch unbefriedigend, und zwar, weil der Einsatz einer Kontrollperson im Leitstand als Unsicherheitsfaktor gilt. Außerdem ist ein solches Überwachungssystem zur automatischen Überwachung und Zielerfassung in großen Entfernungen, zum Beispiel jenseits der Augenreichweite und in großen Winkelbereichen, nicht geeignet.The previously described measure for target acquisition and object determination however, it is unsatisfactory because of the use of a control person is considered an uncertainty factor in the control center. In addition, such a surveillance system is for automatic surveillance and target acquisition Not suitable at great distances, for example beyond the range of the eyes and in large angular ranges.
- 6 35 - 6 35
Der Erfindung liegt daher die Aufgabe zugrunde, ein elektrooptisches Zielgerät der eingangs genannten Art zu schaffen, das eine automatisierte Zielerfassung und Objektbestimmung an Bord von Trägerfahrzeugen ermöglicht. Außerdem ist es Aufgabe der Erfindung, automatisierte Zielerfassungen und Objektbestimmungen in großen Entfernungen und großen Winkelbereichen zu ermöglichen. Diese Aufgabe ist durch die Kennzeichenmerkmale des Anspruchs 1 gelöst.The invention is therefore based on the object of providing an electro-optical To create target device of the type mentioned at the outset, which automates target acquisition and object determination on board of carrier vehicles enables. It is also an object of the invention to provide automated target acquisition and to enable object determinations at great distances and large angular ranges. This task is due to the license plate features of claim 1 solved.
Weiterbildungen und vorteilhafte Ausgestaltungen der Erfindung sind den Unteransprüchen zu entnehmen.Further developments and advantageous embodiments of the invention are to be found in the subclaims.
Das erfindungsgemäße elektrooptisch© Zielgerät kann mit einem passiven Bildsensor, zum Beispiel einem Infrarot-Bildsensor oder einem Mikrowellenradiometer betrieben werden. Es ist aber ebenso möglich, hierfür einen aktiven Sensor, zum Beispiel einen Radarsensor einzusetzen. Die Stabilisierungsplattform bietet hierbei die Möglichkeit, innerhalb des Überwachungsraumes einen großen Winkelbereich durch Schwenken der Plattform abzutasten. Für die Schwenkbewegungen können, je nach Anforderung, dreiecks-, sinus-, sägezahn- oder spiralförmige Bewegungen eingesetzt werden, wobei die Geschwindigkeit der Schwenkbewegung als Funktion der Blickrichtung und der Fluggeschwindigkeit des Trägerfahrzeugs, zum Beispiel eines Kampfflugzeugs, zweckmäßigerweise so zu wählen sind, daß hinreichende Bildüberlappungen innerhalb einer Schwenkperiode entstehen, welche hohe Wahrscheinlichkeiten für eine Objekterfassung und -verteilung gewährleisten. Außerdem ist es beim Einsatz eines Infrarot-Bildsensors zweckmäßig, diesen Sensor von der üblichen CCIR-Norm entweder auf kontinuierliche oder Halbbild-Abtastung umzustellen. Die mit einem solchen Sensor erfaßten Bilder bzw. Bildausschnitte des überwachten Einsatzraumes werden dann auf die im weiteren Verlauf näher beschriebene Weise zur Zielerfassung und Objektbestimmung ausgewertet .The electro-optical target device according to the invention can be used with a passive Image sensor, for example an infrared image sensor or a microwave radiometer operate. However, it is also possible to use an active sensor, for example a radar sensor, for this purpose. the The stabilization platform offers the possibility of a large angular range within the monitoring space by pivoting the Scan the platform. Depending on the requirements, triangular, sinusoidal, sawtooth or spiral movements can be used for the swivel movements are used, whereby the speed of the swivel movement as a function of the viewing direction and the flight speed of the carrier vehicle, for example a fighter aircraft, are expediently chosen so that sufficient image overlaps within a panning period arise, which ensure high probabilities for an object detection and distribution. Plus, it is when using a Infrared image sensor useful to convert this sensor from the usual CCIR standard to either continuous or field scanning. The images or image excerpts of the monitored operational area recorded with such a sensor then become closer to those in the further course described way for target acquisition and object determination evaluated.
Die Erfindung wird anhand der beiliegenden Zeichnung näher erläutert. Es zeigen:The invention is explained in more detail with reference to the accompanying drawing. Show it:
- 7 -- 7 -
Fig. 1 ein Blockschaltbild des gesamten elektrooptischen Zielgerätes,
Fig. 2 ein Blockschaltbild der Schaltstufen für die automatische Zielerfassung,
Fig. 3a die Referenzstruktur einer abstrakten Objektschablone undFig. 1 is a block diagram of the entire electro-optical target device,
Fig. 2 is a block diagram of the switching stages for the automatic target acquisition,
3a shows the reference structure of an abstract object template and
Fig. 3b die Aufteilung einer Referenzschablone in Suchmuster.3b shows the division of a reference template into search patterns.
Das in Fig. 1 abgebildete elektrooptisch Zielgerät besteht aus einer Infrarotbildkamera 10, die auf einer schwenkbaren Stabilisierungsplattform 11 angeordnet ist. Auf dieser Plattform 11 sitzt weiterhin ein Laserentfernungsmeßgerät 12, das - ebenso wie die Infrarotkamera 10 - mit einem Datenbus 13 in gegenseitiger Funktionsverbindung steht. Hierdurch kann die Entfernung erfaßter Objekte ermittelt und das Ge sichtsfeld der Kamera eingestellt werden. Die Ausgangsdaten der Infrarotkamera 10 werden zunächst auf einen Analog-Digital-Wandler 14 gegeben, welcher digitale Bilddaten an die Schaltstufen 15 zur automatischen Zielerfassung und eine Schaltstufe 16 zur Bildverbesserung ausgibt. Der Analog-Digital-Wandler 14 und die Schaltstufe 16 zur Bildverbesserung werden ebenfalls durch Daten vom Datenbus 13 gesteuert. Hierzu steht der Datenbus 13 mit einem Zentralrechner 17 und einem Speieher 18 in entsprechender gegenseitiger Funktionsverbindung. Außerdem gibt ein Taktgeber 19 seine Taktsignale auf den Datenbus 13, und die Daten des Trägerfahrzeugs, zum Beispiel eines Kampfflugzeugs, wie Fluggeschwindigkeit, Flughöhe etc. sind dem Datenbus von einem symbolisch angedeuteten Block eingegeben.The electro-optical targeting device shown in FIG. 1 consists of one Infrared image camera 10, which is arranged on a pivotable stabilization platform 11. On this platform 11 is still a seat Laser distance measuring device 12, which - like the infrared camera 10 - Is in mutual functional connection with a data bus 13. This allows the distance of detected objects to be determined and the field of view the camera. The output data of the infrared camera 10 are first given to an analog-to-digital converter 14, which digital image data to the switching stages 15 for automatic Outputs target acquisition and a switching stage 16 for image enhancement. The analog-to-digital converter 14 and the switching stage 16 for image enhancement are also controlled by data from the data bus 13. For this purpose, the data bus 13 is provided with a central computer 17 and a memory 18 in a corresponding mutual functional connection. In addition, a clock 19 is its clock signals on the data bus 13, and the Data from the carrier vehicle, for example a combat aircraft, such as airspeed, Flight altitude etc. are entered on the data bus from a symbolically indicated block.
Von der Schaltstufe 16 zur Bildverbesserung gelangen die digitalen Bilddaten auf einen vom Datenbus 13 beeinflußten Digital-Analog-Wandler 21, der die zugrückgewandelten Bilddaten über einen Bildmischer 22 auf ein Touch-Input-Bilddarstellungsgerät 23 weiterleitet. Dieses Bilddarstellungsgerät 23 steht darüber hinaus mit einem mit dem Datenbus 13 in entsprechender Funktionsverbindung stehenden Gesichtsfeldumschalter 24 in Verbindung, so daß mit Hilfe einfacher Touch-InputsFrom switching stage 16 for image enhancement, the digital ones pass Image data on a digital-to-analog converter influenced by the data bus 13 21, which forwards the reconverted image data via an image mixer 22 to a touch-input image display device 23. This Image display device 23 is also connected to a field of view switch that is functionally connected to data bus 13 24 connected, so that with the help of simple touch inputs
- 8 35 - 8 35
bestimmte Objekte vergrößert dargestellt -werden können. Mit einem dem
Bildmischer 22 zugeordneten und durch Daten des Datenbusses 13 steuerbaren Symbolgenerators 25 ist es möglich, bestimmte Symbole in
die Bilddaten einzumischen und auf dem Bilddarstellungsgerät 23 einzublenden. Diese Bildsymbole können darüber hinaus auf einem
Spotprojektor 26 wiedergegeben werden, wodurch die Richtung der Objektlage innerhalb der Pilotenkanzel markiert wird.certain objects can be enlarged. With one of the
The symbol generator 25 assigned to the image mixer 22 and controllable by data from the data bus 13 makes it possible to mix certain symbols into the image data and to display them on the image display device 23. These icons can also be displayed on a spot projector 26, whereby the direction of the object position is marked within the cockpit.
Ein zweites Bilddarstellungsgerät 27, das über einen mit dem Datenbus 13 in gegenseitiger Funktionsverbindung stehenden Computer-Symbolgenerator 28, zum Beispiel Fadenkreuzgenerierung, angesteuert wird, bietet hierbei die Möglichkeit, die Flugzeuglängsachse auf das ausgewählte Objekt auszurichten.A second image display device 27, which is connected to the data bus 13 mutually functionally connected computer symbol generator 28, for example crosshair generation, is controlled the possibility of aligning the longitudinal axis of the aircraft with the selected object.
Fig. 2 zeigt die Einzelheiten der Schaltstufen 15 zur automatischen Zielerfassung innerhalb des gesamten elektrooptischen Zielgerätes. Diese in dem Blockschaltbild näher bezeichneten und untereinander verschalteten Schaltstufen haben die Aufgabe, praktisch in Echtzeit spezielle Objekte im aufgenommenen Bild der Infrarotkamera 10 automatisch zu suchen, deren Bildposition zu bestimmen und den Schwenkvorgang der Stabilisierungsplattform 11 nach erfolgreicher Objektsuche zu unterbrechen. Außerdem muß die Infrarotbildkamera 10 danach so ausgerichtet werden, daß eine visuelle Objektidentifizierung mit Hilfe einer Bildvergrößerung durch Gesichtsfeldumschaltung möglich wird. Grundlage für die automatische Zielerkennung ist eine Korrelation der aufgenommenen und dualisierten Bilddaten mit einer abstrahierten Objektschablone. Die Dualisierung eines jeden Bildes der Infrarotbildkamera 10 erfolgt in dem Komparator mit einer Amplitudenschwelle, welche als Funktion der zu erwartenden Zielklasse durch geeignete Verknüpfung bildstatistischer Parameter (Histogrammauswertung) für jedes Bild individuell ermittelt wird. Dabei wird zur Vermeidung zu großer Falschauslösungen, zum Beispiel bei ungünstiger Statistik des aufgenommenen Bildes, auf eine Auswertung verzichtet.Fig. 2 shows the details of the switching stages 15 for automatic Target acquisition within the entire electro-optical target device. These are identified in more detail in the block diagram and with one another The interconnected switching stages have the task of creating special objects in the recorded image of the infrared camera 10 practically in real time to automatically search, determine their image position and the pivoting process of the stabilization platform 11 after successful To interrupt the search for an object. In addition, the infrared image camera 10 are then aligned so that a visual object identification with the help of an image magnification by switching the field of view is possible will. The basis for the automatic target recognition is a correlation of the recorded and dualized image data with an abstract one Object template. The dualization of each image from the infrared camera 10 takes place in the comparator with an amplitude threshold, which as a function of the expected target class by suitable Linking image statistical parameters (histogram evaluation) is determined individually for each image. Doing so will help avoid too large false triggers, for example in the case of unfavorable statistics of the recorded image, an evaluation is dispensed with.
Zum Zwecke einer schnellen und einfachen Korrelation werden neben der Bilddualisierung (1 bit-Grauwertauflösung) zielrotationsinvariante Objektschablonen eingesetzt, welche bei schräger Ausrichtung der Infrarotbildkamera 10 vom oberen zum unteren Bildrand größenrichtig angepaßt werden. Durch Übernahme der Systemdaten des Trägerfahrzeuges und der Kamera, wie durch den Block 20 in Fig. 1 angedeutet, lassen sich mit Hilfe der Flughöhe, der Sensorauflösung und -blickrichtung sowie der zu bestinmenden Objektart die Referenzschablonen errechnen. Rotationsinvariante Objektschablonen zeichnen sich hierbei durch eine 100 !-ige Übereinstimmung innerhalb der kleinsten Zieldimension und einer gewissen Obereinstimmung, zum Beispiel 66 %, innerhalb der größten Zieldimension aus. Eine einwandfreie Objektbestimmung verlangt darüber hinaus, daß in einem äußeren Bereich die Übereinstimmung 0 % sein muß (Hintergrundseparation).For the purpose of quick and easy correlation, the Image dualization (1 bit gray value resolution) target rotation invariant Object stencils are used, which when the infrared camera is aligned at an angle 10 can be adjusted to the correct size from the upper to the lower edge of the picture. By taking over the system data of the carrier vehicle and the Camera, as indicated by block 20 in FIG. 1, can be used with Calculate the reference templates with the help of the flight altitude, the sensor resolution and line of sight as well as the type of object to be determined. Rotational invariant Object templates are characterized by a 100! Match within the smallest target dimension and one certain agreement, for example 66%, within the largest Target dimension. A flawless determination of the object demands about it In addition, the correspondence must be 0% in an outer area (background separation).
In Fig. 3a ist eine typische Struktur einer abstrakten Objektschablone für senkrechte und schräge Sensorausrichtung dargestellt, wobei die Dimensionen der einzelnen Schablonenteile in Abhängigkeit der Zielabmessungen sowie der Flug- und Sensorparameter zu wählen sind. Die Buchstaben L und H deuten hier auf "low" = tief bzw. "high" = hoch hin. Zur einfachen und schnellen Realisierung der Korrelation wird diese abstrakte Referenzschablone in drei Teilmuster zerlegt, welche unabhängig voneinander jeweils in einem der drei Korrelatoren korreliert werden. Fig. 3b zeigt die gewählte Aufteilung mit den drei sich ergebenden Korrelationsmustern und drei verschiedenen Maskenmustern, die, zusammen mit der Objekthöheninformation, als Speichertiefeninformation in den Objektreferenzspeicher eingegeben werden. Die Korrelationsmusterbreite verhält sich proportional zu der Objektbreite xmax und kann Werte zwischen 10 und 64 Bildpunkte einnehmen. Die nicht benutzten Bildpunkte sind mit der Maskeninformation abzudecken.3a shows a typical structure of an abstract object template for vertical and inclined sensor alignment, the dimensions of the individual template parts being to be selected as a function of the target dimensions and the flight and sensor parameters. The letters L and H indicate "low" = deep and "high" = high. To implement the correlation quickly and easily, this abstract reference template is broken down into three sub-patterns, which are each correlated independently of one another in one of the three correlators. 3b shows the selected division with the three resulting correlation patterns and three different mask patterns which, together with the object height information, are entered as memory depth information into the object reference memory. The correlation pattern width is proportional to the object width x max and can assume values between 10 and 64 pixels. The unused pixels must be covered with the mask information.
Zur Durchführung der Korrelation werden die Daten des dualisierten und zwischengespeicherten Infrarotbildes zeilenweise in die parallelen Schieberegister der Korrelatoren für die Muster 1 bis 3 eingegeben. 5 Oberschreiten die Korrelatoren für die Muster 2 und 3 einen vorgebbaren Korrelationsgrad, so werden von diesem Bildpunkt die Spaltenadressen abgespeichert. Es können 16 Adressen auf diese Weise in den Adreßspeicher eingegeben werden. Beim Durchlauf der nächsten Zeile werden beim Erreichen des vorgegebenen Korrelationsgrades wiederum Adressen gewonnen und mit den abgespeicherten Adressen verglichen. Wenn die Abweichung der beiden Adressen nicht größer als +/- 1 Bildpunkt (schräge Objektlage im Bild) ist, dann wird die verglichene Adresse zusammen mit einer Zahl η abgespeichert. Diese Zahl η drückt die Anzahl der verglichenen Zeilen aus. Bei größerer Abweichung wird die letzte Adresse als erste abgespeichert.To carry out the correlation, the data of the dualized and The buffered infrared image is entered line by line into the parallel shift registers of the correlators for patterns 1 to 3. 5 If the correlators for patterns 2 and 3 exceed a predeterminable value Correlation degree, the column addresses of this pixel are stored. In this way 16 addresses can be stored in the address memory can be entered. When the next line is run through, addresses are again obtained when the specified degree of correlation is reached and compared with the stored addresses. If the difference between the two addresses is not greater than +/- 1 pixel (inclined object position in the picture), then the compared address is stored together with a number η. This number η expresses the number of the compared lines. If the difference is greater, the last address is saved as the first.
Das Ergebnis des Korrelators für das Muster 2 wird außerdem in einen Summenspeicher eines Summenvergleichers eingeschrieben. Dieser Summenspeicher wird ebenfalls überprüft, wobei dann, wenn zum Beispiel 66 % der gesamten Bildpunkte dieses Rahmens "high" sind, die Auswertung nicht weitergeführt wird. Die Auswertung des Summenspeichers wird danach in einer Toleranzzeile M vorgenommen, welche dann auftritt, wenn die Zahl η die zu erwartende und vorgegebene Zeilenzahl M erreicht hat. Außerdem wird in dieser Toleranzzeile M ein Adressenfenster errechnet und in der nachfolgenden Zeile mit dem Korrelator für das Muster 1 die "low"-Bedingung innerhalb dieses Adreßfensters überprüft. Tritt auch hier ein vorgegebener Korrelationsgrad auf, so wird das Objekt als erkannt definiert. Es werden dann von diesem Bildpunkt die Spalten- und Zeilenadressen zwischengespeichert und über eine Adressentransformationsschaltung, welche dann die Objektmittenadresse errechnet, in einen Symbolikspeicher eingegeben.The result of the correlator for pattern 2 is also written into a summation memory of a summation comparator. This summation memory is also checked, with the evaluation not being continued if, for example, 66% of the total image points in this frame are "high". The evaluation of the accumulation memory is then carried out in a tolerance line M, which occurs when the number η has reached the predefined number of lines M to be expected. In addition, an address window is calculated in this tolerance line M and the "low" condition within this address window is checked in the following line with the correlator for pattern 1. If a predefined degree of correlation also occurs here, the object is defined as recognized. The column and row addresses of this pixel are then temporarily stored and entered into a symbols memory via an address transformation circuit which then calculates the object center address.
- 11 -- 11 -
Die Darstellung nach Fig. 2, welche - wie bereits erwähnt - einen Überblick über den Aufbau und die Funktionsweise der Schaltstufen zur automatischen Zielerfassung zeigt, ist mit einigen ihrer Schaltstufen dreifach parallel ausgelegt und kann die Bildauswertung quasi in Echtzeitverarbeitung im Takt von 40 ms vornehmen. Für den Fall, daß die Bildauswertezeit 120 ms betragen kann, ist es möglich, auf eine Parallelverarbeitung zu verzichten.The illustration according to FIG. 2, which - as already mentioned - provides an overview of the structure and mode of operation of the switching stages for automatic target acquisition shows, is designed with some of its switching stages three times in parallel and can virtually perform image evaluation in Carry out real-time processing every 40 ms. In the event that the image evaluation time can be 120 ms, it is possible to rely on a To forego parallel processing.
Die auf die zuvor beschriebene Weise errechneten Zielkoordinaten eines erfaßten Zielobjektes dienen zum Ausrichten der Infrarotbildkamera 10 (nächstliegende Koordinate bezogen auf die augenblickliche Stellung der Stabilisierungsplattform) und zur Zielmarkierung. Sobald Objekte in einem Bild festgestellt worden sind, kann dieses Bild auf dem Bilddarstellungsgerät 23 einschließlich eingeblendeter Markierungen dargestellt werden, wobei über eine akustische Meldung die Aufmerksamkeit einer Kontrollperson erregt werden kann. Da die optische Sensorachse auf das nächstgelegene Objekt ausgerichtet ist, erfolgt die visuelle Zielerkennung durch einfache Gesichtsfeldumschaltung. Auch in diesem Falle ist eine Zielmarkierung mit Hilfe des Symbolgenerators 25 möglich.The target coordinates of a calculated in the manner described above The detected target object is used to align the infrared image camera 10 (closest coordinate related to the current position of the stabilization platform) and to the target marking. As soon as objects are in an image have been determined, this image can be displayed on the image display device 23 including superimposed markings can be displayed, whereby the attention of a control person can be attracted via an acoustic message. Since the optical If the sensor axis is aligned with the closest object, visual target recognition is carried out by simply switching the field of view. Also in In this case, a target marking with the aid of the symbol generator 25 is possible.
Um die Anzeige der Zielposition in bezug auf die Position des Trägerfahrzeuges zu erhalten, kann entweder ein Winkelmaß in das dargestellte Bild eingeblendet werden, oder die Zielmarkierung wird über den Spotprojektor an entsprechender Stelle in der Pilotenkanzel abgebildet. Für die auf diese Weise erfaßten Zielobjekte stehen zur Weiterverarbeitung in einem Kampfflugzeug weitere Bordrechner zur Verfügung.In order to get the display of the target position in relation to the position of the carrier vehicle, either an angular dimension can be entered into the The displayed image can be faded in, or the target marking is via the spot projector at the appropriate point in the cockpit pictured. For the target objects detected in this way are available Further on-board computers are available for further processing in a fighter aircraft.
Das Laserentfernungsmeßgerät 12 dient hierbei zur exakten Berechnung der Referenzbildmaße bzw. der Objektpositionen.The laser distance measuring device 12 is used for the exact calculation the reference image dimensions or the object positions.
Zeichnungen - 12 35 Drawings - 12 35
Claims (16)
25of the recorded original images are fed to an image enhancement unit (16) which generates an image-content-adaptive transfer characteristic (polygon) by evaluating the histogram and thus ensures optimal image display quality.
25th
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19843432892 DE3432892A1 (en) | 1984-09-07 | 1984-09-07 | ELECTROOPTICAL TARGET |
GB08522130A GB2165714B (en) | 1984-09-07 | 1985-09-06 | Electro-optical aiming device |
FR858513348A FR2570195B1 (en) | 1984-09-07 | 1985-09-09 | APPARATUS FOR SEARCHING OPTOELECTRONIC TARGETS FOR ENTRY AND AUTOMATIC DETERMINATION OF THE OBJECTIVE ON BOARD VEHICLES |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19843432892 DE3432892A1 (en) | 1984-09-07 | 1984-09-07 | ELECTROOPTICAL TARGET |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3432892A1 true DE3432892A1 (en) | 1986-03-20 |
DE3432892C2 DE3432892C2 (en) | 1992-12-17 |
Family
ID=6244860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19843432892 Granted DE3432892A1 (en) | 1984-09-07 | 1984-09-07 | ELECTROOPTICAL TARGET |
Country Status (3)
Country | Link |
---|---|
DE (1) | DE3432892A1 (en) |
FR (1) | FR2570195B1 (en) |
GB (1) | GB2165714B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3446975A1 (en) * | 1984-12-21 | 1986-07-03 | Industrieanlagen-Betriebsgesellschaft Mbh, 8012 Ottobrunn | Method and device for battlefield observation and tactical command |
DE4220316A1 (en) * | 1991-06-24 | 1993-01-14 | Matsushita Electric Ind Co Ltd | Tripod mounted video camera system for automatic filming - has thermal imaging control provided by bank of sensors that tracks individual or group of people falling within field of vision and adjusts camera |
EP0678755A2 (en) * | 1994-04-21 | 1995-10-25 | Bodenseewerk Gerätetechnik GmbH | Passive identification friend or foe device |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2627290B1 (en) * | 1988-02-12 | 1991-01-25 | Matra | OPTICAL TRACKING AND MEASUREMENT SYSTEM FOR A SPACE VEHICLE |
GB8826550D0 (en) * | 1988-11-14 | 1989-05-17 | Smiths Industries Plc | Image processing apparatus and methods |
GB8925196D0 (en) * | 1989-11-08 | 1990-05-30 | Smiths Industries Plc | Navigation systems |
DE4320485B4 (en) * | 1993-06-21 | 2007-04-19 | Eads Deutschland Gmbh | Object measuring method by means of intelligent distance image camera |
AUPR080400A0 (en) * | 2000-10-17 | 2001-01-11 | Electro Optic Systems Pty Limited | Autonomous weapon system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2106035B2 (en) * | 1970-02-11 | 1974-02-21 | Saab-Scania Ab, Linkoeping (Schweden) | Device for checking the conformity of the shape of an electromagnetically generated object image with a predetermined scheme |
GB2067744A (en) * | 1980-01-09 | 1981-07-30 | Goodyear Aerospace Corp | Digital Video Correlator |
DE2842684C2 (en) * | 1978-09-30 | 1982-12-30 | Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt | Device for recognizing and tracking a target |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2545660A1 (en) * | 1975-10-11 | 1977-04-21 | Basf Ag | 1-CHLOROPROPEN-(2,3)-SULPHONIC ACID-(3)- COMPOUNDS AND PROCESS FOR THEIR PRODUCTION |
GB1590950A (en) * | 1976-12-11 | 1981-06-10 | Emi Ltd | System for comparing representations of a scene |
US4133004A (en) * | 1977-11-02 | 1979-01-02 | Hughes Aircraft Company | Video correlation tracker |
GB2094088B (en) * | 1979-01-09 | 1983-05-18 | Emi Ltd | Correlation arrangements |
FR2451040A1 (en) * | 1979-03-08 | 1980-10-03 | Virnot Alain | METHOD AND DEVICE FOR AUTOMATICALLY TAKING POINT ON BOARD OF A VEHICLE PROVIDED WITH RADAR EQUIPMENT |
DE2938853A1 (en) * | 1979-09-26 | 1981-04-09 | Vereinigte Flugtechnische Werke Gmbh, 2800 Bremen | AREA NAVIGATION SYSTEM FOR AIRCRAFT |
FR2481489A1 (en) * | 1980-04-25 | 1981-10-30 | Thomson Csf | BIDIMENSIONAL CORRELATOR DEVICE |
GB2116000B (en) * | 1982-03-02 | 1985-05-01 | Elliott Bros | Guidance system |
DE3214725A1 (en) * | 1982-04-21 | 1983-10-27 | Philips Patentverwaltung Gmbh, 2000 Hamburg | Method and arrangement for allocating the grey scale values of an image to other grey scale values |
US4590569A (en) * | 1983-10-14 | 1986-05-20 | Navigation Sciences Inc. | Navigation system including an integrated electronic chart display |
-
1984
- 1984-09-07 DE DE19843432892 patent/DE3432892A1/en active Granted
-
1985
- 1985-09-06 GB GB08522130A patent/GB2165714B/en not_active Expired
- 1985-09-09 FR FR858513348A patent/FR2570195B1/en not_active Expired - Lifetime
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2106035B2 (en) * | 1970-02-11 | 1974-02-21 | Saab-Scania Ab, Linkoeping (Schweden) | Device for checking the conformity of the shape of an electromagnetically generated object image with a predetermined scheme |
DE2842684C2 (en) * | 1978-09-30 | 1982-12-30 | Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt | Device for recognizing and tracking a target |
GB2067744A (en) * | 1980-01-09 | 1981-07-30 | Goodyear Aerospace Corp | Digital Video Correlator |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3446975A1 (en) * | 1984-12-21 | 1986-07-03 | Industrieanlagen-Betriebsgesellschaft Mbh, 8012 Ottobrunn | Method and device for battlefield observation and tactical command |
DE4220316A1 (en) * | 1991-06-24 | 1993-01-14 | Matsushita Electric Ind Co Ltd | Tripod mounted video camera system for automatic filming - has thermal imaging control provided by bank of sensors that tracks individual or group of people falling within field of vision and adjusts camera |
EP0678755A2 (en) * | 1994-04-21 | 1995-10-25 | Bodenseewerk Gerätetechnik GmbH | Passive identification friend or foe device |
EP0678755A3 (en) * | 1994-04-21 | 1998-08-12 | Bodenseewerk Gerätetechnik GmbH | Passive identification friend or foe device |
US6249589B1 (en) | 1994-04-21 | 2001-06-19 | Bodenseewerk Geratetechnik Gmbh | Device for passive friend-or-foe discrimination |
Also Published As
Publication number | Publication date |
---|---|
GB8522130D0 (en) | 1985-10-09 |
FR2570195B1 (en) | 1990-02-02 |
GB2165714B (en) | 1988-07-13 |
GB2165714A (en) | 1986-04-16 |
FR2570195A1 (en) | 1986-03-14 |
DE3432892C2 (en) | 1992-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69622476T2 (en) | Method and device for object recognition within the visual field of an imaging device | |
DE60123534T2 (en) | Device for tracking a moving object | |
EP0691534B1 (en) | Method of visibility determination in particular for vehicle movement | |
AT506928B1 (en) | METHOD OF VIDEO ANALYSIS | |
DE60127644T2 (en) | Teaching device for a robot | |
DE4407528C2 (en) | Motion detectors and motion detection methods | |
DE10312249A1 (en) | Process for the joint processing of deep-resolution images and video images | |
DE3432892C2 (en) | ||
DE112019004963T5 (en) | Optics-based multi-dimensional target and multiple object detection and tracking method | |
DE10042935B4 (en) | Method for monitoring a predetermined area and system | |
DE3133866A1 (en) | METHOD FOR VISUAL SIMULATION | |
EP2656105B1 (en) | Method for generating an image document in which a vehicle measured by a radar device can be identified and image document generated with this method | |
DE102018008282A1 (en) | Device and method for detecting flying objects | |
DE10049366A1 (en) | Security area monitoring method involves using two image detection units whose coverage areas overlap establishing monitored security area | |
EP1026632A2 (en) | Image-evaluation system and method | |
DE2939656C2 (en) | Method of pursuing goals | |
EP1116962B1 (en) | Method for the autonomous detection of helicopters | |
DE102019102423A1 (en) | Method for live annotation of sensor data | |
DE3119505A1 (en) | Optical sensor for measuring three-dimensional objects | |
EP0749619A1 (en) | System and process for evaluating images | |
EP1015313A1 (en) | Airport terminal docking system | |
DE19713945A1 (en) | Passive optical device for locating mobile object | |
DE4212066C2 (en) | Method and device for determining the position of an optical line | |
DE102022133932A1 (en) | Device for determining the relative positions of two objects rotating in the same direction about an axis of rotation | |
WO2024056261A1 (en) | Method for training a neural network for detecting an object and method for detecting an object by means of a neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: STN SYSTEMTECHNIK NORD GMBH, 2800 BREMEN, DE |
|
8364 | No opposition during term of opposition | ||
8339 | Ceased/non-payment of the annual fee |