DE69023787T2 - Target location on a target. - Google Patents
Target location on a target.Info
- Publication number
- DE69023787T2 DE69023787T2 DE69023787T DE69023787T DE69023787T2 DE 69023787 T2 DE69023787 T2 DE 69023787T2 DE 69023787 T DE69023787 T DE 69023787T DE 69023787 T DE69023787 T DE 69023787T DE 69023787 T2 DE69023787 T2 DE 69023787T2
- Authority
- DE
- Germany
- Prior art keywords
- image
- target
- contour
- skeleton
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 claims description 22
- 230000014509 gene expression Effects 0.000 claims 2
- 230000005484 gravity Effects 0.000 claims 1
- 238000007620 mathematical function Methods 0.000 claims 1
- 238000012545 processing Methods 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2226—Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2253—Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
- F41G7/22—Homing guidance systems
- F41G7/2273—Homing guidance systems characterised by the type of waves
- F41G7/2293—Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S3/00—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
- G01S3/78—Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
- G01S3/782—Systems for determining direction or deviation from predetermined direction
- G01S3/785—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
- G01S3/786—Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
- G01S3/7864—T.V. type tracking systems
Landscapes
- Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Description
Die Erfindung bezieht sich auf ein Verfahren zur Lokalisierung eines Zielpunktes auf einem Zielgegenstand und insbesondere, aber nicht ausschließlich, auf eine Skelett-Zielpunkt-Lokalisierung, die bei Parallelverarbeitungseinrichtungen ausgeführt werden kann.The invention relates to a method for locating a target point on a target object and in particular, but not exclusively, to a skeletal target point localization which can be carried out in parallel processing devices.
Die GB-A-2 202 112 bezieht sich auf ein Verfahren zur Identifizierung interessierender Bereiche in einem Binärbild einer betrachteten Szene. Die US-A-4 796 187 beschreibt ein Verfahren zur Wahl eines Zielpunktes auf einem Ziel, welches durch ein Abbildungssystem betrachtet wird. Das Verfahren umfaßt die Überprüfung verschiedener Bilder in einer betrachteten Szene und die Wahl jener Elemente, die dauerhaft und in der Nähe der Mitte der Szene liegen, um eine weitere Bearbeitung durchzuführen. Die DE-A-2 949 453 beschreibt ein Verfahren zur Verbesserung der Geschoßgenauigkeit, in dem ein Zielbild mit einem gespeicherten Bild in einer Korrelationsschaltung verglichen wird.GB-A-2 202 112 relates to a method for identifying regions of interest in a binary image of a viewed scene. US-A-4 796 187 describes a method for selecting an aiming point on a target viewed by an imaging system. The method involves examining various images in a viewed scene and selecting those elements which are permanent and near the center of the scene for further processing. DE-A-2 949 453 describes a method for improving missile accuracy by comparing a target image with a stored image in a correlation circuit.
Die Anmelderin hat ein Zielnachführungssystem entwickelt, bei dem ein digitalisiertes Bild eines Zieles und dessen Hintergrund erzeugt werden, worauf das Bild derart verarbeitet wird, daß ein Skelettbild des Ziels erhalten wird. Der Ausdruck Skelettbild, der hierbei benutzt wird, soll ein Bild angeben, das aus einem oder mehreren linearen Elementen besteht, die eine Art 'Anheftfigur'-Repräsentation des Originalbildes bilden. Bei einem zu beschreibenden Ausführungsbeispiel umfaßt die 'Anheftfigur' horizontale und vertikale lineare Elemente ein Pixel breit, die jeweils Merkmalen, beispielsweise einem zentralen Bereich und Keulen des Zielbildes entsprechen. Wenigstens annähernd sind die linearen Elemente symmetrisch zwischen Grenzen des Zieles an den beiden Seiten des Elementes zentriert. Bei diesem Ausführungsbeispiel umfaßt das Skelett im wesentlichen all jene Informationen, die in dem Originalbild enthalten sind, d.h. das Originalbild könnte durch ein Skelett reproduziert werden. Dies folgt aus dem Algorithmus, der zur Bildung des Skeletts benutzt wird.Applicant has developed a target tracking system in which a digitized image of a target and its background are generated, and the image is then processed to obtain a skeleton image of the target. The term skeleton image used herein is intended to indicate an image consisting of one or more linear elements which form a kind of 'pin figure' representation of the original image. In an embodiment to be described, the 'pin figure' comprises horizontal and vertical linear elements one pixel wide, each corresponding to features, for example a central region and lobes of the target image. At least approximately, the linear elements are symmetrical. centered between boundaries of the target on the two sides of the element. In this embodiment, the skeleton essentially comprises all the information contained in the original image, ie the original image could be reproduced by a skeleton. This follows from the algorithm used to form the skeleton.
Es kann erwünscht sein, ein spezielles Pixel innerhalb des Zielbildes, nämlich dem Massenmittelpunkt oder dem Flächenschwerpunkt des Bildes, einem Zielpunkt für eine Waffe zuzuordnen, die auf das Ziel geführt wird.It may be desirable to assign a specific pixel within the target image, namely the center of mass or the centroid of the image, to an aiming point for a weapon guided to the target.
Eine Aufgabe der vorliegenden Erfindung besteht darin, ein schnelles und einfaches Verfahren zu schaffen, um den Zielpunkt eines Zieles unter Benutzung paralleler Verarbeitungsvorrichtungen zu bestimmen.An object of the present invention is to provide a quick and simple method for determining the aiming point of a target using parallel processing devices.
Gemäß einem Merkmal der Erfindung umfaßt ein Verfahren zur Bestimmung eines Zielpunktes in einem Geschoßleitsystem die folgenden Schritte:According to a feature of the invention, a method for determining a target point in a projectile guidance system comprises the following steps:
es wird ein Bild der betrachteten Szene erzeugt;an image of the scene being viewed is created;
es wird das Vorhandensein eines Zieles innerhalb der Szene bestimmt, und es wird ein digitalisiertes Binärbild der Szene erzeugt, wobei das Ziel vom Hintergrund der Szene unterschieden wird;determining the presence of a target within the scene and generating a digitized binary image of the scene, distinguishing the target from the background of the scene;
wobei das Verfahren durch die folgenden weiteren Schritte gekennzeichnet ist:the method being characterized by the following further steps:
es wird das Binärbild konturenmäßig abgebildet, um ein Konturenbild des Zieles zu schaffen, und es wird ein getrenntes Skelettbild des Zieles unter Benutzung eines rekursiven Verfahrens geschaffen, wobei das Skelett im wesentlichen die Dicke eines Elementes besitzt; es wird das Skelettbild konturenmäßig gestaltet, um ein konturenmäßiges Skelett zu schaffen; undcontour mapping the binary image to create a contour image of the target and creating a separate skeleton image of the target using a recursive process, the skeleton having substantially the thickness of one element; the skeleton image is contoured to create a contoured skeleton; and
es werden parallele Verarbeitunqseinrichtungen benutzt, um einen Flächenschwerpunkt aus den Konturwerten und der Lage der Skelettelemente zu schaffen, und um jenes Element zu bestimmen, welches dem Flächenschwerpunkt am nächsten liegt, wobei das dem Flächenschwerpunkt am nächsten liegende Element den Zielpunkt des Zielgegenstandes bildet.Parallel processing devices are used to create a centroid from the contour values and the position of the skeleton elements and to determine the element closest to the centroid, with the element closest to the centroid forming the target point of the target object.
Nunmehr wird ein Ausführungsbeispiel der Erfindung anhand der Zeichnung beschrieben. In der Zeichnung zeigen:An embodiment of the invention will now be described with reference to the drawing. In the drawing:
Fig. 1 veranschaulicht ein Binärbild eines Ziels;Fig. 1 illustrates a binary image of a target;
Fig. 2 zeigt, wie das Bild gemäß Fig. 1 hinsichtlich des Umrisses bzw. seiner Konturen gestaltet wird;Fig. 2 shows how the image according to Fig. 1 is designed in terms of the outline or its contours;
Fig. 3 veranschaulicht ein fertig hinsichtlich der Umrißlinien gestaltetes Bildes entsprechend Fig. 1;Fig. 3 illustrates a finished outline image corresponding to Fig. 1;
Fig. 4 zeigt ein Bild, das der Fig. 3 äquivalent ist, aber die Skelettbild-Bedingungen erfüllt;Fig. 4 shows an image equivalent to Fig. 3 but satisfying the skeleton image conditions;
Fig. 5 veranschaulicht das Skelettbild gemäß dem Ziel nach Fig. 1; undFig. 5 illustrates the skeleton image according to the target of Fig. 1; and
Fig. 6 zeigt einen Teil eines anderen Skelettbildes, bei dem die Konturwerte den Pixeln des Skeletts zugeordnet sind.Fig. 6 shows part of another skeleton image, where the contour values are assigned to the pixels of the skeleton.
Um den Zielpunkt bei einem gegebenen Ziel zu bestimmen, wurde ein Skelettbild von dem Bild einer betrachteten Szene hergestellt, die das Ziel enthielt. Es wird ein Binärbild des Ziels durch irgendwelche herkömmliche Verfahren hergestellt, die dem Fachmann geläufig sind. Das Binärbild ist in Fig. 1 dargestellt, und dieses umfaßt ein Feld von Pixeln, von denen jedes einen Wert von entweder '0' (entsprechend dem Hintergrund) oder '1' (entsprechend dem Ziel) hat.To determine the aiming point at a given target, a skeleton image was created from the image of a viewed scene containing the target. A binary image of the target is created by any conventional method known to those skilled in the art. The binary image is shown in Fig. 1 and comprises an array of pixels, each of which has a value of either '0' (corresponding to the background) or '1' (corresponding to the target).
Das Bild gemäß Fig. 1 wird mit einer Kontur, d.h. einem Umriß, versehen, um eine Bewertung für jedes Pixel der Zielfläche zu schaffen. Um dies zu bewirken, wird das Feld rasterartig abgetastet, bis die erste '1' lokalisiert wird. Diese '1' ist der Startpunkt für die erste Kontur, nämlich die Grenzkontur. Durch Bewegung im Uhrzeigersinn werden alle Fixel auf der Grenze dem Konturwert '2' zugeordnet (Fig. 2). Das Feld wird wiederum wie vorher abgetastet, bis die erste '1' lokalisiert wird, und dann werden alle Pixel wie vorher, die den Wert '1' haben innerhalb der Grenzkontur (mit dem Wert '2') dem Wert '4' zugeordnet, wenn die Bewegung in einem Uhrzeigersinn erfolgt. Dieses Verfahren wird wiederholt, wobei jede der inneren Konturen einem Wert zugeordnet wird, der um Zwei größer ist als seine benachbarte äußere Kontur, und dies wird fortgesetzt, bis keine Pixel mit dem Wert '1' mehr lokalisiert werden. Das fertige Konturenbild ist in Fig. 3 dargestellt.The image according to Fig. 1 is provided with a contour, i.e. an outline, to create a value for each pixel of the target area. To do this, the field is scanned in a raster manner until the first '1' is located. This '1' is the starting point for the first contour, namely the boundary contour. By moving clockwise, all the fixels on the boundary are assigned the contour value '2' (Fig. 2). The field is again scanned as before until the first '1' is located, and then all the pixels as before that have the value '1' within the boundary contour (with the value '2') are assigned the value '4' if the movement is in a clockwise direction. This process is repeated, assigning each of the inner contours a value that is two greater than its adjacent outer contour, and this continues until no more pixels with the value '1' are located. The finished contour image is shown in Fig. 3.
Gleichzeitig mit der Erzeugung des Konturenbildes wird ein anderes 'Bild' des Binärfeldes erzeugt. Es wird eine ähnliche Behandlung benutzt wie die zur Herstellung des Konturenbildes benutzte Verarbeitung, aber es müssen verschiedene 'Test'- Bedingungen für jedes Pixel erfüllt werden. Wie oben beschrieben, wird die erste '1' durch rasterartiges Abtasten des Binärfeldes lokalisiert. Wenn eine '1' lokalisiert ist, wird ein 3 x 3 - Operator zugefügt, und der Operator ist: At the same time as the contour image is being generated, another 'image' of the binary field is generated. Similar processing is used to that used to produce the contour image, but different 'test' conditions must be met for each pixel. As described above, the first '1' is located by raster-scanning the binary field. When a '1' is located, a 3 x 3 operator is added, and the operator is:
Das Pixel C ist jenes, dem die 'Test'-Bedingungen aufgeprägt werden, und in diesem Falle ist es die erste '1'. Die anderen Pixel des Operators nehmen jeweils die Werte der acht benachbarten Pixel ein, wenn nicht irgendeines jener Pixel nicht den Wert '1' besitzt. Für jedes derartige Pixel, das nicht den Wert '1' besitzt, wird dem relevanten Pixel des Operators der Wert '0' verliehen.Pixel C is the one to which the 'test' conditions are imposed, and in this case it is the first '1'. The other pixels of the operator each take the values of the eight adjacent pixels, unless any of those pixels does not have the value '1'. For each such pixel that does not have the value '1', the relevant pixel of the operator is given the value '0'.
Für die erste '1' erhalten wir demgemäß: For the first '1' we get:
Dann werden die 'Test'-Bedingungen aufgebracht.Then the 'test' conditions are applied.
=> (i) mehr als zwei der möglichen (A + B) Pixelpaare muß gleich 1 sein, d.h. A + B = 1 für wenigstens drei Paare benachbarter Pixel;=> (i) more than two of the possible (A + B) pixel pairs must be equal to 1, i.e. A + B = 1 for at least three pairs of adjacent pixels;
=> (ii) die Summe aller A's und B's muß kleiner als Drei sein.=> (ii) the sum of all A's and B's must be less than three.
Wenn eine oder beide Bedingungen erfüllt sind, bleiben die bei C lokalisierten Pixel unverändert. Wenn keine Bedingung erfüllt ist, dann ist der Wert des Fixels an der Stelle c durch einen vergrößerten Wert auf die gleiche Weise gegeben, wie die Werte den Pixeln zugeordnet wurden, wenn das Konturenbild, wie oben beschrieben, hergestellt wurde. Bei dem obigen Beispiel ist keine Bedingung erfüllt. Daher nimmt das Pixel einen Konturwert von '2' ein. Wenn später bei der Umrißbildung ein weiteres Pixel mit dem Wert von '1' genommen wird: If either or both conditions are met, the pixels located at C remain unchanged. If neither condition is met, then the value of the fixel at location c is given by an augmented value in the same way as the values were assigned to the pixels when the contour image was created as described above. In the above example, neither condition is met. Therefore, the pixel takes a contour value of '2'. If later, during the contouring, another pixel with the value of '1' is taken:
Alle Werte von A und B sind nicht '1', so daß die Operatorelemente entsprechend den Nicht-'1'-Bildelementen Null gemacht werden: All values of A and B are not '1', so the operator elements corresponding to the non-'1' image elements are made zero:
In diesem Falle ist die Bedingung (ii) erfüllt, und daher bleibt das Pixel C (in der Mitte) unverändert, d.h. der Wert von '1' bleibt aufrechterhalten. Nachdem dieser Prozeß für jedes Pixel vollendet ist, wird das in Fig. 4 dargestellte Feld erhalten, d.h. ein Konturenbild außer dort, wo die 'Test'- Bedingungen erfüllt sind. Aus diesem Feld wird das Skelettbild erzeugt, wo sämtliche Pixel, die nicht den Wert "1" haben, dem Wert von '0' zugeordnet sind, und dieses Feld ist in Fig. 5 dargestellt.In this case, condition (ii) is satisfied and therefore pixel C (in the center) remains unchanged, i.e. the value of '1' is maintained. After this process is completed for each pixel, the array shown in Fig. 4 is obtained, i.e. a contour image except where the 'test' conditions are satisfied. From this array, the skeleton image is generated where all pixels not having the value "1" are assigned the value of '0' and this array is shown in Fig. 5.
Das Feld gemäß Fig. 5 kann durch irgendein geeignetes Verfahren umrißmäßig erfaßt werden, um ein Feld zu erzeugen, welches beispielsweise dem Feld nach Fig. 6 entspricht. Die Skelettpixel können einfach den Konturwerten zugeordnet werden, die bereits für die entsprechenden Pixel des vorher erzeugten Konturbildes bestimmt wurden.The field of Fig. 5 can be contoured by any suitable method to produce a field corresponding, for example, to the field of Fig. 6. The skeleton pixels can simply be assigned to the contour values that have already been determined for the corresponding pixels of the previously generated contour image.
Gemäß Fig. 6 wird zur Bestimmung einer geeigneten Zielpunktlage oder des Flächenschwerpunkts des Zieles ein xy-Achsensystem auf einem der Pixel, vorzugsweise einem mit dem höchsten Skelettkonturwert, zentriert, d.h. dem Skelett-Flächenschwerpunkt. Die Koordinaten und des tatsächlichen Flächenschwerpunktes werden dann aus den folgenden Gleichungen bestimmt:According to Fig. 6, to determine a suitable target point location or the centroid of the target, an xy axis system is centered on one of the pixels, preferably one with the highest skeleton contour value, i.e. the skeleton centroid. The coordinates and of the actual centroid are then determined from the following equations:
= ΣΣ x C(x,y)/ΣΣC(x,y)= ΣΣ x C(x,y)/ΣΣC(x,y)
undand
= ΣΣ y C(x,y)/ΣΣC(x,y)= ΣΣ y C(x,y)/ΣΣC(x,y)
dabei sind x und y Werte des Achsensystems und C(x,y) sind die Konturwerte, die sich an den Skelettpixelstellen finden. Aus und kann der Abstand D des tatsächlichen Flächenschwerpunktes (mit * bezeichnet) aus dem Skelettflächenschwerpunkt bestimmt werden, d.h.:where x and y are values of the axis system and C(x,y) are the contour values found at the skeleton pixel locations. From and the distance D of the actual area centroid (marked with *) from the skeleton area centroid can be determined, i.e.:
D = ( ² + ²)D = ( ² + ²)
Es soll nunmehr das Skelett gemäß Fig. 6 betrachtet werden. Der Flächenschwerpunkt C ist markiert und besitzt den Konturwert von 14. Die x,y-Achse ist auf diesen Punkt zentriert. ΣΣC(x,y), ΣΣxC(x,y) und ΣΣyC(x,y) werden wie dargestellt bestimmt.Now consider the skeleton shown in Fig. 6. The centroid C is marked and has the contour value of 14. The x,y axis is centered on this point. ΣΣC(x,y), ΣΣxC(x,y) and ΣΣyC(x,y) are determined as shown.
ΣΣC(x,y) = 6+8+10+12+14+12+10+8+6+4ΣΣC(x,y) = 6+8+10+12+14+12+10+8+6+4
=90=90
ΣΣC(x,y) = (-4x6)+(-3x8)+(-2x10)+(1x12)+(0x14)+(1x12)+Σ Σ C(x,y) = (-4x6)+(-3x8)+(-2x10)+(1x12)+(0x14)+(1x12)+
(2x10)+(3x8)+(4x6)+4x4)(2x10)+(3x8)+(4x6)+4x4)
= -24+ -24 -20 -12 +12 +20 +24 +24 +16= -24+ -24 -20 -12 +12 +20 +24 +24 +16
= 16= 16
ΣΣyC(x,y) = (0x6)+(0x8)+(Ox10)+(0x12)+(0x14)+(0x12)+ΣΣyC(x,y) = (0x6)+(0x8)+(Ox10)+(0x12)+(0x14)+(0x12)+
(0x10)+(0x8)+(1x6)+(2x4)(0x10)+(0x8)+(1x6)+(2x4)
= 6 + 8= 6 + 8
= 14= 14
= ΣΣxC(x,y)/ΣΣC(x,y)= ΣΣxC(x,y)/ΣΣC(x,y)
= = 0.1778= = 0.1778
9090
= ΣyC(x,y)/ΣΣC(x,y)= ΣyC(x,y)/ΣΣC(x,y)
= = 0.1555= = 0.1555
9090
Auch der Abstand D von dem tatsächlichen Flächenschwerpunkt des Skelettflächenschwerpunktes wird bestimmt:The distance D from the actual centroid of the skeleton surface is also determined:
D = ( ² + ²)D = ( ² + ²)
D = (0.1778² + 0.1555²)D = (0.1778² + 0.1555²)
D = (0.0316 + 0.0242)D = (0.0316 + 0.0242)
D = 0.236D = 0.236
Falls erforderlich, kann der Abstand D für jedes Skelettpixel so bestimmt werden, daß das dem Flächenschwerpunkt am nächsten gelegene Pixel bestimmt werden kann, und dieses Pixel wird als Anzeige der Zielpunktlokalisierung benutzt.If necessary, the distance D for each skeleton pixel can be determined so that the pixel closest to the centroid can be determined, and this pixel is used as an indicator of the target point location.
Claims (8)
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB898905926A GB8905926D0 (en) | 1989-03-15 | 1989-03-15 | Target aim point location |
Publications (2)
Publication Number | Publication Date |
---|---|
DE69023787D1 DE69023787D1 (en) | 1996-01-11 |
DE69023787T2 true DE69023787T2 (en) | 1996-04-18 |
Family
ID=10653361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE69023787T Expired - Fee Related DE69023787T2 (en) | 1989-03-15 | 1990-03-15 | Target location on a target. |
Country Status (4)
Country | Link |
---|---|
US (1) | US5103484A (en) |
EP (1) | EP0388210B1 (en) |
DE (1) | DE69023787T2 (en) |
GB (1) | GB8905926D0 (en) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5052045A (en) * | 1988-08-29 | 1991-09-24 | Raytheon Company | Confirmed boundary pattern matching |
US5990822A (en) * | 1989-04-14 | 1999-11-23 | Honigsbaum; Richard F. | Process and apparatus for finding stealthcraft |
JPH03282683A (en) * | 1990-03-30 | 1991-12-12 | Hitachi Ltd | Pattern detecting method and device automatically adapted to quantity of noise |
US5093869A (en) * | 1990-12-26 | 1992-03-03 | Hughes Aircraft Company | Pattern recognition apparatus utilizing area linking and region growth techniques |
US5213281A (en) * | 1991-08-30 | 1993-05-25 | Texas Instruments Incorporated | Method and apparatus for tracking an aimpoint with arbitrary subimages |
EP0532052B1 (en) * | 1991-09-12 | 2008-02-13 | FUJIFILM Corporation | Method for extracting object images and method for detecting movements thereof |
JPH0628466A (en) * | 1992-04-02 | 1994-02-04 | Ezel Inc | Method for making line of image thin |
US5261012A (en) * | 1992-05-11 | 1993-11-09 | General Electric Company | Method and system for thinning images |
JP3298072B2 (en) * | 1992-07-10 | 2002-07-02 | ソニー株式会社 | Video camera system |
US5731539A (en) * | 1992-10-02 | 1998-03-24 | Motorola, Inc. | Target detection method |
US5479526A (en) * | 1993-03-23 | 1995-12-26 | Martin Marietta | Pixel designator for small objects |
GB2278513B (en) * | 1993-04-29 | 1997-07-09 | British Aerospace | Tracking apparatus |
US5604822A (en) * | 1993-11-12 | 1997-02-18 | Martin Marietta Corporation | Methods and apparatus for centroid based object segmentation in object recognition-type image processing system |
US5734736A (en) * | 1994-06-17 | 1998-03-31 | Trw Inc. | Autonomous rendezvous and docking system and method therefor |
US5815590A (en) * | 1996-12-18 | 1998-09-29 | Cal Corporation | Target light detection |
US6151403A (en) * | 1997-08-29 | 2000-11-21 | Eastman Kodak Company | Method for automatic detection of human eyes in digital images |
US6148092A (en) | 1998-01-08 | 2000-11-14 | Sharp Laboratories Of America, Inc | System for detecting skin-tone regions within an image |
US6404900B1 (en) | 1998-06-22 | 2002-06-11 | Sharp Laboratories Of America, Inc. | Method for robust human face tracking in presence of multiple persons |
US7298867B2 (en) * | 2004-02-20 | 2007-11-20 | Lockheed Martin Corporation | Component association tracker system and method |
PL1913557T3 (en) * | 2005-06-23 | 2016-12-30 | A system and method for tracking moving objects | |
DE102006053758A1 (en) * | 2006-11-13 | 2008-05-15 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Method for controlling the alignment of a heliostat to a receiver, heliostat device and solar power plant |
IL219639A (en) | 2012-05-08 | 2016-04-21 | Israel Aerospace Ind Ltd | Remote tracking of objects |
EP2946361B1 (en) | 2013-01-15 | 2018-01-03 | Israel Aerospace Industries Ltd. | Remote tracking of objects |
IL224273B (en) | 2013-01-17 | 2018-05-31 | Cohen Yossi | Delay compensation while controlling a remote sensor |
CN110308172B (en) * | 2019-07-19 | 2022-07-12 | 清远市清新区谷城矿业开发投资有限公司 | Aggregate analysis and detection method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE1250166B (en) * | 1962-05-21 | 1967-09-14 | International Business Machines Corporation Armonk, NY (V St A) | Device for machine character recognition |
US4405940A (en) * | 1977-05-31 | 1983-09-20 | Westinghouse Electric Corp. | Apparatus and method for preprocessing video frame signals |
NL7801727A (en) * | 1978-02-16 | 1979-08-20 | Hollandse Signaalapparaten Bv | THRESHOLD SELECTION CIRCUIT. |
US4409661A (en) * | 1979-08-22 | 1983-10-11 | The United States Of America As Represented By The Secretary Of The Air Force | Aimpoint selection processor |
DE2949453C2 (en) * | 1979-12-08 | 1982-02-04 | Messerschmitt-Bölkow-Blohm GmbH, 8000 München | Process for increasing the impact of missiles, missile parts and projectiles |
US4539590A (en) * | 1983-03-08 | 1985-09-03 | Gage Richard J | Method and apparatus for processing optical tracking signals |
US4739401A (en) * | 1985-01-25 | 1988-04-19 | Hughes Aircraft Company | Target acquisition system and method |
US4796187A (en) * | 1986-12-24 | 1989-01-03 | Hughes Aircraft Company | Method for processing image data to select a target aimpoint |
GB8701391D0 (en) * | 1987-01-22 | 1987-07-29 | British Aerospace | Imaging processing techniques |
GB8703928D0 (en) * | 1987-02-19 | 1987-07-29 | British Aerospace | Image processing |
-
1989
- 1989-03-15 GB GB898905926A patent/GB8905926D0/en active Pending
-
1990
- 1990-03-15 DE DE69023787T patent/DE69023787T2/en not_active Expired - Fee Related
- 1990-03-15 EP EP90302815A patent/EP0388210B1/en not_active Expired - Lifetime
-
1991
- 1991-05-08 US US07/700,307 patent/US5103484A/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US5103484A (en) | 1992-04-07 |
EP0388210A2 (en) | 1990-09-19 |
EP0388210A3 (en) | 1992-01-22 |
GB8905926D0 (en) | 1990-04-25 |
EP0388210B1 (en) | 1995-11-29 |
DE69023787D1 (en) | 1996-01-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69023787T2 (en) | Target location on a target. | |
DE10043460C2 (en) | Locating parts of the body by evaluating edge direction information | |
DE69415048T2 (en) | METHOD AND APPARATUS FOR DETERMINING THE ACCURATE ANGLE ORIENTATION OF STICK CODE DESYMBOLS IN TWO-DIMENSIONAL CCD IMAGES | |
DE4142650B4 (en) | Method and arrangement for deriving a control signal for the insertion of a background signal into parts of a foreground signal | |
DE69629930T2 (en) | Method for setting an optical code attached to an object | |
DE112013004103B4 (en) | Method and apparatus for generating a disparity card | |
DE3505331C2 (en) | Method and device for measuring the impression left in a sample during penetration hardness testing | |
DE69330550T2 (en) | Method and system for locating objects with sub-pixel precision | |
DE318866T1 (en) | METHOD FOR IMPROVING IMAGE DATA THROUGH NOISE REDUCTION OR DIFFERENTIATION. | |
DE4224568C2 (en) | Apparatus and method for forming the display of a three-dimensional sequential tomographic area shading image | |
DE19525561C2 (en) | 3D measuring device | |
DE69225264T2 (en) | Minimum difference processor | |
DE69813931T2 (en) | Filtering method for focusing images | |
DE68919947T2 (en) | Measurement of image movement. | |
DE10017551C2 (en) | Process for cyclic, interactive image analysis and computer system and computer program for executing the process | |
DE69600320T2 (en) | Process for the automatic detection of evaluable zones in images of mechanical parts | |
EP1585059A2 (en) | Method and apparatus for evaluation of motion vectors allocated to image regions | |
DE60026732T2 (en) | CELL LINES EXTRACTION PROCESS | |
DE3622222A1 (en) | CHARACTER RECOGNITION IN TWO-DIMENSIONAL SIGNALS | |
DE102022201279B3 (en) | Method for capturing an environment of a vehicle, camera device and vehicle | |
DE60207569T2 (en) | ADJUSTMENT OF THE ENERGY FUNCTION IN CALCULATION IN REAL TIME OF CONTOURS FOR PICTORIAL SEGMENTATION | |
DE19549216C2 (en) | Process for image evaluation | |
DE69128399T2 (en) | Fingerprint image processing device | |
EP1185084A2 (en) | Image compression method and image coder | |
DE3446009C2 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8364 | No opposition during term of opposition | ||
8327 | Change in the person/name/address of the patent owner |
Owner name: MATRA BAE DYNAMICS (UK) LTD., STEVENAGE, HERTFORDS |
|
8327 | Change in the person/name/address of the patent owner |
Owner name: MBDA UK LTD., STEVENAGE, HERTFORDSHIRE, GB |
|
8339 | Ceased/non-payment of the annual fee |