[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

EP1410354A2 - Device for surveilling an area in a room - Google Patents

Device for surveilling an area in a room

Info

Publication number
EP1410354A2
EP1410354A2 EP01976199A EP01976199A EP1410354A2 EP 1410354 A2 EP1410354 A2 EP 1410354A2 EP 01976199 A EP01976199 A EP 01976199A EP 01976199 A EP01976199 A EP 01976199A EP 1410354 A2 EP1410354 A2 EP 1410354A2
Authority
EP
European Patent Office
Prior art keywords
area
image
monitored
images
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP01976199A
Other languages
German (de)
French (fr)
Inventor
Joachim Tiedecke
Michael Weigel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IDM GmbH
Original Assignee
IDM GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IDM GmbH filed Critical IDM GmbH
Publication of EP1410354A2 publication Critical patent/EP1410354A2/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target

Definitions

  • the present invention relates to a device for monitoring an area, having an image-receiving means, in particular a sensor array in the form of a flat imaging sensor, and an emitting means emitting electromagnetic waves for illuminating a space to be acquired by means of the image-receiving means, the emitting means being electromagnetic Waves are emitted in a pulsed manner and the image-receiving means imprints an image in a specific time window after the electromagnetic waves have been emitted by the transmitting means.
  • an image-receiving means in particular a sensor array in the form of a flat imaging sensor
  • an emitting means emitting electromagnetic waves for illuminating a space to be acquired by means of the image-receiving means, the emitting means being electromagnetic Waves are emitted in a pulsed manner and the image-receiving means imprints an image in a specific time window after the electromagnetic waves have been emitted by the transmitting means.
  • BESTATIGUNGSKOPIE eg detach light barriers and motion detectors. Difficulties arise especially when a dynamic area is to be monitored and / or a three-dimensional area monitoring is to be implemented.
  • the object of the present invention is to provide a device for recording and / or monitoring, in particular a three-dimensional space.
  • CMOS array is advantageously used as an imaging sensor. Distortions caused by the wide-angle optics can advantageously be compensated for by image processing.
  • a sensor array in particular a CCD sensor, can be used as the image-receiving means.
  • the integration time determines the vertical extent, i.e. the thickness of each cutting plane.
  • Different sectional planes of the real space can advantageously be recorded one after the other by means of the device.
  • the comparison of two images taken one after the other can be carried out, for example, by means of image processing by so-called difference image analysis. In particular, differences in the gray values of the images are examined.
  • an alarm signal can be triggered, for example.
  • other image processing methods can also be used to evaluate the image information obtained.
  • three-dimensional objects can be recognized in particular by recording images of several sectional planes within one period and by comparing the images.
  • the device can, for example, trigger an alarm or another event when certain objects are detected that are not allowed to be in the area to be monitored.
  • the device monitors the status of a system and recognizes it when liquids and gases escape and likewise initiates suitable measures for alarming and / or problem solving.
  • the device automatically starts a certain process after an object enters the area to be monitored.
  • an air conditioning system, music system, etc. can be switched on when a person enters richly.
  • the device can also be used advantageously, for example, to monitor ATMs or rooms.
  • Fixed objects are automatically recognized by the constant comparison of the images, which means that the system gets to know the room through constant comparison and can therefore decide whether new objects have been added to the room.
  • they can also be recognized and possibly classified based on their outlines or other identifying features.
  • Markings which are arranged either in one plane or in different spatial planes or sectional planes can advantageously be used to delimit the region, as a result of which either a two-dimensional or three-dimensional region can be defined.
  • the markings are automatically recognized by the system on the basis of their reflection characteristics and / or contours.
  • a corresponding event such as an alarm
  • a corresponding event such as an alarm, can be triggered.
  • the room is illuminated by a radiation source, which emits electromagnetic waves in the non-visible area, so that on the one hand disturbances due to fluctuations in daylight are reduced and on the other hand the area cannot be monitored with the naked eye.
  • FIG. 1 shows the basic mode of operation of the device according to claim 1, in which the surroundings or the area to be monitored is illuminated with a light pulse of short duration.
  • sectional planes Ei, E 2 , E 3 and E 4 can be viewed in a targeted manner.
  • the integration time that is to say the time in which the imaging points of the sensor array are charged by incident light, thus determines the vertical extent, that is to say the height h of the planes Ei to E 4 .
  • the illuminant emits a short light pulse of a certain duration.
  • the illuminated cutting plane is switched on by sensor S for a short period of time (integration time) added.
  • the duration of the integration time starting with the time T 2 determines the thickness hi of the cut plane Ei.
  • the sectional plane E 2 is monitored by the lamp L emitting a short light pulse at time T 3 and the sensor S being exposed for a short time starting at time T 4 , for example by opening the diaphragm or controlling the sensor accordingly.
  • the levels E 3 and E 4 can be recorded accordingly.
  • the cutting plane and its thickness are determined. So it is possible that the cutting planes partially overlap or exactly adjoin each other or that certain cutting planes of the room are not included.
  • the area 1 to be monitored is identified by means of markings 2. Fixed objects are eliminated by the difference value formation (gray value difference). In contrast, the person P, who was not in the area 1 to be monitored in the image B1, is recognized when the difference value is formed. This is shown with the difference value image G and the person P ⁇ shown in broken lines. Due to the difference formation, objects 0 no longer exist in image G. The area 1 to be monitored is delimited by the markings 2. Due to the overlapping of the images, the device knows from the image Bi or B 2 , where the limits of the area 1 to be monitored are located. The area marker 2 is shown in Figure G only for clarity. When calculating the difference value, however, it is removed so that it would actually no longer exist in image G.
  • punctiform markings 3 are only arranged in the corners of the region (polygon) to be monitored as desired. From this, the data processing system of the device calculates the area 1 to be monitored.
  • the area markings shown in FIGS. 2 to 4 can also be used for the individual sectional planes Ei to E 4 , that is to say that a plurality of markings in the room can be arranged one above the other in the room, thereby forming an arbitrarily shaped one Area can be defined and monitored. Differently marked or shaped markings for different cutting planes can ensure that markings lying one above the other are reliably recognized. For example, it is also possible to provide markings which are arranged on the floor of the area to be monitored and which are based on their serve as area markings for several cutting planes.

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

The invention relates to a device for surveilling an area. Said device comprises an image-recording means, especially a sensor array in the form of a two-dimensional image-producing sensor, and an emitting means emitting electromagnetic waves for illuminating a room to be covered by said image-recording means. The emitting means emits electromagnetic waves in a pulsed manner, and the image-recording means records an image within a defined time frame after the electromagnetic waves have been emitted by the emitting means. The beginning and the duration of the emitted electromagnetic pulses, and the temporal distance between the emitted pulse and the beginning and/or end of the image-recording is pre-determined, thus enabling the distance to be pre-determined between the image-recording means and the intersecting plane (E) to be recorded of the room to be surveilled, and/or the spatial depth (h) of the intersecting plane (serial gating method).

Description

Vorrichtung zur Überwachung eines Bereichs eines RaumesDevice for monitoring an area of a room
Die vorliegende Erfindung betrifft eine Vorrichtung zur Überwachung eines Bereichs, ein bildaufnehmendes Mittel aufweisend, insbesondere ein Sensorarray in Form eines flächigen bildgebenden Sensors, sowie ein elektromagnetische Wellen aussendendes Sendemittel zur Beleuchtung eines mittels des bildaufnehmenden Mittels zu erfassenden Raumes aufweisend, wobei das Sendemittel elektromagneti- sehe Wellen pulsartig aussendet und das bildaufnehmende Mittel in einem bestimmten Zeitfenster nach Aussenden der elektromagnetischen Wellen durch das Sendemittel ein Bild auf immt .The present invention relates to a device for monitoring an area, having an image-receiving means, in particular a sensor array in the form of a flat imaging sensor, and an emitting means emitting electromagnetic waves for illuminating a space to be acquired by means of the image-receiving means, the emitting means being electromagnetic Waves are emitted in a pulsed manner and the image-receiving means imprints an image in a specific time window after the electromagnetic waves have been emitted by the transmitting means.
In der industriellen Arbeitswelt und anderen Bereichen ergibt sich immer wieder die Problemstellung, daß ein großer Bereich gegen Zutritt zu überwachen ist. DieseIn the industrial world and other areas, the problem arises again and again that a large area must be monitored against access. This
Aufgabe läßt sich nicht immer mit einfachen Sensoren wieTask cannot always be done with simple sensors like
BESTATIGUNGSKOPIE z.B. Lichtschranken und Bewegungsmeldern lösen. Schwierigkeiten ergeben sich insbesondere dann, wenn ein dynamischer Bereich überwacht und/oder eine dreidimensionale Bereichsüberwachung implementiert werden soll.BESTATIGUNGSKOPIE eg detach light barriers and motion detectors. Difficulties arise especially when a dynamic area is to be monitored and / or a three-dimensional area monitoring is to be implemented.
Aufgabe der vorliegenden Erfindung ist es, eine Vorrichtung zur Aufnahme und/oder Überwachung eines insbesondere dreidimensionalen Raums bereitzustellen.The object of the present invention is to provide a device for recording and / or monitoring, in particular a three-dimensional space.
Diese Aufgabe wird erfindungsgemäß mittels einer Vorrichtung gemäß den Merkmalen des Anspruchs 1 oder einer Vor- richtung gemäß den Merkmalen des Anspruchs 11 gelöst. Weitere vorteilhafte Ausbildungen der Vorrichtungen gemäß der Ansprüche 1 oder 11 ergeben sich aus den Unteransprüchen 2 bis 10 und 12 bis 23.This object is achieved according to the invention by means of a device according to the features of claim 1 or a device according to the features of claim 11. Further advantageous embodiments of the devices according to claims 1 or 11 result from subclaims 2 to 10 and 12 to 23.
Mittels der Vorrichtung gemäß Anspruch 1 ist es vorteil- haft möglich, einzelne Schnittebenen eines Raums aufzunehmen. Dies wird dadurch erreicht, daß ein Lichtimpuls von bestimmter zeitlicher Dauer zur Ausleuchtung eines Raumes ausgesendet wird. Entsprechend der notwendigen Laufzeit von dem Beleuchtungsmittel hin zur zu belichten- den Schnittebene wird nach einer bestimmten Zeit mittels eines bildaufnehmenden Mittels ein Bild aufgenommen. Mittels dieses Verfahrens ist es möglich, ein Höhenprofil des dreidimensionalen Raums zu ermitteln. Dieses Prinzip kann auch als Serial-Gating bezeichnet werden. Vorteil- haft wird ein schnelles CMOS Array als bildgebender Sensor verwendet. Verzeichnungen durch die Weitwinkeloptik können durch die Bildverarbeitung vorteilhaft kompensiert werden. Als bildaufnehmendes Mittel kann zum Beispiel ein Sensorarray, insbesondere ein CCD-Sensor Verwendung fin- den. Je nachdem wann nach Aussenden des Lichtimpulses die bildgebenden Punkte des Sensorarrays ausgelesen werden, können somit gezielt einzelne Schnittebenen im Raum betrachtet werden. Die Integrationszeit bestimmt dabei die vertikale Ausdehnung, das heißt die Dicke jeder Schnittebene. Mittels der Vorrichtung lassen sich vorteilhaft nacheinander verschiedene Schnittebenen des realen Raums aufnehmen. Es ist jedoch auch möglich, in zeitlichen Abständen Bilder derselben Schnittebene aufzunehmen, um durch Vergleich dieser nacheinander aufgenommenen Bilder eine Veränderung innerhalb der Schnittebene festzustel- len. Der Vergleich zweier nacheinander aufgenommener Bilder kann zum Beispiel mittels einer Bildverarbeitung durch sogenannte Differenzbildanalyse vorgenommen werden. Dabei werden insbesondere Differenzen in den Grauwerten der Bilder untersucht. Ergibt sich zwischen zwei Bildern eine signifikante bzw. nicht erlaubte Grauwertdifferenz, kann zum Beispiel ein Alarmsignal ausgelöst werden. Zur Auswertung der gewonnen Bildinformation können jedoch auch andere Bildverarbeitungsmethoden verwendet werden. Es ist ebenso denkbar, daß durch die Aufnahme von Bildern mehrerer Schnittebenen innerhalb einer Periode und durch Vergleich der Bilder insbesondere dreidimensionale Objekte erkennbar sind. Die Vorrichtung kann z.B. bei Erkennen bestimmter Objekte, die sich nicht im zu überwachenden Bereich aufhalten dürfen einen Alarm oder ein sonstiges Ereignis auslösen. Ebenso ist es denkbar, daß die Vorrichtung den Zustand einer Anlage überwacht und beim Austritt von Flüssigkeiten und Gasen diese erkennt und ebenfalls geeignete Maßnahmen zur Alarmierung und/oder zur Problembehebung einleitet. Es ist weiterhin denkbar, daß die Vorrichtung nach Eintritt eines Objekts in den zu überwachenden Bereich einen bestimmten Vorgang automatisch startet. So kann z.B. eine Klimaanlage, Musikanlage, etc. eingeschaltet werden, wenn eine Person den Be- reich betritt. Auch kann die Vorrichtung zum Beispiel vorteilhaft zur Überwachung von Bankautomaten oder Räumen Verwendung finden. Feststehende Objekte werden durch den ständigen Vergleich der Bilder automatisch erkannt, das heißt, das System lernt den Raum durch ständigen Vergleich kennen und kann somit entscheiden, ob neue Objekte zum Raum hinzugekommen sind. Je nach Fortbewegungsgeschwindigkeit der im zu überwachenden Raum befindlichen Gegenstände bzw. Personen können diese auch zum Beispiel anhand ihrer Umrisse oder sonstigen Erkennungsmerkmale erkannt und eventuell klassifiziert werden.By means of the device according to claim 1, it is advantageously possible to record individual sectional planes of a room. This is achieved in that a light pulse of a certain duration is emitted to illuminate a room. In accordance with the necessary transit time from the illuminating means to the cutting plane to be exposed, an image is recorded after a certain time by means of an image-capturing means. With this method it is possible to determine a height profile of the three-dimensional space. This principle can also be referred to as serial gating. A fast CMOS array is advantageously used as an imaging sensor. Distortions caused by the wide-angle optics can advantageously be compensated for by image processing. For example, a sensor array, in particular a CCD sensor, can be used as the image-receiving means. Depending on when the imaging points of the sensor array are read out after the light pulse has been emitted, individual sectional planes in the room can thus be viewed in a targeted manner. The integration time determines the vertical extent, i.e. the thickness of each cutting plane. Different sectional planes of the real space can advantageously be recorded one after the other by means of the device. However, it is also possible to record images of the same sectional plane at time intervals in order to determine a change within the sectional plane by comparing these successively recorded images. The comparison of two images taken one after the other can be carried out, for example, by means of image processing by so-called difference image analysis. In particular, differences in the gray values of the images are examined. If there is a significant or not permitted gray value difference between two images, an alarm signal can be triggered, for example. However, other image processing methods can also be used to evaluate the image information obtained. It is also conceivable that three-dimensional objects can be recognized in particular by recording images of several sectional planes within one period and by comparing the images. The device can, for example, trigger an alarm or another event when certain objects are detected that are not allowed to be in the area to be monitored. It is also conceivable that the device monitors the status of a system and recognizes it when liquids and gases escape and likewise initiates suitable measures for alarming and / or problem solving. It is also conceivable that the device automatically starts a certain process after an object enters the area to be monitored. For example, an air conditioning system, music system, etc. can be switched on when a person enters richly. The device can also be used advantageously, for example, to monitor ATMs or rooms. Fixed objects are automatically recognized by the constant comparison of the images, which means that the system gets to know the room through constant comparison and can therefore decide whether new objects have been added to the room. Depending on the speed of movement of the objects or people located in the room to be monitored, they can also be recognized and possibly classified based on their outlines or other identifying features.
Vorteilhaft können zur Bereichsbegrenzung Markierungen Verwendung finden, die entweder in einer Ebene oder in verschiedenen Raumebenen bzw. Schnittebenen angeordnet sind, wodurch entweder ein zweidimensionaler oder dreidimensionaler Bereich festlegbar ist. Die Markierungen werden aufgrund ihrer Reflexionseigenarten und/oder Konturen vom System automatisch erkannt. Sobald sich ein Objekt über die Bereichsgrenze bewegt, wird es vom System er- kannt und es wird ein entsprechendes Ereignis, wie zum Beispiel ein Alarm, vom System automatisch ausgelöst. Es ist zum Beispiel möglich, daß Personen oder Objekte, welche sich im Bereich aufhalten, mit einer Erkennungsmarkierung versehen sind. Das System ist somit in der Lage, diese Objekte oder Personen von anderen, diese Erkennungsmerkmale nicht aufweisenden Objekten oder Personen zu unterscheiden. Sobald ein Objekt oder eine Person in den Bereich, welcher zu überwachen ist, eindringt, welches bzw. welche die entsprechende Markierung nicht auf- weist, kann ein entsprechendes Ereignis wie zum Beispiel ein Alarm ausgelöst werden.Markings which are arranged either in one plane or in different spatial planes or sectional planes can advantageously be used to delimit the region, as a result of which either a two-dimensional or three-dimensional region can be defined. The markings are automatically recognized by the system on the basis of their reflection characteristics and / or contours. As soon as an object moves beyond the area limit, it is recognized by the system and a corresponding event, such as an alarm, is triggered automatically by the system. For example, it is possible for people or objects that are in the area to be provided with an identification mark. The system is thus able to distinguish these objects or people from other objects or people that do not have these identification features. As soon as an object or a person enters the area which is to be monitored and which does not have the corresponding marking, a corresponding event, such as an alarm, can be triggered.
In einer vorteilhaften Ausbildung der Vorrichtung wird der Raum mittels einer Strahlungsquelle beleuchtet, welche elektromagnetische Wellen im nicht-sichtbaren Bereich aussendet, so daß zum einen Störungen durch Tageslichtschwankungen vermindert werden und zum anderen die Über- wachung des Bereichs nicht mit bloßem Auge erkennbar ist.In an advantageous embodiment of the device the room is illuminated by a radiation source, which emits electromagnetic waves in the non-visible area, so that on the one hand disturbances due to fluctuations in daylight are reduced and on the other hand the area cannot be monitored with the naked eye.
Nachfolgend wird die erfindungsgemäße Vorrichtung mittels Zeichnungen näher erläutert.The device according to the invention is explained in more detail below by means of drawings.
Es zeigen:Show it:
Fig. 1: das Prinzip des Serial-Gating-Verfahrens;1: the principle of the serial gating method;
Fig. 2: das Prinzip der Differenzbildanalyse;2: the principle of difference image analysis;
Fig. 3: eine Bereichsbegrenzung für einen ι zu überwachenden Raum mittels Eckmarkierungen;3: an area limitation for a room to be monitored by means of corner markings;
Fig. 4: eine Aufteilung des zu überwachenden Bereichs mittels rechteckförmiger Markierungen.4: a division of the area to be monitored by means of rectangular markings.
Die Fig. 1 zeigt die prinzipielle Funktionsweise der Vorrichtung nach Anspruch 1, bei der die Umgebung bzw. der zu überwachende Bereich mit einem Lichtpuls kurzer Dauer ausgeleuchet wird. Je nachdem wann nach dem Lichtpuls die bildgebenden Punkte des Sensorarrays ausgelesen werden, können gezielt Schnittebenen Ei, E2, E3 und E4 betrachtet werden. Die Integrationszeit, das heißt die Zeit, in der die bildgebenden Punkte des Sensorarrays durch einfallendes Licht aufgeladen werden, bestimmt so die vertikale Ausdehnung, das heißt die Höhe h der Ebenen Ei bis E4.1 shows the basic mode of operation of the device according to claim 1, in which the surroundings or the area to be monitored is illuminated with a light pulse of short duration. Depending on when the imaging points of the sensor array are read out after the light pulse, sectional planes Ei, E 2 , E 3 and E 4 can be viewed in a targeted manner. The integration time, that is to say the time in which the imaging points of the sensor array are charged by incident light, thus determines the vertical extent, that is to say the height h of the planes Ei to E 4 .
Zum Zeitpunkt Ti sendet das Leuchtmittel einen kurzen Lichtimpuls bestimmter zeitlicher Dauer aus. Zum Zeitpunkt T2 wird für eine kurze Zeitspanne (Integrationszeit) mittels des Sensors S die beleuchtete Schnittebene aufgenommen. Die Dauer der Integrationszeit beginnend mit dem Zeitpunkt T2 bestimmt die Dicke hi der aufgenommenen Schnittebene Ei.At time Ti, the illuminant emits a short light pulse of a certain duration. At time T 2 , the illuminated cutting plane is switched on by sensor S for a short period of time (integration time) added. The duration of the integration time starting with the time T 2 determines the thickness hi of the cut plane Ei.
Anschließend wird die Schnittebenen E2 überwacht, indem zum Zeitpunkt T3 das Leuchtmittel L einen kurzen Lichtimpuls aussendet und beginnend mit dem Zeitpunkt T4 der Sensor S kurzfristig belichtet wird, indem zum Beispiel die Blende geöffnet wird oder der Sensor entsprechend angesteuert wird. Entsprechend können die Ebenen E3 und E4 aufgenommen werden.Subsequently, the sectional plane E 2 is monitored by the lamp L emitting a short light pulse at time T 3 and the sensor S being exposed for a short time starting at time T 4 , for example by opening the diaphragm or controlling the sensor accordingly. The levels E 3 and E 4 can be recorded accordingly.
In Abhängigkeit der Integrationszeit sowie der Belichtungszeit und dem zeitlichen Abstand zwischen Aussenden des Lichtimpulses und Aufnahme eines Bildes mittels des Sensors, wird die Schnittebene sowie deren Dicke festge- legt. So ist es möglich, daß sich die Schnittebenen teilweise überlappen oder exakt aneinander angrenzen oder aber bestimmte Schnittebenen des Raums nicht aufgenommen werden.Depending on the integration time and the exposure time and the time interval between emitting the light pulse and taking an image by means of the sensor, the cutting plane and its thickness are determined. So it is possible that the cutting planes partially overlap or exactly adjoin each other or that certain cutting planes of the room are not included.
Die Fig. 2 zeigt den Vergleich zweier aufgenommener Bil- der Bi und B2 einer Schnittebene. Der zu überwachende Bereich 1 ist mittels Markierungen 2 gekennzeichnet. Feststehende Objekte werden durch die Differenzwertbildung (Grauwertdifferenz) herausgerechnet. Dagegen wird die Person P, welche sich im Bild Bl nicht im zu überwachen- den Bereich 1 befunden hat, bei der Differenzwertbildung erkannt. Dies ist mit dem Differenzwertbild G und der gestrichelt dargestellten Person PΛ dargestellt. Aufgrund der Differenzbildung sind die Objekte 0 im Bild G nicht mehr vorhanden. Der zu überwachende Bereich 1 wird durch die Markierungen 2 begrenzt. Aufgrund der Überlagerung der Bilder weiß die Vorrichtung ausgehend von dem Bild Bi oder B2, wo sich die Grenzen des zu überwachenden Bereichs 1 befinden. Die Bereichsmarkierung 2 ist im Bild G nur zur Anschaulichkeit dargestellt. Bei der Differenzwertbildung wird sie jedoch herausgerechnet, so daß sie tatsächlich im Bild G nicht mehr vorhanden wäre.2 shows the comparison of two recorded images Bi and B 2 of a sectional plane. The area 1 to be monitored is identified by means of markings 2. Fixed objects are eliminated by the difference value formation (gray value difference). In contrast, the person P, who was not in the area 1 to be monitored in the image B1, is recognized when the difference value is formed. This is shown with the difference value image G and the person P Λ shown in broken lines. Due to the difference formation, objects 0 no longer exist in image G. The area 1 to be monitored is delimited by the markings 2. Due to the overlapping of the images, the device knows from the image Bi or B 2 , where the limits of the area 1 to be monitored are located. The area marker 2 is shown in Figure G only for clarity. When calculating the difference value, however, it is removed so that it would actually no longer exist in image G.
Die Fig. 3 zeigt eine weitere Möglichkeit, einen Bereich 1 mittels Markierungen 3 zu kennzeichnen. Hierbei werden lediglich in den Ecken des beliebig gestalteten zu überwachenden Bereichs (Vieleck) punktförmige Markierungen 3 angeordnet. Die Datenverarbeitungsanlage der Vorrichtung berechnet daraus den zu überwachenden Bereich 1.3 shows a further possibility of identifying an area 1 by means of markings 3. In this case, punctiform markings 3 are only arranged in the corners of the region (polygon) to be monitored as desired. From this, the data processing system of the device calculates the area 1 to be monitored.
Alternativ zu den vorbeschriebenen Markierungen ist es möglich, den zu überwachenden Bereich mittels linienför- miger Markierungen 4 in Unterbereiche a bis f aufzutei- len, wobei hierdurch feststellbar ist, ob sich Objekte oder Personen entweder in den zu überwachenden Bereich oder von einem Teil des zu überwachenden Bereichs in einen anderen oder aus dem zu überwachenden Bereich heraus bewegen.As an alternative to the above-described markings, it is possible to divide the area to be monitored by means of line-shaped markings 4 into sub-areas a to f, it being possible to determine whether objects or people are either in the area to be monitored or from part of the area Move the monitored area to another area or out of the area to be monitored.
Es versteht sich von selbst, daß die in den Fig. 2 bis 4 dargestellten Bereichsmarkierungen ebenso für die einzelnen Schnittebenen Ei bis E4 Verwendung finden können, das heißt, daß mehrere Markierungen im Raum übereinander im Raum angeordnet sein können, wobei hierdurch ein beliebig geformter Bereich definierbar und überwachbar ist. Durch unterschiedlich markierte bzw. geformte Markierungen für jeweils unterschiedliche Schnittebenen kann gewährleistet werden, daß übereinanderliegende Markierungen sicher erkannt werden. So ist es zum Beispiel auch möglich, Mar- kierungen vorzusehen, welche auf dem Boden des zu überwachenden Bereichs angeordnet sind und welche aufgrund ih- rer Eigenart für mehrere Schnittebenen als Bereichsmarkierungen dienen. It goes without saying that the area markings shown in FIGS. 2 to 4 can also be used for the individual sectional planes Ei to E 4 , that is to say that a plurality of markings in the room can be arranged one above the other in the room, thereby forming an arbitrarily shaped one Area can be defined and monitored. Differently marked or shaped markings for different cutting planes can ensure that markings lying one above the other are reliably recognized. For example, it is also possible to provide markings which are arranged on the floor of the area to be monitored and which are based on their serve as area markings for several cutting planes.

Claims

P a ten tan s p rü che P a ten tan speech
1. Vorrichtung zur Überwachung eines Bereichs, ein bildaufnehmendes Mittel aufweisend, insbesondere ein Sensorarray in Form eines flächigen bildgebenden Sensors, sowie ein elektromagnetische Wellen aussendendes Sendemittel zur Beleuchtung eines mittels des bildaufnehmenden Mittels zu erfassenden Raumes aufweisend, wobei das Sendemittel elektromagnetische Wellen pulsartig aussendet und das bildaufnehmende Mittel in einem bestimmten Zeitfenster nach Aussenden der elektromagnetischen Wellen durch das Sendemittel ein Bild aufnimmt, da du r ch ge ke n n z e i c hn e t , daß der Beginn und die Dauer des ausgesendeten elektromagnetischen Pulses, sowie der zeitliche Abstand zwischen ausgesendetem Puls und dem Beginn und/oder Ende der Bildaufnahme vorgebbar ist, und daß hierdurch der Abstand zwischen bildaufnehmendem Mittel und aufzunehmender Schnittebene (E) des zu überwachenden Raumes und/oder der räumliche Tiefe (h) der Schnittebene vorgebbar ist (Serial-Gating- Verfahren) .1.Device for monitoring an area, having an image-receiving means, in particular a sensor array in the form of a flat image-forming sensor, and having an electromagnetic wave transmitting means for illuminating a space to be captured by means of the image-receiving means, the transmitting means emitting electromagnetic waves in a pulsed manner and that image-recording means takes a picture in a certain time window after the electromagnetic waves have been emitted by the transmitting means, since you do not know that the start and the duration of the emitted electromagnetic pulse, as well as the time interval between the emitted pulse and the start and / or the end of the image recording can be specified, and in this way the distance between the image-taking means and the cutting plane (E) to be recorded of the space to be monitored and / or the spatial depth (h) of the cutting plane can be specified (serial-gating method).
2. Vorrichtung nach Anspruch 1, dadu r ch ge k e nn z e i chne t , daß die Vorrichtung mehrere Bilder von Schnittebenen (E) des realen Raumes nacheinander aufnimmt.2. Device according to claim 1, so that the device takes several pictures of sectional planes (E) of the real space one after the other.
3. Vorrichtung nach Anspruch 2, dadu r ch g e - k e nn z e i ch n e t , daß die Vorrichtung die zeitlich nacheinander aufgenommenen Bilder der Schnitt- ebenen zur Ermittlung von Unterschieden miteinander vergleicht .3. Device according to claim 2, so that the device does not show that the device takes the images of the cutting levels to determine differences.
4. Vorrichtung nach einem der Ansprüche 1 - 3, da du r ch ge kenn z e i chn e t , daß durch die Aufnahme von verschiedenen Schnittebenen des realen Raumes eine dreidimensionale Abbildung des Raumes ermittelbar ist.4. Device according to one of claims 1 - 3, since you r ch ge kenn z e i chn e t that a three-dimensional image of the space can be determined by the inclusion of different sectional planes of the real space.
5. Vorrichtung nach einem der Ansprüche 1 bis 4, d a d u r c h g e k e n n z e i c h n e t , daß die Vor- richtung in Zeitabständen insbesondere periodisch eine Schnittebene des realen Raumes aufnimmt und zumindest die beiden zuletzt aufgenommenen Bilder dieser Schnittebene miteinander vergleicht.5. Device according to one of claims 1 to 4, d a d u r c h g e k e n e z e i c h n e t that the device in particular periodically picks up a section plane of the real space and compares at least the two last recorded images of this section plane with each other.
6. Vorrichtung nach Anspruch 5, dadu r ch g e - k en n z e i chn e t , daß in einer Periode nacheinander Bilder sämtlicher Schnittebenen des realen Raumes aufgenommen werden und zumindest die Bilder der beiden zuletzt aufgenommenen Perioden in einem Speicher zwischengespeichert und miteinander verglichen werden.6. Apparatus according to claim 5, so that images of all slice planes of the real space are recorded in succession in one period and at least the images of the two last recorded periods are temporarily stored in a memory and compared with one another.
7. Vorrichtung nach einem der vorherigen Ansprüche, dadu r c h ge k e n n z e i c hn e t , daß die7. Device according to one of the preceding claims, dadu r c h ge k e n n z e i c hn e t that the
Vorrichtung mittels der ermittelten Schnittebenenbilder einen 3-dimensionalen Bereich überwacht, wobei insbesondere die Schnittebenen voneinander unterschiedliche Bereichsgrenzen aufweisen können, welche ihnen zuordbar oder ermittelbar sind.Device monitors a 3-dimensional area by means of the determined sectional plane images, wherein in particular the sectional planes can have different area boundaries from one another, which can be assigned to them or ascertainable.
8. Vorrichtung nach einem der vorherigen Ansprüche, dadur ch ge kenn z e i chne t , daß die Tiefenauflösung eines Schnittebenenbildes über die Einschaltdauer der Beleuchtungsquelle gesteuert wird, wobei insbesondere die Einschaltdauer gleich 6, 6 nsec für eine Tiefenauflösung von Im ist.8. Device according to one of the preceding claims, dadur ch ge kenn zei chne t that the depth resolution of a section plane image on the Duty cycle of the lighting source is controlled, in particular the duty cycle being 6.6 nsec for a depth resolution of Im.
9. Vorrichtung nach einem der vorherigen Ansprüche, da du r c h ge kenn z e i chn e t , daß das9. Device according to one of the preceding claims, since you r c h ge kenn z e i chn e t that the
Zeitintervall zwischen Aussenden und Empfindlichschalten des mindestens einen bildaufnehmenden Mittels die räumliche Lage des Höhenschnitts vorgibt.Time interval between transmission and sensitive switching of the at least one image-recording means specifies the spatial position of the vertical section.
10. Vorrichtung nach einem der Ansprüche 1 bis 9, d a - du r ch ge k e n n z e i chne t , daß mindestens ein bestimmter Bildbereich eines Schnittebenenbildes mindestens einen zu überwachenden Bereich darstellt und nur Unterschiede, die in dem jeweiligen Bildbereich ermittelt werden, für die Bereichsüberwachung von der Vorrichtung als relevant erachtet werden.10. The device according to one of claims 1 to 9, since you mark that at least one specific image area of a sectional plane image represents at least one area to be monitored and only differences that are determined in the respective image area for the area monitoring of the device can be considered relevant.
11. Vorrichtung zur Überwachung eines Bereichs, ein bildaufnehmendes Mittel aufweisend, insbesondere eine elektronische Kamera aufweisend, wobei eine Datenverarbeitungsanlage zeitlich nacheinander aufgenommene Bilder zur Ermittlung von Unterschieden der Bilder miteinander vergleicht, dadu r ch ge ke nn z e i ch n e t , daß mindestens ein bestimmter Bildbereich jeweils einen zu überwachenden Bereich darstellt und nur Unterschiede, die in jedem Bildbereich ermittelt werden, für die Bereichsüberwachung von der Vorrichtung als relevant erachtet werden.11. Device for monitoring an area, having an image-receiving means, in particular having an electronic camera, a data processing system comparing images taken one after the other to determine differences in the images, so that at least one specific image area is identified each represents an area to be monitored and only differences that are determined in each image area are considered relevant for area monitoring by the device.
12. Vorrichtung nach Anspruch 10 oder 11, dadu r ch ge k e nn z e i ch ne t , daß Bereichsmarkierungen in dem zu überwachenden Bereich angeordnet sind, wel- ehe mittels der Bildverarbeitung detektierbar sind, und die mindestens einen auszuwertenden Bildbereich bestimmen .12. The apparatus of claim 10 or 11, so that area markings are arranged in the area to be monitored, which are detectable by means of the image processing, and the at least one image area to be evaluated determine.
13. Vorrichtung nach Anspruch 12, dadu r ch g e k e nn z e i chn e t , daß sich die Bereichsmarkierungen insbesondere kontrastreich oder durch eine be- stimmte Farbe zumindest abschnittsweise vom Hintergrund des zu überwachenden Bereiches abheben.13. The apparatus of claim 12, so that the area markings stand out in particular from the background of the area to be monitored, particularly in high contrast or by a certain color.
14. Vorrichtung nach Anspruch 12 oder 13, da du r ch ge k e nn z e i ch n e t , daß die Bereichsmarkierungen entlang der Grenzen des zu überwachenden Be- reiches angeordnet sind.14. The device according to claim 12 or 13, since it is ensured that the area markings are arranged along the boundaries of the area to be monitored.
15. Vorrichtung nach einem der vorhergehenden Ansprüche, da du r c h ge kenn z e i chn e t , daß die15. Device according to one of the preceding claims, since you r c h ge kenn z e i chn e t that the
Vorrichtung eine Identifizierung und/oder Klassifizierung von sich insbesondere im zu überwachenden Be- reich bewegender Objekte durchführt und/oder die Bewegungsrichtung von Objekten ermittelt.Device carries out an identification and / or classification of objects moving in particular in the area to be monitored and / or determines the direction of movement of objects.
16. Vorrichtung nach Anspruch 15, da du r ch ge ke n n z e i c hne t , daß Objektklassen existieren, die die zum überwachenden Bereich und die nicht zum überwachenden Bereich gehörenden Objekte beinhalten.16. The apparatus according to claim 15, since it is clear that object classes exist which contain the objects belonging to the monitoring area and the objects not belonging to the monitoring area.
17. Vorrichtung nach Anspruch 15 oder 16, da du r ch ge k e nn z e i chne t , daß in Abhängigkeit der ermittelten Objektart und/oder der Position und/oder der Bewegungsrichtung und/oder des Bewegungsverlaufs eines Objektes verschiedene Alarmsignale generierbar sind.17. The apparatus of claim 15 or 16, since you r ch ge k e nn z e ichne t that different alarm signals can be generated depending on the determined object type and / or the position and / or the direction of movement and / or the course of movement of an object.
18. Vorrichtung nach einem der Ansprüche 15 bis 17, d a d u r c h g e k e n n z e i c h n e t , daß die18. Device according to one of claims 15 to 17, d a d u r c h g e k e n n z e i c h n e t that the
Vorrichtung insbesondere voneinander unterschiedliche Alarmsignale generiert, sofern sich mindestens ein bestimmtes Objekt in Richtung des zu überwachenden Bereichs bewegt, und/oder sich mindestens ein bestimmtes Objekt in unmittelbarer Nähe und/oder innerhalb des zu überwachenden Bereichs aufhält.Device generates different alarm signals, in particular, if there is at least one certain object moves in the direction of the area to be monitored, and / or at least one specific object is in the immediate vicinity and / or within the area to be monitored.
19. Vorrichtung nach einem der Ansprüche 15 bis 18, d a d u r c h g e k e n n z e i c h n e t , daß die19. Device according to one of claims 15 to 18, d a d u r c h g e k e n n z e i c h n e t that the
Vorrichtung ein Alarmsignal generiert, sofern sich mindestens ein bestimmtes Objekt atypisch für den zu überwachenden Bereich verhält.Device generates an alarm signal if at least one specific object behaves atypically for the area to be monitored.
20. Vorrichtung nach einem der vorherigen Ansprüche, dadu r ch ge kenn z e i c hn e t , daß die20. Device according to one of the preceding claims, so that the mark is such that the
Überwachung des Bereichs dadurch erfolgt, daß die Datenverarbeitungsanlage die Grauwerte bzw. Reflek- tanzwerte der aufgenommenen Schnittebenenbilder, wel- ehe insbesondere mittels des „Serial-Gating- Verfahrens" aufgenommen worden sind, miteinander vergleicht .The area is monitored in that the data processing system compares the gray values or reflectance values of the recorded sectional plane images, which were recorded in particular using the “serial gating method”.
21. Vorrichtung nach einem der vorherigen Ansprüche, da du r c h ge ke nn z e i c hn e t , daß die Datenverarbeitungsanlage zur Ermittlung von Unterschieden zweier nacheinander aufgenommener Bilder aus deren Grauwerten bzw. Reflektanzwerten ein Reflek- tanzbild berechnet, wobei das erste Bild (GWBl) ohne aktive Beleuchtung des Bildbereichs und das zweite Bild (GWB2) mit aktiver Beleuchtung des Bildbereichs aufgenommen wird, und das Reflektanzbild gleich der die Differenz GWB2 - GWBl der beiden Bilder ist.21. Device according to one of the preceding claims, since you rch ge ke nn zeic hn et that the data processing system calculates a reflectance image from its gray values or reflectance values to determine differences between two images taken in succession, the first image (GWBl) without active illumination of the image area and the second image (GWB2) is recorded with active illumination of the image area, and the reflectance image is equal to the difference GWB2 - GWBl of the two images.
22. Vorrichtung nach Anspruch 21, dadu r ch ge k e n n z e i chn e t , daß die Bilder in Zeitabstän- den von l-10000msec (Millisekunden) nacheinander, insbesondere in Zeitabständen von 10-2000msec aufge- nommen werden.22. The apparatus according to claim 21, so that the images are displayed one after the other in time intervals of 1-10000 msec (milliseconds), in particular in time intervals of 10-2000 msec. be taken.
23. Vorrichtung nach einem der vorherigen Ansprüche, da du r ch ge k e nn z e i c hne t , daß die23. Device according to one of the preceding claims, since you r ch ge k e nn z e i c hne t that the
Vorrichtung eine Datenbank aufweist, in der insbeson- dere antrainierte Bildinformationen der zu überwachenden zweidimensionalen und/oder dreidimensionalen Bereiche für unterschiedliche Zustände abgelegt sind, wobei diese Bildinformationen zur Erkennung von Abweichungen bzw. zur Überwachung der Bereiche mit den aktuell aufgenommen Bildern bzw. Schnittbildern der Schnittebenen verglichen werden. The device has a database in which, in particular, trained image information of the two-dimensional and / or three-dimensional areas to be monitored for different states are stored, this image information for detecting deviations or for monitoring the areas with the currently recorded images or sectional images of the cutting planes be compared.
EP01976199A 2000-09-08 2001-09-06 Device for surveilling an area in a room Withdrawn EP1410354A2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10044689A DE10044689A1 (en) 2000-09-08 2000-09-08 Device for monitoring an area of a room
DE10044689 2000-09-08
PCT/EP2001/010295 WO2002021473A2 (en) 2000-09-08 2001-09-06 Device for surveilling an area in a room

Publications (1)

Publication Number Publication Date
EP1410354A2 true EP1410354A2 (en) 2004-04-21

Family

ID=7655678

Family Applications (1)

Application Number Title Priority Date Filing Date
EP01976199A Withdrawn EP1410354A2 (en) 2000-09-08 2001-09-06 Device for surveilling an area in a room

Country Status (4)

Country Link
EP (1) EP1410354A2 (en)
AU (1) AU2001295545A1 (en)
DE (1) DE10044689A1 (en)
WO (1) WO2002021473A2 (en)

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0718692B2 (en) * 1989-06-16 1995-03-06 三菱電機株式会社 Three-dimensional object shape detection device by optical cutting method
DE4009912A1 (en) * 1990-03-28 1991-10-02 Grundig Emv VIDEO CONTROL DEVICE
US5343284A (en) * 1990-10-24 1994-08-30 Kaman Aerospace Corporation Imaging lidar system employing bistatic operation
US5477459A (en) * 1992-03-06 1995-12-19 Clegg; Philip M. Real time three-dimensional machine locating system
FR2693011B1 (en) * 1992-06-29 1994-09-23 Matra Sep Imagerie Inf Method and device for monitoring a three-dimensional scene, using imagery sensors.
DE4233384A1 (en) * 1992-10-05 1994-04-07 Contraves Gmbh Measuring profile section, esp. width and height - evaluating profile section contours from detected light reflected during successive illuminations
US5402364A (en) * 1993-01-15 1995-03-28 Sanyo Machine Works, Ltd. Three dimensional measuring apparatus
DE4320485B4 (en) * 1993-06-21 2007-04-19 Eads Deutschland Gmbh Object measuring method by means of intelligent distance image camera
DE4343092A1 (en) * 1993-12-17 1995-06-22 Bayerische Motoren Werke Ag Laser beam device for motor vehicles
GB2285550B (en) * 1994-01-05 1997-09-17 Creo Products Inc Optical coordinate measuring system for large objects
DE19516324A1 (en) * 1995-04-24 1996-10-31 Gos Ges Zur Foerderung Angewan Remote object position, shape and movement parameter measurement method for e.g. LIDAR
US5852672A (en) * 1995-07-10 1998-12-22 The Regents Of The University Of California Image system for three dimensional, 360 DEGREE, time sequence surface mapping of moving objects
DE19530289A1 (en) * 1995-08-17 1997-02-20 Bosch Gmbh Robert Sensor for determining visibility and rain cover
US5657003A (en) * 1996-02-26 1997-08-12 Fuentes; Alfredo Structure movement monitoring and emergency alarm system
EP0837418A3 (en) * 1996-10-18 2006-03-29 Kabushiki Kaisha Toshiba Method and apparatus for generating information input using reflected light image of target object
DE19757595C2 (en) * 1997-12-23 2000-05-11 Siemens Ag Method and device for recording a three-dimensional distance image
DE19827835B4 (en) * 1998-06-23 2012-01-19 Robert Bosch Gmbh Image transmission method and apparatus
DE19835797C2 (en) * 1998-08-07 2003-01-23 Deutsch Zentr Luft & Raumfahrt Method for detecting smoke using a lidar system
US6327374B1 (en) * 1999-02-18 2001-12-04 Thermo Radiometrie Oy Arrangement and method for inspection of surface quality

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO0221473A2 *

Also Published As

Publication number Publication date
DE10044689A1 (en) 2002-03-21
WO2002021473A3 (en) 2002-05-23
WO2002021473A2 (en) 2002-03-14
AU2001295545A1 (en) 2002-03-22

Similar Documents

Publication Publication Date Title
DE69127968T2 (en) THREE-DIMENSIONAL REAL-TIME SENSOR SYSTEM
DE4410406C2 (en) Optoelectronic device for monitoring the surroundings of a vehicle
DE10310767B4 (en) monitor
DE102006010735B4 (en) Vehicle environment monitoring device
EP1300691B1 (en) Surveillance method and optoelectronic sensor
EP2558886B1 (en) Device for monitoring at least one three-dimensional safety area
DE10026586B4 (en) Object detection system
EP3014569B1 (en) Inspection of the contoured surface of the underbody of a motor vehicle
EP3233691B1 (en) Positioning system for an elevator
EP0344404A1 (en) Method and device for controlling the position of an automatic door
DE102020002994B4 (en) Method for measuring a distance between an object and an optical sensor, control device for carrying out such a method, distance measuring device with such a control device and motor vehicle with such a distance measuring device
DE102007013299A1 (en) Sensor device and system with a conveyor and a sensor device
EP0892280A2 (en) Method for operating an opto-electronic sensor device
DE102018003762A1 (en) A monitoring device for monitoring a spatial area defined by dividing a monitoring area
EP1531342B1 (en) Method of detecting pedestrians
DE19809210A1 (en) Locality or workplace surveillance method
DE102006060062A1 (en) Object detection sensor
DE112014001727T5 (en) Apparatus and method for monitoring moving objects in a detection area
DE102019103963A1 (en) ILDGEBUNGSVORRICHTUNG
WO2021239323A1 (en) Method for identifying image artifacts, controller for carrying out such a method, identifying device comprising such a controller, and motor vehicle comprising such an identifying device
EP3857304B1 (en) Method for focusing a camera
EP3502614B1 (en) Optical measuring device
DE102007041333A1 (en) Target object i.e. person, contactless counting method for e.g. determination of actual load of production facility, involves identifying breakage or turning of graphical cluster in direction of time axis as object passing area
DE19600958A1 (en) Interactive surveillance system
EP1410354A2 (en) Device for surveilling an area in a room

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20030331

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE CH CY DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

RIC1 Information provided on ipc code assigned before grant

Ipc: G08B 13/194 20060101ALI20060929BHEP

Ipc: G01S 17/02 20060101AFI20060929BHEP

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

RBV Designated contracting states (corrected)

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20070516