EP3905210A1 - Selbstbedienungsautomat - Google Patents
Selbstbedienungsautomat Download PDFInfo
- Publication number
- EP3905210A1 EP3905210A1 EP21169958.2A EP21169958A EP3905210A1 EP 3905210 A1 EP3905210 A1 EP 3905210A1 EP 21169958 A EP21169958 A EP 21169958A EP 3905210 A1 EP3905210 A1 EP 3905210A1
- Authority
- EP
- European Patent Office
- Prior art keywords
- self
- display
- service machine
- optical sensor
- transparent mode
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 claims abstract description 79
- 238000003384 imaging method Methods 0.000 claims abstract description 30
- 239000011521 glass Substances 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 15
- 102100026278 Cysteine sulfinic acid decarboxylase Human genes 0.000 claims description 12
- 108010064775 protein C activator peptide Proteins 0.000 claims description 12
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 10
- 238000011144 upstream manufacturing Methods 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 4
- 238000003825 pressing Methods 0.000 claims description 3
- 238000004590 computer program Methods 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 6
- 238000012015 optical character recognition Methods 0.000 description 3
- 239000005264 High molar mass liquid crystal Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000000151 deposition Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 239000011888 foil Substances 0.000 description 2
- 239000005338 frosted glass Substances 0.000 description 2
- 229920000642 polymer Polymers 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 241000396922 Pontia daplidice Species 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000012876 carrier material Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 239000006059 cover glass Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000009477 glass transition Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 229920001169 thermoplastic Polymers 0.000 description 1
- 239000004416 thermosoftening plastic Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000002918 waste heat Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
- G07F9/006—Details of the software used for the vending machines
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F19/00—Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
- G07F19/20—Automatic teller machines [ATMs]
- G07F19/205—Housing aspects of ATMs
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07F—COIN-FREED OR LIKE APPARATUS
- G07F9/00—Details other than those peculiar to special kinds or types of apparatus
Definitions
- the invention relates to a self-service machine with a display for outputting information to a user and for inputting user inputs by the user.
- the present invention also relates to a method and a computer program product for operating a self-service machine.
- the present technical field relates to a self-service machine, such as an ATM or an account service terminal, with a display for outputting information to a user and for inputting user inputs by the user, with an optical sensor for receiving an optical sensor signal from a scanning area Object, for example a document, and with an imaging unit for projecting an image onto the display.
- the optical sensor is, for example, a camera.
- the imaging unit is, for example, a projector or a beamer.
- the camera Due to the limited space in a self-service machine, the camera is installed behind the display of the self-service machine. For this reason, however, due to the display arranged in front of it, the camera has a restricted view of the scan area for the document to be scanned.
- the document to be scanned is not optimally positioned by the user in the scanning area, in the worst case it can happen that the document to be scanned is not correctly scanned by the self-service machine can be.
- the user-friendliness is also severely restricted as a result.
- the object set is achieved by a self-service machine with the features of claim 1 and by a method for operating a self-service machine with the features of claim 21.
- a self-service machine which has a display for outputting information to a user and for inputting user inputs by the user, an optical sensor for receiving an optical sensor signal of an object and an imaging unit for projecting an image onto the display.
- the display has two operating modes, including a transparent mode, which is suitable for the optical sensor to pick up the optical sensor signal, and a non-transparent mode, which is suitable for the imaging unit to project the image onto the display.
- the optical sensor can also be referred to as an image sensor.
- the optical sensor is designed, for example, as a camera or as a scanner.
- the optical sensor can pick up the optical sensor signal of the object through the transparent display. This recording can also be referred to as scanning.
- the imaging unit is designed, for example, as a projector or beamer.
- the display or at least a part of the display serves as a projection surface for the imaging unit, see above that the imaging unit can project the image to be projected onto the projection surface.
- the transparent mode can also be referred to as the scan mode.
- the opaque mode can also be referred to as display mode or projection mode.
- the present self-service machine has the advantage that the display can be used optimally for both the scan mode and the projection mode.
- the display In the projection mode, the display is opaque, for example milky, so that the user is supported by colored markings or similar via the imaging unit when placing and setting up the object on the display in the correct scan field or scan area.
- scan mode on the other hand, the display, in particular that part of the display on which the object was placed, is transparent, and in particular that part of the display on which no object has been placed can be switched to be non-transparent in order to reduce extraneous light, which improves the scan quality of the Object when scanning through the optical sensor significantly improved. In particular, it is possible to scan through part of the display in the scan mode.
- the self-service machine includes in particular a control device, such as a computer or calculator, a network connection for data communication, a power supply unit for voltage supply, an input device for entering user inputs, such as a keyboard, for example a virtual keyboard on a touchscreen or a virtual keyboard, and a display, for example in the form of the above-mentioned display.
- a control device such as a computer or calculator
- a network connection for data communication such as a network connection for data communication
- a power supply unit for voltage supply
- an input device for entering user inputs such as a keyboard, for example a virtual keyboard on a touchscreen or a virtual keyboard
- a display for example in the form of the above-mentioned display.
- the imaging unit is arranged in a housing of the self-service machine behind the display.
- the optical sensor is arranged in the housing of the self-service machine behind the display.
- the optical sensor can also be arranged externally to this housing.
- the optical sensor is designed as a camera with an upstream optics, the camera with the upstream optics being arranged in a scanner funnel of the self-service machine.
- the camera can be, for example, a camera with autofocus, a camera with a fixed focus lens or a fisheye camera.
- the imaging unit is set up to illuminate a predetermined area of the display in the transparent mode to support the recording of the optical sensor signal by the optical sensor.
- the predetermined area of the display can also be referred to as a scan area or as a scan field.
- the optical sensor also has a lighting unit assigned to the camera and arranged in the scanner funnel, which is set up to illuminate a predetermined area of the display in the transparent mode to support the optical sensor to pick up the optical sensor signal.
- the light sources of the lighting unit are preferably around the optical sensor arranged. Due to the tightly packed structure in self-service machines and the strong waste heat from conventional lighting, LEDs (light-emitting diodes) are preferred.
- the optical sensor is arranged on a gravity axis of the display. According to a further alternative embodiment, the optical sensor is arranged on a line which encloses an angle of less than 30 degrees, preferably less than 20 degrees, particularly preferably less than 10 degrees, with the center of gravity of the display.
- the display comprises a display glass, a touch sensor arranged behind the display glass for inputting the user inputs by the user and a switchable projection surface arranged behind the touch sensor, which has the two operating modes comprising the transparent mode and the non-transparent mode.
- the touch sensor can also be referred to as a touch sensor.
- the touch sensor is, for example, preferably designed as a capacitive touch sensor, in particular as a PCAP touch sensor (PCAP: Projected CAPacitive).
- PCAP Projected CAPacitive
- the main advantage here is that the sensor can be attached to the back of the cover glass (the detection is "projected through”, hence the name). Operation takes place on the practically wear-free glass surface. It is also possible to recognize gestures and multiple touches (i.e. multi-touch).
- the touch sensor can also be designed as a surface acoustic touch sensor or as an IR touch sensor (IR, infrared).
- IR infrared
- the surface acoustic touch sensor can also be referred to as a SAW touch sensor (SAW; Surface Acoustic Wave).
- the touch sensor is laminated to the display glass and the switchable projection surface is laminated to the touch sensor.
- the lamination (Latin lamina "plate, disk, sheet”) describes on the one hand a cohesive, thermal joining process without auxiliary materials. On the other hand, this means the connection of a thin, often film-like layer with a carrier material by means of an adhesive, as well as the connection of at least two film layers of a thermoplastic by reaching the glass transition temperature and corresponding pressure.
- the switchable projection surface is an electrically switchable projection surface
- a control unit being provided which is configured to switch the electrically switchable projection surface between the transparent mode and the non-transparent mode by means of an electrical voltage.
- control unit switches the switchable projection surface transparently by applying an electrical voltage.
- the switchable projection surface becomes opaque again.
- the control unit can be a dedicated or a dedicated unit. The function of the control unit can, however, also be taken over by the central PC or the central control computer.
- the switchable projection surface is transparent in the transparent mode, whereas in the non-transparent mode it has a predetermined color, e.g. B. white, has and is opaque.
- the switchable projection surface has a PDLC film or a plurality of PDLC film layers.
- a PDLC film (Polymer Dispersed Liquid Crystal) becomes transparent when an electrical voltage is applied.
- PDLC foils are based on a polymer liquid crystal film that is embedded between two foils. This is connected to a power source.
- the arbitrarily oriented liquid crystal molecules are located within the solid polymer. Incident light is scattered by these molecules and the film is opaque, so it does not appear transparent to the human eye, but rather like frosted glass.
- the liquid crystal molecules rearrange themselves in the electrical field and the film appears transparent.
- the voltage is removed, the liquid crystal molecules are disordered again and the film becomes opaque again.
- only part of the projection surface is switched to a transparent mode, whereas the remainder of the projection surface remains non-transparent.
- That part of the projection surface which is switched to the transparent mode is changed in size as a function of the object size.
- the switchable projection surface has an electrochromic glass.
- the electrochromic glass can be switched between transparent and a certain color, for example white.
- the electrochromic glass can also be referred to as smart glass.
- the film or layer acting as a switchable light protection is integrated in the glass.
- PDLC glass is based on a polymer liquid crystal film that is embedded between two layers of glass. This is connected to a power source. Inside the solid Polymers are any oriented liquid crystal molecules. Incident light is scattered by these molecules and the glass is opaque, so it does not appear transparent to the human eye, but rather like a frosted glass. When an electrical voltage is applied, the liquid crystal molecules rearrange themselves in the electrical field and the glass appears transparent. When the voltage is removed, the liquid crystal molecules are disordered again and the glass becomes opaque again.
- the structure of the smart glass is similar to a laminated window glass, whereby a vacuum can be located in the middle between two panes of glass. The film or layer is then installed in this intermediate area.
- the display glass has a stop on which the object can be placed in such a way that the placed object and the stop form a form fit so that the object lies in a predefined position.
- the predefined position is selected in particular in such a way that a subsequent character recognition and / or object recognition is optimized.
- the predefined position is selected such that the created object lies in an effective zone (sweet spot) of the optical sensor.
- control unit is set up to switch between the transparent mode and the non-transparent mode as a function of a trigger signal.
- the trigger signal is generated when a form fit formed between the object and the stop is detected.
- the touch sensor is designed as a PCAP touch sensor, the trigger signal based on a specific Multiple detection of multiple simultaneous touches is generated on the PCAP touch sensor.
- the specific multiple detection of several simultaneous touches for example a detection of a plurality of fingertips of one hand of the user within a defined area on the PCAP touch sensor or a ball detection of the ball of the ball of one hand of the user, is caused / triggered by pressing the object firmly by the user to scan the object by means of the optical sensor through the transparent display.
- the trigger signal is provided by application software of the self-service machine.
- the trigger signal is generated when a predetermined key of the self-service machine, in particular a predetermined key of the touch sensor, is pressed.
- the self-service machine is designed as an ATM, as an account service terminal, as a service machine, as a self-seller or as a parcel station.
- the account service terminal is a bank service device that cannot withdraw money, but can display account balances and, in particular, print account statements.
- the ATM can also be referred to as an ATM, ATM or cash dispenser.
- the ATM is a technical device that is suitable for withdrawing cash or also for depositing cash at financial and credit institutions, banks and savings banks.
- the ATM has a safe unit and an operating unit.
- the operating unit comprises a bank note module for paying out bank notes from the safe unit and / or for depositing bank notes in the safe unit. It also includes the operating unit an input device for inputs by a user.
- the input device includes, for example, the keyboard mentioned above.
- the object is a document, a paper document, an electronic document, a proof of identity or a pictorial code representation, for example on a letter or on a parcel.
- the paper document is, for example, a payment slip, a payment slip or a transfer form.
- the electronic document is, for example, a collection code from a parcel machine.
- the pictorial code representation is designed, for example, as a QR code or as a bar code, and can be displayed both on a paper document and on a display of a smartphone, for example.
- the proof of identity is, for example, a passport.
- the self-service machine comprises a character recognition unit for the automatic recognition of characters in the object based on the recorded optical sensor signal of the object.
- the character recognition unit is in particular an optical character recognition or OCR (Optical Character Recognition). This character recognition can recognize numbers, letters, as well as possibly existing Chinese characters and the like.
- OCR Optical Character Recognition
- the character recognition unit can in particular be designed at least partially as software which preferably runs in the self-service machine or alternatively runs in a computer center.
- the respective unit for example the control unit, can be implemented in terms of hardware and / or also in terms of software or as a combination of both.
- the respective unit can be used as a device or as part of a device, for example as a computer or be designed as a microprocessor.
- the respective unit or part of the unit can be designed as a computer program product, as a function, as a routine, as an independent process, as part of a program code and / or as an executable object.
- the respective units mentioned can also be implemented in a plurality of independent processor cores within a common integrated circuit or can be implemented in these.
- a method for operating a self-service machine which has a display for outputting information to a user and for inputting user inputs by the user, an optical sensor for recording an optical sensor signal of an object and an imaging unit for projecting an image the display has.
- the display is switched between two operating modes comprising a transparent mode, which is suitable for the optical sensor signal being picked up by the optical sensor, and a non-transparent mode, which is suitable for the imaging unit to project the image onto the display.
- step a) the predetermined area of the display is illuminated, for example, in such a way that the predetermined area or scan area is visible to the user through a red dashed line on a white background.
- step d) the predetermined area is illuminated in such a way that the recording of the optical sensor signal is supported by the optical sensor.
- a computer program product which causes the method as explained above to be carried out on a program-controlled device.
- a computer program product such as a computer program means, for example, can be provided or delivered as a storage medium such as a memory card, USB stick, CD-ROM, DVD, or also in the form of a downloadable file from a server in a network. This can take place, for example, in a wireless communication network by transmitting a corresponding file with the computer program product or the computer program means.
- Fig. 1 a schematic side view of an embodiment of a self-service machine 1 is shown.
- the self-service machine 1 is, for example, an ATM, an account service terminal, a service machine, a self-seller or a parcel station.
- the self-service machine 1 has a housing 2 and a display 3 arranged on the housing 2 for outputting information to a user and for inputting user inputs by the user. Furthermore, an optical sensor 4 for recording an optical sensor signal of an object O (see FIG Fig. 5 and Fig. 6 ) and an imaging unit 5 with optics 6 for projecting an image onto the display 3 are arranged in the housing 2.
- the object O is, for example, a document such as a paper document.
- the document O can also be designed as an electronic document.
- the object O can be a proof of identity, for example a passport, or a pictorial code representation, for example on a letter or on a parcel.
- the imaging unit 5 is in particular a projector and is arranged in the housing 2 behind the display 3.
- the optical sensor 4 is also arranged in the housing 2 of the self-service machine 1 behind the display 3.
- the optical sensor 4 is preferably arranged on a gravity axis of the display 3 and is designed as a camera with an upstream optics 12.
- the camera 4 with upstream optics 12 is in a scanner funnel (not shown in FIG Fig. 1 ) of the self-service machine 1 arranged.
- the display 3 comprises two operating modes having a transparent mode and a non-transparent mode.
- the transparent mode is suitable for the optical sensor 4 to pick up the optical sensor signal.
- the transparent mode can also be referred to as scan mode.
- the non-transparent one is suitable for the projection of the image onto the display 3 by the imaging unit 5.
- the non-transparent mode can also be referred to as display mode or projection mode.
- a lighting unit 7 assigned to the camera 4 can be provided.
- the lighting unit 7 has two light sources, the left and right next to the camera 4 in the housing 2 of the self-service machine 1 are arranged.
- the light sources are preferably arranged around the camera 4.
- the lighting unit 7 therefore preferably comprises a multiplicity of light sources. In particular, these light sources are LEDs due to the low power loss and the associated low heat generation.
- the imaging unit 5 is preferably set up to illuminate a predetermined area of the display 3 in the transparent mode to support the recording of the optical sensor signal by the optical sensor 4 (see FIG Fig. 6 ).
- the display 3 of the Fig. 1 has a display glass 8, a touch sensor 9 arranged behind the display glass 8 for the input of user inputs by the user and a switchable projection surface 10 arranged behind the touch sensor 9, which comprises the two operating modes, the transparent mode and the non-transparent mode.
- the touch sensor 9 is preferably laminated onto the display glass 8 and the switchable projection surface 10 is preferably laminated onto the touch sensor 9.
- the switchable projection surface 10 is preferably designed as an electrically switchable projection surface.
- the self-service machine 1 preferably has a control unit 11 which is set up to switch the electrically switchable projection surface 10 between the transparent mode and the non-transparent mode by means of an electrical voltage.
- the control unit 11 is in particular part of the central control device (not shown) of the self-service machine 1.
- the switchable projection surface 10 has, for example, a PDLC film or a plurality of PDLC film layers. Alternatively, the switchable projection surface 10 can also have an electrochromic glass.
- the display glass 8 preferably has a stop (not shown) against which the object O can be placed in such a way that the placed object O and the stop form a form fit, so that the object O lies at a predefined position.
- a predefined position is, for example, in Fig. 5 evident.
- control unit 11 is set up in particular to switch between the transparent mode and the non-transparent mode as a function of a trigger signal.
- the trigger signal is preferably generated based on a specific multiple detection of multiple simultaneous touches on the PCAP touch sensor.
- the trigger signal can also be generated by application software of the self-service machine 1.
- the trigger signal can also be generated when a predetermined key of the self-service machine 1 is pressed, in particular in a predetermined key of the touch sensor 9.
- the trigger signal can also be generated on the object O as a function of focusing by the autofocus of the camera.
- the self-service machine 1 can have a character recognition unit for the automatic recognition of characters in the object O based on the recorded optical sensor signal of the object O.
- the character recognition unit is integrated in the control unit 11, for example.
- FIG. 2 a schematic perspective view of the self-service machine 1 according to FIG Fig. 1 .
- the display 3 is provided with a reference number.
- FIG. 3 a schematic block diagram of an embodiment of a method for operating a self-service machine 1.
- An example of such a self-service machine 1 is shown in FIG Fig. 1 and 2 shown.
- the self-service machine 1 has at least one display 3 for outputting information to a user and for inputting user inputs by the user, an optical sensor 4 for recording an optical sensor signal of an object O and an imaging unit 5 for projecting an image onto the display 3.
- step S1 a predetermined area of the display 3 is illuminated in the non-transparent mode (display mode or projection mode) for displaying a positioning of the object O for the user.
- the predetermined area of the display 3 can also be referred to as the scanning area, since it is provided for scanning the object O.
- the Fig. 4 the embodiment of the self-service machine 1 according to Fig. 1 in display mode.
- the reference numeral 13 denotes the projection rays or the projection light of the imaging unit 5 and the reference numeral 14 shows the rays of the image of the projection surface 10.
- this image is a red dashed line on a white background in the scan area, so that the user can see in which Area he has to put the object O on.
- a trigger signal is generated as a function of the detection of the plurality of simultaneous touches on the touch sensor 9, or the triggering of a button, in particular a button on the touchscreen 9, or the expiry of a timer.
- step S3 the display 3 is switched from the non-transparent mode (display mode or projection mode) to the transparent (scan mode) as a result of the generated trigger signal.
- the display 3 is switched from the non-transparent mode (display mode or projection mode) to the transparent (scan mode) as a result of the generated trigger signal.
- the above-mentioned scan area is switched from the non-transparent to the transparent mode.
- step S4 an optical sensor signal of the object O positioned in front of the display 3 is recorded by means of the optical sensor 4 in the transparent mode of the display 3.
- step S4 the predetermined area (scan area) is illuminated in such a way that the optical sensor 4 supports the recording of the optical sensor signal.
- the Fig. 5 the embodiment of the self-service machine 1 according to Fig. 1 in the scan mode, the lighting unit 7 supporting the reception of the optical sensor signal by the optical sensor 4 by means of its useful light 15.
- the reference symbol 16 denotes the reflected object light of the object O, which is picked up by the optical sensor 4.
- step S5 after the recording has been made, the display 3 is switched back to the non-transparent mode.
- FIG. 6 shows Fig. 6 an alternative to Fig. 5 in terms of supporting lighting.
- the imaging unit 5 supports the recording of the optical sensor signal by the optical sensor 4 with its useful light 17.
- the reference symbol 18 in FIG Fig. 6 the reflected object light of the object O.
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Image Input (AREA)
Abstract
Es wird ein Selbstbedienungsautomat (1) mit einem Display (3) zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, mit einem optischen Sensor (4) zum Aufnehmen eines optischen Sensorsignals eines Objektes (O) und einer Bildgebungseinheit (5) zum Projizieren eines Bildes auf das Display (3) vorgeschlagen. Dabei hat das Display (3) zwei Betriebsarten umfassend einen transparenten Modus, welcher für das Aufnehmen des optischen Sensorsignals durch den optischen Sensor (4) geeignet ist, und einen intransparenten Modus, welcher für das Projizieren des Bildes auf das Display (3) durch die Bildgebungseinheit (5) geeignet ist.
Description
- Die Erfindung betrifft einen Selbstbedienungsautomaten mit einem Display zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer. Des Weiteren betrifft die vorliegende Erfindung ein Verfahren sowie ein Computerprogrammprodukt zum Betreiben eines Selbstbedienungsautomaten.
- Das vorliegende technische Gebiet betrifft einen Selbstbedienungsautomaten, wie zum Beispiel einen Geldautomaten oder ein Kontoserviceterminal, mit einem Display zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, mit einem optischen Sensor zum Aufnehmen eines optischen Sensorsignals eines in einem Scanbereich angeordneten Objektes, beispielsweise eines Dokuments, und mit einer Bildgebungseinheit zum Projizieren eines Bildes auf das Display. Der optische Sensor ist beispielsweise eine Kamera. Die Bildgebungseinheit ist zum Beispiel ein Projektor oder ein Beamer.
- Aufgrund der eingeschränkten Platzverhältnisse in einem Selbstbedienungsautomaten ist die Kamera hinter dem Display des Selbstbedienungsautomaten angebracht. Aus diesem Grund hat aber die Kamera aufgrund des vor ihr angeordneten Displays eine eingeschränkte Sicht auf den Scanbereich für das zu scannende Dokument.
- Wenn weiterhin das zu scannende Dokument vom Benutzer im Scanbereich nicht optimal positioniert ist, kann es im schlechtesten Fall vorkommen, dass das zu scannende Dokument nicht korrekt von dem Selbstbedienungsautomaten gescannt werden kann. Auch ist die Benutzerfreundlichkeit hierdurch stark eingeschränkt.
- Es ist eine Aufgabe der vorliegenden Erfindung, den Betrieb eines Selbstbedienungsautomaten zu verbessern.
- Die gestellte Aufgabe wird durch einen Selbstbedienungsautomaten mit den Merkmalen des Anspruchs 1 und durch ein Verfahren zum Betreiben eines Selbstbedienungsautomaten mit den Merkmalen des Anspruchs 21 gelöst.
- Demgemäß wird ein Selbstbedienungsautomat vorgeschlagen, welcher ein Display zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, einen optischen Sensor zum Aufnehmen eines optischen Sensorsignals eines Objektes und eine Bildgebungseinheit zum Projizieren eines Bildes auf das Display aufweist. Dabei hat das Display zwei Betriebsarten umfassend einen transparenten Modus, welcher für das Aufnehmen des optischen Sensorsignals durch den optischen Sensor geeignet ist, und einen intransparenten Modus, welcher für das Projizieren des Bildes auf das Display durch die Bildgebungseinheit geeignet ist.
- Der optische Sensor kann auch als Bildsensor bezeichnet werden. Der optische Sensor ist beispielsweise als eine Kamera oder als ein Scanner ausgebildet. In dem transparenten Modus des Displays kann der optische Sensor das optische Sensorsignal des Objektes durch das transparente Display hindurch aufnehmen. Dieses Aufnehmen kann auch als Scannen bezeichnet werden.
- Die Bildgebungseinheit ist beispielsweise als ein Projektor oder Beamer ausgebildet. In dem intransparenten Modus des Displays dient das Display oder zumindest ein Teil des Displays als Projektionsfläche für die Bildgebungseinheit, so dass die Bildgebungseinheit das zu projizierende Bild auf die Projektionsfläche projizieren kann.
- Der transparente Modus kann auch als Scanmodus bezeichnet werden. Der intransparente Modus kann auch als Displaymodus oder Projektionsmodus bezeichnet werden.
- Der vorliegende Selbstbedienungsautomat hat den Vorteil, dass das Display sowohl für den Scanmodus als auch für den Projektionsmodus optimal eingesetzt werden kann.
- Im Projektionsmodus ist das Display intransparent, zum Beispiel milchig, so dass der Benutzer durch farbliche Markierungen oder ähnlichen über die Bildgebungseinheit beim Auflegen und Einrichten des Objektes am Display auf dem richtigen Scanfeld oder Scanbereich unterstützt wird. Im Scanmodus hingegen ist das Display, insbesondere jener Teil des Displays, auf welchem das Objekt aufgelegt wurde, transparent, wobei insbesondere jener Teil des Displays, auf welchem kein Objekt aufgelegt wurde, intransparent geschaltet werden kann, um Fremdlicht zu reduzieren, was die Scanqualität des Objektes beim Scannen durch den optischen Sensor deutlich verbessert. Insbesondere kann im Scanmodus durch einen Teil des Displays hindurch gescannt werden.
- Hierdurch werden die Benutzerfreundlichkeit sowie die Kundenakzeptanz des Selbstbedienungsautomaten erhöht, weil der Benutzer beim Einrichten des zu scannenden Objektes auf das Scanfeld sehen kann und der Schutz vor Fremdlicht beim Scannen trotzdem gegeben ist.
- Der Selbstbedienungsautomat umfasst insbesondere eine Steuervorrichtung, wie einen Computer oder Rechner, eine Netzwerkanbindung zur Datenkommunikation, ein Netzteil zur Spannungsversorgung, eine Eingabevorrichtung zur Eingabe von Benutzereingaben, wie eine Tastatur, zum Beispiel eine virtuelle Tastatur an einem Touchscreen oder eine virtuelle Tastatur, und eine Anzeige, zum Beispiel in Form des oben genannten Displays.
- Gemäß einer Ausführungsform ist die Bildgebungseinheit in einem Gehäuse des Selbstbedienungsautomaten hinter dem Display angeordnet.
- Gemäß einer weiteren Ausführungsform ist der optische Sensor in dem Gehäuse des Selbstbedienungsautomaten hinter dem Display angeordnet.
- Alternativ kann der optische Sensor auch extern zu diesem Gehäuse angeordnet sein.
- Gemäß einer weiteren Ausführungsform ist der optische Sensor als eine Kamera mit vorgeschalteter Optik ausgebildet, wobei die Kamera mit der vorgeschalteten Optik in einem Scannertrichter des Selbstbedienungsautomaten angeordnet ist. Die Kamera kann beispielsweise eine Kamera mit Autofokus, eine Kamera mit Fixfokus-Objektiv oder eine Fischaugenkamera sein.
- Gemäß einer weiteren Ausführungsform ist die Bildgebungseinheit dazu eingerichtet, in dem transparenten Modus zur Unterstützung der Aufnahme des optischen Sensorsignals durch den optischen Sensor einen vorbestimmten Bereich des Displays zu beleuchten. Der vorbestimmte Bereich des Displays kann auch als Scanbereich oder als Scanfeld bezeichnet werden.
- Gemäß einer weiteren Ausführungsform weist der optische Sensor ferner eine der Kamera zugeordnete und in dem Scannertrichter angeordnete Beleuchtungseinheit auf, welche dazu eingerichtet ist, in dem transparenten Modus zur Unterstützung der Aufnahme des optischen Sensorsignals durch den optischen Sensor einen vorbestimmten Bereich des Displays zu beleuchten.
- Um eine möglichst homogene Ausleuchtung am Objekt auf dem Display zu erreichen, sind die Lichtquellen der Beleuchtungseinheit vorzugsweise rund um den optischen Sensor angeordnet. Auf Grund des dichtgedrängten Aufbaus im Selbstbedienungsautomaten und der starken Abwärme konventioneller Leuchtmittel, werden vorzugsweise LEDs (Light-Emitting-Diodes) eingesetzt.
- Gemäß einer weiteren Ausführungsform ist der optische Sensor auf einer Schwerachse des Displays angeordnet. Gemäß einer weiteren alternativen Ausführungsform ist der optische Sensor auf einer Linie angeordnet, welche mit der Schwerachse des Displays einen Winkel von kleiner 30 Grad, bevorzugt kleiner 20 Grad besonders bevorzugt kleiner 10 Grad einschließt.
- Gemäß einer weiteren Ausführungsform umfasst das Display ein Displayglas, einen hinter dem Displayglas angeordneten Touchsensor zur Eingabe der Benutzereingaben durch den Benutzer und eine hinter dem Touchsensor angeordnete schaltbare Projektionsfläche, welche die zwei Betriebsarten umfassend den transparenten Modus und den intransparenten Modus aufweist.
- Der Touchsensor kann auch als Berührungssensor bezeichnet werden. Der Touchsensor ist beispielsweise vorzugsweise als ein kapazitiver Touchsensor ausgebildet, insbesondere als ein PCAP-Touchsensor (PCAP: Projected CAPacitive). Der kapazitive Touchscreen (auch "PCT" = "Projected Capacitive Touch" oder "PCAP" genannt) nutzt zwei Ebenen mit einem leitfähigen Muster (meistens Streifen oder Rauten). Die Ebenen sind voneinander isoliert angebracht. Eine Ebene dient als Sensor, die andere übernimmt die Aufgabe des Treibers. Befindet sich ein Finger am Kreuzungspunkt zweier Streifen, so ändert sich die Kapazität des Kondensators, und es kommt ein größeres Signal am Empfängerstreifen an. Der wesentliche Vorteil ist hier, dass der Sensor auf der Rückseite des Deckglases angebracht werden kann (die Erkennung wird "hindurchprojiziert", daher der Name). So erfolgt die Bedienung auf der praktisch verschleißfreien Glasoberfläche. Ferner ist die Erkennung von Gesten und mehreren Berührungen (also Multi-Touch) möglich.
- Alternativ kann der Touchsensor auch als oberflächenakustischer Touchsensor oder als ein IR-Touchsensor (IR, Infrarot) ausgebildet sein. Der oberflächenakustische Touchsensor kann auch als SAW-Touchsensor (SAW; Surface Acoustic Wave) bezeichnet werden.
- Gemäß einer weiteren Ausführungsform ist der Touchsensor auf das Displayglas laminiert und die schaltbare Projektionsfläche ist auf den Touchsensor laminiert.
- Die Lamination (lateinisch lamina "Platte, Scheibe, Blatt") bezeichnet einerseits ein stoffschlüssiges, thermisches Fügeverfahren ohne Hilfsmaterialien. Andererseits ist hiermit das Verbinden einer dünnen, oftmals folienartigen Schicht mit einem Trägermaterial mittels eines Klebers gemeint, als auch das Verbinden mindestens zweier Folienschichten einer Thermoplaste durch Erreichen der Glasübergangstemperatur und entsprechenden Drucks.
- Gemäß einer weiteren Ausführungsform ist die schaltbare Projektionsfläche eine elektrisch schaltbare Projektionsfläche, wobei eine Steuereinheit vorgesehen ist, die dazu eingerichtet ist, die elektrisch schaltbare Projektionsfläche mittels einer elektrischen Spannung zwischen dem transparenten Modus und dem intransparenten Modus umzuschalten.
- Insbesondere schaltet die Steuereinheit die schaltbare Projektionsfläche durch das Anlegen einer elektrischen Spannung transparent. Bei einem Wegfall der angelegten Spannung wird die schaltbare Projektionsfläche wieder undurchsichtig. Die Steuereinheit kann eine eigene oder dedizierte Einheit sein. Die Funktion der Steuereinheit kann aber auch von dem zentralen PC oder dem zentralen Steuerrechner übernommen werden.
- Beispielsweise ist die schaltbare Projektionsfläche in dem transparenten Modus durchsichtig, wohingegen sie in dem intransparenten Modus eine vorbestimmte Farbe, z. B. Weiß, aufweist und undurchsichtig ist.
- Gemäß einer weiteren Ausführungsform weist die schaltbare Projektionsfläche eine PDLC-Folie oder eine Mehrzahl von PDLC-Folienschichten auf.
- Eine PDLC-Folie (Polymer Dispersed Liquid Crystal) wird durch das Anlegen einer elektrischen Spannung transparent. PDLC-Folien basieren auf einem Polymer-Flüssigkristall-Film, der zwischen zwei Folien eingebettet ist. Dieser wird mit einer Stromquelle verbunden. Innerhalb des festen Polymers befinden sich die beliebig orientierten Flüssigkristallmoleküle. Einfallendes Licht wird von diesen Molekülen gestreut und die Folie ist opak, wirkt fürs menschliche Auge also nicht transparent, sondern eher wie Milchglas. Mit dem Anlegen einer elektrischen Spannung ordnen sich die Flüssigkristallmoleküle im elektrischen Feld neu aus, und die Folie erscheint transparent. Bei einem Wegfall der Spannung sind die Flüssigkristallmoleküle wieder ungeordnet und die Folie wird wieder undurchsichtig.
- Gemäß einer weiteren Ausführungsform wird nur ein Teil der Projektionsfläche in einen transparenten Modus geschaltet, wohingegen die restliche Projektionsfläche intransparent bleibt.
- Gemäß einer weiteren Ausführungsform wird jener Teil der Projektionsfläche, welcher in den transparenten Modus geschaltet wird, abhängig von der Objektgröße in der Größe verändert.
- Gemäß einer weiteren Ausführungsform weist die schaltbare Projektionsfläche ein elektrochromes Glas auf.
- Das elektrochrome Glas ist dabei zwischen transparent und einer bestimmten Farbe, beispielsweise Weiß, umschaltbar. Das elektrochrome Glas kann auch als Smartglas bezeichnet werden. Bei dem elektrochromen Glas ist die als schaltbarer Lichtschutz wirkende Folie oder Schicht in dem Glas integriert. PDLC-Glas basiert auf einem Polymer-Flüssigkristall-Film, der zwischen zwei Glasschichten eingebettet ist. Dieser wird mit einer Stromquelle verbunden. Innerhalb des festen Polymers befinden sich beliebig orientierte Flüssigkristallmoleküle. Einfallendes Licht wird von diesen Molekülen gestreut und das Glas ist opak, wirkt fürs menschliche Auge also nicht transparent, sondern eher wie ein Milchglas. Mit dem Anlegen einer elektrischen Spannung ordnen sich die Flüssigkristallmoleküle im elektrischen Feld neu aus, und das Glas erscheint transparent. Bei einem Wegfall der Spannung sind die Flüssigkristallmoleküle wieder ungeordnet und das Glas wird wieder undurchsichtig. Der Aufbau des Smartglases ist ähnlich einem Verbundfensterglas, wobei sich in der Mitte zwischen zwei Glasscheiben ein Vakuum befinden kann. In diesem Zwischenbereich ist dann die Folie oder Schicht eingebaut.
- Gemäß einer weiteren Ausführungsform weist das Displayglas einen Anschlag auf, an welchem das Objekt derart anlegbar ist, dass das angelegte Objekt und der Anschlag einen Formschluss bilden, so dass das Objekt an einer vordefinierten Position liegt.
- Die vordefinierte Position ist insbesondere derart gewählt, dass eine nachfolgende Zeichenerkennung und/oder Objekterkennung optimiert ist. Beispielsweise ist die vordefinierte Position derart gewählt, dass das angelegte Objekt in einer effektiven Zone (Sweet-Spot) des optischen Sensors hegt.
- Gemäß einer weiteren Ausführungsform ist die Steuereinheit dazu eingerichtet, zwischen dem transparenten Modus und dem intransparenten Modus in Abhängigkeit eines Trigger-Signals umzuschalten.
- Gemäß einer weiteren Ausführungsform wird das Trigger-Signal bei einem Feststellen eines zwischen dem Objekt und dem Anschlag gebildeten Formschlusses generiert.
- Gemäß einer weiteren Ausführungsform ist der Touchsensor als ein PCAP-Touchsensor ausgebildet, wobei das Trigger-Signal basierend auf einer bestimmten Mehrfach-Detektion mehrerer gleichzeitiger Berührungen auf dem PCAP-Touchsensor generiert wird.
- Die bestimmte Mehrfach-Detektion mehrerer gleichzeitiger Berührungen, zum Beispiel eine Detektion einer Mehrzahl von Fingerspitzen einer Hand des Benutzers innerhalb eines definierten Bereichs auf dem PCAP-Touchsensor oder eine Ballendetektion des Ballens einer Hand des Benutzers, ist verursacht/ wird ausgelöst durch ein Festdrücken des Objektes durch den Benutzer zum Scannen des Objektes mittels des optischen Sensors durch das transparente Display.
- Gemäß einer weiteren Ausführungsform ist das Trigger-Signal von einer Applikations-Software des Selbstbedienungsautomaten bereitgestellt.
- Gemäß einer weiteren Ausführungsform wird das Trigger-Signal bei einem Betätigen einer vorbestimmten Taste des Selbstbedienungsautomaten, insbesondere einer vorbestimmten Taste des Touchsensors, generiert.
- Gemäß einer weiteren Ausführungsform ist der Selbstbedienungsautomat als ein Geldautomat, als ein Kontoserviceterminal, als ein Dienstleistungsautomat, als ein Selbstverkäufer oder als eine Paketstation ausgebildet.
- Das Kontoserviceterminal ist ein Bankservicegerät, welches keine Geldauszahlung vornehmen kann, aber Kontostände anzeigen und insbesondere Kontoauszüge drucken kann.
- Der Geldautomat kann auch als Bankautomat, Bankomat oder Geldausgabeautomat bezeichnet werden. Der Geldautomat ist dabei eine technische Einrichtung, welche zur Bargeldabhebung oder zusätzlich auch zur Bargeldeinzahlung bei Geld- und Kreditinstituten, Banken und Sparkassen geeignet ist. Der Geldautomat hat eine Safe-Einheit und eine Bedien-Einheit. Die Bedien-Einheit umfasst ein Banknoten-Modul zum Auszahlen von Banknoten aus der Safe-Einheit und/oder zum Einzahlen von Banknoten in die Safe-Einheit. Darüber hinaus umfasst die Bedien-Einheit eine Eingabe-Einrichtung für Eingaben eines Benutzers. Die Eingabe-Einrichtung umfasst beispielsweise die oben erwähnte Tastatur.
- Gemäß einer weiteren Ausführungsform ist das Objekt ein Dokument, ein Papier-Dokument, ein elektronisches Dokument, ein Identitätsnachweis oder eine bildhafte Codedarstellung, beispielsweise auf einen Brief oder auf einem Paket.
- Das Papier-Dokument ist beispielsweise ein Erlagschein, ein Zahlschein oder ein Überweisungsträger. Das elektronische Dokument ist beispielsweise ein Abholungscode eines Paketautomaten. Die bildhafte Codedarstellung ist beispielsweise als ein QR-Code oder als ein Bar-Code ausgebildet, kann sowohl auf einem Papier-Dokument als auch auf einem Display beispielsweise eines Smartphones angezeigt werden. Der Identitätsnachweis ist beispielsweise ein Reisepass.
- Gemäß einer weiteren Ausführungsform umfasst der Selbstbedienungsautomat eine Zeichenerkennungseinheit zur automatischen Erkennung von Zeichen in dem Objekt basierend auf dem aufgenommenen optischen Sensorsignal des Objektes.
- Die Zeichenerkennungseinheit ist insbesondere eine optische Zeichenerkennung oder OCR (Optical Character Recognition). Diese Zeichenerkennung kann sowohl Zahlen, Buchstaben, wie auch eventuell vorhandene chinesische Zeichen und dergleichen erkennen.
- Die Zeichenerkennungseinheit kann insbesondere zumindest teilweise als Software ausgebildet sein, welche vorzugsweise in dem Selbstbedienungsautomaten abläuft oder auch alternativ in einem Rechenzentrum läuft.
- Die jeweilige Einheit, zum Beispiel die Steuereinheit, kann hardwaretechnisch und/oder auch softwaretechnisch oder als Kombination aus beidem implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit als Vorrichtung oder als Teil einer Vorrichtung, zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit oder ein Teil der Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als eigenständiger Prozess, als Teil eines Programmcodes und/oder als ausführbares Objekt ausgebildet sein. Die genannten jeweiligen Einheiten können auch in mehreren eigenständigen Prozessorkernen innerhalb eines gemeinsamen integrierten Schaltkreises implementiert sein beziehungsweise in diesen zur Ausführung gelangen.
- Gemäß einem zweiten Aspekt wird ein Verfahren zum Betreiben eines Selbstbedienungsautomaten vorgeschlagen, welcher ein Display zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, einen optischen Sensor zum Aufnehmen eines optischen Sensorsignals eines Objektes und eine Bildgebungseinheit zum Projizieren eines Bildes auf das Display aufweist.
- Bei dem Verfahren wird das Display zwischen zwei Betriebsarten umfassend einen transparenten Modus, welcher für das Aufnehmen des optischen Sensorsignals durch den optischen Sensor geeignet ist, und einen intransparenten Modus, welcher für das Projizieren des Bildes auf das Display durch die Bildgebungseinheit geeignet ist, umgeschaltet.
- Gemäß einer Weiterbildung umfasst das Verfahren die Schritte a) bis e):
- a) Beleuchten eines vorbestimmten Bereichs des Displays in dem intransparenten Modus zur Anzeige einer Positionierung des Objektes für den Benutzer,
- b) Generieren eines Trigger-Signals in Abhängigkeit des Detektierens einer Mehrzahl gleichzeitiger Berührungen auf dem PCAP-Touchscreen im Scannbereich, und/oder durch Drücken einer Taste, insbesondere einer Touch-Taste auf dem Display, und/oder durch einen Countdown nach Anzeigen zur Positionierung des Objektes,
- c) Umschalten des Displays von dem intransparenten Modus auf den transparenten Modus,
- d) Aufnehmen eines optischen Sensorsignals des vor dem Display positionierten Objektes mittels des optischen Sensors in dem transparenten Modus des Displays, und
- e) Umschalten des Displays von dem transparenten Modus auf den intransparenten Modus.
- In dem Schritt a) wird der vorbestimmte Bereich des Displays beispielsweise derart beleuchtet, dass der vorbestimmte Bereich oder Scanbereich für den Benutzer durch eine rot strichlierte Linie auf weißem Hintergrund sichtbar wird. In Schritt d) wird der vorbestimmte Bereich hingegen derart beleuchtet, dass die Aufnahme des optischen Sensorsignals durch den optischen Sensor unterstützt wird.
- Die für den vorgeschlagenen Selbstbedienungsautomaten beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Verfahren entsprechend.
- Gemäß einem dritten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches auf einer programmgesteuerten Einrichtung die Durchführung des wie oben erläuterten Verfahrens veranlasst.
- Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
- Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
- Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
- Fig. 1
- zeigt eine schematische Seitenansicht einer Ausführungsform eines Selbstbedienungsautomaten;
- Fig. 2
- zeigt eine perspektivische Ansicht der Ausführungsform des Selbstbedienungsautomaten nach
Fig. 1 ; - Fig. 3
- zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Selbstbedienungsautomaten;
- Fig. 4
- zeigt eine schematische Seitenansicht der Ausführungsform des Selbstbedienungsautomaten nach
Fig. 1 im Displaymodus; und - Fig. 5 und 6
- zeigen jeweils eine schematische Seitenansicht der Ausführungsform des Selbstbedienungsautomaten nach
Fig. 1 im Scanmodus. - In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
- In
Fig. 1 ist eine schematische Seitenansicht einer Ausführungsform eines Selbstbedienungsautomaten 1 dargestellt. Der Selbstbedienungsautomat 1 ist beispielsweise ein Geldautomat, ein Kontoserviceterminal, ein Dienstleistungsautomat, ein Selbstverkäufer oder eine Paketstation. - Der Selbstbedienungsautomat 1 weist ein Gehäuse 2 und ein an dem Gehäuse 2 angeordnetes Display 3 zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer auf. Des Weiteren sind ein optischer Sensor 4 zum Aufnehmen eines optischen Sensorsignals eines Objektes O (siehe
Fig. 5 undFig. 6 ) und eine Bildgebungseinheit 5 mit einer Optik 6 zum Projizieren eines Bildes auf das Display 3 in dem Gehäuse 2 angeordnet. - Das Objekt O ist beispielsweise ein Dokument, wie ein Papier-Dokument. Das Dokument O kann auch als ein elektronisches Dokument ausgebildet sein. Ferner kann das Objekt O ein Identitätsnachweis, wie beispielsweise ein Reisepass, oder eine bildhafte Codedarstellung, beispielsweise auf einem Brief oder auf einem Paket sein.
- Die Bildgebungseinheit 5 ist insbesondere ein Beamer und ist in dem Gehäuse 2 hinter dem Display 3 angeordnet. Auch der optische Sensor 4 ist in dem Gehäuse 2 des Selbstbedienungsautomaten 1 hinter dem Display 3 angeordnet. Der optische Sensor 4 ist vorzugsweise auf einer Schwerachse des Displays 3 angeordnet und als eine Kamera mit vorgeschalteter Optik 12 ausgebildet. Beispielsweise ist die Kamera 4 mit vorgeschalteter Optik 12 in einem Scannertrichter (nicht gezeigt in
Fig. 1 ) des Selbstbedienungsautomaten 1 angeordnet. - Das Display 3 umfasst zwei Betriebsarten aufweisend einen transparenten Modus und einen intransparenten Modus. Der transparente Modus ist für das Aufnehmen des optischen Sensorsignals durch den optischen Sensor 4 geeignet. Dabei kann der transparente Modus auch als Scanmodus bezeichnet werden. Der intransparente ist für das Projizieren des Bildes auf das Display 3 durch die Bildgebungseinheit 5 geeignet. Entsprechend kann der intransparente Modus auch als Displaymodus oder Projektionsmodus bezeichnet werden.
- Wie in
Fig. 1 gezeigt, kann eine der Kamera 4 zugeordnete Beleuchtungseinheit 7 vorgesehen sein. In dem Beispiel derFig. 1 weist die Beleuchtungseinheit 7 zwei Lichtquellen auf, die links und rechts neben der Kamera 4 in dem Gehäuse 2 des Selbstbedienungsautomaten 1 angeordnet sind. Vorzugsweise sind die Lichtquellen rund um die Kamera 4 angeordnet. Die Beleuchtungseinheit 7 umfasst daher vorzugsweise eine Vielzahl von Lichtquellen. Insbesondere sind diese Lichtquellen LEDs aufgrund der geringen Verlustleistung und dadurch einhergehenden geringen Wärmebildung. - Die Bildgebungseinheit 5 ist vorzugsweise dazu eingerichtet, in dem transparenten Modus zur Unterstützung der Aufnahme des optischen Sensorsignals durch den optischen Sensor 4 einen vorbestimmten Bereich des Displays 3 zu beleuchten (siehe
Fig. 6 ). - Das Display 3 der
Fig. 1 hat ein Displayglas 8, einen hinter dem Displayglas 8 angeordneten Touchsensor 9 zur Eingabe der Benutzereingaben durch den Benutzer und eine hinter dem Touchsensor 9 angeordnete schaltbare Projektionsfläche 10, welche die zwei Betriebsarten aufweisend den transparenten Modus und den intransparenten Modus umfasst. Dabei ist der Touchsensor 9 vorzugsweise auf das Displayglas 8 laminiert und die schaltbare Projektionsfläche 10 ist vorzugsweise auf den Touchsensor 9 laminiert. - Vorzugsweise ist die schaltbare Projektionsfläche 10 als eine elektrisch schaltbare Projektionsfläche ausgebildet. Hierbei weist der Selbstbedienungsautomat 1 vorzugsweise eine Steuereinheit 11 auf, welche dazu eingerichtet ist, die elektrisch schaltbare Projektionsfläche 10 mittels einer elektrischen Spannung zwischen dem transparenten Modus und dem intransparenten Modus umzuschalten. Die Steuereinheit 11 ist insbesondere Teil der zentralen Steuervorrichtung (nicht gezeigt) des Selbstbedienungsautomaten 1.
- Die schaltbare Projektionsfläche 10 weist beispielsweise eine PDLC-Folie oder eine Mehrzahl von PDLC-Folienschichten auf. Alternativ kann die schaltbare Projektionsfläche 10 auch ein elektrochromes Glas aufweisen.
- Des Weiteren hat das Displayglas 8 vorzugsweise einen Anschlag (nicht gezeigt), an welchem das Objekt O derart anlegbar ist, dass das angelegte Objekt O und der Anschlag einen Formschluss bilden, so dass das Objekt O an einer vordefinierten Position liegt. Eine solche vordefinierte Position ist beispielsweise in
Fig. 5 ersichtlich. - Weiter ist die Steuereinheit 11 insbesondere dazu eingerichtet, zwischen dem transparenten Modus und dem intransparenten Modus in Abhängigkeit eines Trigger-Signals umzuschalten.
- Für das Beispiel der Ausbildung des Touchsensors 9 als ein PCAP-Touchsensor wird das Trigger-Signal vorzugsweise basierend auf einer bestimmten Mehrfach-Detektion mehrerer gleichzeitiger Berührungen auf dem PCAP-Touchsensor generiert. Alternativ oder zusätzlich kann das Trigger-Signal auch von einer Applikations-Software des Selbstbedienungsautomaten 1 generiert werden. Das Trigger-Signal kann auch bei einem Betätigen einer vorbestimmten Taste des Selbstbedienungsautomaten 1, insbesondere in einer vorbestimmten Taste des Touchsensors 9, generiert werden.
- Für den Fall, dass als optischer Sensor 4 eine Kamera mit Autofokus verwendet wird, kann das Trigger-Signal auch in Abhängigkeit eines Scharfstellens durch den Autofokus der Kamera auf dem Objekt O generiert werden.
- Außerdem kann der Selbstbedienungsautomat 1 eine Zeichenerkennungseinheit zur automatischen Erkennung von Zeichen in dem Objekt O basierend auf dem aufgenommenen optischen Sensorsignal des Objektes O aufweisen. Die Zeichenerkennungseinheit ist beispielsweise in der Steuereinheit 11 integriert.
- Ferner zeigt die
Fig. 2 eine schematische perspektivische Ansicht des Selbstbedienungsautomaten 1 nachFig. 1 . In der perspektivischen Ansicht nachFig. 2 ist - aus Gründen der Übersichtlichkeit - nur das Display 3 mit einem Bezugszeichen versehen. - Des Weiteren zeigt die
Fig. 3 ein schematisches Blockschaltbild eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Selbstbedienungsautomaten 1. Ein Beispiel eines solchen Selbstbedienungsautomaten 1 ist inFig. 1 und2 gezeigt. Der Selbstbedienungsautomat 1 hat zumindest ein Display 3 zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, einen optischen Sensor 4 zum Aufnehmen eines optischen Sensorsignals eines Objektes O und eine Bildgebungseinheit 5 zum Projizieren eines Bildes auf das Display 3. - In Schritt S1 wird ein vorbestimmter Bereich des Displays 3 in dem intransparenten Modus (Displaymodus oder Projektionsmodus) zur Anzeige einer Positionierung des Objektes O für den Benutzer beleuchtet. Der vorbestimmte Bereich des Displays 3 kann auch als Scanbereich bezeichnet werden, da er dafür vorgesehen ist, das Objekt O zu scannen.
- Hierzu zeigt die
Fig. 4 das Ausführungsbeispiel des Selbstbedienungsautomaten 1 nachFig. 1 im Displaymodus. In besagterFig. 4 bezeichnet das Bezugszeichen 13 die Projektionsstrahlen oder das Projektionslicht der Bildgebungseinheit 5 und das Bezugszeichen 14 zeigt die Strahlen der Abbildung der Projektionsfläche 10. Beispielsweise ist diese Abbildung eine rot strichlierte Linie auf weißem Hintergrund in dem Scanbereich, so dass für den Benutzer ersichtlich ist, in welchem Bereich er das Objekt O aufzulegen hat. - In Schritt S2 wird ein Trigger-Signal in Abhängigkeit eines Detektierens der Mehrzahl gleichzeitiger Berührungen auf dem Touchsensor 9, oder des Auslösens einer Taste, insbesondere einer Taste auf dem Touchscreen 9, oder des Ablaufens eines Timers generiert.
- In Schritt S3 wird das Display 3 in Folge des generierten Trigger-Signals von dem intransparenten Modus (Displaymodus oder Projektionsmodus) auf den transparenten (Scanmodus) umgeschaltet. In einer weiteren Ausführungsmöglichkeit wird nur der oben erwähnte Scanbereich vom intransparenten in den transparenten Modus geschaltet.
- In Schritt S4 wird ein optisches Sensorsignal des vor dem Display 3 positionierten Objektes O mittels des optischen Sensors 4 in dem transparenten Modus des Displays 3 aufgenommen.
- Dabei wird in Schritt S4 der vorbestimmte Bereich (Scanbereich) derart beleuchtet, dass die Aufnahme des optischen Sensorsignals durch den optischen Sensor 4 unterstützt wird. Hierzu zeigt die
Fig. 5 das Ausführungsbeispiel des Selbstbedienungsautomaten 1 nachFig. 1 in dem Scanmodus, wobei die Beleuchtungseinheit 7 mittels ihrem Nutzlicht 15 die Aufnahme des optischen Sensorsignals durch den optischen Sensor 4 unterstützt. Hierbei bezeichnet das Bezugszeichen 16 das reflektierte Objektlicht des Objektes O, welches von dem optischen Sensor 4 aufgenommen wird. - In Schritt S5 wird nach dem Erstellen der Aufnahme das Display 3 wieder in den intransparenten Modus geschaltet.
- Ferner zeigt
Fig. 6 eine Alternative zuFig. 5 hinsichtlich der unterstützenden Beleuchtung. In derFig. 6 unterstützt die Bildgebungseinheit 5 mit ihrem Nutzlicht 17 die Aufnahme des optischen Sensorsignals durch den optischen Sensor 4. Hierbei bezeichnet das Bezugszeichen 18 inFig. 6 das reflektierte Objektlicht des Objektes O. - Obwohl die vorliegende Erfindung anhand von Ausführungsformen beschrieben wurde, ist sie vielfältig modifizierbar. Insbesondere sind Merkmale der Ausführungsformen auch auf einen Non-Cash-Automaten, wie zum Beispiel einen Überweisungsautomaten oder einen Bankkontoauszugsdrucker anwendbar.
-
- 1
- Selbstbedienungsautomat
- 2
- Gehäuse
- 3
- Display
- 4
- optischer Sensor
- 5
- Bildgebungseinheit
- 6
- Optik der Bildgebungseinheit
- 7
- Beleuchtungseinheit
- 8
- Displayglas
- 9
- Touchsensor
- 10
- Projektionsfläche
- 11
- Steuereinheit
- 12
- Optik der Kamera
- 13
- Projektionsstrahlen
- 14
- Strahlen der Abbildung der Projektionsfläche
- 15
- Nutzlicht von Beleuchtungseinheit
- 16
- reflektiertes Objektlicht des Objektes
- 17
- Nutzlicht von Bildgebungseinheit
- 18
- reflektiertes Objektlicht des Objektes
- O
- Objekt
- S1 - S5
- Verfahrensschritt
Claims (22)
- Selbstbedienungsautomat (1) mit einem Display (3) zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, mit einem optischen Sensor (4) zum Aufnehmen eines optischen Sensorsignals eines Objektes (O) und einer Bildgebungseinheit (5) zum Projizieren eines Bildes auf das Display (3),
dadurch gekennzeichnet,
dass das Display (3) zwei Betriebsarten umfassend einen transparenten Modus, welcher für das Aufnehmen des optischen Sensorsignals durch den optischen Sensor (4) geeignet ist, und einen intransparenten Modus, welcher für das Projizieren des Bildes auf das Display (3) durch die Bildgebungseinheit (5) geeignet ist, aufweist. - Selbstbedienungsautomat nach Anspruch 1,
dadurch gekennzeichnet,
dass die Bildgebungseinheit (5) in einem Gehäuse (2) des Selbstbedienungsautomaten (1) hinter dem Display (3) angeordnet ist. - Selbstbedienungsautomat nach Anspruch 1 oder 2,
dadurch gekennzeichnet,
dass der optische Sensor (4) in dem Gehäuse (2) des Selbstbedienungsautomaten (1) hinter dem Display (3) angeordnet ist. - Selbstbedienungsautomat nach Anspruch 3,
dadurch gekennzeichnet,
dass der optische Sensor als eine Kamera (4) mit vorgeschalteter Optik ausgebildet ist, wobei die Kamera (4) mit der vorgeschalteten Optik in einem Scannertrichter des Selbstbedienungsautomaten (1) angeordnet ist. - Selbstbedienungsautomat nach Anspruch 3 oder 4,
dadurch gekennzeichnet,
dass die Bildgebungseinheit (5) dazu eingerichtet ist, in dem transparenten Modus zur Unterstützung der Aufnahme des optischen Sensorsignals durch den optischen Sensor (4) einen vorbestimmten Bereich des Displays (3) zu beleuchten. - Selbstbedienungsautomat nach Anspruch 4,
dadurch gekennzeichnet,
dass der optische Sensor ferner eine der Kamera (4) zugeordnete und in dem Scannertrichter angeordnete Beleuchtungseinheit (7) aufweist, welche dazu eingerichtet ist, in dem transparenten Modus zur Unterstützung der Aufnahme des optischen Sensorsignals durch den optischen Sensor (4) einen vorbestimmten Bereich des Displays (3) zu beleuchten. - Selbstbedienungsautomat nach einem der Ansprüche 3 bis 6,
dadurch gekennzeichnet,
dass der optische Sensor (4) auf einer Schwerachse des Displays (3) angeordnet ist. - Selbstbedienungsautomat nach einem der Ansprüche 1 bis 7,
dadurch gekennzeichnet,
dass das Display (3) aufweist:- ein Displayglas (8),- einen hinter dem Displayglas (8) angeordneten Touchsensor (9) zur Eingabe der Benutzereingaben durch den Benutzer, und- eine hinter dem Touchsensor (9) angeordnete schaltbare Projektionsfläche (10), welche die zwei Betriebsarten umfassend den transparenten Modus und den intransparenten Modus aufweist. - Selbstbedienungsautomat nach Anspruch 8,
dadurch gekennzeichnet,
dass der Touchsensor (9) auf das Displayglas (8) laminiert ist und die schaltbare Projektionsfläche (10) auf den Touchsensor (9) laminiert ist. - Selbstbedienungsautomat nach Anspruch 8 oder 9,
dadurch gekennzeichnet,
dass die schaltbare Projektionsfläche (10) eine elektrisch schaltbare Projektionsfläche ist, wobei eine Steuereinheit (11) vorgesehen ist, die dazu eingerichtet ist, die elektrisch schaltbare Projektionsfläche (10) mittels einer elektrischen Spannung zwischen dem transparenten Modus und dem intransparenten Modus umzuschalten. - Selbstbedienungsautomat nach Anspruch 10,
dadurch gekennzeichnet,
dass die schaltbare Projektionsfläche (10) eine PDLC-Folie oder eine Mehrzahl von PDLC-Folienschichten aufweist. - Selbstbedienungsautomat nach Anspruch 10,
dadurch gekennzeichnet,
dass nur ein Teil der Projektionsfläche (10) in einen transparenten Modus geschaltet wird, wohingegen die restliche Projektionsfläche (10) intransparent bleibt. - Selbstbedienungsautomat nach Anspruch 12,
dadurch gekennzeichnet,
dass jener Teil der Projektionsfläche (10), welcher in den transparenten Modus geschaltet wird, abhängig von der Objektgröße (O) in der Größe verändert wird. - Selbstbedienungsautomat nach Anspruch 10,
dadurch gekennzeichnet,
dass die schaltbare Projektionsfläche (10) ein elektrochromes Glas aufweist. - Selbstbedienungsautomat nach einem der Ansprüche 10 bis 14,
dadurch gekennzeichnet,
dass die Steuereinheit (11) dazu eingerichtet ist, zwischen dem transparenten Modus und dem intransparenten Modus in Abhängigkeit eines Trigger-Signals umzuschalten. - Selbstbedienungsautomat nach Anspruch 15,
dadurch gekennzeichnet,
dass der Touchsensor (9) als ein PCAP-Touchsensor ausgebildet ist, wobei das Trigger-Signal basierend auf einer bestimmten Mehrfach-Detektion mehrerer gleichzeitiger Berührungen auf dem PCAP-Touchsensor generiert wird. - Selbstbedienungsautomat nach Anspruch 15,
dadurch gekennzeichnet,
dass das Trigger-Signal von einer Applikations-Software des Selbstbedienungsautomaten (1) bereitgestellt ist oder bei einem Betätigen einer vorbestimmten Taste des Selbstbedienungsautomaten (1), insbesondere einer vorbestimmten Taste des Touchsensors (9), generiert wird. - Selbstbedienungsautomat nach einem der Ansprüche 1 bis 17,
dadurch gekennzeichnet,
dass der Selbstbedienungsautomat (1) als ein Geldautomat, als ein Kontoserviceterminal, als ein Dienstleistungsautomat, als ein Selbstverkäufer oder als eine Paketstation ausgebildet ist. - Selbstbedienungsautomat nach einem der Ansprüche 1 bis 18,
dadurch gekennzeichnet,
dass das Objekt (O) ein Dokument, ein Papier-Dokument, ein elektronisches Dokument, ein Identitätsnachweis, beispielsweise ein Reisepass, oder eine bildhafte Codedarstellung, beispielsweise auf einen Brief oder auf einem Paket, ist. - Selbstbedienungsautomat nach einem der Ansprüche 1 bis 19, gekennzeichnet durch
eine Zeichenerkennungseinheit zur automatischen Erkennung von Zeichen in dem Objekt (O) basierend auf dem aufgenommenen optischen Sensorsignal des Objektes (O). - Verfahren zum Betreiben eines Selbstbedienungsautomaten (1) mit einem Display (3) zur Ausgabe von Informationen an einen Benutzer und zur Eingabe von Benutzereingaben durch den Benutzer, mit einem optischen Sensor (4) zum Aufnehmen eines optischen Sensorsignals eines Objektes (O) und einer Bildgebungseinheit (5) zum Projizieren eines Bildes auf das Display (3), gekennzeichnet durch
Umschalten (S3) des Displays (3) zwischen zwei Betriebsarten umfassend einen transparenten Modus, welcher für das Aufnehmen des optischen Sensorsignals durch den optischen Sensor (4) geeignet ist, und einen intransparenten Modus, welcher für das Projizieren des Bildes auf das Display (3) durch die Bildgebungseinheit (5) geeignet ist. - Verfahren nach Anspruch 21,
gekennzeichnet durcha) Beleuchten (S1) eines vorbestimmten Bereichs des Displays (3) in dem intransparenten Modus zur Anzeige einer Positionierung des Objektes (O) für den Benutzer,b) Generieren (S2) eines Trigger-Signals in Abhängigkeit des Detektierens der Mehrzahl gleichzeitiger Berührungen auf dem PCAP-Touchscreen (9) im Scannbereich, und/oder durch Drücken einer Taste, insbesondere einer Touch-Taste auf dem Display, und/oder durch einen Countdown nach Anzeigen zur Positionierung des Objektes (O),c) Umschalten (S3) des Displays (3) von dem intransparenten Modus auf den transparenten Modus,d) Aufnehmen (S4) eines optischen Sensorsignals des vor dem Display (3) positionierten Objektes (O) mittels des optischen Sensors (4) in dem transparenten Modus des Displays (3), unde) Umschalten (S5) des Displays (3) von dem transparenten Modus auf den intransparenten Modus.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102020111336.6A DE102020111336A1 (de) | 2020-04-27 | 2020-04-27 | Selbstbedienungsautomat |
Publications (1)
Publication Number | Publication Date |
---|---|
EP3905210A1 true EP3905210A1 (de) | 2021-11-03 |
Family
ID=75659794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
EP21169958.2A Pending EP3905210A1 (de) | 2020-04-27 | 2021-04-22 | Selbstbedienungsautomat |
Country Status (2)
Country | Link |
---|---|
EP (1) | EP3905210A1 (de) |
DE (1) | DE102020111336A1 (de) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US20160301900A1 (en) * | 2015-04-07 | 2016-10-13 | Omnivision Technologies, Inc. | Touch screen rear projection display |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8035612B2 (en) | 2002-05-28 | 2011-10-11 | Intellectual Ventures Holding 67 Llc | Self-contained interactive video display system |
-
2020
- 2020-04-27 DE DE102020111336.6A patent/DE102020111336A1/de active Pending
-
2021
- 2021-04-22 EP EP21169958.2A patent/EP3905210A1/de active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090219253A1 (en) * | 2008-02-29 | 2009-09-03 | Microsoft Corporation | Interactive Surface Computer with Switchable Diffuser |
US20160301900A1 (en) * | 2015-04-07 | 2016-10-13 | Omnivision Technologies, Inc. | Touch screen rear projection display |
Also Published As
Publication number | Publication date |
---|---|
DE102020111336A1 (de) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1458576B1 (de) | Wertdokument | |
DE3635951C2 (de) | ||
DE102009032637B4 (de) | Bildvergrößerungssystem für eine Computerschnittstelle | |
DE69937883T2 (de) | Anpassbarer internationaler geldscheinzähler | |
DE60130060T2 (de) | System und Verfahren zur Benutzeridentitätsprüfung und mobiles Fernsprechgerät | |
EP0089406B1 (de) | Anzeige für ein Messgerät, insbesondere für eine Waage | |
EP2266102A1 (de) | Freiluft-verkaufsautomat und verwendung einer benutzerschnittstelle für den betrieb eines freiluft-verkaufsautomaten | |
DE102006040966A1 (de) | Selbstbedienungsgerät mit Überwachungsvorrichtung | |
DE2627981C3 (de) | Identifizierungssystem mittels Fingerabdrucken | |
DE102007015934A1 (de) | Dokument mit einem Sicherheitsmerkmal, Lesegerät und Verfahren zum Lesen eines Sicherheitsmerkmals | |
EP2015263A1 (de) | Warenauswahleinheit | |
DE102018119713A1 (de) | Anzeigevorrichtung | |
WO2014023514A1 (de) | Dokumentenlesegerät mit einer dokumentenauflage | |
EP3905210A1 (de) | Selbstbedienungsautomat | |
EP3896663A1 (de) | Selbstbedienungsautomat | |
DE4129202A1 (de) | Schaltungsanordnung zum sichern eines oder mehrerer betaetigungselemente gegen optisches erkennen der vorgenommenen betaetigungen | |
DE10130019A1 (de) | Chipkartenleseeinrichtung | |
DE102013110165A1 (de) | Dokumentenprüfgerät | |
RU2267812C2 (ru) | Способ обработки банкнот и устройство для его осуществления | |
WO2018050759A1 (de) | Erfassungsvorrichtung zum erfassen eines gesichtsbildes einer person | |
EP2824543B1 (de) | Dokument mit einer integrierten Anzeigevorrichtung | |
DE102019129201A1 (de) | Touchscreen, Touchscreen-Anordnung und Verwendung eines Touchscreens oder einer Touchscreen-Anordnung | |
DE102011111205B4 (de) | Eingabevorrichtung mit Fälschungssicherheitsmerkmalen, insbesondere für ein Selbstbedienungsgerät | |
DE102007039718B4 (de) | Tastatur mit Infrarotsensor | |
EP0674297A1 (de) | Bedieneinheit, insbesondere für Zahlungsautomaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
17P | Request for examination filed |
Effective date: 20210422 |
|
AK | Designated contracting states |
Kind code of ref document: A1 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
B565 | Issuance of search results under rule 164(2) epc |
Effective date: 20210930 |
|
RAP1 | Party data changed (applicant data changed or rights of an application transferred) |
Owner name: KEBA HANDOVER AUTOMATION GMBH |
|
STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: EXAMINATION IS IN PROGRESS |