[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2023287054A1 - Electronic device and control method thereof - Google Patents

Electronic device and control method thereof Download PDF

Info

Publication number
WO2023287054A1
WO2023287054A1 PCT/KR2022/008955 KR2022008955W WO2023287054A1 WO 2023287054 A1 WO2023287054 A1 WO 2023287054A1 KR 2022008955 W KR2022008955 W KR 2022008955W WO 2023287054 A1 WO2023287054 A1 WO 2023287054A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
projector
window
processor
imaging device
Prior art date
Application number
PCT/KR2022/008955
Other languages
French (fr)
Korean (ko)
Inventor
박재성
박이훈
이정흠
최낙원
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2023287054A1 publication Critical patent/WO2023287054A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/18Payment architectures involving self-service terminals [SST], vending machines, kiosks or multimedia terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Definitions

  • the disclosed invention relates to an ordering and payment device used in a drive-through based store, and unlike the conventional technology in which the window of the vehicle must be lowered to place an order and present a payment method (card, cash), a projector irradiates content on the vehicle window. It relates to a non-face-to-face kiosk device for a drive-thru-based store that orders and pays by.
  • a drive-through refers to a service that allows a vehicle occupant to purchase products from a store while riding in the vehicle, and is abbreviated as DT.
  • Drive-through stores have been widely applied to fast food restaurants in the United States, and recently, franchise companies such as Starbucks and McDonald's are operating drive-through stores in Korea.
  • a drive-through based store is divided into an ordering area, a payment area, and a product delivery area (pickup area).
  • an entry vehicle enters the ordering area and the ordering step can be performed.
  • an ordering device for a user's order and payment is installed in the ordering area, and the ordering device may communicate with a POS terminal inside a drive-through based store or a separate server.
  • the entry vehicle moves to a payment area along an access road.
  • the clerk uses a payment terminal of a drive-thru-based store to pay the amount of money to be paid by using a payment method such as a credit card, cash, or coupon from a passenger of an entry vehicle.
  • a payment method such as a credit card, cash, or coupon from a passenger of an entry vehicle.
  • the ordering device may include a means for payment, such as a card slot or a cash slot, and in this case, the payment step may be omitted, thereby reducing overall usage time of the occupant.
  • a means for payment such as a card slot or a cash slot
  • Payment for ordered products can also cause the same inconvenience as in the case mentioned above, and in the COVID situation, payment methods (credit card, cash, mobile phone payment) are provided to store employees by opening the window of the vehicle to pay for the user's order. There are many inconvenience factors such as having to do it.
  • the driver in the vehicle is the subject of ordering and paying, but there is no way for the vehicle's passengers to select menus by viewing the kiosk screen together, and moreover, two or more passengers can view their menus and order.
  • the disclosed invention provides an ordering device suitable for the COVID non-face-to-face era, and the driver and passenger of a vehicle entering a drive-thru shop can order products together through the front/rear/side windows or sunroof of the vehicle through the window of the vehicle. It is provided as a kiosk screen. To this end, the purpose is to research contents through projectors located outside the vehicle through the front/rear/side windows or sunroof of the vehicle, and to provide a user-friendly interface for two or more passengers to order products and pay for the products individually or at once. to be
  • an imaging device an imaging device; a communication unit that communicates with the server; projector; Controlling the projector to investigate content including a plurality of menus through a window of the vehicle based on the vehicle being photographed through the imaging device, and based on the photographing of a user's gesture for the content through the imaging device and a processor controlling the communication unit to determine a menu corresponding to the user gesture among the plurality of menus and to transmit information on the determined menu to a server.
  • the projector may set the irradiation angle by irradiating the content a plurality of times at various angles to set the irradiation angle and checking feedback of the irradiated content.
  • the projector may irradiate content including a pattern image to the vehicle at the set irradiation angle, and the processor may detect a window area of the vehicle according to a difference in transmittance and reflectance.
  • the processor controls the imaging device to photograph the vehicle at the set irradiation angle to recognize the sun visor pattern displayed on the front window of the vehicle, and detects an area below the recognized sun visor pattern as the front window area.
  • the processor may detect the detected slope and the degree of outer rounding of the window area, and apply inverse compensation in a direction opposite to the geometric distortion based on the detected slope and degree of outer rounding to examine the content in the window.
  • the processor may detect the slope of the detected window area and the degree of outer rounding, and reduce and examine the content in an area having a geometric distortion equal to or less than a preset reference value.
  • the processor may determine whether the vehicle entered normally by controlling a projector to irradiate a pattern image on the floor of the driving path of the vehicle and controlling the imaging device to capture the pattern image.
  • the projector irradiates the vehicle with a focus adjustment pattern image for focus adjustment, and the processor photographs the pattern image through the imaging device to determine whether the focus is normally set, and controls the projector to adjust the focus. .
  • the processor recognizes an omega shape inside the vehicle through the imaging device, detects the location of the user's head based on the recognized omega shape, and controls the focus of the projector. You can control it.
  • the processor recognizes an omega shape inside the vehicle through the imaging device, and operates the projector to project a plurality of kiosk screens to a window of the vehicle based on a plurality of omega shapes. You can control it.
  • the processor may determine that the user has selected the menu based on detecting, through the imaging device, that the user holds a tool for selecting the menu in front of the menu for a predetermined time.
  • the processor controls the projector to project a payment screen onto a window of the vehicle based on the information on the determined menu being transmitted to the server, and the user can proceed with payment through the payment screen.
  • the processor may proceed with the payment by photographing the marker displayed on the payment screen with a mobile device or by sequentially drawing 9 dots displayed on the payment screen on the mobile device.
  • a control method of an electronic device includes irradiating a pattern image on the floor of a driving path of a vehicle by a projector; determining, by the imaging device, whether the vehicle entered normally by photographing the pattern image; examining content including a plurality of menus through a window of the vehicle; determining a menu corresponding to the user gesture from among the plurality of menus when the user gesture for the content is captured through the imaging device; Transmitting information on the determined menu to a server; may include.
  • Irradiating content including a plurality of menus to the window of the vehicle moves the projector to set an irradiation angle, irradiates a projection beam for each preset angle, and checks feedback of the irradiated projection beam to irradiate the irradiation angle.
  • Setting a may further include.
  • Examining the contents including a plurality of menus through the window of the vehicle may include: irradiating a pattern to the vehicle, photographing the reflected pattern with the imaging device, and detecting a window area of the vehicle according to a difference in transmittance and reflectance. ; may be further included.
  • Examining the contents including a plurality of menus through the window of the vehicle detects the detected slope and degree of outer rounding of the window area, and performs inverse compensation in a direction opposite to the geometric distortion based on the detected slope and degree of outer rounding.
  • Applying a may further include.
  • Examining the contents including a plurality of menus through the window of the vehicle examines a focus control pattern for adjusting the focus of the vehicle, photographs the pattern through the imaging device, determines whether the focus is normally set, and determines whether the focus is normally set, and It may further include; step of adjusting the focus.
  • Determining the menu corresponding to the user gesture may include determining that the user has selected the menu based on the detection through the imaging device that the user holds a tool for selecting the menu in front of the menu for a predetermined time. ; may be further included.
  • Transmitting the information on the determined menu to the server may further include: irradiating a payment screen on a window of the vehicle, and proceeding with payment through the payment screen by the user.
  • users can order and pay completely non-face-to-face inside the vehicle without opening the vehicle window and firing at a clerk or kiosk screen located outside.
  • a kiosk with improved convenience that can provide convenience and UX, such as two or more vehicle passengers placing separate orders and paying for each while looking at each kiosk screen, or entering only product orders and paying at once with one person's card. it is possible to provide
  • FIG. 1 is an exemplary diagram illustrating a disposition structure of an electronic device when an entry vehicle enters an access road through a drive-through based store according to an embodiment of the present disclosure.
  • FIG. 2 is a diagram of input values for generating a radio channel according to an embodiment of the present invention.
  • FIG. 3 is a diagram of a process of generating a radio channel by a processor according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing a control block diagram of an electronic device according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for inducing entry of an entry vehicle and confirming whether the entry vehicle has entered a normal position, according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram in which an electronic device according to an embodiment of the present disclosure distinguishes between a vehicle with and without a sunroof and searches for content.
  • FIG 7 and 8 are views in which the projector 130 determines a window to irradiate content according to a predetermined angle and sets an optimal irradiation angle according to an embodiment of the disclosed invention.
  • FIG. 9 is a diagram in which an electronic device according to an embodiment of the present disclosure divides other areas such as a window area and a frame area.
  • FIG. 10 is a diagram explaining that a projector searches content for one person or two people according to an embodiment of the present disclosure.
  • FIG. 11 is a diagram showing that a projector irradiates content to a window and a user selects a menu according to an embodiment of the present invention.
  • FIG. 12 is a view from the inside of a vehicle when a projector examines content according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram explaining that electronic devices hand over order information to next electronic devices according to an embodiment of the present disclosure.
  • FIG. 14 is a general flow chart of placing an order by an electronic device according to an embodiment of the present disclosure.
  • 15 is a flowchart illustrating a search for a plurality of contents when boarding of a passenger is confirmed by an electronic device according to an embodiment of the present disclosure.
  • first and second used herein may be used to describe various components, but the components are not limited by the terms, and the terms It is used only for the purpose of distinguishing one component from another.
  • a first element may be termed a second element, and similarly, the second element may also be termed a first element.
  • the term "and/or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.
  • ⁇ unit may mean a unit that processes at least one function or operation.
  • the above terms refer to at least one hardware such as a field-programmable gate array (FPGA)/application specific integrated circuit (ASIC), at least one software stored in a memory, or at least one process processed by the processor 120.
  • FPGA field-programmable gate array
  • ASIC application specific integrated circuit
  • the codes attached to each step are used to identify each step, and these codes do not indicate the order of each step, and each step is performed in a different order from the specified order unless a specific order is clearly stated in the context. It can be.
  • the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by the processor 120, may perform operations of the disclosed embodiments.
  • the recording medium may be implemented as a computer-readable recording medium.
  • Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.
  • ROM read only memory
  • RAM random access memory
  • magnetic tape magnetic tape
  • magnetic disk magnetic disk
  • flash memory optical data storage device
  • the projector 130 described below is a device for enlarging and showing an image (image or video) on a projection screen or similar white flat surface, and is usually a tool used to provide the same information to multiple audiences. It may be a device that receives signals from various video devices such as TVs, VCRs, DVD players, PCs, and camcorders and displays enlarged images on a screen through lenses.
  • the imaging device 110 described below may include any means capable of obtaining an image by photographing or sensing an object.
  • it may be a camera with a built-in image sensor capable of taking pictures or videos of objects.
  • it may be a radar technology that generates a point cloud image using radio frequencies, such as UWB (Ultra-WideBand) and FMCW (Frequency-Modulated Continuous Wave).
  • radio frequencies such as UWB (Ultra-WideBand) and FMCW (Frequency-Modulated Continuous Wave).
  • the imaging device 110 means a camera.
  • FIG. 1 is a diagram illustrating electronic devices 100-1,100-2,100-3 when entering vehicles 200-1,200-2,200-3 enter an access road through a drive-through based store according to an embodiment of the present disclosure. It is an example diagram showing the arrangement structure of.
  • the electronic device 100 is for ordering and payment used in a drive-thru (DT) based store, and as shown in FIG. do.
  • DT drive-thru
  • a plurality of electronic devices 100 may be configured, and they may unidirectionally or bidirectionally communicate with a vehicle 200 entering a movement path.
  • a radio channel may be used, and a method of using the radio channel will be described in detail with reference to FIGS. 2 and 3 .
  • FIG. 2 is a diagram related to input values for generating a radio channel according to an embodiment of the disclosed invention
  • FIG. 3 is a diagram related to a process of generating a radio channel by a processor according to an embodiment of the disclosed invention.
  • the processor 120 may guide the vehicle 200 to tune in to a radio channel of the vehicle 200 through a speaker or the like when the vehicle 200 enters a DT point.
  • the processor 120 may automatically set a radio channel to a specific frequency with the consent of the driver of the vehicle 200 and may be configured to be guided through a speaker inside the vehicle 200. .
  • the radio channel may be determined based on information obtained through vehicle 200 recognition when the vehicle 200 enters.
  • the electronic device 100 may select a non-overlapping radio channel by encoding each characteristic parameter such as vehicle model, year, color, and number, and using the code combination as a seed for generating a random frequency.
  • the selected radio channel may provide a communication means for one-way or two-way communication between users in the vehicle 200 and store personnel.
  • FIG. 4 is a diagram showing a control block diagram of the electronic device 100 according to an embodiment of the present disclosure.
  • the electronic device 100 may include a projector 130 , a server 300 , and a processor 120 that controls the communication unit 140 to communicate with the server 300 .
  • the projector 130 may include a projection module 131 configured to emit a projection beam and an imaging device 110 capable of checking feedback of the projected projection beam or detecting a user's motion.
  • the projector 130 may check parking/stop guidelines for a user who wants to use the window of the vehicle 200 as a screen.
  • the projector 130 may irradiate content to the window of the vehicle 200, and the infrared imaging device 110 may be used to find an optimal irradiation area or angle.
  • the projector 130 may project content onto the window of the vehicle 200, and the infrared imaging device 110 may be used to detect the overall tilt and rounding degree of the window of the vehicle 200.
  • the projector 130 may be used to provide a kiosk screen to the detected window area.
  • the communication unit 140 may include a wired communication module 141 provided to enable wireless communication and a wireless communication module 142 provided to enable wired communication.
  • the communication unit 140 communicates with the server 300 under the control of the processor 120, and transmits order-related information and payment-related information to the server 300 or receives it from the server 300 to display the projector 130. can be made visible to the user.
  • the server 300 communicates with the communication unit 140 to pass order information and payment information to the seller's POS or to display information received from the POS to the user through the projector 130 .
  • the processor 120 controls the projector 130 to provide parking/stop guidelines for a user who wants to utilize the window of the vehicle 200 as a screen, or irradiates content to the window of the vehicle 200 to provide an optimal irradiation area or It can be used to find an angle, or it can be used to detect the overall inclination and rounding degree of the window of the vehicle 200 by examining contents on the window of the vehicle 200 .
  • the projector 130 can be used to provide a kiosk screen to the detected window area.
  • the processor 120 controls the communication unit 140 and the server 300 to transmit order information and payment information to the server 300 through mutual communication between the communication unit 140 and the server 300, and order information from the server 300. And payment information can be received by the communication unit 140 and displayed to the user.
  • Gesture input during operation of the processor 120 may mean that the user selects a menu when the projector 130 examines a plurality of menus that the user can select.
  • the gesture input when a driver's or passenger's finger, back of the hand, or other tool stays within a specific area of the menu selection screen irradiated on the window of the vehicle 200 for a certain period of time, a procedure for confirming whether to add the corresponding menu to the shopping cart is performed. If it is not the corresponding menu selection, by selecting 'No', the menu selection can be continued. When all menu selections are completed, you can select an order in the menu selection space area.
  • the projector 130 displays a specific marker at a specific location of the window and images the mobile phone there.
  • a user interface (UI) for displaying the device 110 is displayed.
  • a new authentication method can be provided through pairing. After displaying 9 dots on the screen of the projector 130 and displaying arrows connected in order between the dots, the paired mobile phone It is possible to provide a method of authentication by an operation of drawing along the dot. This is similar to the lock screen release method used in cell phones or mobile devices, but it is a method that provides a number sequence pattern determined by the server 300 and approves it by a drawing motion by the user, which is different from the existing method.
  • 5 is a diagram in which the electronic device 100 induces entry of the entry vehicle 200 and checks whether the entry vehicle 200 has entered the normal position according to an embodiment of the present disclosure.
  • the projector 130 identifies the vehicle 200 with a specific pattern (eg, an indicator lamp such as a square box for a parking position) on the floor of a driving path of the vehicle 200. How to mark the location so that you can stop, etc.) can be investigated. Thereafter, the projector 130 guides the vehicle 200 to move to a specific location, and recognizes that the imaging device 110 has arrived at an accurate area, thereby guiding the vehicle 200 to park and stop.
  • a specific pattern eg, an indicator lamp such as a square box for a parking position
  • the projector 130 may irradiate a total of 4 specific patterns of 8 dots on the DT point movement path and guide the vehicle 200 to be parked on the corresponding pattern.
  • the processor 120 may determine whether the vehicle 200 normally enters the DT point movement path by analyzing the number of obscured patterns and the degree of obscuration.
  • the processor 120 may calculate the size or position of the vehicle 200 and perform an operation for detecting a window area to be irradiated on the kiosk screen.
  • the type or number of patterns irradiated by the projector 130 is not limited thereto, and the pattern is irradiated by the projector 130 and other methods of confirming the entry and size of the vehicle 200 according to the change of the pattern may also be included. there is.
  • FIG. 6 is a diagram in which the electronic device 100 classifies a vehicle 200 with a sunroof and a vehicle 200 without a sunroof according to an embodiment of the present disclosure and examines contents.
  • the projector 130 has LED flashing on the floor or separate
  • the vehicle 200 may be guided by displaying two stopping guidelines in a pattern or the like.
  • the projector 130 displays two guidelines of a dotted line and a solid line, so that ordering the kiosk screen through the sunroof leads to match the front part of the vehicle 200 with the dotted line in front, and utilizes the front window.
  • the front part of the vehicle 200 may be aligned with the solid line at the back to guide the user to select a window to utilize the kiosk.
  • FIG 7 and 8 are views in which the projector 130 determines a window to irradiate content according to a predetermined angle and sets an optimal irradiation angle according to an embodiment of the disclosed invention.
  • the imaging device 110 determines the amount of irradiation, the amount of reflection, etc. according to the angle between the window of the vehicle 200 and the projection beam, and determines the optimum amount of irradiation. You can find areas or angles. For example, in order to determine the optimal beam irradiation angle and area for the front window (first irradiation area) or sunroof (second irradiation area) of the vehicle 200, the projector 130 located on a two-dimensional plane is placed on the vehicle.
  • the beam While moving in the longitudinal direction (x-y direction) of (200), the beam is irradiated at each angle ( ⁇ 1, ⁇ 2, ⁇ 3), and the processor 120 repeatedly checks the feedback to determine the optimal irradiation angle for the first irradiation area ( The process of finding ⁇ _optimum) can be performed.
  • the projector 130 in order to determine the optimal beam irradiation angle and area for the left side window (third irradiation area) or the right side window (fourth irradiation area) of the vehicle 200, the projector 130 , while moving in the width direction (u-v direction) of the vehicle 200, the beam is irradiated at each angle ( ⁇ 1, ⁇ 2, ⁇ ), and the processor 120 checks the feedback to perform a process of finding an optimal irradiation angle. .
  • the processor performs learning based on various vehicle images in advance to generate a model, verifies the generated model, and then uses this model to obtain window tilt information of the vehicle entering the DT. can go through the process of inferring.
  • the AI technology for effectively determining the preset angle may be a deep learning technology, which is a method of machine learning.
  • Machine learning can be learning the ability of machines to stochastically and statistically analyze big data to find and classify the most valuable data.
  • Deep learning is an artificial neural network model modeled after the human brain neural network, and can be a method of supplementing the limitations of machine learning that cannot identify various variables included in existing data.
  • Determination of the angle may be image analysis of a data-based method.
  • Data-driven methods can train a model over a dataset with a large number of images and labels.
  • the trained machine learning model can take a new image as input and predict the label of the image.
  • a new image input to predict a label may be collected from the web or may be collected during the operation of the disclosed invention.
  • FIG. 9 is a diagram in which the electronic device 100 according to an embodiment of the present disclosure divides other areas such as a window area and a frame area.
  • the projector 130 may irradiate a specific pattern to the window and frame areas of the vehicle 200 .
  • the processor 120 may calculate a difference between transmittance and reflectance by capturing a pattern reflected by the vehicle 200 with the (RGB, infrared, etc.) imaging device 110 built in the projector 130 . Since the pattern of the area reflected by the frame of the vehicle 200 and the area reflected by the window of the vehicle 200 are inevitably different, the window area of the vehicle 200 can be detected according to the difference in the reflected pattern. At this time, after the pattern irradiated by the projector 130 is photographed by the imaging device 110, geometric distortion analysis of the pattern in the photographed image may be performed so that the tilt or size of the window can be detected together.
  • the electronic device 100 when a window of the vehicle 200 is detected, a sun visor printed on the window of the vehicle 200
  • a sun visor pattern that is, when the front window of the vehicle 200 is photographed and analyzed with the (RGB, infrared, etc.) imaging device 110 built into the projector 130, the line of the vehicle 200 A sun visor pattern may be detected and an area below the corresponding sun visor pattern may be detected as the front window of the vehicle 200 .
  • the window area can be detected in the same way.
  • a method of displaying a kiosk screen without distortion on the detected window of the vehicle 200 based on the detection of the window area of the vehicle 200 by the electronic device 100 will be described in detail.
  • the imaging device 110 may capture the window of the vehicle 200 and detect the overall inclination of the window of the vehicle 200 and the degree of outer rounding of the window.
  • the processor 120 may apply inverse compensation to the displayed image in a direction opposite to the detected geometric distortion so that the kiosk screen is visible without distortion from the perspective of the occupant of the vehicle 200 .
  • the projector 130 may irradiate the kiosk screen to which inverse compensation is applied so as to display the kiosk screen without distortion, or may reduce and display the kiosk screen in an area where geometric distortion is minimized.
  • the processor 120 may perform additional correction in consideration of the fact that the distance from the projector 130 to the projected window varies depending on the height of the vehicle, and the size of the image varies accordingly.
  • the projector 130 may examine content after performing scaling and aspect ratio adjustments with the detected window size.
  • Scaling adjustment can adjust the size of the screen through zoom-in and zoom-out functions.
  • Aspect Ratio can display the image at its detected size, or resize the image by maximizing its height, width, or both, or it can maximize its size to fit the window size while maintaining its original aspect ratio.
  • the kiosk keystone can be determined by the user or the keystone can be manually adjusted by the user. Accordingly, the projector 130 may provide a kiosk screen having an optimal focus.
  • the projector 130 may display a specific focus adjustment pattern on an area to provide a kiosk screen or other areas among windows of the vehicle 200 . Thereafter, the processor 120 may automatically adjust the focus after determining whether the focus is normally set using the imaging device 110 . After the process is automatically adjusted, the focus can be determined by the user or the focus can be manually adjusted by the user. Accordingly, it is possible to provide the user with the user's optimal focus to view the kiosk screen.
  • a process of guiding the removal of foreign substances may be added to the window of the vehicle 200.
  • the processor 120 utilizes a sensor (such as a CCD or illuminance sensor) that may be built into the projector 130 or utilizes the imaging device 110 to determine whether the amount of light output to the window or an image of a specific pattern is normally displayed. can be identified. If the processor 120 determines that there is a foreign substance, it may guide the user to wipe the window corresponding to the screen with the wiper of the vehicle 200 or request approval from the driver through communication with the vehicle 200 and receive approval to automatically operate the processor 120. there is.
  • the projector 130 identifies the brightness of the projected image or pattern, and adjusts the brightness when it is determined that the brightness is insufficient or excessive.
  • the position of the eyes or the head of the occupant of the vehicle 200 may be recognized to determine the position of the kiosk screen optimized for the user.
  • the processor 120 may detect the position of the user's eyes or head by utilizing the omega shape recognition technology through image recognition, and provide an optimal kiosk screen considering the projection target environment such as the inclination of the screen.
  • the omega shape recognition technology is a head tracking algorithm that detects a human head using the imaging device 110, and when the front shape of a person is captured by the imaging device 110, except for special cases,
  • the round shape of the head and the straight shape of the shoulder combine to form an omega ( ⁇ ) shape. Accordingly, it refers to a technology for filtering an image through image processing and checking the number of human heads according to the number of omega shapes.
  • recognition of the omega shape may have a low detection rate due to the shapes of various occupants in the vehicle.
  • AI technology can be used to increase the detection rate by learning various boarding pattern images.
  • the AI technology for increasing the detection rate of the omega shape may be deep learning technology, which is a method of machine learning.
  • Machine learning can be learning the ability of machines to stochastically and statistically analyze big data to find and classify the most valuable data.
  • Deep learning is an artificial neural network model modeled after the human brain neural network, and can be a method of supplementing the limitations of machine learning that cannot identify various variables included in existing data.
  • the detection of the omega shape according to an embodiment is data-based It may be an image analysis of the method. Data-driven methods can train a model over a dataset with a large number of images and labels.
  • the trained machine learning model can take a new image as input and predict the label of the image.
  • a new image input to predict a label may be collected from the web or may be collected during the operation of the disclosed invention.
  • the KNN (K-nearest neighbor) method is a method of predicting an image with the most frequently appearing label after obtaining a total of k data labels in order close to the input in a test or prediction step.
  • the detection rate can be increased by determining the most frequent shape as the omega shape when the user visits the DT store.
  • FIG. 10 is a diagram explaining that the projector 130 examines content for one person or two people according to an embodiment of the present disclosure.
  • the processor 120 automatically adjusts the kiosk area in consideration of whether or not a passenger is on board, so that two or more people can use one kiosk screen at the same time.
  • the projector 130 provides user interface (UI) buttons on both sides for product search and ordering according to the user's selection, or two kiosk screens so that the driver and passenger of the vehicle 200 can each use the same kiosk screen. can be provided for each passenger.
  • UI user interface
  • the projector gives the user a choice on how to display the menu according to the user's choice, so that only one person can view and select the menu.
  • providing kiosk contents for one person or two people may be provided according to the user's selection, but may also be provided automatically by the processor 120 for two people.
  • checking whether or not a passenger is boarding can check the number of heads by utilizing the omega shape recognition technology described above and confirming whether or not the passenger is boarding.
  • FIG. 11 is a diagram showing that the projector 130 irradiates content to a window and the user selects a menu according to an embodiment of the present invention.
  • a vehicle occupant when selecting a menu of researched content in a window of the vehicle 200, a vehicle occupant may select a product and proceed with order payment using hands or other tools.
  • the imaging device 110 of the disclosed invention may include an infrared (IR) imaging device 110 or an RGB imaging device 110 .
  • the processor may notify the user that a certain product has been added to the cart or ordered in the ordering system according to the detected user's hand shape or gesture, and imaging that the user holds the tool for selecting the menu in front of the menu for a predetermined period of time.
  • it may be determined that the user has selected a menu.
  • the color of the selected menu may be inverted or the density of the text may be inverted.
  • the screen may be selected to a screen other than the shopping cart or menu selection screen.
  • An image obtained by the infrared (IR) imaging device 110 has a brighter value than an object located at a short distance due to the characteristics of an infrared sensor.
  • the processor 120 may set a value corresponding to 0.1 of the maximum brightness value as a threshold point based on the brightness value, and may extract an area exceeding the threshold point as an approximate hand area.
  • the processor 120 may separate the brighter hand part and the relatively dark forearm region by applying the second threshold as a value corresponding to 0.3 of the maximum brightness value. At this time, only the hand part can be identified by excluding parts of the extracted boundary line from the hand area.
  • the optical flow which is the apparent velocity distribution on the image caused by the relative motion of the observer and the object, can be utilized.
  • the processor 120 may calculate a difference in optical flow between a finger and a palm to identify a current motion among moving, clicking, and stopping.
  • touch recognition can be implemented by applying the same algorithm not only when the user implements a touch using a hand but also when using a tool, and according to the touch recognition, a menu can be selected, and an order and payment can be made.
  • a user who selects a menu may be in the projector 130 or a space separated from the irradiation surface of the projector 130 . That is, according to the electronic device 100 according to an embodiment, unlike the prior art, the direction in which the projector 130 irradiates content may be different from the direction in which the user's line of sight moves.
  • parking violation fine paper is attached to the front window of the vehicle 200, or snow is piled up.
  • an exception handling method using the user's portable device is provided separately.
  • the projector 130 searches for nearby mobile devices and sends a pairing request to the user's portable device closest to it, and the user accepts the pairing to complete the pairing.
  • the user can navigate through the menu or make selections without looking at the mobile phone screen, just pointing the mobile phone at the screen displayed in the window or shaking it up, down, left and right.
  • the corresponding function can be provided and accuracy can be improved by utilizing the acceleration sensor or gravity sensor UWB technology of the portable device.
  • FIG. 12 is a view from the inside of the vehicle 200 when the projector 130 examines content according to an embodiment of the present disclosure.
  • the dashboard can provide a clearer screen than irradiating the window because the reflectance and refractive index are low, so that the kiosk screen can be adjusted according to the user's selection, resulting in convenience. This increases
  • FIG. 13 illustrates order information of electronic devices 100-1, 100-2, 100-3, 100-4, 100-5, 100-6, and 100-7 according to an embodiment of the present disclosure, and the next electronic device. It is a diagram explaining the transfer to fields 100-1, 100-2, 100-3, 100-4, 100-5, 100-6, and 100-7.
  • a function of displaying order information or transferring the playback time of advertisements and other content information viewed while waiting to a display on the next driving route is provided, and the vehicle 200 is transmitted through the imaging device 110 built in the electronic device 100. ) number and confirming which vehicle 200 is on which driving route the electronic device 100 is on, it is possible to provide seamless content enjoyment.
  • recognizing the number of the vehicle 200 it recognizes the unique shape (hood shape, etc.) of some parts of the vehicle 200, uses the recognition information for a while only at the DT store, and then immediately deletes the information when leaving the DT store to prevent exposure of personal information. You can also come up with a countermeasure.
  • FIG. 14 is a general flow chart of ordering by the electronic device 100 according to an embodiment of the disclosed subject matter.
  • the projector 130 may irradiate (2010) content including a pattern image on the floor of the DT access road, and the imaging device 110 may detect whether the pattern image is changed (2020).
  • the type of window to be projected among the front, side, and sunroof may be determined based on the change (2030). At this time, determining the window may be a user's choice or may be automatically made.
  • a window area and a non-window area may be distinguished and detected (2040).
  • content is repeatedly irradiated toward the vehicle 200 to detect the window area, and the window is detected by checking the feedback (2050).
  • the projected window is irradiated with content (2060).
  • content (2070) information on the menu is transmitted to the server 300 (2080), and content related to payment information is examined in the window (2090).
  • the operation ends when the user selects a payment method for payment (2100), and the user opens the window of the vehicle 200 and is completely non-face-to-face inside the vehicle 200 without having to speak to a clerk or a kiosk screen located outside. It has the effect of enabling ordering and payment.
  • 15 is a flowchart illustrating a search for a plurality of contents when boarding of a passenger is confirmed by the electronic device 100 according to an embodiment of the present disclosure.
  • the projector 130 may irradiate (3010) content including a pattern image on the floor of a DT access road, and the imaging device 110 may detect whether or not the pattern image is changed (3020).
  • the type of window to be projected among the front, side, and sunroof may be determined based on the change (3030). At this time, determining the window may be a user's choice or may be automatically made.
  • a window area and a non-window area may be distinguished and detected (3040).
  • content is repeatedly irradiated toward the vehicle 200 to detect the window area, and the window is detected by checking the feedback (3050).
  • the user selects a menu displayed in the content (3090), transmits information about the menu to the server 300 (3100), and irradiates content related to payment information to the window ( 3110). After that, the operation ends when the user selects a payment method for payment (3120).
  • the passenger can also order and pay through the kiosk screen, increasing convenience.
  • the projector 130 irradiates a pattern image on the floor of a driving path of the vehicle 200, and the imaging device 110 captures the pattern image so that the vehicle ( 200) is normally entered, and contents including a plurality of menus may be examined through the window of the vehicle 200.
  • determining a menu corresponding to the user gesture among a plurality of menus and transmitting information on the determined menu to the server 300 may be included. there is.
  • control method of the electronic device 100 is omitted because it overlaps with the embodiment of the electronic device 100 described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Economics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

According to an embodiment, an electronic device may comprise: an imaging device; a communication unit which performs communication with a server; a projector; and a processor which: on the basis that an image of a vehicle is captured through the imaging device, controls the projector to project a content including a plurality of menus on a window of the vehicle; on the basis that an image of a user gesture on the content image is captured through the imaging device, determines a menu corresponding to the user gesture among the plurality of menus; and controls the communication unit to transmit information on the determined menu to the server.

Description

전자 장치 및 전자 장치의 제어 방법Electronic Devices and Control Methods of Electronic Devices
개시된 발명은 드라이브 스루 기반 상점에서 사용되는 주문 및 결제 장치에 관한 것으로, 차량의 윈도우를 내리고 주문하고 결제 수단(카드, 현금)을 제시해야 하는 종래의 기술과 달리, 프로젝터로 차량 윈도우에 콘텐츠를 조사하여 주문하고 결제를 수행하는 드라이브 스루 기반 상점용 비대면 키오스크 장치에 관한 것이다.The disclosed invention relates to an ordering and payment device used in a drive-through based store, and unlike the conventional technology in which the window of the vehicle must be lowered to place an order and present a payment method (card, cash), a projector irradiates content on the vehicle window. It relates to a non-face-to-face kiosk device for a drive-thru-based store that orders and pays by.
드라이브 스루(DRIVE-THROUGH, DRIVE-THRU)란 차량의 탑승자가 차량에 탑승한 채로 상점의 상품을 구매할 수 있도록 하는 서비스를 말하며, DT로 약칭된다. 드라이브 스루 방식의 상점은 미국의 패스트푸드점에 널리 적용되어 왔으며, 최근 우리나라에서도 스타벅스, 맥도날드 등의 프랜차이즈 업체들이 드라이브 스루 방식의 영업점을 운영하고 있는 실정이다.A drive-through (DRIVE-THROUGH, DRIVE-THRU) refers to a service that allows a vehicle occupant to purchase products from a store while riding in the vehicle, and is abbreviated as DT. Drive-through stores have been widely applied to fast food restaurants in the United States, and recently, franchise companies such as Starbucks and McDonald's are operating drive-through stores in Korea.
드라이브 스루 기반 상점은 주문 구역, 결제 구역, 상품인도구역(픽업 구역)으로 구별되는데, 드라이브 스루 기반 상점을 통행할 수 있는 진입로를 통해 진입 차량이 주문 구역에 진입하여 주문 단계가 이루어질 수 있다. 여기서, 주문 구역에는 사용자의 주문 및 결제를 위한 주문 장치가 설치되며, 주문 장치는 드라이브 스루 기반 상점 내부의 POS 단말 또는 별도의 서버와 통신할 수 있다. 한편, 종래에는 진입 차량이 주문 구역에서 주문 장치를 이용하여 상품의 주문을 완료한 다음, 진입 차량이 진입로를 따라 결제 구역으로 이동한다. 점원은 드라이브 스루 기반 상점의 결제 단말기를 이용하여 진입 차량의 탑승자로부터 신용카드, 현금, 쿠폰 등 결제 수단을 이용하여 결제 금액을 결제한다. 결제 단계가 이루어진 다음, 진입 차량은 상품인도구역으로 이동하며, 드라이브 스루 기반 상점의 점원이 상품을 탑승자에게 인도함으로써 상품인도단계가 완료된다.A drive-through based store is divided into an ordering area, a payment area, and a product delivery area (pickup area). Through an access road that can pass through the drive-through based store, an entry vehicle enters the ordering area and the ordering step can be performed. Here, an ordering device for a user's order and payment is installed in the ordering area, and the ordering device may communicate with a POS terminal inside a drive-through based store or a separate server. Meanwhile, conventionally, after an entry vehicle completes an order for a product using an ordering device in an ordering area, the entry vehicle moves to a payment area along an access road. The clerk uses a payment terminal of a drive-thru-based store to pay the amount of money to be paid by using a payment method such as a credit card, cash, or coupon from a passenger of an entry vehicle. After the payment step is completed, the entering vehicle moves to the product delivery area, and the product delivery step is completed as the clerk of the drive-thru store delivers the product to the passenger.
대안적으로, 주문 장치는 카드 투입구, 현금 투입구와 같이 결제를 위한 수단을 구비할 수 있으며, 이 경우 결제 단계가 생략될 수 있어 탑승자의 전체적인 이용 시간이 줄어들 수 있다.Alternatively, the ordering device may include a means for payment, such as a card slot or a cash slot, and in this case, the payment step may be omitted, thereby reducing overall usage time of the occupant.
그러나, 종래 드라이브 스루 기반 상점은 주문을 위한 키오스크가 운전자 방향에 비치되어 있어 차량의 동승자가 키오스크를 함께 보거나 주문에 참여하는 것이 불편하여 운전자를 통해서만 가능한 문제점이 있었으며, 운전자가 주문을 할 때도 고개를 밖으로 내밀고 손을 뻗어서 키오스크를 동작시키거나, 매장 주변 소음 상황에 따라 매장 직원에게 목소리를 높여서 음성으로 주문해야 하는 불편함이 있었다. However, conventional drive-thru stores have a problem that can only be done through the driver because the kiosk for ordering is located in the driver's direction, making it inconvenient for the passenger of the vehicle to view the kiosk together or participate in ordering. It was inconvenient to reach out and operate the kiosk by extending your hand, or to raise your voice to the store staff to order by voice according to the noise situation around the store.
주문 상품에 대한 지불 또한 위 언급된 경우와 마찬가지의 불편을 줄 수 있고, COVID 상황에서 사용자의 주문 금액 지불을 위해서 결제 수단(신용카드, 현금, 휴대폰 결제)을 차량의 창문을 열고 매장 직원에게 제공해야 하는 등의 불편 요소가 많다. 더욱이 기존 키오스크 시스템은 차량에 탑승한 운전자가 주로 주문 및 결제를 하는 대상이 되는데, 차량의 동승자가 같이 키오스크 화면을 보고 메뉴를 고를 수 있는 방법이 없으며, 더욱이 동승자 2명 이상이 각자 메뉴를 보고 주문을 담고 더 나아가 각자 본인의 결제 방식으로 2명 이상이 따로 결제를 할 수 있는 시스템이 불가능하다.Payment for ordered products can also cause the same inconvenience as in the case mentioned above, and in the COVID situation, payment methods (credit card, cash, mobile phone payment) are provided to store employees by opening the window of the vehicle to pay for the user's order. There are many inconvenience factors such as having to do it. Moreover, in the existing kiosk system, the driver in the vehicle is the subject of ordering and paying, but there is no way for the vehicle's passengers to select menus by viewing the kiosk screen together, and moreover, two or more passengers can view their menus and order. Furthermore, it is impossible to have a system in which two or more people can make separate payments using their own payment method.
또한, 이러한 점을 해결하기 위해서 차량 윈도우에 프로젝터를 활용한 디스플레이로 키오스크 영상과 사용자 인터렉션 방법을 제공하는 것이 매우 중요하다.In addition, in order to solve this problem, it is very important to provide a kiosk image and a user interaction method through a display using a projector on a vehicle window.
개시된 발명은 COVID 비대면 시대에 적합한 주문 장치를 제공하며, 드라이브 스루 상점에 진입한 차량의 운전자와 동승자가 함께 차량 전/후/측면 윈도우나 선루프를 통해서 상품을 함께 주문할 수 있도록 차량의 윈도우를 키오스크 화면으로 제공한다. 이를 위해 차량 전/후/측면 윈도우나 선루프로 차량 외부에 위치한 프로젝터를 통해 콘텐츠를 조사하고, 2인 이상의 동승자가 상품을 주문하고 각각 혹은 한 번에 상품을 결제하는 사용자 편의 인터페이스를 제공하는 것을 목적으로 한다.The disclosed invention provides an ordering device suitable for the COVID non-face-to-face era, and the driver and passenger of a vehicle entering a drive-thru shop can order products together through the front/rear/side windows or sunroof of the vehicle through the window of the vehicle. It is provided as a kiosk screen. To this end, the purpose is to research contents through projectors located outside the vehicle through the front/rear/side windows or sunroof of the vehicle, and to provide a user-friendly interface for two or more passengers to order products and pay for the products individually or at once. to be
개시된 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 개시된 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 개시된 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 개시된 발명의 목적 및 장점은 청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있다.The object of the disclosed invention is not limited to the object mentioned above, and other objects and advantages of the disclosed invention not mentioned above can be understood by the following description and will be more clearly understood by the embodiments of the disclosed invention. Further, the objects and advantages of the disclosed invention may be realized by the instrumentalities and combinations indicated in the claims.
전자 장치의 일 실시예에 따르면, 이미징 장치; 서버와 통신을 수행하는 통신부; 프로젝터; 상기 이미징 장치를 통해 차량이 촬영되는 것에 기초하여 상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하도록 상기 프로젝터를 제어하고, 상기 이미징 장치를 통해 상기 콘텐츠에 대한 사용자 제스처가 촬영되는 것에 기초하여 상기 복수의 메뉴 중 상기 사용자 제스처에 대응하는 메뉴를 결정하고, 상기 결정된 메뉴에 대한 정보를 서버로 송신하도록 상기 통신부를 제어하는 프로세서;를 포함할 수 있다.According to an embodiment of an electronic device, an imaging device; a communication unit that communicates with the server; projector; Controlling the projector to investigate content including a plurality of menus through a window of the vehicle based on the vehicle being photographed through the imaging device, and based on the photographing of a user's gesture for the content through the imaging device and a processor controlling the communication unit to determine a menu corresponding to the user gesture among the plurality of menus and to transmit information on the determined menu to a server.
상기 프로젝터는 조사 각도를 설정하기 위해 다양한 각도 별로 콘텐츠를 복수 회 조사하고, 상기 조사된 콘텐츠의 피드백을 확인하여 상기 조사 각도를 설정할 수 있다.The projector may set the irradiation angle by irradiating the content a plurality of times at various angles to set the irradiation angle and checking feedback of the irradiated content.
상기 프로젝터는 상기 설정된 조사 각도로 상기 차량에 패턴 영상을 포함하는 콘텐츠를 조사하고, 상기 프로세서는 투과율 및 반사율의 차이에 따라 차량의 윈도우 영역을 검출할 수 있다.The projector may irradiate content including a pattern image to the vehicle at the set irradiation angle, and the processor may detect a window area of the vehicle according to a difference in transmittance and reflectance.
상기 프로세서는 상기 차량의 전면 윈도우에 표시된 선 바이저 패턴을 인식하기 위해 상기 설정된 조사 각도로 상기 차량을 촬영하도록 상기 이미징 장치를 제어하고, 상기 인식된 선 바이저 패턴의 아래쪽 영역을 전면 윈도우 영역으로 검출할 수 있다.The processor controls the imaging device to photograph the vehicle at the set irradiation angle to recognize the sun visor pattern displayed on the front window of the vehicle, and detects an area below the recognized sun visor pattern as the front window area. can
상기 프로세서는 상기 검출된 윈도우 영역의 기울기와 외곽 라운딩 정도를 검출하고, 상기 검출된 기울기와 외곽 라운딩 정도에 기초하여 기하 왜곡 반대 방향으로 역보상을 적용하여 상기 윈도우에 상기 콘텐츠를 조사할 수 있다.The processor may detect the detected slope and the degree of outer rounding of the window area, and apply inverse compensation in a direction opposite to the geometric distortion based on the detected slope and degree of outer rounding to examine the content in the window.
상기 프로세서는 상기 검출된 윈도우 영역의 기울기와 외곽 라운딩 정도를 검출하고, 기하 왜곡이 미리 설정된 기준값 이하인 영역에 상기 콘텐츠 를 축소하여 조사할 수 있다.The processor may detect the slope of the detected window area and the degree of outer rounding, and reduce and examine the content in an area having a geometric distortion equal to or less than a preset reference value.
상기 프로세서는 상기 차량의 주행 경로 바닥에 패턴 영상을 조사하도록 프로젝터를 제어하고, 상기 패턴 영상을 촬영하도록 상기 이미징 장치를 제어하여 상기 차량이 정상 진입 하였는지 판단할 수 있다.The processor may determine whether the vehicle entered normally by controlling a projector to irradiate a pattern image on the floor of the driving path of the vehicle and controlling the imaging device to capture the pattern image.
상기 프로젝터는 상기 차량에 초점 조절을 위한 초점 조절 패턴 영상을 조사하고, 상기 프로세서는 상기 이미징 장치를 통해 패턴 영상을 촬영하여 초점이 정상적으로 설정되었는지 판단하고, 상기 프로젝터가 초점을 조절하도록 제어할 수 있다.The projector irradiates the vehicle with a focus adjustment pattern image for focus adjustment, and the processor photographs the pattern image through the imaging device to determine whether the focus is normally set, and controls the projector to adjust the focus. .
상기 프로세서는 상기 이미징 장치를 통해 상기 차량 내부의 오메가 형상(omega shape)을 인식하고, 인식된 상기 오메가 형상(omega shape)을 기초로 상기 사용자의 두상의 위치를 검출하여 상기 프로젝터가 초점을 조절하도록 제어할 수 있다. The processor recognizes an omega shape inside the vehicle through the imaging device, detects the location of the user's head based on the recognized omega shape, and controls the focus of the projector. You can control it.
상기 프로세서는 상기 이미징 장치를 통해 상기 차량 내부의 오메가 형상(omega shape)을 인식하고, 상기 오메가 형상(omega shape)이 복수개인 것에 기초하여 상기 차량의 윈도우에 복수개의 키오스크 화면을 조사하도록 상기 프로젝터를 제어할 수 있다.The processor recognizes an omega shape inside the vehicle through the imaging device, and operates the projector to project a plurality of kiosk screens to a window of the vehicle based on a plurality of omega shapes. You can control it.
상기 프로세서는 상기 사용자가 메뉴 선택을 위한 도구를 상기 메뉴 앞에 미리 정해진 시간 동안 머무는 것을 상기 이미징 장치를 통해 감지한 것에 기초하여 상기 사용자가 메뉴를 선택한 것으로 판단할 수 있다. The processor may determine that the user has selected the menu based on detecting, through the imaging device, that the user holds a tool for selecting the menu in front of the menu for a predetermined time.
상기 프로세서는 상기 결정된 메뉴에 대한 정보가 서버로 송신된 것에 기초하여 결제 화면을 상기 차량의 윈도우에 조사하도록 상기 프로젝터를 제어하고, 상기 사용자는 상기 결제 화면을 통해 결제를 진행할 수 있다.The processor controls the projector to project a payment screen onto a window of the vehicle based on the information on the determined menu being transmitted to the server, and the user can proceed with payment through the payment screen.
상기 프로세서는 상기 결제 화면에 표시된 마커를 모바일 기기로 촬영하거나, 상기 결제 화면에 표시된 9개의 점을 모바일 기기에서 순서대로 따라 그리는 방식으로 결제를 진행할 수 있다.The processor may proceed with the payment by photographing the marker displayed on the payment screen with a mobile device or by sequentially drawing 9 dots displayed on the payment screen on the mobile device.
일 실시예에 따른 전자 장치의 제어 방법은 프로젝터가 차량의 주행 경로 바닥에 패턴 영상을 조사하는 단계; 상기 이미징 장치가 상기 패턴 영상을 촬영하여 상기 차량이 정상 진입 하였는지 판단하는 단계; 상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하는 단계; 상기 이미징 장치를 통하여 상기 콘텐츠에 대한 사용자 제스처가 촬영되는 경우 상기 복수의 메뉴 중 상기 사용자 제스처에 대응하는 메뉴를 결정하는 단계; 상기 결정된 메뉴에 대한 정보를 서버로 송신하는 단계;를 포함할 수 있다.A control method of an electronic device according to an embodiment includes irradiating a pattern image on the floor of a driving path of a vehicle by a projector; determining, by the imaging device, whether the vehicle entered normally by photographing the pattern image; examining content including a plurality of menus through a window of the vehicle; determining a menu corresponding to the user gesture from among the plurality of menus when the user gesture for the content is captured through the imaging device; Transmitting information on the determined menu to a server; may include.
상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하는 것은, 조사 각도를 설정하기 위해 상기 프로젝터를 이동시켜 미리 설정된 각도 별로 프로젝션 빔을 조사하고, 상기 조사된 프로젝션 빔의 피드백을 확인하여 조사 각도를 설정하는 단계;를 더 포함할 수 있다. Irradiating content including a plurality of menus to the window of the vehicle moves the projector to set an irradiation angle, irradiates a projection beam for each preset angle, and checks feedback of the irradiated projection beam to irradiate the irradiation angle. Setting a; may further include.
상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하는 것은, 상기 차량에 패턴을 조사하고, 반사된 패턴을 상기 이미징 장치로 촬영하여 투과율 및 반사율의 차이에 따라 차량의 윈도우 영역을 검출하는 단계;를 더 포함할 수 있다.Examining the contents including a plurality of menus through the window of the vehicle may include: irradiating a pattern to the vehicle, photographing the reflected pattern with the imaging device, and detecting a window area of the vehicle according to a difference in transmittance and reflectance. ; may be further included.
상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하는 것은, 상기 검출된 윈도우 영역의 기울기와 외곽 라운딩 정도를 검출하고, 상기 검출된 기울기와 외곽 라운딩 정도에 기초하여 기하 왜곡 반대 방향으로 역보상을 적용하는 단계;를 더 포함할 수 있다.Examining the contents including a plurality of menus through the window of the vehicle detects the detected slope and degree of outer rounding of the window area, and performs inverse compensation in a direction opposite to the geometric distortion based on the detected slope and degree of outer rounding. Applying a; may further include.
상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하는 것은, 상기 차량에 초점 조절을 위한 초점 조절 패턴을 조사하고, 상기 이미징 장치를 통해 패턴을 촬영하여 초점이 정상적으로 설정되었는지 판단하고, 상기 프로젝터가 초점을 조절하는 단계;를 더 포함할 수 있다.Examining the contents including a plurality of menus through the window of the vehicle examines a focus control pattern for adjusting the focus of the vehicle, photographs the pattern through the imaging device, determines whether the focus is normally set, and determines whether the focus is normally set, and It may further include; step of adjusting the focus.
상기 사용자 제스처에 대응하는 메뉴를 결정하는 것은, 상기 사용자가 메뉴 선택을 위한 도구를 상기 메뉴 앞에 미리 정해진 시간 동안 머무는 것을 상기 이미징 장치를 통해 감지한 것에 기초하여 상기 사용자가 메뉴를 선택한 것으로 판단하는 단계;를 더 포함할 수 있다.Determining the menu corresponding to the user gesture may include determining that the user has selected the menu based on the detection through the imaging device that the user holds a tool for selecting the menu in front of the menu for a predetermined time. ; may be further included.
상기 결정된 메뉴에 대한 정보를 서버로 송신하는 것은, 결제 화면을 상기 차량의 윈도우에 조사하고, 상기 사용자는 상기 결제 화면을 통해 결제를 진행하는 단계;를 더 포함할 수 있다.Transmitting the information on the determined menu to the server may further include: irradiating a payment screen on a window of the vehicle, and proceeding with payment through the payment screen by the user.
기존 DT점의 키오스크와 달리 사용자는 차량 윈도우를 열고 밖에 위치한 점원이나 키오스크 화면에 발화를 할 필요 없이 차량 내부에서 완전한 비대면으로 주문 및 결제가 가능하다.Unlike kiosks at existing DT stores, users can order and pay completely non-face-to-face inside the vehicle without opening the vehicle window and firing at a clerk or kiosk screen located outside.
차량 전/후/측면 윈도우나 선루프를 활용한 키오스크 제공 방법으로 한 번에 여러 사용자에게 주문을 받을 수 있고, 차량 내부에서 주문을 위해 대기하는 시간 동안 추가 광고나 재미 요소 혹은 DT점의 콘텐츠 시청 등으로 프로젝션을 활용할 수 있어 대기 하는 시간이 줄어드는 것 같은 효과를 줄 수 있다.By providing a kiosk using the front/rear/side windows or sunroof of the vehicle, you can receive orders from multiple users at once, and watch additional advertisements, fun elements, or DT store contents while waiting for orders inside the vehicle Projection can be used as a backlight, so waiting time can be reduced.
차량 동승자 2명 이상이 각각의 키오스크 화면을 보면서 별도의 주문을 해서 각각 결제하거나 혹은 각각 상품 주문만 입력하고 결제는 한 사람의 카드로 한 번에 하는 등의 편의성 UX를 줄 수 있는 편의성이 향상된 키오스크 제공이 가능하다.A kiosk with improved convenience that can provide convenience and UX, such as two or more vehicle passengers placing separate orders and paying for each while looking at each kiosk screen, or entering only product orders and paying at once with one person's card. it is possible to provide
도 1은 개시된 발명의 일 실시 예에 따른 진입 차량이 드라이브 스루 기반 상점을 통행할 수 있는 진입로에 진입한 경우 전자 장치의 배치 구조를 나타낸 예시도이다.1 is an exemplary diagram illustrating a disposition structure of an electronic device when an entry vehicle enters an access road through a drive-through based store according to an embodiment of the present disclosure.
도 2는 개시된 발명의 일 실시 예에 따른 라디오 채널을 생성하기 위한 입력 값에 관한 도면이다.2 is a diagram of input values for generating a radio channel according to an embodiment of the present invention.
도 3은 개시된 발명의 일 실시 예에 따른 프로세서가 라디오 채널을 생성하는 과정에 관한 도면이다.3 is a diagram of a process of generating a radio channel by a processor according to an embodiment of the present invention.
도 4는 개시된 발명의 일 실시 예에 따른 전자 장치의 제어 블록도를 나타낸 도면이다.4 is a diagram showing a control block diagram of an electronic device according to an embodiment of the present disclosure.
도 5는 개시된 발명의 일 실시 예에 따른 전자 장치가 진입 차량의 진입을 유도하고 진입 차량이 정상 위치에 진입했는지 확인하는 도면이다.5 is a diagram for inducing entry of an entry vehicle and confirming whether the entry vehicle has entered a normal position, according to an embodiment of the present disclosure.
도 6은 개시된 발명의 일 실시 예에 따른 전자 장치가 선루프가 있는 차량과 없는 차량을 구분하여 콘텐츠를 조사하는 도면이다.6 is a diagram in which an electronic device according to an embodiment of the present disclosure distinguishes between a vehicle with and without a sunroof and searches for content.
도 7과 도 8은 개시된 발명의 일 실시 예에 프로젝터(130)가 소정의 각도에 따라 콘텐츠를 조사할 윈도우를 결정하고 최적의 조사 각도를 설정하는 도면이다.7 and 8 are views in which the projector 130 determines a window to irradiate content according to a predetermined angle and sets an optimal irradiation angle according to an embodiment of the disclosed invention.
도 9는 개시된 발명의 일 실시 예에 따른 전자 장치가 윈도우 영역과 프레임 영역 등 그 외의 영역을 구분하는 도면이다.9 is a diagram in which an electronic device according to an embodiment of the present disclosure divides other areas such as a window area and a frame area.
도 10은 개시된 발명의 일 실시 예에 따른 프로젝터가 1인용 또는 2인용 콘텐츠를 조사하는 것을 설명하는 도면이다.FIG. 10 is a diagram explaining that a projector searches content for one person or two people according to an embodiment of the present disclosure.
도 11은 개시된 발명의 일 실시 예에 따른 프로젝터가 콘텐츠를 윈도우에 조사하고, 사용자가 메뉴를 선택하는 것을 보여주는 도면이다. 11 is a diagram showing that a projector irradiates content to a window and a user selects a menu according to an embodiment of the present invention.
도 12는 개시된 발명의 일 실시 예에 따른 프로젝터가 콘텐츠를 조사하는 경우 차량의 내부에서 본 도면이다.12 is a view from the inside of a vehicle when a projector examines content according to an embodiment of the present disclosure.
도 13은 개시된 발명의 일 실시 예에 따른 전자 장치들이 주문 정보를 다음 전자 장치들로 넘겨주는 것을 설명하는 도면이다.FIG. 13 is a diagram explaining that electronic devices hand over order information to next electronic devices according to an embodiment of the present disclosure.
도 14는 개시된 발명의 일 실시 예에 따른 전자 장치에 의해 주문이 이루어지는 일반적인 흐름도이다.14 is a general flow chart of placing an order by an electronic device according to an embodiment of the present disclosure.
도 15는 개시된 발명의 일 실시 예에 따른 전자 장치에 의해 동승자의 탑승이 확인된 경우 복수의 콘텐츠를 조사하는 흐름도이다.15 is a flowchart illustrating a search for a plurality of contents when boarding of a passenger is confirmed by an electronic device according to an embodiment of the present disclosure.
본 명세서에 기재된 실시예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예이며, 본 출원의 출원시점에 있어서 본 명세서의 실시예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.The configurations shown in the embodiments and drawings described in this specification are preferred examples of the disclosed invention, and there may be various modifications that can replace the embodiments and drawings in this specification at the time of filing of the present application.
또한, 본 명세서의 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.In addition, the same reference numerals or numerals presented in each drawing in this specification indicate parts or components that perform substantially the same function.
또한, 본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.In addition, terms used in this specification are used to describe embodiments, and are not intended to limit and/or limit the disclosed invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include", "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or the existence or addition of more other features, numbers, steps, operations, components, parts, or combinations thereof is not excluded in advance.
또한, 본 명세서에서 사용한 "제1", "제2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되지는 않으며, 상기 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 개시된 발명의 권리 범위를 벗어나지 않으면서 제1구성 요소는 제2구성 요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1구성 요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.In addition, terms including ordinal numbers such as “first” and “second” used herein may be used to describe various components, but the components are not limited by the terms, and the terms It is used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the disclosed invention, a first element may be termed a second element, and similarly, the second element may also be termed a first element. The term "and/or" includes any combination of a plurality of related listed items or any of a plurality of related listed items.
또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA(field-programmable gate array)/ASIC(application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서(120)에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "~ unit", "~ group", "~ block", "~ member", and "~ module" may mean a unit that processes at least one function or operation. For example, the above terms refer to at least one hardware such as a field-programmable gate array (FPGA)/application specific integrated circuit (ASIC), at least one software stored in a memory, or at least one process processed by the processor 120. can mean
각 단계들에 붙여지는 부호는 각 단계들을 식별하기 위해 사용되는 것으로 이들 부호는 각 단계들 상호 간의 순서를 나타내는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.The codes attached to each step are used to identify each step, and these codes do not indicate the order of each step, and each step is performed in a different order from the specified order unless a specific order is clearly stated in the context. It can be.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서(120)에 의해 실행되었을 때, 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium storing instructions executable by a computer. Instructions may be stored in the form of program codes, and when executed by the processor 120, may perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.Computer-readable recording media include all types of recording media in which instructions that can be decoded by a computer are stored. For example, there may be read only memory (ROM), random access memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, and the like.
이하에서는 첨부도면을 참조하여 전자 장치(100) 및 전자 장치(100)의 제어 방법에 대해 상세히 설명한다.Hereinafter, the electronic device 100 and a control method of the electronic device 100 will be described in detail with reference to the accompanying drawings.
이하에서 설명하는 프로젝터(130)는 프로젝션 스크린이나 그와 비슷한 흰색의 평평한 표면 위에 영상(이미지나 동영상)을 확대해서 보여 주기 위한 장치로, 보통 다수의 청중에게 동일한 정보를 제공하기 위해 사용되는 도구이며 TV, VCR, DVD Player, PC, 캠코더등의 각종 영상 기기들의 신호를 입력받아서 렌즈를 통해 확대한 영상을 스크린상에 나타내주는 장비일 수 있다. The projector 130 described below is a device for enlarging and showing an image (image or video) on a projection screen or similar white flat surface, and is usually a tool used to provide the same information to multiple audiences. It may be a device that receives signals from various video devices such as TVs, VCRs, DVD players, PCs, and camcorders and displays enlarged images on a screen through lenses.
이하에서 설명하는 이미징 장치(110)는 사물을 촬영 또는 센싱하여 이미지를 얻을 수 있는 수단이면 모두 포함될 수 있다. The imaging device 110 described below may include any means capable of obtaining an image by photographing or sensing an object.
예를 들어 사물의 사진이나 영상을 촬영할 수 있는 이미지 센서가 내장된 카메라가 될 수 있다. 또 다른 예로, UWB(Ultra-WideBand), FMCW(Frequency-Modulated Continuous Wave) 와 같이 무선주파수를 이용하여 점구름 형태의 이미지를 생성하는 레이더 기술이 될 수도 있다.For example, it may be a camera with a built-in image sensor capable of taking pictures or videos of objects. As another example, it may be a radar technology that generates a point cloud image using radio frequencies, such as UWB (Ultra-WideBand) and FMCW (Frequency-Modulated Continuous Wave).
이미지를 생성할 수 있는 모든 수단을 포함하나, 이해의 편의를 위해 이하에서는 이미징 장치(110)가 카메라를 의미하는 것으로 가정하고 설명한다.All means capable of generating an image are included, but for convenience of understanding, the following description assumes that the imaging device 110 means a camera.
도 1은 개시된 발명의 일 실시 예에 따른 진입 차량들(200-1,200-2,200-3)이 드라이브 스루 기반 상점을 통행할 수 있는 진입로에 진입한 경우 전자 장치들(100-1,100-2,100-3)의 배치 구조를 나타낸 예시도이다.1 is a diagram illustrating electronic devices 100-1,100-2,100-3 when entering vehicles 200-1,200-2,200-3 enter an access road through a drive-through based store according to an embodiment of the present disclosure. It is an example diagram showing the arrangement structure of.
일 실시예에 의한 전자 장치(100)는 드라이브스루(DT) 기반 상점에서 사용되는 주문 및 결제를 위한 것으로서 도 1에 도시된 바와 같이 전자 장치(100)는 차량(200) 진입로 및 이동경로에 설치된다.The electronic device 100 according to an embodiment is for ordering and payment used in a drive-thru (DT) based store, and as shown in FIG. do.
도 1을 참조하면 전자 장치(100)는 복수 개로 구성될 수 있으며, 이동 경로로 진입하는 차량(200)과 단방향 또는 양방향으로 소통할 수 있다. 차량(200)과 단방향 또는 양방향으로 소통하기 위한 방법으로, 라디오 채널을 이용할 수 있으며, 라디오 채널을 이용하는 방법은 도 2 및 도 3에서 구체적으로 설명한다.Referring to FIG. 1 , a plurality of electronic devices 100 may be configured, and they may unidirectionally or bidirectionally communicate with a vehicle 200 entering a movement path. As a method for unidirectional or bidirectional communication with the vehicle 200, a radio channel may be used, and a method of using the radio channel will be described in detail with reference to FIGS. 2 and 3 .
도 2는 개시된 발명의 일 실시 예에 따른 라디오 채널을 생성하기 위한 입력 값에 관한 도면이고, 도 3은 개시된 발명의 일 실시 예에 따른 프로세서가 라디오 채널을 생성하는 과정에 관한 도면이다.2 is a diagram related to input values for generating a radio channel according to an embodiment of the disclosed invention, and FIG. 3 is a diagram related to a process of generating a radio channel by a processor according to an embodiment of the disclosed invention.
도 2 및 도 3을 참조하면, 프로세서(120)는, 차량(200)이 DT점에 진입할 때 스피커 등으로 차량(200)의 라디오 채널을 맞추라는 가이드를 할 수 있다. 차량(200)과 통신이 가능한 상태인 경우, 프로세서(120)는 차량(200) 운전자의 동의를 받아 라디오 채널을 특정 주파수로 자동 세팅하고 차량(200) 내부의 스피커로 안내가 되도록 구비할 수 있다. Referring to FIGS. 2 and 3 , the processor 120 may guide the vehicle 200 to tune in to a radio channel of the vehicle 200 through a speaker or the like when the vehicle 200 enters a DT point. When communication with the vehicle 200 is possible, the processor 120 may automatically set a radio channel to a specific frequency with the consent of the driver of the vehicle 200 and may be configured to be guided through a speaker inside the vehicle 200. .
이 때 DT주위 차량(200)과 라디오채널 간 간섭을 회피하기 위해, 라디오채널은 차량(200) 진입시 차량(200)인식을 통해 획득한 정보를 바탕으로 결정될 수 있다. 예를 들면 전자 장치(100)는, 차종, 년식, 색상, 번호 등 각 특징 파라미터를 코드화 하고, 이 코드조합을 랜덤주파수 생성을 위한 시드로 사용하여, 중복되지 않는 라디오채널을 선정할 수 있다. 선정된 라디오채널은 차량(200)내의 사용자들과 매장 직원간에 단방향 또는 양방향 의사소통을 위한 통신수단을 제공할 수 있다.At this time, in order to avoid interference between the vehicle 200 and the radio channel around the DT, the radio channel may be determined based on information obtained through vehicle 200 recognition when the vehicle 200 enters. For example, the electronic device 100 may select a non-overlapping radio channel by encoding each characteristic parameter such as vehicle model, year, color, and number, and using the code combination as a seed for generating a random frequency. The selected radio channel may provide a communication means for one-way or two-way communication between users in the vehicle 200 and store personnel.
도 4는 개시된 발명의 일 실시 예에 따른 전자 장치(100)의 제어 블록도를 나타낸 도면이다.4 is a diagram showing a control block diagram of the electronic device 100 according to an embodiment of the present disclosure.
도 4를 참조하면, 전자 장치(100)는 프로젝터(130), 서버(300), 서버(300)와 통신하도록 통신부(140)를 제어하는 프로세서(120)를 포함할 수 있다. Referring to FIG. 4 , the electronic device 100 may include a projector 130 , a server 300 , and a processor 120 that controls the communication unit 140 to communicate with the server 300 .
이하에서는 개시된 발명의 전자 장치(100)의 각 구성에 관하여 상세히 설명한다.Hereinafter, each configuration of the electronic device 100 of the disclosed invention will be described in detail.
프로젝터(130)는 프로젝션 빔을 발사하기 위한 구성인 프로젝션 모듈(131)과 발사된 프로젝션 빔의 피드백을 확인하거나 사용자의 움직임을 감지할 수 있는 이미징 장치(110)를 포함할 수 있다. 프로젝터(130)는, 차량(200)의 윈도우를 스크린으로 활용하고자 하는 사용자를 위해 주정차 가이드라인을 조사할 수 있다. 또한 프로젝터(130)는, 차량(200)의 윈도우에 콘텐츠를 조사할 수 있고, 적외선 이미징 장치(110)는 최적의 조사 영역 또는 각도를 찾기 위해 사용될 수 있다. 프로젝터(130)는 차량(200)의 윈도우에 콘텐츠를 조사할 수 있고, 적외선 이미징 장치(110)는, 차량(200) 윈도우의 전체적인 기울기와 라운딩 정도를 검출하는 것에 사용될 수 있다. 또한, 프로젝터(130)는, 검출된 윈도우 영역에 키오스크 화면을 제공하기 위해 사용될 수 있다.The projector 130 may include a projection module 131 configured to emit a projection beam and an imaging device 110 capable of checking feedback of the projected projection beam or detecting a user's motion. The projector 130 may check parking/stop guidelines for a user who wants to use the window of the vehicle 200 as a screen. Also, the projector 130 may irradiate content to the window of the vehicle 200, and the infrared imaging device 110 may be used to find an optimal irradiation area or angle. The projector 130 may project content onto the window of the vehicle 200, and the infrared imaging device 110 may be used to detect the overall tilt and rounding degree of the window of the vehicle 200. Also, the projector 130 may be used to provide a kiosk screen to the detected window area.
통신부(140)는 무선 통신이 가능하도록 구비된 유선 통신 모듈(141)과 유선 통신이 가능하도록 구비된 무선 통신 모듈(142)로 구성될 수 있다. 통신부(140)는, 프로세서(120)의 제어에 따라 서버(300)와 통신하며, 주문에 관한 정보 및 결제에 관한 정보를 서버(300)에 송신하거나 서버(300)로부터 수신하여 프로젝터(130)에 의해 사용자에게 보여지도록 할 수 있다. The communication unit 140 may include a wired communication module 141 provided to enable wireless communication and a wireless communication module 142 provided to enable wired communication. The communication unit 140 communicates with the server 300 under the control of the processor 120, and transmits order-related information and payment-related information to the server 300 or receives it from the server 300 to display the projector 130. can be made visible to the user.
서버(300)는 통신부(140)와 통신을 수행하여 주문 정보 및 결제 정보를 판매자의 POS에 넘기거나 POS로부터 받은 정보를 프로젝터(130)에 의해 사용자에게 보여지도록 할 수 있다.The server 300 communicates with the communication unit 140 to pass order information and payment information to the seller's POS or to display information received from the POS to the user through the projector 130 .
프로세서(120)는 프로젝터(130)를 제어하여 차량(200)의 윈도우를 스크린으로 활용하고자 하는 사용자를 위해 주정차 가이드라인을 제공하거나, 차량(200)의 윈도우에 콘텐츠를 조사하여 최적의 조사 영역 또는 각도를 찾기 위해 사용하거나, 차량(200)의 윈도우에 콘텐츠를 조사하여 차량(200) 윈도우의 전체적인 기울기와 라운딩 정도를 검출하는 것에 사용할 수 있다. 또한, 프로젝터(130)를 검출된 윈도우 영역에 키오스크 화면을 제공하기 위해 사용할 수 있다.The processor 120 controls the projector 130 to provide parking/stop guidelines for a user who wants to utilize the window of the vehicle 200 as a screen, or irradiates content to the window of the vehicle 200 to provide an optimal irradiation area or It can be used to find an angle, or it can be used to detect the overall inclination and rounding degree of the window of the vehicle 200 by examining contents on the window of the vehicle 200 . In addition, the projector 130 can be used to provide a kiosk screen to the detected window area.
프로세서(120)는 통신부(140)와 서버(300)를 제어하여 통신부(140)와 서버(300) 상호간의 통신으로 주문 정보 및 결제 정보를 서버(300)에 송신하고 서버(300)로부터 주문 정보 및 결제 정보를 통신부(140)가 수신하여 사용자에게 보여지도록 할 수 있다.The processor 120 controls the communication unit 140 and the server 300 to transmit order information and payment information to the server 300 through mutual communication between the communication unit 140 and the server 300, and order information from the server 300. And payment information can be received by the communication unit 140 and displayed to the user.
프로세서(120)의 동작 중 제스쳐 입력은 프로젝터(130)가 사용자에게 선택할 수 있는 복수의 메뉴를 조사하는 경우, 사용자가 메뉴를 선택하는 것을 의미할 수 있다. 제스쳐 입력은 차량(200)윈도우에 조사된 메뉴 선택 화면내의 특정영역 내에 운전자 또는 동승자의 손가락, 손등 또는 기타 도구가 일정시간 동안 머무르면, 해당 메뉴를 장바구니에 담을지 확인하는 절차 등을 수행한다. 해당 메뉴선택이 아니라면, '아니오'를 선택해서, 메뉴 선택을 계속 진행할 수 있다. 메뉴 선택이 모두 끝났으면, 메뉴선택 공간영역의 주문을 선택할 수 있다.Gesture input during operation of the processor 120 may mean that the user selects a menu when the projector 130 examines a plurality of menus that the user can select. In the gesture input, when a driver's or passenger's finger, back of the hand, or other tool stays within a specific area of the menu selection screen irradiated on the window of the vehicle 200 for a certain period of time, a procedure for confirming whether to add the corresponding menu to the shopping cart is performed. If it is not the corresponding menu selection, by selecting 'No', the menu selection can be continued. When all menu selections are completed, you can select an order in the menu selection space area.
프로세서(120)의 동작 중 결제 정보 입력의 일 실시예로, 지불 방법의 편의 기능을 제공하기 위해서 사용자가 결재를 선택하면, 프로젝터(130)에서 윈도우의 특정 위치에 특정 마커를 띄우고 그 곳에 휴대폰 이미징 장치(110)를 비추라는 유저 인터페이스(UI)를 띄워준다. 사용자가 지정된 위치의 마커를 사용자의 이미징 장치(110)로 비추면 사용자가 결재를 허락했다는 것으로 간주하고 결재 프로세스로 진행되고 실제 결재를 위한 마커를 촬영케 하거나 인증 코드 등을 띄워주고 입력하게 하는 방법 등이 가능하다.As an example of inputting payment information during the operation of the processor 120, when the user selects payment to provide a convenient function of the payment method, the projector 130 displays a specific marker at a specific location of the window and images the mobile phone there. A user interface (UI) for displaying the device 110 is displayed. When the user shines a marker at a designated location with the user's imaging device 110, it is considered that the user has approved the payment, and the payment process proceeds, and the marker for actual payment is photographed or an authentication code is displayed and inputted. etc. is possible.
결제 정보 입력의 또 다른 실시예로, 페어링을 통해 새로운 인증 방법을 제공할 수 있는데, 프로젝터(130) 스크린에 9개의 점을 표시해주고, 그 점들 간에 순서대로 연결된 화살표를 표시해준 후 페어링된 휴대폰으로 그 점을 따라 그리는 동작으로 인증을 하는 방법을 제공할 수 있다. 이는 휴대폰이나 모바일 기기에서 활용하는 락 스크린 해제 방법과 유사하나, 서버(300) 측이 정해놓은 숫자 순서 패턴을 제공하고 사용자가 이를 따라 그리는 동작으로 승인하는 방법으로 기존과 다른 형태라고 할 수 있다. As another embodiment of inputting payment information, a new authentication method can be provided through pairing. After displaying 9 dots on the screen of the projector 130 and displaying arrows connected in order between the dots, the paired mobile phone It is possible to provide a method of authentication by an operation of drawing along the dot. This is similar to the lock screen release method used in cell phones or mobile devices, but it is a method that provides a number sequence pattern determined by the server 300 and approves it by a drawing motion by the user, which is different from the existing method.
도 5는 개시된 발명의 일 실시 예에 따른 전자 장치(100)가 진입 차량(200)의 진입을 유도하고 진입 차량(200)이 정상 위치에 진입했는지 확인하는 도면이다.5 is a diagram in which the electronic device 100 induces entry of the entry vehicle 200 and checks whether the entry vehicle 200 has entered the normal position according to an embodiment of the present disclosure.
도 5를 참조하면, 차량(200)이 진입하기 전에, 프로젝터(130)가 차량(200) 주행 경로 바닥에 특정 패턴(예를들어, 주차 위치 4각형 box 등의 표시 등 차량(200)을 특정 위치에 정차할 수 있도록 표시해주는 방법 등)을 조사할 수 있다. 이후 프로젝터(130)가 차량(200)이 특정 위치까지 이동하도록 안내하고 이미징 장치(110)가 정확한 영역에 도착한 것을 인식하여 주정차를 가이드 할 수 있다.Referring to FIG. 5 , before the vehicle 200 enters, the projector 130 identifies the vehicle 200 with a specific pattern (eg, an indicator lamp such as a square box for a parking position) on the floor of a driving path of the vehicle 200. How to mark the location so that you can stop, etc.) can be investigated. Thereafter, the projector 130 guides the vehicle 200 to move to a specific location, and recognizes that the imaging device 110 has arrived at an accurate area, thereby guiding the vehicle 200 to park and stop.
구체적으로, 도 5에서 보여지는 바와 같이 프로젝터(130)가 DT점 이동 경로상에 8개의 점으로 된 특정 패턴을 총 4개 조사하고, 차량(200)이 해당 패턴 위에 주차되도록 가이드 할 수 있다. 프로세서(120)는, 차량(200)의 이동에 의해 4개의 패턴이 가려지면, 가려진 패턴의 개수와 가려진 정도를 분석하여 차량(200)이 DT점 이동 경로에 정상적으로 진입하였는지 판단할 수 있다. 프로세서(120)는, 차량(200)의 크기나 위치를 계산하여 키오스크 화면을 조사할 윈도우 영역을 감지하기 위한 동작을 수행할 수 있다. 프로젝터(130)가 조사하는 패턴의 종류나 개수는 이에 제한되지 않으며, 프로젝터(130)에 의해 패턴이 조사되고 패턴의 변화에 따라 차량(200)의 진입 및 크기를 확인할 수 있는 다른 방법도 포함될 수 있다.Specifically, as shown in FIG. 5 , the projector 130 may irradiate a total of 4 specific patterns of 8 dots on the DT point movement path and guide the vehicle 200 to be parked on the corresponding pattern. When the four patterns are obscured by the movement of the vehicle 200, the processor 120 may determine whether the vehicle 200 normally enters the DT point movement path by analyzing the number of obscured patterns and the degree of obscuration. The processor 120 may calculate the size or position of the vehicle 200 and perform an operation for detecting a window area to be irradiated on the kiosk screen. The type or number of patterns irradiated by the projector 130 is not limited thereto, and the pattern is irradiated by the projector 130 and other methods of confirming the entry and size of the vehicle 200 according to the change of the pattern may also be included. there is.
도 6은 개시된 발명의 일 실시 예에 따른 전자 장치(100)가 선루프가 있는 차량(200)과 없는 차량(200)을 구분하여 콘텐츠를 조사하는 도면이다.FIG. 6 is a diagram in which the electronic device 100 classifies a vehicle 200 with a sunroof and a vehicle 200 without a sunroof according to an embodiment of the present disclosure and examines contents.
도 6을 참조하면, 차량(200)의 선루프를 프로젝터(130) 스크린으로 활용하고자 하는 사용자를 위해서 별도의 주정차 가이드라인과 안내를 제공하는 방법으로, 프로젝터(130)가 바닥에 LED 점멸이나 별도 패턴 등으로 두 개의 정차 가이드라인을 표시하여 차량(200)을 안내 할 수 있다. 예를 들어, 프로젝터(130)가 점선과 실선의 두 가지 가이드라인을 표시하여 선루프를 통한 키오스크 화면 주문은 앞의 점선에 차량(200)의 전면부를 일치시키도록 유도하고, 전면 윈도우를 활용하는 경우는 뒤의 실선에 차량(200)의 전면부를 일치시키도록 유도하여 사용자가 키오스크를 활용할 윈도우를 선택하도록 가이드 할 수 있다.Referring to FIG. 6 , as a method of providing separate parking and stopping guidelines and guidance for a user who wants to utilize the sunroof of the vehicle 200 as a screen for the projector 130, the projector 130 has LED flashing on the floor or separate The vehicle 200 may be guided by displaying two stopping guidelines in a pattern or the like. For example, the projector 130 displays two guidelines of a dotted line and a solid line, so that ordering the kiosk screen through the sunroof leads to match the front part of the vehicle 200 with the dotted line in front, and utilizes the front window. In this case, the front part of the vehicle 200 may be aligned with the solid line at the back to guide the user to select a window to utilize the kiosk.
도 7과 도 8은 개시된 발명의 일 실시 예에 프로젝터(130)가 소정의 각도에 따라 콘텐츠를 조사할 윈도우를 결정하고 최적의 조사 각도를 설정하는 도면이다7 and 8 are views in which the projector 130 determines a window to irradiate content according to a predetermined angle and sets an optimal irradiation angle according to an embodiment of the disclosed invention.
도 7과 도 8을 참조하면, 프로젝터(130)가 이동하면서 다양한 각도로 콘텐츠를 조사하고, 피드백을 확인하여 최적의 조사 영역 및 조사 각도를 찾을 수 있다.Referring to FIGS. 7 and 8 , while the projector 130 moves, content is examined at various angles, and feedback is checked to find an optimal irradiation area and angle.
도 7을 참조하면, 프로젝터(130)가 콘텐츠를 차량(200)에 조사하면, 이미징 장치(110)가 차량(200)윈도우와 프로젝션 빔의 각도에 따른 조사량, 반사량 등을 판단하고, 최적의 조사 영역 또는 각도를 찾을 수 있다. 예를 들면, 차량(200) 정면 윈도우(제1 조사영역) 또는 선루프(제 2조사영역)에 최적의 빔 조사 각도와 영역을 파악하기 위해, 2차원 평면상에 위치한 프로젝터(130)는 차량(200)의 길이방향(x-y방향)으로 이동하면서 각도별 (θ1, θ2, θ3)로 빔을 조사하고, 프로세서(120)가 반복적으로 피드백을 확인하여 제 1 조사영역에 대한 최적의 조사각도(θ_optimum)를 찾는 과정을 수행할 수 있다. Referring to FIG. 7 , when the projector 130 irradiates content to the vehicle 200, the imaging device 110 determines the amount of irradiation, the amount of reflection, etc. according to the angle between the window of the vehicle 200 and the projection beam, and determines the optimum amount of irradiation. You can find areas or angles. For example, in order to determine the optimal beam irradiation angle and area for the front window (first irradiation area) or sunroof (second irradiation area) of the vehicle 200, the projector 130 located on a two-dimensional plane is placed on the vehicle. While moving in the longitudinal direction (x-y direction) of (200), the beam is irradiated at each angle (θ1, θ2, θ3), and the processor 120 repeatedly checks the feedback to determine the optimal irradiation angle for the first irradiation area ( The process of finding θ_optimum) can be performed.
도 8을 참조하여 또 다른 예를 들면, 차량(200) 좌측면 윈도우(제 3조사영역) 또는 우측면 윈도우(제 4조사영역)에 최적의 빔 조사 각도와 영역을 파악하기 위해, 프로젝터(130)는 차량(200)의 너비방향(u-v방향)으로 이동하면서 각도별 (ψ1, ψ2, 쪋)로 빔을 조사하고, 프로세서(120)가 피드백을 확인하여 최적의 조사각도을 찾는 과정을 수행할 수 있다.Referring to FIG. 8, for another example, in order to determine the optimal beam irradiation angle and area for the left side window (third irradiation area) or the right side window (fourth irradiation area) of the vehicle 200, the projector 130 , while moving in the width direction (u-v direction) of the vehicle 200, the beam is irradiated at each angle (ψ1, ψ2, 쪋), and the processor 120 checks the feedback to perform a process of finding an optimal irradiation angle. .
미리 설정된 각도를 결정하기 위해, 프로세서는 사전에 다양한 차량 이미지를 바탕으로 학습을 진행하여 모델을 생성하고, 생성된 모델을 검증한 후, 이 모델을 이용하여 DT에 진입하는 차량의 윈도우 기울기 정보 등을 추론하는 과정을 거칠 수 있다.In order to determine the preset angle, the processor performs learning based on various vehicle images in advance to generate a model, verifies the generated model, and then uses this model to obtain window tilt information of the vehicle entering the DT. can go through the process of inferring.
미리 설정된 각도를 효과적으로 결정하기 위한 AI 기술은 머신러닝(Machine Learning)의 한 방법인 딥러닝(Deep Learning) 기술일 수 있다. The AI technology for effectively determining the preset angle may be a deep learning technology, which is a method of machine learning.
머신러닝은 기계가 빅데이터를 확률적, 통계적으로 분석하여 가장 가치 있는 데이터를 찾아내 분류하는 능력을 학습하는 것일 수 있다. 딥 러닝이란 인간의 뇌 신경망을 본따 만든 인공 신경망 모델로 기존의 데이터에 포함된 다양한 변수를 파악하지 못하는 머신러닝의 한계를 보완한 방법일 수 있다.Machine learning can be learning the ability of machines to stochastically and statistically analyze big data to find and classify the most valuable data. Deep learning is an artificial neural network model modeled after the human brain neural network, and can be a method of supplementing the limitations of machine learning that cannot identify various variables included in existing data.
일 실시 예에 따른 각도의 결정은 데이터 기반 방법의 이미지 분석일 수 있다. 데이터 기반 방법은 수 많은 이미지와 레이블이 있는 데이터셋을 통해 모델을 학습할 수 있다. Determination of the angle according to an embodiment may be image analysis of a data-based method. Data-driven methods can train a model over a dataset with a large number of images and labels.
학습된 머신러닝 모델은 새로운 이미지를 입력받아 그 이미지의 레이블을 예측할 수 있다. 레이블을 예측하기 위해 입력되는 새로운 이미지는 웹으로부터 수집할 수 도 있고, 개시된 발명의 동작 과정에서 수집될 수 도 있다.The trained machine learning model can take a new image as input and predict the label of the image. A new image input to predict a label may be collected from the web or may be collected during the operation of the disclosed invention.
도 9는 개시된 발명의 일 실시 예에 따른 전자 장치(100)가 윈도우 영역과 프레임 영역 등 그 외의 영역을 구분하는 도면이다. 9 is a diagram in which the electronic device 100 according to an embodiment of the present disclosure divides other areas such as a window area and a frame area.
도 9를 참조하면, 차량(200)의 윈도우 영역과 그 외 프레임 영역을 구분하기 위한 과정을 나타내고 있다. 이에 해당하는 일 실시예에 따르면, 차량(200)의 윈도우 영역과 그 외 프레임 영역을 구분하기 위해 프로젝터(130)는 특정 패턴을 차량(200) 윈도우와 프레임 영역에 조사할 수 있다. 프로세서(120)는 차량(200)에 반사된 패턴을 프로젝터(130)에 내장된 (RGB, 적외선 등) 이미징 장치(110)로 촬영해서 투과율과 반사율 차이를 계산할 수 있다. 차량(200)의 프레임에서 반사된 영역과 차량(200)의 윈도우에 의해서 반사된 영역의 패턴은 다를 수 밖에 없으므로, 해당 반사된 패턴의 차이에 따라 차량(200) 윈도우 영역을 검출할 수 있다. 이 때 프로젝터(130)에서 조사한 패턴을 이미징 장치(110)로 촬영한 후, 촬영된 이미지에서 패턴을 기하 왜곡 분석하여 윈도우의 기울기나 크기를 함께 검출할 수 있도록 제공할 수 있다.Referring to FIG. 9 , a process for distinguishing a window area of the vehicle 200 from other frame areas is illustrated. According to an embodiment corresponding to this, in order to distinguish a window area of the vehicle 200 from other frame areas, the projector 130 may irradiate a specific pattern to the window and frame areas of the vehicle 200 . The processor 120 may calculate a difference between transmittance and reflectance by capturing a pattern reflected by the vehicle 200 with the (RGB, infrared, etc.) imaging device 110 built in the projector 130 . Since the pattern of the area reflected by the frame of the vehicle 200 and the area reflected by the window of the vehicle 200 are inevitably different, the window area of the vehicle 200 can be detected according to the difference in the reflected pattern. At this time, after the pattern irradiated by the projector 130 is photographed by the imaging device 110, geometric distortion analysis of the pattern in the photographed image may be performed so that the tilt or size of the window can be detected together.
일 실시예에 의한 전자 장치(100)가 윈도우 영역과 프레임 영역 등 그 외의 영역을 구분하는 또 다른 실시예에 따르면, 차량(200)의 윈도우를 검출 할 때 차량(200) 윈도우에 프린트된 선 바이저 패턴(sun visor pattern)을 활용하거나, 즉 차량(200)의 전면 윈도우를 프로젝터(130)에 내장된 (RGB, 적외선 등) 이미징 장치(110)로 촬영하여 분석 할 때, 차량(200)의 선 바이저 패턴(sun visor pattern)을 검출하고 해당 선 바이저 패턴(sun visor pattern)의 아래쪽 영역을 차량(200) 전면 윈도우로 검출할 수 있다. 측면과 후면 윈도우 또한 측면과 후면에 프로젝터(130)가 설치된 경우 동일한 방법으로 윈도우 영역을 검출할 수 있다.According to another embodiment in which the electronic device 100 according to an embodiment divides other areas such as a window area and a frame area, when a window of the vehicle 200 is detected, a sun visor printed on the window of the vehicle 200 When a sun visor pattern is used, that is, when the front window of the vehicle 200 is photographed and analyzed with the (RGB, infrared, etc.) imaging device 110 built into the projector 130, the line of the vehicle 200 A sun visor pattern may be detected and an area below the corresponding sun visor pattern may be detected as the front window of the vehicle 200 . When the projector 130 is installed on the side and rear windows, the window area can be detected in the same way.
전자 장치(100)가 차량(200)의 윈도우 영역을 검출한 것에 기초하여, 검출된 차량(200) 윈도우에 왜곡 없이 키오스크 화면을 표시하는 방법에 대해 상세히 설명하기로 한다.A method of displaying a kiosk screen without distortion on the detected window of the vehicle 200 based on the detection of the window area of the vehicle 200 by the electronic device 100 will be described in detail.
이미징 장치(110)가 차량(200)의 윈도우를 촬영하여 차량(200) 윈도우의 전체적인 기울기와 윈도우의 외곽 라운딩 정도를 검출할 수 있다. 프로세서(120)는 키오스크 프로젝션 시 차량(200) 탑승자 입장에서 왜곡 없이 키오스크 화면이 보이도록 표시 영상에 검출된 기하 왜곡 반대 방향으로 역보상을 적용할 수 있다. The imaging device 110 may capture the window of the vehicle 200 and detect the overall inclination of the window of the vehicle 200 and the degree of outer rounding of the window. During the kiosk projection, the processor 120 may apply inverse compensation to the displayed image in a direction opposite to the detected geometric distortion so that the kiosk screen is visible without distortion from the perspective of the occupant of the vehicle 200 .
프로젝터(130)는 왜곡 없이 키오스크 화면이 보이도록 하기 위해 역보상이 적용된 키오스크 화면을 조사하거나, 기하 왜곡이 최소화되는 영역에 키오스크 화면을 축소해서 표시할 수 있다. The projector 130 may irradiate the kiosk screen to which inverse compensation is applied so as to display the kiosk screen without distortion, or may reduce and display the kiosk screen in an area where geometric distortion is minimized.
기존 키스톤 조정 방법에서의 프로젝터(130)가 기울어진 경우와 달리 프로젝션 하려는 대상 즉, 스크린이 곡률을 갖고 기울어진 상황이므로 곡률 인식과 이를 보상한 키스톤 보정이 수행될 수 있다. Unlike the case where the projector 130 is tilted in the existing keystone adjustment method, since an object to be projected, that is, a screen is tilted with curvature, curvature recognition and keystone correction compensating for the curvature can be performed.
상기 프로세서(120)는 차량의 높이에 따라 프로젝터(130)로 부터 투영되는 윈도우까지의 거리가 달라지게 되고, 그에 따라 이미지의 크기가 달라지게 되는 점을 고려하여 추가적인 보정을 할 수 있다.The processor 120 may perform additional correction in consideration of the fact that the distance from the projector 130 to the projected window varies depending on the height of the vehicle, and the size of the image varies accordingly.
프로젝터(130)는 상기 키스톤 보정에 더하여 검출된 윈도우 사이즈로 스케일링 조정 및 화면 비율 조정을 수행한 후 콘텐츠를 조사할 수 있다. In addition to the keystone correction, the projector 130 may examine content after performing scaling and aspect ratio adjustments with the detected window size.
스케일링 조정은 줌 인(zoom-in), 줌 아웃(zoom-out) 기능을 통해 화면의 크기를 조정할 수 있다. 화면 비율 조정은 감지된 크기로 이미지를 표시하거나 높이, 너비 또는 두 가지 모두 최대화하여 이미지 크기를 다시 조정할 수 있고, 원래의 가로 세로 비율을 유지하면서 크기를 윈도우 크기에 맞게 최대화 할 수도 있다. Scaling adjustment can adjust the size of the screen through zoom-in and zoom-out functions. Aspect Ratio can display the image at its detected size, or resize the image by maximizing its height, width, or both, or it can maximize its size to fit the window size while maintaining its original aspect ratio.
상기 과정이 자동으로 조정 된 후 사용자에게 키오스크 키스톤을 확정하거나 키스톤을 사용자 매뉴얼로 조절할 수 있다. 그에 의하여, 프로젝터(130)가 최적 초점을 가지는 키오스크 화면을 제공할 수 있다.After the process is automatically adjusted, the kiosk keystone can be determined by the user or the keystone can be manually adjusted by the user. Accordingly, the projector 130 may provide a kiosk screen having an optimal focus.
프로젝터(130)는 특정 초점 조절 패턴을 차량(200)의 윈도우 중 키오스크 화면을 제공하려는 영역이나 그 외 영역에 표시할 수 있다. 이후 프로세서(120)가 이미징 장치(110)를 활용하여 초점이 정상적으로 설정되었는지 판단 후 자동으로 조절해줄 수 있다. 상기 과정이 자동으로 조정 된 후 사용자에게 초점을 확정하거나 초점을 사용자 매뉴얼로 조절할 수 있다. 그에 의하여, 사용자가 사용자 최적 초점을 갖고 키오스크 화면을 볼 수 있도록 제공할 수 있다.The projector 130 may display a specific focus adjustment pattern on an area to provide a kiosk screen or other areas among windows of the vehicle 200 . Thereafter, the processor 120 may automatically adjust the focus after determining whether the focus is normally set using the imaging device 110 . After the process is automatically adjusted, the focus can be determined by the user or the focus can be manually adjusted by the user. Accordingly, it is possible to provide the user with the user's optimal focus to view the kiosk screen.
차량(200) 윈도우를 검출 할 때, 차량(200)의 윈도우에 이물질 (먼지, 빗방울 등)의 제거를 안내하는 과정이 추가될 수 있다. 이는 프로세서(120)가 프로젝터(130)에 내장되어 구비될 수 있는 센서(CCD나 조도 센서 등)를 활용하거나 이미징 장치(110)를 활용하여 윈도우에 출력하는 광량이나 특정 패턴의 이미지가 정상 표시되는지 식별할 수 있다. 프로세서(120)가 이물질이 있다고 판단될 경우, 사용자에게 차량(200) 와이퍼로 스크린에 해당하는 윈도우를 닦아달라고 안내하거나 차량(200)과 통신으로 운전자에게 승인을 요청하고 수락 받아 자동으로 동작시킬 수 있다. 프로젝터(130)는 투영된 영상이나 패턴의 밝기를 식별하고, 밝기가 부족하거나 과하다고 판단될 경우 밝기를 조정하도록 구비한다. When detecting the window of the vehicle 200, a process of guiding the removal of foreign substances (dust, raindrops, etc.) may be added to the window of the vehicle 200. This is whether the processor 120 utilizes a sensor (such as a CCD or illuminance sensor) that may be built into the projector 130 or utilizes the imaging device 110 to determine whether the amount of light output to the window or an image of a specific pattern is normally displayed. can be identified. If the processor 120 determines that there is a foreign substance, it may guide the user to wipe the window corresponding to the screen with the wiper of the vehicle 200 or request approval from the driver through communication with the vehicle 200 and receive approval to automatically operate the processor 120. there is. The projector 130 identifies the brightness of the projected image or pattern, and adjusts the brightness when it is determined that the brightness is insufficient or excessive.
프로젝터(130)가 윈도우에 왜곡 없이 키오스크 화면을 표시하기 위해, 차량(200)의 탑승자의 안구 위치 또는 두상 위치를 인식해서 사용자에게 최적화된 키오스크 스크린 위치를 결정할 수 있다. 구체적으로는 프로세서(120)가 영상 인식으로 오메가 형상 인식 기술을 활용하여 사용자의 안구 위치나 두상 위치를 검출하고 스크린의 기울기 등 프로젝션 대상 환경을 고려한 최적 키오스크 화면을 제공할 수 있다.In order for the projector 130 to display the kiosk screen on the window without distortion, the position of the eyes or the head of the occupant of the vehicle 200 may be recognized to determine the position of the kiosk screen optimized for the user. Specifically, the processor 120 may detect the position of the user's eyes or head by utilizing the omega shape recognition technology through image recognition, and provide an optimal kiosk screen considering the projection target environment such as the inclination of the screen.
여기에서의 오메가 형상 인식 기술이란, 이미징 장치(110)를 이용하여 사람의 머리를 검출하는 머리 추적 알고리즘으로, 사람의 전면 형상이 이미징 장치(110)에 의해 촬영될 경우, 특수한 경우를 제외하고는 머리 부분의 둥근 형상과 어깨 부분의 직선 형상이 합쳐져 오메가(Ω) 형상을 이루게 된다. 이에 따라 이미지 프로세싱으로 이미지를 필터링하여 오메가 형상의 개수에 따라 사람 머리의 개수를 확인하는 기술을 의미한다.Here, the omega shape recognition technology is a head tracking algorithm that detects a human head using the imaging device 110, and when the front shape of a person is captured by the imaging device 110, except for special cases, The round shape of the head and the straight shape of the shoulder combine to form an omega (Ω) shape. Accordingly, it refers to a technology for filtering an image through image processing and checking the number of human heads according to the number of omega shapes.
특히 오메가 형상의 인식은 차량 내에 다양한 탑승자의 형태 때문에 검출율이 저조할 수 있다. 이러한 단점을 보완하기 위해 AI 기술을 활용하여 다양한 탑승 패턴 이미지를 학습하여 검출율을 높일 수 있다.In particular, recognition of the omega shape may have a low detection rate due to the shapes of various occupants in the vehicle. In order to compensate for these disadvantages, AI technology can be used to increase the detection rate by learning various boarding pattern images.
오메가 형상의 검출율을 높이기 위한 AI 기술은 머신러닝(Machine Learning)의 한 방법인 딥러닝(Deep Learning) 기술일 수 있다. The AI technology for increasing the detection rate of the omega shape may be deep learning technology, which is a method of machine learning.
머신러닝은 기계가 빅데이터를 확률적, 통계적으로 분석하여 가장 가치 있는 데이터를 찾아내 분류하는 능력을 학습하는 것일 수 있다. 딥 러닝이란 인간의 뇌 신경망을 본따 만든 인공 신경망 모델로 기존의 데이터에 포함된 다양한 변수를 파악하지 못하는 머신러닝의 한계를 보완한 방법일 수 있다.일 실시 예에 따른 오메가 형상의 검출은 데이터 기반 방법의 이미지 분석일 수 있다. 데이터 기반 방법은 수 많은 이미지와 레이블이 있는 데이터셋을 통해 모델을 학습할 수 있다. Machine learning can be learning the ability of machines to stochastically and statistically analyze big data to find and classify the most valuable data. Deep learning is an artificial neural network model modeled after the human brain neural network, and can be a method of supplementing the limitations of machine learning that cannot identify various variables included in existing data. The detection of the omega shape according to an embodiment is data-based It may be an image analysis of the method. Data-driven methods can train a model over a dataset with a large number of images and labels.
학습된 머신러닝 모델은 새로운 이미지를 입력받아 그 이미지의 레이블을 예측할 수 있다. 레이블을 예측하기 위해 입력되는 새로운 이미지는 웹으로부터 수집할 수 도 있고, 개시된 발명의 동작 과정에서 수집될 수 도 있다. The trained machine learning model can take a new image as input and predict the label of the image. A new image input to predict a label may be collected from the web or may be collected during the operation of the disclosed invention.
데이터 기반 방법의 예시로 KNN(K-nearest neighbor)방법을 사용할 수 있다. KNN(K-nearest neighbor)방법은 테스트 또는 예측 단계에서 인풋과 가까운 순으로 총 k 개의 데이터의 레이블을 구한 후, 가장 빈번하게 나오는 레이블로 이미지를 예측하는 방법이다.As an example of a data-based method, the KNN (K-nearest neighbor) method can be used. The KNN (K-nearest neighbor) method is a method of predicting an image with the most frequently appearing label after obtaining a total of k data labels in order close to the input in a test or prediction step.
KNN(K-nearest neighbor)방법을 개시된 발명의 오메가 형상을 검출하는 방법에 사용할 경우, 사용자가 DT매장을 방문할 때 가장 빈번하게 나타나는 형상을 오메가 형상으로 판단하여 검출율을 높일 수 있다.When the KNN (K-nearest neighbor) method is used in the method of detecting the omega shape of the disclosed invention, the detection rate can be increased by determining the most frequent shape as the omega shape when the user visits the DT store.
도 10은 개시된 발명의 일 실시 예에 따른 프로젝터(130)가 1인용 또는 2인용 콘텐츠를 조사하는 것을 설명하는 도면이다.FIG. 10 is a diagram explaining that the projector 130 examines content for one person or two people according to an embodiment of the present disclosure.
도 10을 참조하면, 프로세서(120)가 동승자 탑승 여부를 고려하여 키오스크 영역을 자동 조절하여 한 개의 키오스크 화면을 2인 이상이 동시에 활용할 수 있도록 할 수 있다. 프로젝터(130)가 사용자의 선택에 따라 상품 검색 및 주문 등을 위한 유저 인터페이스(UI) 버튼을 양쪽에 제공하거나, 동일한 키오스크 화면을 차량(200)의 운전자와 동승자 각각이 활용할 수 있도록 두 개의 키오스크 화면으로 탑승자 별로 제공할 수 있다.Referring to FIG. 10 , the processor 120 automatically adjusts the kiosk area in consideration of whether or not a passenger is on board, so that two or more people can use one kiosk screen at the same time. The projector 130 provides user interface (UI) buttons on both sides for product search and ordering according to the user's selection, or two kiosk screens so that the driver and passenger of the vehicle 200 can each use the same kiosk screen. can be provided for each passenger.
동승자가 있다고 판단된 경우에도 사용자의 선택에 따라 프로젝터가 사용자에게 메뉴 표시 방법에 대한 선택권을 주어 한 명만 메뉴를 보고 선택할 수도 있다.Even when it is determined that there is a passenger, the projector gives the user a choice on how to display the menu according to the user's choice, so that only one person can view and select the menu.
이와 같이 키오스크 콘텐츠를 1인용 또는 2인용으로 제공하는 것은 사용자의 선택에 따라서 제공될 수 도 있지만, 프로세서(120)에 의해 자동으로 2인용으로 제공될 수 도 있다.In this way, providing kiosk contents for one person or two people may be provided according to the user's selection, but may also be provided automatically by the processor 120 for two people.
또한 동승자의 탑승 여부를 확인하는 것은 앞서 설명한 오메가 형상 인식 기술을 활용하여 두상의 개수를 확인하고, 동승자의 탑승 여부를 확인할 수 있다.In addition, checking whether or not a passenger is boarding can check the number of heads by utilizing the omega shape recognition technology described above and confirming whether or not the passenger is boarding.
도 11은 개시된 발명의 일 실시 예에 따른 프로젝터(130)가 콘텐츠를 윈도우에 조사하고, 사용자가 메뉴를 선택하는 것을 보여주는 도면이다.11 is a diagram showing that the projector 130 irradiates content to a window and the user selects a menu according to an embodiment of the present invention.
도 11을 참조하면, 조사된 콘텐츠의 메뉴를 차량(200)의 윈도우에서 선택할 때, 차량(200) 탑승자가 손이나 기타 도구 등을 활용하여 상품 선택 및 주문 결제를 진행할 수 있다. Referring to FIG. 11 , when selecting a menu of researched content in a window of the vehicle 200, a vehicle occupant may select a product and proceed with order payment using hands or other tools.
차량(200) 탑승자의 손이나 기타 도구가 콘텐츠를 선택하는지 여부를 결정하는 것은 종래 기술에서 많이 활용되는 기술들을 적용할 수 있다. 개시된 발명의 이미징 장치(110)는 적외선(IR) 이미징 장치(110) 또는 RGB 이미징 장치(110)를 포함할 수 있다. Determining whether the hand or other tool of the occupant of the vehicle 200 selects content may apply techniques widely used in the prior art. The imaging device 110 of the disclosed invention may include an infrared (IR) imaging device 110 or an RGB imaging device 110 .
프로세서는 감지된 사용자의 손의 모양이나 제스쳐에 따라 주문 시스템에서 사용자에게 어떤 상품이 장바구니에 담기거나 주문 되었다고 알림을 줄 수 있으며, 사용자가 메뉴 선택을 위한 도구를 메뉴 앞에 미리 정해진 시간 동안 머무는 것을 이미징 장치(110)를 통해 감지한 경우, 사용자가 메뉴를 선택한 것으로 판단할 수 있다. The processor may notify the user that a certain product has been added to the cart or ordered in the ordering system according to the detected user's hand shape or gesture, and imaging that the user holds the tool for selecting the menu in front of the menu for a predetermined period of time. When detected through the device 110, it may be determined that the user has selected a menu.
메뉴가 선택되었음을 운전자 및 동승자가 인지할 수 있도록 피드백을 주는 구체적인 방법으로, 차량(200) 내 음향장치를 이용하는 방법이 있을 수 있다. 일 실시예로 선택된 메뉴의 색상을 반전하거나, 글씨의 농도를 반전할 수도 있다. 또 다른 실시예로 장바구니 또는 메뉴 선택화면 이외의 화면으로 선택되어 나갈 수도 있다.As a specific method of giving feedback so that the driver and passengers can recognize that a menu has been selected, there may be a method of using a sound device in the vehicle 200 . In one embodiment, the color of the selected menu may be inverted or the density of the text may be inverted. In another embodiment, the screen may be selected to a screen other than the shopping cart or menu selection screen.
차량(200) 탑승자의 손이나 기타 도구가 콘텐츠를 선택하는 방법에는 제한이 없으며, 개시된 발명에서의 이미징 장치(110)는 적외선(IR) 이미징 장치(110)를 이용하는 방법을 구체적으로 설명한다. There is no limitation on how the vehicle 200 occupant's hands or other tools select content, and the method of using the infrared (IR) imaging device 110 for the imaging device 110 in the disclosed invention will be described in detail.
적외선(IR) 이미징 장치(110)로 취득하는 이미지는 적외선 센서의 특성상 가까운 거리에 위치하는 물체가 먼 거리에 있는 위치에 비해 밝은 값을 가진다. 프로세서(120)는밝기 값을 기준으로 최대 밝기 값의 0.1에 해당하는 값을 임계점으로 설정하고 임계점을 넘는 영역을 대략적인 손 영역으로 추출할 수 있다. 또한, 프로세서(120)는 제 2의 임계점을 최대 밝기 값의 0.3에 해당하는 값으로 적용하여 더 밝은 손 부분과 상대적으로 어두운 부분인 팔뚝 영역을 분리할 수 있다. 이 때 추출된 경계선의 길이가 짧은 부분들은 손 영역에서 제외하여 손 부분만을 식별할 수 있다.An image obtained by the infrared (IR) imaging device 110 has a brighter value than an object located at a short distance due to the characteristics of an infrared sensor. The processor 120 may set a value corresponding to 0.1 of the maximum brightness value as a threshold point based on the brightness value, and may extract an area exceeding the threshold point as an approximate hand area. In addition, the processor 120 may separate the brighter hand part and the relatively dark forearm region by applying the second threshold as a value corresponding to 0.3 of the maximum brightness value. At this time, only the hand part can be identified by excluding parts of the extracted boundary line from the hand area.
손 부분이 식별된 경우, 관측자와 물체의 상대 운동에 의하여 생기는 화상 위의 겉보기 속도 분포인 옵티컬 플로(optical flow)를 활용할 수 있다. 예를 들어, 프로세서(120)가 손가락과 손바닥 부분의 옵티컬 플로(optical flow) 차이를 계산하여 현재 동작이 이동, 클릭, 정지 중 어떤 동작인지 식별할 수 있다.When the hand part is identified, the optical flow, which is the apparent velocity distribution on the image caused by the relative motion of the observer and the object, can be utilized. For example, the processor 120 may calculate a difference in optical flow between a finger and a palm to identify a current motion among moving, clicking, and stopping.
이와 같이 사용자가 손을 이용하여 터치를 구현하는 경우 뿐 아니라 도구를 이용하는 경우도 동일한 알고리즘을 적용하여 터치 인식을 구현할 수 있고, 터치 인식에 따라 메뉴를 선택하고 주문 및 결제를 진행할 수 있다.In this way, touch recognition can be implemented by applying the same algorithm not only when the user implements a touch using a hand but also when using a tool, and according to the touch recognition, a menu can be selected, and an order and payment can be made.
개시된 발명에서는 메뉴를 선택하는 사용자가 프로젝터(130) 또는 프로젝터(130)의 조사면과 분리된 공간에 있을 수 있다. 즉, 일 실시 예에 따른 전자 장치(100)에 의하면, 종래 기술과 달리 프로젝터(130)가 콘텐츠를 조사하는 방향과 사용자의 시선의 진행 방향이 상이할 수 있다. In the disclosed invention, a user who selects a menu may be in the projector 130 or a space separated from the irradiation surface of the projector 130 . That is, according to the electronic device 100 according to an embodiment, unlike the prior art, the direction in which the projector 130 irradiates content may be different from the direction in which the user's line of sight moves.
프로세서(120)에 의해 키스톤 보정, 스케일링 보정, 화면 비율 조정 등을 수행하므로, 프로젝터(130)가 사용자의 눈 방향으로 콘텐츠를 조사하더라도 최적의 초점으로 사용자에게 콘텐츠를 표시할 수 있다. Since keystone correction, scaling correction, aspect ratio adjustment, etc. are performed by the processor 120, even when the projector 130 irradiates content in the direction of the user's eyes, the content can be displayed to the user with an optimal focus.
개시된 발명에서는 적외선(IR) 이미징 장치(110)나 RGB 이미징 장치(110)를 통한 영상 인식 방법을 제공하는 것 뿐 아니라, 차량(200) 전면 윈도우에 주차위반 과태료 종이가 붙어있거나, 눈이 쌓여 있거나, 과도한 틴팅으로 인식이 어려울 경우 등에 사용자의 휴대용 기기를 활용한 예외 처리 방법을 별도로 구비한다. In the disclosed invention, as well as providing an image recognition method through an infrared (IR) imaging device 110 or an RGB imaging device 110, parking violation fine paper is attached to the front window of the vehicle 200, or snow is piled up. , When recognition is difficult due to excessive tinting, an exception handling method using the user's portable device is provided separately.
예외 처리와 관련하여, 사용자가 주문 페이지로 넘어갔을 때 프로젝터(130) 주변 모바일 기기를 탐색하여 가장 가까이 있는 사용자의 휴대용 기기에 페어링 요청을 보내고 사용자가 수락함으로써 페어링을 완료한다. Regarding exception handling, when the user goes to the order page, the projector 130 searches for nearby mobile devices and sends a pairing request to the user's portable device closest to it, and the user accepts the pairing to complete the pairing.
그 후 사용자는 휴대폰 화면을 보지 않고 휴대폰을 윈도우에 표시된 화면을 가리키거나 상하좌우로 흔드는 것 만으로 메뉴 탐색이나 선택을 할 수 있다. 이 때 휴대용 기기의 가속도 센서나 중력 센서 UWB 기술 등을 활용하여 해당 기능을 제공할 수 있고, 정확도를 향상할 수 있다.After that, the user can navigate through the menu or make selections without looking at the mobile phone screen, just pointing the mobile phone at the screen displayed in the window or shaking it up, down, left and right. At this time, the corresponding function can be provided and accuracy can be improved by utilizing the acceleration sensor or gravity sensor UWB technology of the portable device.
도 12는 개시된 발명의 일 실시 예에 따른 프로젝터(130)가 콘텐츠를 조사하는 경우 차량(200)의 내부에서 본 모습이다.12 is a view from the inside of the vehicle 200 when the projector 130 examines content according to an embodiment of the present disclosure.
도 12를 참조하면, 동승자가 있다고 판단된 경우에 프로젝터(130)가 2인용 콘텐츠를 조사한 것을 내부에서 확인할 수 있으며, 윈도우에 키오스크를 조사하는 것에 장애가 있을 경우에는 도 10과 같이 차량(200)의 대쉬보드 상에 키오스크를 조사하는 것도 가능하다. Referring to FIG. 12, when it is determined that there is a passenger, it is possible to confirm inside the projector 130 that the content for two people has been examined. It is also possible to inspect the kiosk on the dashboard.
차량(200)의 대쉬보드 상에 키오스크를 조사할 경우, 대쉬보드는 반사율, 굴절율이 낮기 때문에 윈도우에 조사하는 것 보다 선명한 화면을 제공할 수 있으므로 사용자의 선택에 따라 키오스크 화면을 조절할 수 있어, 편의성이 증대된다.When irradiating the kiosk on the dashboard of the vehicle 200, the dashboard can provide a clearer screen than irradiating the window because the reflectance and refractive index are low, so that the kiosk screen can be adjusted according to the user's selection, resulting in convenience. this increases
도 13은 개시된 발명의 일 실시 예에 따른 전자 장치들 (100-1, 100-2, 100-3, 100-4, 100-5, 100-6, 100-7) 이 주문 정보를 다음 전자 장치들(100-1, 100-2, 100-3, 100-4, 100-5, 100-6, 100-7)로 넘겨주는 것을 설명하는 도면이다.13 illustrates order information of electronic devices 100-1, 100-2, 100-3, 100-4, 100-5, 100-6, and 100-7 according to an embodiment of the present disclosure, and the next electronic device. It is a diagram explaining the transfer to fields 100-1, 100-2, 100-3, 100-4, 100-5, 100-6, and 100-7.
도 13을 참조하면, DT점 주문 및 결제 후에 차량들(200-1, 200-2, 200-3)이 주행 경로를 따라 이동할 때 전자 장치(100) 간 통신으로 방문자의 정보를 전자 장치(100) 간에 핸드오버하는 기능을 구비하여 방문자에게 편의 기능을 제공할 수 있다. Referring to FIG. 13 , when vehicles 200-1, 200-2, and 200-3 move along a driving route after ordering and paying at a DT point, information of visitors is transferred to the electronic device 100 through communication between the electronic devices 100. ), it is possible to provide a convenient function to the visitor by providing a function of handover between the terminals.
구체적으로, 주문 정보 표시나 대기 중 보던 광고 및 기타 컨텐츠 정보를 다음 주행 경로 상의 디스플레이에 재생 시점을 넘겨주는 기능을 제공하는데, 전자 장치(100)에 내장된 이미징 장치(110)를 통해 차량(200) 번호를 인식하고 어떤 차량(200)이 어떤 주행경로 상의 전자 장치(100)에 있는지 확인하여 끊김 없는 컨텐츠 감상이 가능하도록 제공할 수 있다. Specifically, a function of displaying order information or transferring the playback time of advertisements and other content information viewed while waiting to a display on the next driving route is provided, and the vehicle 200 is transmitted through the imaging device 110 built in the electronic device 100. ) number and confirming which vehicle 200 is on which driving route the electronic device 100 is on, it is possible to provide seamless content enjoyment.
또한 차량(200) 번호 인식 외에 차량(200)의 일부의 특이한 모양 (후드 모양 등)을 인식하여 DT점에서만 잠시 인식 정보를 활용 후 DT점에서 떠났을 때 해당 정보를 바로 삭제해서 개인정보 노출에 대한 대비책을 마련할 수도 있다.In addition, in addition to recognizing the number of the vehicle 200, it recognizes the unique shape (hood shape, etc.) of some parts of the vehicle 200, uses the recognition information for a while only at the DT store, and then immediately deletes the information when leaving the DT store to prevent exposure of personal information. You can also come up with a countermeasure.
도 14는 개시된 발명의 일 실시 예에 따른 전자 장치(100)에 의해 주문이 이루어지는 일반적인 흐름도이다.14 is a general flow chart of ordering by the electronic device 100 according to an embodiment of the disclosed subject matter.
도 14를 참조하면, 프로젝터(130)가 DT 진입로 바닥면에 패턴 영상이 포함된 콘텐츠를 조사(2010)하고, 이미징 장치(110)가 패턴 영상의 변경 여부를 감지(2020)할 수 있다.Referring to FIG. 14 , the projector 130 may irradiate (2010) content including a pattern image on the floor of the DT access road, and the imaging device 110 may detect whether the pattern image is changed (2020).
이미징 장치(110)가 패턴 영상의 변경을 감지한 경우, 해당 변경에 기초하여 전면, 측면, 선루프 중 프로젝션의 대상이 되는 윈도우의 종류를 결정(2030)할 수 있다. 이 때 윈도우를 결정하는 것은 사용자의 선택일 수 도 있고, 자동으로 이루어지는 것일 수 도 있다. When the imaging device 110 detects a change in the pattern image, the type of window to be projected among the front, side, and sunroof may be determined based on the change (2030). At this time, determining the window may be a user's choice or may be automatically made.
프로젝션의 대상이 되는 윈도우의 종류가 결정되면 윈도우 영역과 윈도우가 아닌 영역을 구분하여 감지(2040)할 수 있다. 윈도우 영역이 감지되지 않는 경우, 윈도우 영역을 감지하기 위해 차량(200)을 향해 콘텐츠를 반복 조사하고 피드백을 확인하여 윈도우를 감지(2050)한다.When the type of window to be projected is determined, a window area and a non-window area may be distinguished and detected (2040). When the window area is not detected, content is repeatedly irradiated toward the vehicle 200 to detect the window area, and the window is detected by checking the feedback (2050).
윈도우가 감지된 것에 기초하여, 프로젝션 대상 윈도우에 콘텐츠를 조사(2060)한다. 사용자가 콘텐츠에 표시된 메뉴를 선택(2070)하면, 서버(300)로 메뉴에 대한 정보를 전송(2080)하고 결제 정보에 관한 콘텐츠를 윈도우에 조사(2090)한다.Based on the detected window, the projected window is irradiated with content (2060). When the user selects a menu displayed in the content (2070), information on the menu is transmitted to the server 300 (2080), and content related to payment information is examined in the window (2090).
이후 사용자가 결제를 위한 결제 수단을 선택(2100)하는 것으로 동작이 종료되며, 사용자는 차량(200) 윈도우를 열고 밖에 위치한 점원이나 키오스크 화면에 발화를 할 필요 없이 차량(200) 내부에서 완전한 비대면으로 주문 및 결제가 가능한 효과가 있다.After that, the operation ends when the user selects a payment method for payment (2100), and the user opens the window of the vehicle 200 and is completely non-face-to-face inside the vehicle 200 without having to speak to a clerk or a kiosk screen located outside. It has the effect of enabling ordering and payment.
도 15는 개시된 발명의 일 실시 예에 따른 전자 장치(100)에 의해 동승자의 탑승이 확인된 경우 복수의 콘텐츠를 조사하는 흐름도이다.15 is a flowchart illustrating a search for a plurality of contents when boarding of a passenger is confirmed by the electronic device 100 according to an embodiment of the present disclosure.
도 15를 참조하면, 프로젝터(130)가 DT 진입로 바닥면에 패턴 영상이 포함된 콘텐츠를 조사(3010)하고, 이미징 장치(110)가 패턴 영상의 변경 여부를 감지(3020)할 수 있다.Referring to FIG. 15 , the projector 130 may irradiate (3010) content including a pattern image on the floor of a DT access road, and the imaging device 110 may detect whether or not the pattern image is changed (3020).
이미징 장치(110)가 패턴 영상의 변경을 감지한 경우, 해당 변경에 기초하여 전면, 측면, 선루프 중 프로젝션의 대상이 되는 윈도우의 종류를 결정(3030)할 수 있다. 이 때 윈도우를 결정하는 것은 사용자의 선택일 수 도 있고, 자동으로 이루어지는 것일 수 있다. When the imaging device 110 detects a change in the pattern image, the type of window to be projected among the front, side, and sunroof may be determined based on the change (3030). At this time, determining the window may be a user's choice or may be automatically made.
프로젝션의 대상이 되는 윈도우의 종류가 결정되면 윈도우 영역과 윈도우가 아닌 영역을 구분하여 감지(3040)할 수 있다. 윈도우 영역이 감지되지 않는 경우, 윈도우 영역을 감지하기 위해 차량(200)을 향해 콘텐츠를 반복 조사하고 피드백을 확인하여 윈도우를 감지(3050)한다.When the type of window to be projected is determined, a window area and a non-window area may be distinguished and detected (3040). When the window area is not detected, content is repeatedly irradiated toward the vehicle 200 to detect the window area, and the window is detected by checking the feedback (3050).
윈도우가 감지된 것에 기초하여, 차량(200) 내부의 오메가 형상이 2개 이상인 것으로 판단(3070)되는 경우, 동승자가 탑승한 것으로 판단하여 유저 인터페이스(UI)를 복수로 제공하거나, 키오스크 화면을 복수개로 제공하는 등 2인용 콘텐츠를 조사(3060)할 수 있다.Based on the detected window, when it is determined that there are two or more omega shapes inside the vehicle 200 (3070), it is determined that a passenger is on board and a plurality of user interfaces (UIs) are provided or a plurality of kiosk screens are displayed. It is possible to investigate (3060) two-person content, such as provided as .
프로젝션 대상 윈도우에 콘텐츠가 조사(3080)되면, 사용자가 콘텐츠에 표시된 메뉴를 선택(3090)하고, 서버(300)로 메뉴에 대한 정보를 전송(3100)하고 결제 정보에 관한 콘텐츠를 윈도우에 조사(3110)한다. 이후 사용자가 결제를 위한 결제 수단을 선택(3120)하는 것으로 동작이 종료된다.When content is irradiated to the projection target window (3080), the user selects a menu displayed in the content (3090), transmits information about the menu to the server 300 (3100), and irradiates content related to payment information to the window ( 3110). After that, the operation ends when the user selects a payment method for payment (3120).
사용자는 완전한 비대면으로 주문 및 결제가 가능한 것에 더하여 동승자가 탑승한 경우, 동승자도 키오스크 화면을 통해 주문이 가능하고 각각 결제가 가능한 편의성 증대 효과가 있다.In addition to being able to order and pay in a completely non-face-to-face manner, when a passenger is on board, the passenger can also order and pay through the kiosk screen, increasing convenience.
개시된 발명 중 전자 장치(100)의 제어 방법에 관하여 설명하면, 프로젝터(130)가 차량(200)의 주행 경로 바닥에 패턴 영상을 조사하고, 이미징 장치(110)가 패턴 영상을 촬영하여 상기 차량(200)이 정상 진입 하였는지 판단하며, 상기 차량(200)의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사할 수 있다. Describing the control method of the electronic device 100 among the disclosed inventions, the projector 130 irradiates a pattern image on the floor of a driving path of the vehicle 200, and the imaging device 110 captures the pattern image so that the vehicle ( 200) is normally entered, and contents including a plurality of menus may be examined through the window of the vehicle 200.
이후 이미징 장치(110)를 통하여 콘텐츠 이미지에 대한 사용자 제스처가 촬영되는 경우 복수의 메뉴 중 사용자 제스처에 대응하는 메뉴를 결정하고 , 결정된 메뉴에 대한 정보를 서버(300)로 송신하는 단계를 포함할 수 있다.Thereafter, when a user gesture for a content image is captured through the imaging device 110, determining a menu corresponding to the user gesture among a plurality of menus and transmitting information on the determined menu to the server 300 may be included. there is.
전자 장치(100)의 제어 방법에 관한 구체적인 실시예는 상기에서 전자 장치(100)에 관한 실시예와 중복되므로 설명을 생략한다.A detailed description of the control method of the electronic device 100 is omitted because it overlaps with the embodiment of the electronic device 100 described above.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 개시된 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 개시된 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 개시된 발명이 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As above, the disclosed embodiments have been described with reference to the accompanying drawings. Those skilled in the art to which the disclosed invention belongs will understand that the disclosed invention can be practiced in a form different from the disclosed embodiments without changing the technical spirit or essential features of the disclosed invention. The disclosed embodiments are illustrative and should not be construed as limiting.

Claims (15)

  1. 이미징 장치;imaging device;
    서버와 통신을 수행하는 통신부;a communication unit that communicates with the server;
    프로젝터;projector;
    상기 이미징 장치를 통해 차량이 촬영되는 것에 기초하여 상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하도록 상기 프로젝터를 제어하고, Controlling the projector to examine content including a plurality of menus through a window of the vehicle based on the vehicle being photographed by the imaging device;
    상기 이미징 장치를 통해 상기 콘텐츠에 대한 사용자 제스처가 촬영되는 것에 기초하여 상기 복수의 메뉴 중 상기 사용자 제스처에 대응하는 메뉴를 결정하고, Determine a menu corresponding to the user gesture from among the plurality of menus based on a user gesture for the content being photographed by the imaging device;
    상기 결정된 메뉴에 대한 정보를 서버로 송신하도록 상기 통신부를 제어하는 프로세서;를 포함하는 전자 장치.and a processor controlling the communication unit to transmit information on the determined menu to a server.
  2. 제 1 항에 있어서,According to claim 1,
    상기 프로젝터는, the projector,
    조사 각도를 설정하기 위해 다양한 각도 별로 콘텐츠를 복수 회 조사하고, 상기 조사된 콘텐츠의 피드백을 확인하여 상기 조사 각도를 설정하는 것을 특징으로 하는 전자 장치.An electronic device characterized in that the irradiation angle is set by irradiating content multiple times at various angles and checking feedback of the irradiated content to set the irradiation angle.
  3. 제 2 항에 있어서,According to claim 2,
    상기 프로젝터는, the projector,
    상기 설정된 조사 각도로 상기 차량에 패턴 영상을 포함하는 콘텐츠를 조사하고, 상기 프로세서는 투과율 및 반사율의 차이에 따라 차량의 윈도우 영역을 검출하는 것을 특징으로 하는 전자 장치.The electronic device of claim 1 , wherein content including a pattern image is irradiated to the vehicle at the set irradiation angle, and the processor detects a window area of the vehicle according to a difference in transmittance and reflectance.
  4. 제 2 항에 있어서,According to claim 2,
    상기 프로세서는, the processor,
    상기 차량의 전면 윈도우에 표시된 선 바이저 패턴을 인식하기 위해 상기 설정된 조사 각도로 상기 차량을 촬영하도록 상기 이미징 장치를 제어하고, 상기 인식된 선 바이저 패턴의 아래쪽 영역을 전면 윈도우 영역으로 검출하는 것을 특징으로 하는 전자 장치.Controlling the imaging device to photograph the vehicle at the set irradiation angle to recognize the sun visor pattern displayed on the front window of the vehicle, and detecting an area below the recognized sun visor pattern as the front window area electronic devices that do.
  5. 제 3 항에 있어서,According to claim 3,
    상기 프로세서는, the processor,
    상기 윈도우 영역을 검출하는 과정에서 상기 차량의 윈도우 표면에 위치하는 이물질을 식별하고, 상기 이물질을 제거하도록 상기 사용자에게 안내하는 전자 장치.An electronic device for identifying a foreign substance located on a window surface of the vehicle in the process of detecting the window area and guiding the user to remove the foreign substance.
  6. 제 3 항에 있어서,According to claim 3,
    상기 프로세서는, the processor,
    상기 검출된 윈도우 영역의 기울기와 외곽 라운딩 정도를 검출하고, 상기 검출된 기울기와 외곽 라운딩 정도에 기초하여 기하 왜곡 반대 방향으로 역보상을 적용하여 상기 윈도우에 상기 콘텐츠를 조사하는 것을 특징으로 하는 전자 장치. Detecting the detected slope and the degree of outer rounding of the detected window area, and applying inverse compensation in a direction opposite to the geometric distortion based on the detected slope and degree of outer rounding to irradiate the content in the window. .
  7. 제 3 항에 있어서,According to claim 3,
    상기 프로세서는, the processor,
    상기 검출된 윈도우 영역의 기울기와 외곽 라운딩 정도를 검출하고, 기하 왜곡이 미리 설정된 기준값 이하인 영역에 상기 콘텐츠를 축소하여 조사하는 것을 특징으로 하는 전자 장치.The electronic device characterized in that for detecting a slope and an outer rounding degree of the detected window area, and reducing and examining the content in an area having a geometric distortion equal to or less than a preset reference value.
  8. 제 1 항에 있어서,According to claim 1,
    상기 프로세서는, the processor,
    상기 차량의 주행 경로 바닥에 패턴 영상을 조사하도록 프로젝터를 제어하고, 상기 패턴 영상을 촬영하도록 상기 이미징 장치를 제어하여 상기 차량이 정상 진입 하였는지 판단하는 것을 특징으로 하는 전자 장치.The electronic device characterized in that it determines whether the vehicle entered normally by controlling a projector to irradiate a pattern image on the floor of the driving path of the vehicle and controlling the imaging device to capture the pattern image.
  9. 제 1 항에 있어서,According to claim 1,
    상기 프로세서는, the processor,
    랜덤 라디오 주파수를 생성하고, 상기 랜덤 라디오 주파수를 이용하는 라디오 채널을 통해 상기 차량 내의 상기 사용자와 통신하는 전자 장치.An electronic device for generating a random radio frequency and communicating with the user in the vehicle through a radio channel using the random radio frequency.
  10. 제 1 항에 있어서,According to claim 1,
    상기 프로젝터는, the projector,
    상기 차량에 초점 조절을 위한 초점 조절 패턴을 조사하고, 상기 프로세서는 상기 이미징 장치를 통해 패턴을 촬영하여 초점이 정상적으로 설정되었는지 판단하고, 상기 프로젝터가 초점을 조절하도록 제어하는 것을 특징으로 하는 전자 장치.The electronic device according to claim 1 , wherein the vehicle is irradiated with a focus adjustment pattern for focus adjustment, the processor photographs the pattern through the imaging device, determines whether the focus is normally set, and controls the projector to adjust the focus.
  11. 제 1 항에 있어서,According to claim 1,
    상기 프로세서는, the processor,
    상기 이미징 장치를 통해 상기 차량 내부의 오메가 형상을 인식하고, 인식된 상기 오메가 형상을 기초로 상기 사용자의 두상의 위치를 검출하여 상기 프로젝터가 초점을 조절하도록 제어하는 것을 특징으로 하는 전자 장치.The electronic device characterized by recognizing an omega shape inside the vehicle through the imaging device, detecting a position of the user's head based on the recognized omega shape, and controlling the projector to adjust a focus.
  12. 제 1 항에 있어서, According to claim 1,
    상기 프로세서는, the processor,
    상기 이미징 장치를 통해 상기 차량 내부의 오메가 형상을 인식하고, 상기 오메가 형상이 복수개인 것에 기초하여 상기 차량의 윈도우에 복수개의 키오스크 화면을 조사하도록 상기 프로젝터를 제어하는 것을 특징으로 하는 전자 장치.The electronic device characterized by recognizing an omega shape inside the vehicle through the imaging device and controlling the projector to irradiate a plurality of kiosk screens to a window of the vehicle based on the plurality of omega shapes.
  13. 제 1 항에 있어서,According to claim 1,
    상기 프로세서는, the processor,
    상기 사용자가 메뉴 선택을 위한 도구를 상기 메뉴 앞에 미리 정해진 시간 동안 머무는 것을 상기 이미징 장치를 통해 감지한 것에 기초하여 상기 사용자가 메뉴를 선택한 것으로 판단하는 전자 장치.The electronic device that determines that the user has selected a menu based on detecting, through the imaging device, that the user stays in front of the menu for a predetermined time with a tool for selecting the menu.
  14. 제 13 항에 있어서,According to claim 13,
    상기 프로세서는, the processor,
    상기 결정된 메뉴에 대한 정보가 서버로 송신된 것에 기초하여 결제 화면을 상기 차량의 윈도우에 조사하도록 상기 프로젝터를 제어하고, 상기 사용자는 상기 결제 화면을 통해 결제를 진행하는 것을 특징으로 하는 전자 장치.The electronic device characterized in that the projector is controlled to irradiate a payment screen to a window of the vehicle based on the information on the determined menu being transmitted to the server, and the user proceeds with payment through the payment screen.
  15. 이미징 장치, 통신부, 프로젝터를 포함하는 전자 장치의 제어 방법에 있어서,In the control method of an electronic device including an imaging device, a communication unit, and a projector,
    상기 프로젝터가 차량의 주행 경로 바닥에 패턴을 조사하는 단계;irradiating a pattern on the floor of the driving path of the vehicle by the projector;
    상기 이미징 장치가 상기 패턴을 촬영하여 상기 차량이 진입로에 정상 진입 하였는지 판단하는 단계; determining, by the imaging device, whether the vehicle normally enters the access road by photographing the pattern;
    상기 차량의 윈도우로 복수의 메뉴를 포함하는 콘텐츠를 조사하는 단계;examining content including a plurality of menus through a window of the vehicle;
    상기 이미징 장치를 통하여 상기 콘텐츠에 대한 사용자 제스처가 촬영되는 경우 상기 복수의 메뉴 중 상기 사용자 제스처에 대응하는 메뉴를 결정하는 단계; determining a menu corresponding to the user gesture from among the plurality of menus when the user gesture for the content is captured through the imaging device;
    상기 결정된 메뉴에 대한 정보를 서버로 송신하는 단계;를 포함하는 전자 장치의 제어 방법.A control method of an electronic device comprising: transmitting information about the determined menu to a server.
PCT/KR2022/008955 2021-07-16 2022-06-23 Electronic device and control method thereof WO2023287054A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0093643 2021-07-16
KR1020210093643A KR20230012861A (en) 2021-07-16 2021-07-16 Electronic device and control method thereof

Publications (1)

Publication Number Publication Date
WO2023287054A1 true WO2023287054A1 (en) 2023-01-19

Family

ID=84919506

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/008955 WO2023287054A1 (en) 2021-07-16 2022-06-23 Electronic device and control method thereof

Country Status (2)

Country Link
KR (1) KR20230012861A (en)
WO (1) WO2023287054A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080099287A (en) * 2006-02-10 2008-11-12 쓰리엠 이노베이티브 프로퍼티즈 캄파니 Order reception system for a quick service restaurant using multiple wireless communication channels
KR20190079394A (en) * 2017-12-27 2019-07-05 (주) 엔시스텍 Vehicle recognition camera and vehicle recognition system
US20190287159A1 (en) * 2016-05-05 2019-09-19 Conduent Business Services, Llc System and method for lane merge sequencing in drive-thru restaurant applications
KR20190142216A (en) * 2019-06-07 2019-12-26 케이에스아이 주식회사 Vehicle sensing system using deep learning recognition of marking
KR20200055532A (en) * 2018-11-13 2020-05-21 효성티앤에스 주식회사 A virtual keyboard module applied to a drive-thru ATM and the ATM equipped with the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080099287A (en) * 2006-02-10 2008-11-12 쓰리엠 이노베이티브 프로퍼티즈 캄파니 Order reception system for a quick service restaurant using multiple wireless communication channels
US20190287159A1 (en) * 2016-05-05 2019-09-19 Conduent Business Services, Llc System and method for lane merge sequencing in drive-thru restaurant applications
KR20190079394A (en) * 2017-12-27 2019-07-05 (주) 엔시스텍 Vehicle recognition camera and vehicle recognition system
KR20200055532A (en) * 2018-11-13 2020-05-21 효성티앤에스 주식회사 A virtual keyboard module applied to a drive-thru ATM and the ATM equipped with the same
KR20190142216A (en) * 2019-06-07 2019-12-26 케이에스아이 주식회사 Vehicle sensing system using deep learning recognition of marking

Also Published As

Publication number Publication date
KR20230012861A (en) 2023-01-26

Similar Documents

Publication Publication Date Title
KR101107441B1 (en) Entry control system and method for vehicle access control
US5956122A (en) Iris recognition apparatus and method
US10937028B2 (en) Store system, method of controlling the store system, computer program for executing the method, and checkout device
CN100447661C (en) Projection display device
WO2021095916A1 (en) Tracking system capable of tracking movement path of object
WO2009139214A1 (en) Display device and control method
US5912721A (en) Gaze detection apparatus and its method as well as information display apparatus
WO2014106977A1 (en) Head mounted display and method for controlling the same
JP5060622B2 (en) Interaction device for interaction between the screen and the indicator
CN100430959C (en) Biometric based identification device
WO2017078362A1 (en) Vehicle and method for controlling the vehicle
KR101968203B1 (en) Parking lot management system
KR20070109713A (en) Mobile illegal parking control system
EP3746923A1 (en) Electronic device for performing biometric authentication and method of operating the same
WO2019221494A1 (en) Electronic device for performing biometric authentication and method of operating the same
WO2019216673A1 (en) Object guidance system and method for unmanned moving body
KR101596363B1 (en) Access Control Apparatus and Method by Facial Recognition
WO2023287054A1 (en) Electronic device and control method thereof
JP2022103826A (en) Elevator system
WO2023153812A1 (en) Electronic device for detecting object, and control method therefor
WO2020251069A1 (en) Dust measurement device
JP2024175946A (en) Parking Management System
CN118279850A (en) Interaction method, interaction device, electronic equipment and computer readable storage medium
KR200435771Y1 (en) Mobile illegal parking control system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22842316

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22842316

Country of ref document: EP

Kind code of ref document: A1