KR102081340B1 - A plurality of autonomous cleaner and a controlling method for the same - Google Patents
A plurality of autonomous cleaner and a controlling method for the same Download PDFInfo
- Publication number
- KR102081340B1 KR102081340B1 KR1020180084978A KR20180084978A KR102081340B1 KR 102081340 B1 KR102081340 B1 KR 102081340B1 KR 1020180084978 A KR1020180084978 A KR 1020180084978A KR 20180084978 A KR20180084978 A KR 20180084978A KR 102081340 B1 KR102081340 B1 KR 102081340B1
- Authority
- KR
- South Korea
- Prior art keywords
- cleaner
- image
- driving
- ceiling
- robot
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000003287 optical effect Effects 0.000 claims abstract description 88
- 230000008859 change Effects 0.000 claims description 25
- 238000004140 cleaning Methods 0.000 abstract description 68
- 238000004891 communication Methods 0.000 description 43
- 239000000428 dust Substances 0.000 description 39
- 238000001514 detection method Methods 0.000 description 17
- 238000005516 engineering process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 101001095089 Homo sapiens PML-RARA-regulated adapter molecule 1 Proteins 0.000 description 1
- 238000000342 Monte Carlo simulation Methods 0.000 description 1
- 102100037019 PML-RARA-regulated adapter molecule 1 Human genes 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 238000010438 heat treatment Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2805—Parameters or conditions being sensed
- A47L9/281—Parameters or conditions being sensed the amount or condition of incoming dirt or dust
- A47L9/2815—Parameters or conditions being sensed the amount or condition of incoming dirt or dust using optical detectors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0293—Convoy travelling
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1682—Dual arm manipulator; Coordination of several manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
- G05D1/0291—Fleet control
- G05D1/0295—Fleet control by at least one leading vehicle of the fleet
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
Abstract
복수의 로봇 청소기 및 그것의 제어방법이 개시된다. 본 발명은 제1청소기와 제2청소기를 포함하는 복수의 로봇 청소기로서, 제1청소기는 광 모듈을 구비하고, 광 모듈로부터 주행과 관련된 광 신호를 방사하여 천장에 투사하며, 제2청소기는 본체에 구비된 상방 카메라를 이용하여 천장에 투사된 광 신호에 대응되는 이미지를 획득하고, 획득된 이미지를 기초로 제1 청소기의 위치를 인식하여 주행명령을 생성함으로써, 복수의 로봇 청소기가 협업/추종 청소를 수행할 수 있다.A plurality of robot cleaners and control methods thereof are disclosed. The present invention provides a plurality of robot cleaners comprising a first vacuum cleaner and a second vacuum cleaner, wherein the first vacuum cleaner includes an optical module, emits an optical signal related to driving from the optical module, and projects the ceiling cleaner on the ceiling. A plurality of robot cleaners collaborate / follow by acquiring an image corresponding to an optical signal projected on the ceiling by using an upper camera provided in the apparatus, and generating a driving command by recognizing the position of the first cleaner based on the acquired image. Cleaning can be performed.
Description
본 발명은 협업하여 청소를 수행할 수 있는 복수의 로봇 청소기에 관한 것이다. The present invention relates to a plurality of robot cleaners that can perform cleaning in cooperation.
청소기는 먼지와 이물질을 흡입하거나 걸레질을 통하여 청소 기능을 수행하는 장치이다. 일반적으로 청소기는 바닥에 대한 청소 기능을 수행하게 되며, 청소기는 이동을 위한 휠을 포함한다. 일반적으로 휠은 청소기 본체에 가해지는 외력에 의해 굴림되어 청소기 본체를 바닥에 대하여 이동시키도록 이루어진다.A cleaner is a device that performs a cleaning function by inhaling dust and foreign matter or by mopping. In general, the cleaner performs a cleaning function for the floor, and the cleaner includes a wheel for movement. In general, the wheel is rolled by an external force applied to the cleaner body to move the cleaner body relative to the floor.
최근에는 사용자의 조작 없이 스스로 주행하면서 청소를 수행하는 로봇 청소기, 사용자의 조작에 의해 이동되는 노즐을 따라 스스로 이동하는 청소기 등과 같은 로봇 청소기에 대한 연구가 활발해졌다.Recently, research on robot cleaners such as a robot cleaner that performs cleaning while driving by the user without a user's operation and a cleaner that moves itself along a nozzle that is moved by the user's operation has been actively conducted.
이러한 로봇 청소기는 충전 가능한 배터리를 구비하고, 주행 중에 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다. 한편, 청소 영역이 넓은 경우 또는 기능이 서로 상이한 경우(예, 먼지 또는 이물질 흡입을 수행하는 건식 청소기, 걸레질만 수행하는 습식 청소기)에는 여러 대의 로봇 청소기를 동시에 사용할 수 있다. Such a robot cleaner may include a rechargeable battery and include an obstacle sensor that may avoid obstacles while driving, and may clean and run on its own. On the other hand, when the cleaning area is large or the functions are different from each other (for example, a dry cleaner that performs dust or foreign matter suction, a wet cleaner that performs only mopping), several robot cleaners may be used at the same time.
이와 같이 여러 대의 로봇 청소기를 이용한 협업 청소가 효율적으로 이루어지는 위해서는, 복수의 로봇 청소기가 각각 서로의 위치를 파악하고 있어야 할 것이다. 이를 위해, 각각 위치 센서를 구비하여 네트워크 통신 등을 통해 서로 신호를 주고받아야 한다. 하지만, 네트워크 연결이 되지 않는 환경이나 네트워크 연결이 끊어진 경우에는 협업을 위한 위치 정보를 공유할 수 없다는 문제가 있다. As such, in order to efficiently perform collaborative cleaning using a plurality of robot cleaners, a plurality of robot cleaners should be aware of each other's positions. To this end, each position sensor must be provided to exchange signals with each other through network communication. However, there is a problem in that location information for collaboration cannot be shared when the network connection or the network connection is lost.
또한, 복수의 로봇 청소기가 각각 서로 다른 역할을 수행하여 어느 하나가 다른 하나를 추종하며 청소해야 하는 경우(예, 먼지흡입 후 물걸레 청소), 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이 청소해야하는데, 서로의 위치를 놓치게 되면, 네트워크가 다시 연결되더라도 선후 순서가 뒤바뀔 수 있는 문제점도 있다.In addition, when a plurality of robot cleaners play different roles, and one needs to clean one after another (eg, to clean a mop after inhaling dust), the preceding robot cleaner and the following robot cleaner are cleaned without turning back and forth. If you miss each other's location, even if the network is reconnected, there is a problem that the order can be reversed.
이에, 본 발명의 일 목적은, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이, 선행하는 로봇 청소기의 위치를 인식하여 효율적인 추종/협업 청소를 수행할 수 있는 복수의 로봇 청소기 및 그 제어방법을 제공하는데 있다. Accordingly, an object of the present invention is that a plurality of robot cleaners may be equipped with a preceding robot cleaner and a following robot cleaner even in an environment in which the sensors are not mounted or sensors are mounted but network communication is not supported. The present invention provides a plurality of robot cleaners and a control method thereof capable of performing efficient tracking / collaborative cleaning by recognizing a position of a preceding robot cleaner without reversing.
또한, 본 발명의 또 다른 목적은, 선행하는 로봇 청소기가 청소라인을 변경하여 주행하는 경우에도 후행하는 로봇 청소기가 이를 놓치지 않고 추종할 수 있고, 청소라인의 변경 후 효율적인 청소를 위해 복수의 로봇 청소기들의 얼라인 수행이 가능한 복수의 로봇 청소기 및 그 제어방법을 제공하는데 있다.In addition, another object of the present invention, even when the preceding robot cleaner is driving by changing the cleaning line, the following robot cleaner can follow without missing, a plurality of robot cleaner for efficient cleaning after changing the cleaning line The present invention provides a plurality of robot cleaners and their control methods capable of performing the alignment.
본 발명의 일 실시 예에 따른 로봇 청소기는, 제1 청소기와 제2 청소기를 포함하는 복수의 로봇 청소기로서, 광 모듈을 구비하고, 상기 광 모듈로부터 주행과 관련된 광 신호를 방사하여 천장에 투사하는 제1 청소기; 및 본체에 구비된 상방 카메라를 이용하여 상기 천장에 투사된 광 신호에 대응되는 이미지를 획득하고, 획득된 이미지를 기초로 상기 제1 청소기의 위치를 인식하여 주행명령을 생성하는 제2청소기를 포함하는 것을 특징으로 한다.The robot cleaner according to an embodiment of the present invention is a plurality of robot cleaners including a first cleaner and a second cleaner, the robot cleaner including an optical module and emitting light signals related to driving from the optical module to project onto a ceiling. A first cleaner; And a second cleaner for acquiring an image corresponding to the light signal projected on the ceiling by using an upper camera provided in the main body, and generating a driving command by recognizing the position of the first cleaner based on the acquired image. Characterized in that.
또한, 일 실시 예에서, 상기 광 모듈은 상기 제1 청소기의 상방에 위치하고, 복수의 레이저 또는 복수의 LED 로 이루어지는 것을 특징으로 한다.In addition, in one embodiment, the optical module is located above the first cleaner, characterized in that made of a plurality of laser or a plurality of LEDs.
또한, 일 실시 예에서, 상기 광 신호에 대응되는 이미지는 상기 제1 청소기의 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보를 포함하는 정해진 이미지인 것을 특징으로 한다.The image corresponding to the optical signal may be a predetermined image including information related to at least one of the driving state and the driving direction of the first cleaner.
또한, 일 실시 예에서, 상기 제2 청소기에는 상기 광 신호에 대응되는 이미지에 매치되는 주행 상태 및 주행 방향과 관련된 정보가 메모리에 미리 저장되고, 상기 상방 카메라를 통해 획득된 이미지에 매치되는 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보가 메모리로부터 검출되는 것을 특징으로 한다.In addition, according to an embodiment, the second cleaner may store a driving state and a driving direction corresponding to the image corresponding to the optical signal in advance in a memory, and the driving state matches the image acquired through the upper camera. And information related to at least one of the driving directions is detected from the memory.
또한, 일 실시 예에서, 상기 이미지를 형성하는 광 신호의 발광 간격 및 발광 범위 중 적어도 하나를 기초로 상기 제1청소기의 주행속도가 표시되는 것을 특징으로 한다.In an embodiment, the driving speed of the first cleaner may be displayed based on at least one of a light emission interval and a light emission range of the optical signal forming the image.
또한, 일 실시 예에서, 상기 제1청소기의 주행 중 상기 제2청소기가 진입 불가 영역에 진입한 것이 감지되면, 정지명령에 대응되는 광 신호를 천장에 투사하는 것을 특징으로 한다.In addition, when it is detected that the second cleaner enters the inaccessible area while driving the first cleaner, the optical signal corresponding to the stop command may be projected onto the ceiling.
또한, 일 실시 예에서, 상기 제1청소기의 주행라인 변경시, 상기 제1청소기에서는 방향전환과 관련된 이미지가 천장에 투사되도록 상기 광 모듈을 동작하고 소정 시간 동안 상기 제1청소기의 주행을 정지하는 것을 특징으로 한다.In an embodiment, when the driving line of the first cleaner is changed, the first cleaner operates the optical module to project the image related to the change of direction on the ceiling and stops the driving of the first cleaner for a predetermined time. It is characterized by.
또한, 일 실시 예에서, 상기 제2청소기는 상기 방향전환과 관련된 이미지가 획득되면, 획득된 이미지와 이전의 이미지를 기초로 회전하여 주행방향을 변경하고, 상기 소정 시간의 경과에 따라 상기 제1청소기의 주행이 개시되면, 상기 방향전환과 관련된 이미지가 화각범위의 중심에 오도록 상기 제2청소기의 위치를 조절하여 주행하는 것을 특징으로 한다.In addition, in an embodiment, when the image related to the change of direction is obtained, the second vacuum cleaner rotates based on the acquired image and the previous image to change the driving direction, and the first cleaner may elapse according to the elapse of the predetermined time. When the driving of the cleaner is started, the driving apparatus may be adjusted by adjusting the position of the second cleaner so that the image related to the change of direction is at the center of the angle of view range.
또한, 일 실시 예에서, 상기 제1청소기에서 방향전환과 관련된 제1이미지가 천장에 투사되면, 상기 제2청소기에 구비된 광 모듈로부터 정지명령에 대응되는 제2이미지를 천장에 투사하고, 상기 제1청소기에 구비된 상방 카메라를 이용하여 획득된 상기 제2이미지를 기초로 주행정지를 수행하는 것을 특징으로 한다.In an embodiment, when the first image related to the change of direction is projected on the ceiling in the first cleaner, the second image corresponding to the stop command is projected from the optical module provided in the second cleaner to the ceiling, and The driving stop is performed based on the second image obtained by using the upper camera provided in the first cleaner.
또한, 일 실시 예에서, 상기 제1청소기는 상기 제2이미지의 투사가 중단될 때까지 주행을 정지하고, 상기 제1청소기의 방향전환 완료에 따라 상기 제2이미지의 투사가 중단되면, 상기 제2청소기가 상기 제1청소기를 추종하며 상기 제1이미지에 대응되는 방향으로 주행하는 것을 특징으로 한다.Further, in one embodiment, the first cleaner stops driving until projection of the second image is stopped, and when projection of the second image is stopped according to completion of the change of direction of the first cleaner, the first cleaner The cleaner may follow the first cleaner and travel in a direction corresponding to the first image.
또한, 일 실시 예에서, 상기 제2청소기는, 상기 제1이미지에 대응되는 방향으로 주행이 개시되면 제3이미지를 천장에 투사하여 상기 제1청소기에서 방사되는 제1이미지와 얼라인을 수행하는 것을 특징으로 한다.In addition, in an embodiment, when the driving of the second cleaner starts in a direction corresponding to the first image, the second cleaner projects the third image onto the ceiling to perform alignment with the first image emitted from the first cleaner. It is characterized by.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 복수의 로봇 청소기에 의하면, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 천장에 투사된 광 신호에 대응되는 이미지를 획득 및 분석함으로써, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이, 선행하는 로봇 청소기의 위치를 인식하여 효율적인 추종/협업 청소를 수행할 수 있다. As described above, according to the plurality of robot cleaners according to an embodiment of the present invention, a plurality of robot cleaners may not be equipped with sensors for locating each other, or even in an environment in which a sensor is mounted but network communication is not supported. By acquiring and analyzing the image corresponding to the light signal projected on the ceiling, the preceding robot cleaner and the following robot cleaner can recognize the position of the preceding robot cleaner without performing backward and reverse, and perform efficient following / collaborative cleaning. .
또한, 천장에 투사되는 이미지가 화각범위의 특정 위치에 오도록 청소기의 주행을 조절하거나 또는 천장에 투사되는 복수의 서로 다른 이미지들이 서로 중첩되도록 청소기의 주행을 조절함으로써, 선행하는 청소기의 주행경로를 일치되게 추종할 수 있다. In addition, by adjusting the driving of the cleaner so that the image projected on the ceiling is at a specific position of the angle of view range, or by adjusting the driving of the cleaner so that a plurality of different images projected on the ceiling overlap each other, matching the traveling path of the preceding cleaner. Can follow.
도 1은 본 발명에 따른 로봇 청소기의 일 예를 보인 사시도이다.
도 2는 도 1에 도시된 로봇 청소기의 평면도이다.
도 3은 도 1에 도시된 로봇 청소기의 측면도이다.
도 4는 본 발명의 일 실시예에 따른 로봇 청소기의 예시 구성요소를 나타내는 블록도이다.
도 5a는 본 발명의 일 실시예에 따른 복수의 로봇 청소기 간의 비젼 네트워크(vision network)를 도시한 개념도이고, 도 5b는 도 5a의 네트워크 통신와 관련된 다른 예를 도시한 개념도이다.
도 5c는 본 발명의 일 실시예에 따른 복수의 로봇 청소기 간의 추종 제어를 설명하기 위한 도면이다.
도 6은, 본 발명의 일 실시예에 따른 복수의 로봇 청소기가 협업/추종 청소를 위해 천장에 투사된 광 신호에 대응되는 이미지를 기초로 선행 청소기의 위치를 인식하는 방법을 설명하기 개념도이다.
도 7은 도 6에 도시된 개념도를 구체적으로 설명하기 위한 대표 흐름도이다.
도 8a 내지 도 8f는 후행 청소기의 주행명령과 관련하여, 선행 청소기에서 투사되는 주행 상태와 관련된 다양한 투사 이미지들의 예시이다.
도 9 및 도 10는 본 발명의 일 실시예에 따른 복수의 로봇 청소기에서, 선행 청소기에서 주행방향 변경시와 관련된 동작들의 서로 다른 예시를 보여주는 흐름도들이다.
도 11a 내지 11f는 도 10에 도시된 흐름도를 보다 구체적으로 설명하기 위한 동작들의 예시 개념도들이다.1 is a perspective view showing an example of a robot cleaner according to the present invention.
FIG. 2 is a plan view of the robot cleaner shown in FIG. 1.
3 is a side view of the robot cleaner shown in FIG. 1.
4 is a block diagram illustrating exemplary components of a robot cleaner according to an embodiment of the present invention.
FIG. 5A is a conceptual diagram illustrating a vision network between a plurality of robot cleaners according to an embodiment of the present invention, and FIG. 5B is a conceptual diagram illustrating another example related to network communication of FIG. 5A.
5C is a view for explaining tracking control between a plurality of robot cleaners according to an exemplary embodiment.
FIG. 6 is a conceptual view illustrating a method of recognizing a position of a preceding cleaner based on an image corresponding to an optical signal projected on a ceiling by a plurality of robot cleaners according to an embodiment of the present invention.
FIG. 7 is a representative flowchart for explaining the conceptual diagram illustrated in FIG. 6 in detail.
8A to 8F are examples of various projection images related to the driving state projected by the preceding cleaner in relation to the running command of the trailing cleaner.
9 and 10 are flowcharts illustrating different examples of operations associated with changing a driving direction of a preceding cleaner in a plurality of robot cleaners according to an exemplary embodiment of the present invention.
11A through 11F are exemplary conceptual diagrams of operations for describing the flowchart illustrated in FIG. 10 in more detail.
이하, 본 발명에 관련된 로봇 청소기에 대하여 도면을 참조하여 보다 상세하게 설명한다.EMBODIMENT OF THE INVENTION Hereinafter, the robot cleaner which concerns on this invention is demonstrated in detail with reference to drawings.
첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다.DETAILED DESCRIPTION Exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, but the technical terms used herein are merely used to describe specific embodiments and are not intended to limit the spirit of the technology disclosed herein. It should be noted.
도 1은 본 발명에 따른 로봇 청소기(100)의 일 예를 보인 사시도이고, 도 2는 도 1에 도시된 로봇 청소기(100)의 평면도이며, 도 3은 도 1에 도시된 로봇 청소기(100)의 측면도이다.1 is a perspective view showing an example of a
본 명세서에서 이동 로봇, 로봇 청소기 및 자율 주행을 수행하는 청소기가 동일한 의미로 사용될 수 있다. 또한, 본 명세서에서 복수의 청소기는 이하 도 1 내지 도 3에 도시된 구성 중 적어도 일부를 포함하여 이루어질 수 있다.In the present specification, a mobile robot, a robot cleaner, and a cleaner performing autonomous driving may be used in the same sense. Also, in the present specification, the plurality of cleaners may include at least some of the components shown in FIGS. 1 to 3.
도 1 내지 도 3을 참조하면, 로봇 청소기(100)는 일정 영역을 스스로 주행하면서 바닥을 청소하는 기능을 수행한다. 여기서 말하는 바닥의 청소에는, 바닥의 먼지(이물질을 포함한다)를 흡입하거나 바닥을 걸레질하는 것이 포함된다.1 to 3, the
로봇 청소기(100)는 청소기 본체(110), 청소 유닛(120), 센싱 유닛(130) 및 먼지통(140)을 포함할 수 있다. The
청소기 본체(110)에는 로봇 청소기(100)의 제어를 위한 제어부(미도시)를 포함하여 각종 부품들이 내장 또는 장착된다. 또한, 청소기 본체(110)에는 로봇 청소기(100)의 주행을 위한 휠 유닛(111)이 구비된다. 휠 유닛(111)에 의해 로봇 청소기(100)는 전후좌우로 이동되거나 회전될 수 있다. The cleaner
도 3을 참조하면, 휠 유닛(111)은 메인 휠(111a) 및 서브 휠(111b)을 포함한다.Referring to FIG. 3, the
메인 휠(111a)은 청소기 본체(110)의 양측에 각각 구비되어, 제어부의 제어 신호에 따라 일 방향 또는 타 방향으로 회전 가능하게 구성된다. 각각의 메인 휠(111a)은 서로 독립적으로 구동 가능하게 구성될 수 있다. 예를 들어, 각각의 메인 휠(111a)은 서로 다른 모터에 의해서 구동될 수 있다. 또는, 하나의 모터에 구비된 복수의 서로 다른 축에 의해서 구동될 수 있다.The
서브 휠(111b)은 메인 휠(111a)과 함께 청소기 본체(110)를 지지하며, 메인 휠(111a)에 의한 로봇 청소기(100)의 주행을 보조하도록 이루어진다. 이러한 서브 휠(111b)은 후술하는 청소 유닛(120)에도 구비될 수 있다.The
제어부는 휠 유닛(111)의 구동을 제어함으로써, 로봇 청소기(100)는 바닥을 자율 주행하도록 이루어진다.The controller controls the driving of the
한편, 청소기 본체(110)에는 로봇 청소기(100)에 전원을 공급하는 배터리(미도시)가 장착된다. 배터리는 충전 가능하게 구성되며, 청소기 본체(110)의 저면부에 착탈 가능하게 구성될 수 있다.On the other hand, the
도 1에서, 청소 유닛(120)은 청소기 본체(110)의 일측으로부터 돌출된 형태로 배치되어, 먼지가 포함된 공기를 흡입하거나 또는 걸레질을 할 수 있다. 상기 일측은 상기 청소기 본체(110)가 정방향(F)으로 주행하는 측, 즉 청소기 본체(110)의 앞쪽이 될 수 있다.In FIG. 1, the
본 도면에서는, 청소 유닛(120)이 청소기 본체(110)의 일측에서 전방 및 좌우 양측방으로 모두 돌출된 형태를 가지는 것을 보이고 있다. 구체적으로, 청소 유닛(120)의 전단부는 청소기 본체(110)의 일측으로부터 전방으로 이격된 위치에 배치되고, 청소 유닛(120)의 좌우 양단부는 청소기 본체(110)의 일측으로부터 좌우 양측으로 각각 이격된 위치에 배치된다.In this figure, the
청소기 본체(110)가 원형으로 형성되고, 청소 유닛(120)의 후단부 양측이 청소기 본체(110)로부터 좌우 양측으로 각각 돌출 형성됨에 따라, 청소기 본체(110)와 청소 유닛(120) 사이에는 빈 공간, 즉 틈이 형성될 수 있다. 상기 빈 공간은 청소기 본체(110)의 좌우 양단부와 청소 유닛(120)의 좌우 양단부 사이의 공간으로서, 로봇 청소기(100)의 내측으로 리세스된 형태를 가진다.As the
상기 빈 공간에 장애물이 끼이는 경우, 로봇 청소기(100)가 장애물에 걸려 움직이지 못하는 문제가 초래될 수 있다. 이를 방지하기 위하여, 커버부재(129)가 상기 빈 공간의 적어도 일부를 덮도록 배치될 수 있다. If an obstacle is jammed in the empty space, the
커버부재(129)는 청소기 본체(110) 또는 청소 유닛(120)에 구비될 수 있다. 본 실시예에서는, 청소 유닛(120)의 후단부 양측에 각각 커버부재(129)가 돌출 형성되어, 청소기 본체(110)의 외주면을 덮도록 배치된 것을 보이고 있다.The
커버부재(129)는 상기 빈 공간, 즉 청소기 본체(110)와 청소 유닛(120) 간의 빈 공간의 적어도 일부를 메우도록 배치된다. 따라서, 상기 빈 공간에 장애물이 끼이는 것이 방지되거나, 상기 빈 공간에 장애물이 끼이더라도 장애물로부터 용이하게 이탈 가능한 구조가 구현될 수 있다.The
청소 유닛(120)에서 돌출 형성된 커버부재(129)는 청소기 본체(110)의 외주면에 지지될 수 있다. The
만일, 커버부재(129)가 청소기 본체(110)에서 돌출 형성되는 경우라면, 커버부재(129)는 청소 유닛(120)의 후면부에 지지될 수 있다. 상기 구조에 따르면, 청소 유닛(120)이 장애물과 부딪혀 충격을 받았을 때, 그 충격의 일부가 청소기 본체(110)로 전달되어 충격이 분산될 수 있다.If the
청소 유닛(120)은 청소기 본체(110)에 착탈 가능하게 결합될 수 있다. 청소 유닛(120)이 청소기 본체(110)로 분리되면, 분리된 청소 유닛(120)을 대체하여 걸레 모듈(미도시)이 청소기 본체(110)에 착탈 가능하게 결합될 수 있다. The
따라서, 사용자는 바닥의 먼지를 제거하고자 하는 경우에는 청소기 본체(110)에 청소 유닛(120)을 장착하고, 바닥을 닦고자 하는 경우에는 청소기 본체(110)에 걸레 모듈을 장착할 수 있다.Accordingly, the user may mount the
청소 유닛(120)이 청소기 본체(110)에 장착시, 상술한 커버부재(129)에 의해 상기 장착이 가이드될 수 있다. 즉, 커버부재(129)가 청소기 본체(110)의 외주면을 덮도록 배치됨으로써, 청소기 본체(110)에 대한 청소 유닛(120)의 상대적 위치가 결정될 수 있다.When the
청소 유닛(120)에는 캐스터(castor, 123)가 구비될 수 있다. 캐스터(123)는 로봇 청소기(100)의 주행을 보조하고, 또한 로봇 청소기(100)를 지지하도록 이루어진다.The
청소기 본체(110)에는 센싱 유닛(130)이 배치된다. 도시된 바와 같이, 센싱 유닛(130)은 청소 유닛(120)이 위치하는 청소기 본체(110)의 일측, 즉 청소기 본체(110)의 앞쪽에 배치될 수 있다.The
센싱 유닛(130)은 청소기 본체(110)의 상하 방향으로 청소 유닛(120)과 오버랩되도록 배치될 수 있다. 센싱 유닛(130)은 청소 유닛(120)의 상부에 배치되어, 로봇 청소기(100)의 가장 앞쪽에 위치하는 청소 유닛(120)이 장애물과 부딪히지 않도록 전방의 장애물이나 지형지물 등을 감지하도록 이루어진다. The
센싱 유닛(130)은 이러한 감지 기능 외의 다른 센싱 기능을 추가로 수행하도록 구성될 수 있다.The
예로써, 센싱 유닛(130)은 주변의 영상을 획득하기 위한 카메라(131)를 포함할 수 있다. 카메라(131)는 렌즈와 영상 센서(image sensor)를 포함할 수 있다. 또한, 카메라(131)는 청소기 본체(110) 주변의 영상을 제어부가 처리할 수 있는 전기적 신호로 변환하며, 예를 들어 상방 영상에 대응되는 전기적 신호를 제어부에 전달할 수 있다. 상방 영상에 대응되는 전기적 신호는 상기 제어부가 청소기 본체(110)의 위치를 검출하는데 사용될 수 있다.For example, the
또한, 센싱 유닛(130)은 로봇 청소기(100)의 주행 면상 또는 주행 경로 상의 벽체, 가구, 및 낭떠러지 등의 장애물을 감지할 수 있다. 또한, 센싱 유닛(130)은 배터리 충전을 수행하는 도킹 기기의 존재를 감지할 수 있다. 또한, 센싱 유닛(130)은 천장 정보를 감지하여서, 로봇 청소기(100)의 주행 구역 또는 청소 구역을 맵핑(Mapping)할 수 있다.In addition, the
청소기 본체(110)에는 흡입된 공기 중의 먼지를 분리하여 집진하는 먼지통(140)이 착탈 가능하게 결합된다. The
또한, 먼지통(140)에는 먼지통(140)을 덮는 먼지통 덮개(150)가 구비된다. 일 실시예로, 먼지통 덮개(150)는 청소기 본체(110)에 힌지 결합되어 회동 가능하게 구성될 수 있다. 먼지통 덮개(150)는 먼지통(140) 또는 청소기 본체(110)에 고정되어 먼지통(140)의 상면을 덮은 상태를 유지할 수 있다. 먼지통 덮개(150)가 먼지통(140)의 상면을 덮도록 배치된 상태에서는, 먼지통 덮개(150)에 의해 먼지통(140)이 청소기 본체(110)로부터 분리되는 것이 방지될 수 있다. In addition, the
먼지통(140)의 일부는 먼지통 수용부(113)에 수용되되, 먼지통(140)의 다른 일부는 청소기 본체(110)의 후방(즉, 정방향(F)에 반대되는 역방향(R))을 향하여 돌출되게 형성될 수 있다.A part of the
먼지통(140)에는 먼지가 포함된 공기가 유입되는 입구와 먼지가 분리된 공기가 배출되는 출구가 형성되며, 청소기 본체(110)에 먼지통(140)의 장착시 상기 입구와 출구는 본체(110)의 내측벽에 형성된 개구(155)를 통해 연통되도록 구성된다. 이에 의하여, 청소기 본체(110) 내부의 흡기유로와 배기유로가 형성될 수 있다. The
이러한 연결관계에 따라, 청소 유닛(120)을 통하여 유입된 먼지가 포함된 공기는 청소기 본체(110) 내부의 흡기유로를 거쳐, 먼지통(140)으로 유입되고, 먼지통(140)의 필터 내지는 사이클론을 거치면서 공기와 먼지가 상호 분리된다. 먼지는 먼지통(140)에 집진되며, 공기는 먼지통(140)에서 배출된 후 청소기 본체(110) 내부의 배기유로를 거쳐 최종적으로 배기구(112)를 통하여 외부로 배출된다.According to this connection relationship, the air containing the dust introduced through the
이하의 도 4에서는 로봇 청소기(100)의 구성요소와 관련된 일 실시예가 설명된다.In the following FIG. 4, an embodiment related to the components of the
본 발명의 일 실시 예에 따른 로봇 청소기(100) 또는 이동 로봇은, 통신부(1100), 입력부(1200), 주행부(1300), 센싱부(1400), 출력부(1500), 전원부(1600), 메모리(1700), 제어부(1800), 청소부(1900) 중 적어도 하나 또는 이들의 조합을 포함할 수 있다.
이때, 도 4에 도시한 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 로봇 청소기가 구현될 수 있음은 물론이다. 또한, 전술한 바와 같이, 본 발명에서 설명되는 복수의 로봇 청소기는 이하에서 설명된 구성요소들 중 일부만 동일한 구성요소를 포함할 수 있다. 즉, 복수의 로봇 청소기가 각각 서로 다른 구성요소로 이루어질 수 있다. In this case, the components shown in FIG. 4 are not essential, and thus, a robot cleaner having more or fewer components may be implemented. In addition, as described above, the plurality of robot cleaners described in the present invention may include only the same components as some of the components described below. That is, the plurality of robot cleaners may be formed of different components, respectively.
이하, 각 구성요소들에 대해 살펴보기로 한다.Hereinafter, each component will be described.
우선, 전원부(1600)는 외부 상용 전원에 의해 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원부(1600)는 이동 로봇에 포함된 각 구성들에 구동 전원을 공급하여, 이동 로봇이 주행하거나 특정 기능을 수행하는데 요구되는 동작 전원을 공급할 수 있다.First, the
이때, 제어부(1800)는 배터리의 전원 잔량을 감지하고, 전원 잔량이 부족하면 외부 상용 전원과 연결된 충전대로 이동하도록 제어하여, 충전대로부터 충전 전류를 공급받아 배터리를 충전할 수 있다. 배터리는 배터리 감지부와 연결되어 배터리 잔량 및 충전 상태가 제어부(1800)에 전달될 수 있다. 출력부(1500)은 제어부에 의해 상기 배터리 잔량을 출력부(1500)에 표시할 수 있다.At this time, the
배터리는 로봇 청소기 중앙의 하부에 위치할 수도 있고, 좌, 우측 중 어느 한쪽에 위치할 수도 있다. 후자의 경우, 이동 로봇은 배터리의 무게 편중을 해소하기 위해 균형추를 더 구비할 수 있다.The battery may be located at the bottom of the center of the robot cleaner, or may be located at either the left or the right. In the latter case, the mobile robot may further comprise a counterweight to eliminate the weight bias of the battery.
제어부(1800)는, 인공 지능 기술에 기반하여 정보들을 처리하는 역할을 수행하는 것으로, 정보의 학습, 정보의 추론, 정보의 지각, 자연 언어의 처리 중 적어도 하나를 수행하는 하나 이상의 모듈을 포함할 수 있다.The
제어부(1800)는 머신 러닝(machine running) 기술을 이용하여, 청소기 내에 저장된 정보, 이동 단말기 주변의 환경 정보, 통신 가능한 외부 저장소에 저장된 정보 등 방대한 양의 정보(빅데이터, big data)를 학습, 추론, 처리 중 적어도 하나를 수행할 수 있다. 그리고, 제어부(1800)는 상기 머신 러닝 기술을 이용하여 학습된 정보들을 이용하여, 실행 가능한 적어도 하나의 청소기의 동작을 예측(또는 추론)하고, 상기 적어도 하나의 예측된 동작들 중 실현성이 가장 높은 동작이 실행되도록 청소기를 제어할 수 있다. The
머신 러닝 기술은 적어도 하나의 알고리즘에 근거하여, 대규모의 정보들을 수집 및 학습하고, 학습된 정보를 바탕으로 정보를 판단 및 예측하는 기술이다. 정보의 학습이란 정보들의 특징, 규칙, 판단 기준 등을 파악하여, 정보와 정보 사이의 관계를 정량화하고, 정량화된 패턴을 이용하여 새로운 데이터들을 예측하는 동작이다. Machine learning technology is a technology that collects and learns a large amount of information based on at least one algorithm, and determines and predicts information based on the learned information. Learning information is an operation of grasping characteristics, rules, and judgment criteria of information, quantifying the relationship between information, and predicting new data using the quantized pattern.
머신 러닝 기술이 사용하는 알고리즘은 통계학에 기반한 알고리즘이 될 수 있으며, 예를 들어, 트리 구조 형태를 예측 모델로 사용하는 의사 결정 나무(decision tree), 생물의 신경 네트워크 구조와 기능을 모방하는 인공 신경망(neural network), 생물의 진화 알고리즘에 기반한 유전자 프로그래밍(genetic programming), 관측된 예를 군집이라는 부분집합으로 분배하는 군집화(Clustering), 무작위로 추출된 난수를 통해 함수값을 확률로 계산하는 몬테카를로 방법(Monter carlo method) 등이 될 수 있다. The algorithms used by machine learning technology can be algorithms based on statistics, for example, decision trees that use tree structure forms as predictive models, artificial neural networks that mimic the structure and function of neural networks of living things. (neural network), genetic programming based on biological evolution algorithms, clustering that distributes observed examples into subsets of clusters, and Monte Carlo methods that compute function values randomly from randomly extracted random numbers. (Monter carlo method) and the like.
머신 러닝 기술의 한 분야로써, 딥러닝 기술은 인공 신경망(Deap Neuron Network, DNN) 알고리즘을 이용하여, 정보들을 학습, 판단, 처리 중 적어도 하나를 수행하는 기술이다. 인공 신경망(DNN)은 레이어와 레이어 사이를 연결하고, 레이어와 레이어 사이의 데이터를 전달하는 구조를 가질 수 있다. 이러한 딥러닝 기술은 병렬 연산에 최적화된 GPU(graphic processing unit)를 이용하여 인공 신경망(DNN)을 통하여 방대한 양의 정보를 학습할 수 있다.As a field of machine learning technology, deep learning technology is a technology that performs at least one of learning, determining, and processing information by using a Deap Neuron Network (DNN) algorithm. The artificial neural network (DNN) may have a structure that connects between layers and transfers data between layers. Such deep learning technology can learn a huge amount of information through an artificial neural network (DNN) using a graphic processing unit (GPU) optimized for parallel computing.
제어부(1800)는 외부의 서버 또는 메모리에 저장된 트레이닝 데이터를 이용하며, 소정의 물체를 인식하기 위한 특징을 검출하는 학습 엔진을 탑재할 수 있다. 이때, 물체를 인식하기 위한 특징에는 물체의 크기, 형태 및 음영 등을 포함할 수 있다.The
구체적으로, 제어부(1800)는 청소기에 구비된 카메라를 통해 획득된 영상 중 일부를 학습 엔진에 입력하면, 상기 학습 엔진은 입력된 영상에 포함된 적어도 하나의 사물 또는 생명체를 인식할 수 있다.In detail, when the
이와 같이, 학습 엔진을 청소기의 주행에 적용하는 경우, 제어부(1800)는 청소기의 주행에 방해되는 의자 다리, 선풍기, 특정 형태의 발코니 틈과 같은 장애물이 청소기 주변에 존재하는지 여부를 인식할 수 있으므로, 청소기 주행의 효율 및 신뢰도를 높일 수 있다.As such, when the learning engine is applied to the driving of the cleaner, the
한편, 위와 같은 학습 엔진은 제어부(1800)에 탑재될 수도 있고, 외부 서버에 탑재될 수도 있다. 학습 엔진이 외부 서버에 탑재된 경우, 제어부(1800)는 분석의 대상인 적어도 하나의 영상을 상기 외부 서버로 전송하도록 통신부(1100)를 제어할 수 있다.On the other hand, the learning engine as described above may be mounted on the
외부 서버는 청소기로부터 전송받은 영상을 학습 엔진에 입력함으로서, 해당 영상에 포함된 적어도 하나의 사물 또는 생명체를 인식할 수 있다. 아울러, 외부 서버는 인식결과와 관련된 정보를 다시 청소기로 전송할 수 있다. 이때, 인식결과와 관련된 정보는 분석의 대상인 영상에 포함된 객체의 개수, 각 개체의 이름과 관련된 정보를 포함할 수 있다.The external server may recognize at least one object or life included in the image by inputting the image received from the cleaner to the learning engine. In addition, the external server may transmit information related to the recognition result back to the cleaner. In this case, the information related to the recognition result may include the number of objects included in the image to be analyzed and information related to the name of each object.
한편, 주행부(1300)는 모터를 구비하여, 상기 모터를 구동함으로써, 좌, 우측 주바퀴를 양 방향으로 회전시켜 본체를 회전 또는 이동시킬 수 있다. 이때, 상기 좌, 우측 주바퀴는 독립적으로 움직일 수 있다. 주행부(1300)는 이동 로봇의 본체를 전후좌우로 진행시키거나, 곡선주행시키거나, 제자리 회전시킬 수 있다.On the other hand, the
한편, 입력부(1200)는 사용자로부터 로봇 청소기에 대한 각종 제어 명령을 입력받는다. 입력부(1200)는 하나 이상의 버튼을 포함할 수 있고, 예를 들어, 입력부(1200)는 확인버튼, 설정버튼 등을 포함할 수 있다. 확인버튼은 감지 정보, 장애물 정보, 위치 정보, 맵 정보를 확인하는 명령을 사용자로부터 입력받기 위한 버튼이고, 설정버튼은 상기 정보들을 설정하는 명령을 사용자로부터 입력받기 위한 버튼이다. The
또한, 입력부(1200)는 이전 사용자 입력을 취소하고 다시 사용자 입력을 받기 위한 입력재설정버튼, 기 설정된 사용자 입력을 삭제하기 위한 삭제버튼, 작동 모드를 설정하거나 변경하는 버튼, 충전대로 복귀하도록 하는 명령을 입력받는 버튼 등을 포함할 수 있다.In addition, the
또한, 입력부(1200)는 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력부(1200)는 출력부(1500)와 함께 터치 스크린의 형태를 가질 수 있다. In addition, the
한편, 출력부(1500)는, 이동 로봇의 상부에 설치될 수 있다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력부(1500)는 배터리 상태 또는 주행 방식 등을 화면에 표시할 수 있다.On the other hand, the
또한, 출력부(1500)는, 센싱부(1400)가 검출한 이동 로봇 내부의 상태 정보, 예를 들어 이동 로봇에 포함된 각 구성들의 현재 상태를 출력할 수 있다. 또, 출력부(1500)는 센싱부(1400)가 검출한 외부의 상태 정보, 장애물 정보, 위치 정보, 지도 정보 등을 화면에 디스플레이할 수 있다. 출력부(1500)는 발광 다이오드(Light Emitting Diode; LED), 액정 표시 장치(Liquid Crystal Display; LCD), 플라즈마 표시 패널(Plasma Display Panel), 유기 발광 다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.In addition, the
출력부(1500)는, 제어부(1800)에 의해 수행되는 이동 로봇의 동작 과정 또는 동작 결과를 청각적으로 출력하는 음향 출력 수단을 더 포함할 수 있다. 예를 들어, 출력부(1500)는 제어부(1800)에 의해 생성된 경고 신호에 따라 외부에 경고음을 출력할 수 있다.The
이때, 음향 출력 수단(미도시)은 비퍼(beeper), 스피커 등의 음향을 출력하는 수단일 수 있고, 출력부(1500)는 메모리(1700)에 저장된 소정의 패턴을 가진 오디오 데이터 또는 메시지 데이터 등을 이용하여 음향 출력 수단을 통해 외부로 출력할 수 있다.In this case, the sound output means (not shown) may be a means for outputting sounds such as a beeper and a speaker, and the
따라서, 본 발명의 일 실시예에 따른 이동 로봇은, 출력부(1500)를 통해 주행 영역에 대한 환경 정보를 화면에 출력하거나 음향으로 출력할 수 있다. 또 다른 실시예에 따라, 이동 로봇은 출력부(1500)를 통해 출력할 화면이나 음향을 단말 장치가 출력하도록, 지도 정보 또는 환경 정보를 통신부(1100)릍 통해 단말 장치에 전송할 수 있다.Therefore, the mobile robot according to an embodiment of the present invention may output the environmental information about the driving area on the screen or output the sound through the
메모리(1700)는 로봇 청소기를 제어 또는 구동하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 메모리(1700)는 오디오 정보, 영상 정보, 장애물 정보, 위치 정보, 지도 정보 등을 저장할 수 있다. 또, 메모리(1700)는 주행 패턴과 관련된 정보를 저장할 수 있다.The
상기 메모리(1700)는 비휘발성 메모리를 주로 사용한다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지할 수 있는 저장 장치로서, 일 예로, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브, 마그네틱 RAM, PRAM 등일 수 있다.The
한편, 센싱부(1400)는, 외부 신호 감지 센서, 전방 감지 센서, 낭떠러지 감지 센서, 2차원 카메라 센서 및 3차원 카메라 센서 중 적어도 하나를 포함할 수 있다.The
외부 신호 감지 센서는 이동 로봇의 외부 신호를 감지할 수 있다. 외부 신호 감지 센서는, 일 예로, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있다.The external signal sensor may detect an external signal of the mobile robot. The external signal detection sensor may be, for example, an infrared ray sensor, an ultrasonic sensor, an RF sensor, or the like.
이동 로봇은 외부 신호 감지 센서를 이용하여 충전대가 발생하는 안내 신호를 수신하여 충전대의 위치 및 방향을 확인할 수 있다. 이때, 충전대는 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신할 수 있다. 즉, 이동 로봇은 충전대로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전대로 복귀할 수 있다.The mobile robot can check the position and direction of the charging station by receiving a guide signal generated by the charging station using an external signal detection sensor. At this time, the charging station may transmit a guide signal indicating the direction and distance so that the mobile robot can return. That is, the mobile robot may receive a signal from the charging station to determine the current position and set the direction of movement to return to the charging station.
한편, 전방 감지 센서는, 이동 로봇의 전방, 구체적으로 이동 로봇의 측면 외주면을 따라 일정 간격으로 설치될 수 있다. 전방 감지 센서는 이동 로봇의 적어도 일 측면에 위치하여, 전방의 장애물을 감지하기 위한 것으로서, 전방 감지 센서는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어부(1800)에 전달할 수 있다. 즉, 전방 감지 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(1800)에 전달할 수 있다.On the other hand, the front sensor may be installed at a predetermined interval along the front of the mobile robot, specifically the side outer peripheral surface of the mobile robot. The front sensor is located on at least one side of the mobile robot to detect an obstacle in front of the mobile robot, and the front sensor detects an object in the moving direction of the mobile robot, in particular, an obstacle and transmits the detection information to the
전방 감지 센서는, 일 예로, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있고, 이동 로봇은 전방 감지 센서로 한 가지 종류의 센서를 사용하거나 필요에 따라 두 가지 종류 이상의 센서를 함께 사용할 수 있다.The front sensing sensor may be, for example, an infrared sensor, an ultrasonic sensor, an RF sensor, a geomagnetic sensor, and the like, and the mobile robot may use one type of sensor as the front sensing sensor or two or more types of sensors as needed. have.
일 예로, 초음파 센서는 일반적으로 원거리의 장애물을 감지하는 데에 주로 사용될 수 있다. 초음파 센서는 발신부와 수신부를 구비하여, 제어부(1800)는 발신부를 통해 방사된 초음파가 장애물 등에 의해 반사되어 수신부에 수신되는 지의 여부로 장애물의 존부를 판단하고, 초음파 방사 시간과 초음파 수신 시간을 이용하여 장애물과의 거리를 산출할 수 있다.For example, the ultrasonic sensor may generally be mainly used to detect a long distance obstacle. The ultrasonic sensor includes a transmitter and a receiver, and the
또한, 제어부(1800)는 발신부에서 방사된 초음파와, 수신부에 수신되는 초음파를 비교하여, 장애물의 크기와 관련된 정보를 검출할 수 있다. 예를 들어, 제어부(1800)는 수신부에 더 많은 초음파가 수신될수록, 장애물의 크기가 큰 것으로 판단할 수 있다.In addition, the
일 실시 예에서, 복수(일 예로, 5개)의 초음파 센서가 이동 로봇의 전방 측면에 외주면을 따라 설치될 수 있다. 이때, 바람직하게 초음파 센서는 발신부와 수신부가 교대로 이동 로봇의 전면에 설치될 수 있다.In one embodiment, a plurality (eg, five) ultrasonic sensors may be installed along the outer circumferential surface of the front side of the mobile robot. In this case, the ultrasonic sensor may be installed on the front of the mobile robot alternately the transmitter and the receiver.
즉, 발신부는 본체의 전면 중앙으로부터 좌, 우측에 이격되도록 배치될 수 있고, 수신부의 사이에 하나 또는 둘 이상의 발신부가 배치되어 장애물 등으로부터 반사된 초음파 신호의 수신 영역을 형성할 수 있다. 이와 같은 배치로 센서의 수를 줄이면서 수신 영역을 확장할 수 있다. 초음파의 발신 각도는 크로스토크(crosstalk) 현상을 방지하도록 서로 다른 신호에 영향을 미치지 아니하는 범위의 각을 유지할 수 있다. 또한, 수신부들의 수신 감도는 서로 다르게 설정될 수 있다.That is, the transmitter may be disposed to be spaced apart from the center of the front of the main body to the left and right, and one or more transmitters may be disposed between the receivers to form a reception area of the ultrasonic signal reflected from an obstacle or the like. This arrangement allows the receiving area to be extended while reducing the number of sensors. The transmission angle of the ultrasonic waves may maintain an angle in a range that does not affect the different signals to prevent crosstalk. In addition, the reception sensitivity of the receivers may be set differently.
또한, 초음파 센서에서 발신되는 초음파가 상향으로 출력되도록 초음파 센서는 일정 각도만큼 상향으로 설치될 수 있고, 이때, 초음파가 하향으로 방사되는 것을 방지하기 위해 소정의 차단 부재를 더 포함할 수 있다.In addition, the ultrasonic sensor may be installed upward by a predetermined angle so that the ultrasonic wave transmitted from the ultrasonic sensor is output upward, and may further include a predetermined blocking member to prevent the ultrasonic wave from being radiated downward.
한편, 전방 감지 센서는, 전술한 바와 같이, 두 가지 종류 이상의 센서를 함께 사용할 수 있고, 이에 따라, 전방 감지 센서는 적외선 센서, 초음파 센서, RF 센서 등 중 어느 한 가지 종류의 센서를 사용할 수 있다.Meanwhile, as described above, the front sensor may use two or more types of sensors together, and accordingly, the front sensor may use any one type of sensor, such as an infrared sensor, an ultrasonic sensor, or an RF sensor. .
일 예로, 전방 감지 센서는 초음파 센서 이외에 다른 종류의 센서로 적외선 센서를 포함할 수 있다.For example, the front sensing sensor may include an infrared sensor as another type of sensor in addition to the ultrasonic sensor.
적외선 센서는 초음파 센서와 함께 이동 로봇의 외주면에 설치될 수 있다. 적외선 센서 역시, 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어부(1800)에 전달할 수 있다. 즉, 적외선 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어부(1800)에 전달한다. 따라서, 이동 로봇은 본체가 장애물과의 충돌없이 특정 영역 내에서 이동할 수 있다.The infrared sensor may be installed on the outer circumferential surface of the mobile robot together with the ultrasonic sensor. The infrared sensor may also detect obstacles present in the front or side and transmit the obstacle information to the
한편, 낭떠러지 감지 센서(또는 클리프 센서(Cliff Sensor))는, 다양한 형태의 광 센서를 주로 이용하여, 이동 로봇의 본체를 지지하는 바닥의 장애물을 감지할 수 있다.Meanwhile, the cliff detection sensor (or the cliff sensor) may mainly detect various obstacles on the floor supporting the main body of the mobile robot by using various types of optical sensors.
즉, 낭떠러지 감지 센서는, 바닥의 이동 로봇의 배면에 설치되되, 이동 로봇의 종류에 따라 다른 위치에 설치될 수 있음은 물론이다. 낭떠러지 감지 센서는 이동 로봇의 배면에 위치하여, 바닥의 장애물을 감지하기 위한 것으로서, 낭떠러지 감지 센서는 상기 장애물 감지 센서와 같이 발광부와 수광부를 구비한 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Detector) 센서 등일 수 있다.That is, the cliff detection sensor is installed on the back of the mobile robot on the floor, of course, may be installed in different positions according to the type of mobile robot. The cliff detection sensor is located on the back of the mobile robot and is used to detect obstacles on the floor. The cliff detection sensor is an infrared sensor, a light emitting unit and a light receiving unit, an ultrasonic sensor, an RF sensor, and a PSD (Position). Sensitive Detector) sensor or the like.
일 예로, 낭떠러지 감지 센서 중 어느 하나는 이동 로봇의 전방에 설치되고, 다른 두 개의 낭떠러지 감지 센서는 상대적으로 뒤쪽에 설치될 수 있다.For example, one of the cliff detection sensors may be installed at the front of the mobile robot, and the other two cliff detection sensors may be installed at the rear.
예를 들어, 낭떠러지 감지 센서는 PSD 센서일 수 있으나, 복수의 서로 다른 종류의 센서로 구성될 수도 있다.For example, the cliff detection sensor may be a PSD sensor but may be configured of a plurality of different types of sensors.
PSD 센서는 반도체 표면저항을 이용해서 1개의 p-n접합으로 입사광의 단장거리 위치를 검출한다. PSD 센서에는 일축 방향만의 광을 검출하는 1차원 PSD 센서와, 평면상의 광위치를 검출할 수 있는 2차원 PSD 센서가 있으며, 모두 pin 포토 다이오드 구조를 가질 수 있다. PSD 센서는 적외선 센서의 일종으로서, 적외선을 이용하여, 적외선을 송신한 후 장애물에서 반사되어 돌아오는 적외선의 각도를 측정하여 거리를 측정한다. 즉, PSD 센서는 삼각측량방식을 이용하여, 장애물과의 거리를 산출한다. The PSD sensor uses a semiconductor surface resistance to detect the short and long distance positions of incident light by one p-n junction. The PSD sensor includes a one-dimensional PSD sensor that detects light in only one axis direction and a two-dimensional PSD sensor that can detect a light position on a plane, and both may have a pin photodiode structure. PSD sensor is a type of infrared sensor, and uses infrared light to measure the distance by measuring the angle of the infrared ray reflected from the obstacle after transmitting the infrared ray. That is, the PSD sensor calculates the distance to the obstacle by using a triangulation method.
PSD 센서는 장애물에 적외선을 발광하는 발광부와, 장애물로부터 반사되어 돌아오는 적외선을 수광하는 수광부를 구비하되, 일반적으로 모듈 형태로 구성된다. PSD 센서를 이용하여, 장애물을 감지하는 경우, 장애물의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있다.The PSD sensor includes a light emitting unit for emitting infrared rays to an obstacle and a light receiving unit for receiving infrared rays reflected from the obstacle and is generally configured in a module form. When the obstacle is detected using the PSD sensor, a stable measurement value can be obtained regardless of the difference in reflectance and color of the obstacle.
청소부(1900)는 제어부(1800)로부터 전달되는 제어명령에 따라, 지정된 청소 영역을 청소한다. 청소부(1900)는 지정된 청소 영역의 먼지를 비산시키는 브러쉬(미도시)를 통해 주변의 먼지를 비산시킨 다음, 흡입 팬 및 흡입 모터를 구동하여 비산된 먼지를 흡입한다. 또한, 청소부(1900)는 구성의 교체에 따라 지정된 청소 영역에 걸레질을 수행할 수도 있다.The
또한, 제어부(1800)는 낭떠러지 감지 센서가 지면을 향해 발광한 적외선의 발광신호와 장애물에 의해 반사되어 수신되는 반사신호 간의 적외선 각도를 측정하여, 낭떠러지를 감지하고 그 깊이를 분석할 수 있다.In addition, the
한편, 제어부(1800)는 낭떠러지 감지 센서를 이용하여 감지한 낭떠러지의 지면 상태에 따라 통과 여부를 판단할 수 있고, 판단 결과에 따라 낭떠러지의 통과 여부를 결정할 수 있다. 예를 들어, 제어부(1800)은 낭떠러지 감지 센서를 통해 낭떠러지의 존재 여부 및 낭떠러지 깊이를 판단한 다음, 낭떠러지 감지 센서를 통해 반사 신호를 감지한 경우에만 낭떠러지를 통과하도록 한다.On the other hand, the
다른 예로, 제어부(1800)은 낭떠러지 감지 센서를 이용하여 이동 로봇의 들림 현상을 판단할 수도 있다.As another example, the
한편, 2차원 카메라 센서는, 이동 로봇의 일면에 구비되어, 이동 중 본체 주변과 관련된 이미지 정보를 획득한다.On the other hand, the two-dimensional camera sensor is provided on one surface of the mobile robot, and acquires image information related to the surroundings of the main body during movement.
옵티컬 플로우 센서(Optical Flow Sensor)는, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 생성된 영상 데이터는 메모리(1700)에 저장될 수 있다.An optical flow sensor converts a downward image input from an image sensor provided in the sensor to generate image data of a predetermined format. The generated image data may be stored in the
또한, 하나 이상의 광원이 옵티컬 플로우 센서에 인접하여 설치될 수 있다. 하나 이상의 광원은, 이미지 센서에 의해 촬영되는 바닥면의 소정 영역에 빛을 조사한다. 즉, 이동 로봇이 바닥면을 따라 특정 영역을 이동하는 경우에, 바닥면이 평탄하면 이미지 센서와 바닥면 사이에는 일정한 거리가 유지된다. 반면, 이동 로봇이 불균일한 표면의 바닥면을 이동하는 경우에는 바닥면의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 하나 이상의 광원은 조사되는 빛의 양을 조절하도록 제어부(1800)에 의해 제어될 수 있다. 상기 광원은 광량 조절이 가능한 발광 소자, 예를 들어 LED(Light Emitting Diode) 등일 수 있다.In addition, one or more light sources may be installed adjacent to the optical flow sensor. The one or more light sources irradiate light to a predetermined area of the bottom surface photographed by the image sensor. That is, when the mobile robot moves a specific area along the bottom surface, if the bottom surface is flat, a constant distance is maintained between the image sensor and the bottom surface. On the other hand, when the mobile robot moves the bottom surface of the non-uniform surface, the robot moves away by a certain distance due to irregularities and obstacles on the bottom surface. In this case, one or more light sources may be controlled by the
옵티컬 플로우 센서를 이용하여, 제어부(1800)는 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어부(1800)은 옵티컬 플로우 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이를 근거로 이동 로봇의 위치를 산출할 수 있다. 옵티컬 플로우 센서를 이용하여 이동 로봇의 하방에 대한 이미지 정보를 이용함으로써, 제어부(1800)는 다른 수단에 의해 산출한 이동 로봇의 위치에 대하여 미끄러짐에 강인한 보정을 할 수 있다.Using the optical flow sensor, the
3차원 카메라 센서는 이동 로봇의 본체 일면 또는 일부분에 부착되어, 상기 본체의 주위와 관련된 3차원 좌표 정보를 생성할 수 있다.The 3D camera sensor may be attached to one side or a part of the main body of the mobile robot to generate 3D coordinate information related to the periphery of the main body.
즉, 3차원 카메라 센서는 이동 로봇과 피촬영 대상체의 원근거리를 산출하는 3차원 뎁스 카메라(3D Depth Camera)일 수 있다.That is, the 3D camera sensor may be a 3D depth camera that calculates a distance between the mobile robot and the object to be photographed.
구체적으로, 3차원 카메라 센서는 본체의 주위와 관련된 2차원 영상을 촬영할 수 있으며, 촬영된 2차원 영상에 대응되는 복수의 3차원 좌표 정보를 생성할 수 있다.In detail, the 3D camera sensor may capture a 2D image related to the circumference of the main body, and generate a plurality of 3D coordinate information corresponding to the captured 2D image.
일 실시예에서 3차원 카메라 센서는 기존의 2차원 영상을 획득하는 카메라를 2개 이상 구비하여, 상기 2개 이상의 카메라에서 획득되는 2개 이상의 영상을 조합하여, 3차원 좌표 정보를 생성하는 스테레오 비전 방식으로 형성될 수 있다.In one embodiment, the three-dimensional camera sensor includes two or more cameras for acquiring a conventional two-dimensional image, and combines two or more images obtained from the two or more cameras to generate three-dimensional coordinate information. Can be formed in a manner.
구체적으로, 상기 실시예에 따른 3차원 카메라 센서는 본체의 전방을 향해 하측으로 제1 패턴의 광을 조사하는 제1 패턴 조사부와, 상기 본체의 전방을 향해 상측으로 제2 패턴의 광을 조사하는 제2 패턴 조사부 및 본체의 전방의 영상을 획득하는 영상 획득부를 포함할 수 있다. 이로써, 상기 영상 획득부는 상기 제1 패턴의 광과 상기 제2 패턴의 광이 입사된 영역의 영상을 획득할 수 있다.Specifically, the three-dimensional camera sensor according to the embodiment is a first pattern irradiation unit for irradiating the first pattern of light downward toward the front of the main body, and to irradiate the second pattern of light upward toward the front of the main body It may include a second pattern irradiation unit and an image acquisition unit for obtaining an image of the front of the main body. As a result, the image acquisition unit may acquire an image of a region where light of the first pattern and light of the second pattern are incident.
또 다른 실시예에서 3차원 카메라 센서는 단일 카메라와 함께 적외선 패턴을 조사하는 적외선 패턴 방출부를 구비하고, 적외선 패턴 방출부에서 조사된 적외선 패턴이 피촬영 대상체에 투영된 모양을 캡쳐함으로써, 3차원 카메라 센서와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 IR(Infra Red) 방식의 3차원 카메라 센서일 수 있다.In another embodiment, the three-dimensional camera sensor includes an infrared pattern emitter for irradiating an infrared pattern with a single camera, and captures a shape in which the infrared pattern emitted from the infrared pattern emitter is projected onto the object to be photographed. The distance between the sensor and the object to be photographed may be measured. The 3D camera sensor may be an IR (Infra Red) type 3D camera sensor.
또 다른 실시예에서 3차원 카메라 센서는 단일 카메라와 함께 빛을 방출하는 발광부를 구비하고, 발광부에서 방출되는 레이저 중 피촬영 대상체로부터 반사되는 일부를 수신하며, 수신된 레이저를 분석함으로써, 3차원 카메라 센서와 피촬영 대상체 사이의 거리를 측정할 수 있다. 이러한 3차원 카메라 센서는 TOF(Time of Flight) 방식의 3차원 카메라 센서일 수 있다.In another embodiment, the three-dimensional camera sensor includes a light emitting unit that emits light together with a single camera, receives a portion of the laser emitted from the light emitting unit reflected from the object to be photographed, and analyzes the received laser, thereby making The distance between the camera sensor and the object to be photographed may be measured. The 3D camera sensor may be a 3D camera sensor of a time of flight (TOF) method.
구체적으로, 위와 같은 3차원 카메라 센서의 레이저는 적어도 일방향으로 연장된 형태의 레이저를 조사하도록 구성된다. 일 예에서, 상기 3차원 카메라 센서는 제1 및 제2 레이저를 구비할 수 있으며, 상기 제1 레이저는 서로 교차하는 직선 형태의 레이저를 조사하고, 제2 레이저는 단일의 직선 형태의 레이저를 조사할 수 있다. 이에 따르면, 최하단 레이저는 바닥 부분의 장애물을 감지하는 데에 이용되고, 최상단 레이저는 상부의 장애물을 감지하는 데에 이용되며, 최하단 레이저와 최상단 레이저 사이의 중간 레이저는 중간 부분의 장애물을 감지하는 데에 이용된다.Specifically, the laser of the three-dimensional camera sensor as described above is configured to irradiate the laser of the form extending in at least one direction. In one example, the three-dimensional camera sensor may be provided with a first and a second laser, the first laser is irradiated with a straight laser cross each other, the second laser is irradiated with a single straight laser laser can do. According to this, the bottom laser is used to detect obstacles at the bottom, the top laser is used to detect obstacles at the top, and the middle laser between the bottom laser and the top laser is used to detect obstacles in the middle. Used for
한편, 통신부(1100)는 단말 장치 및/또는 특정 영역 내 위치한 타 기기(본 명세서에서는 "가전 기기"라는 용어와 혼용하기로 한다)와 유선, 무선, 위성 통신 방식들 중 하나의 통신 방식으로 연결되어 신호와 데이터를 송수신한다.On the other hand, the
통신부(1100)는 특정 영역 내에 위치한 타 기기와 데이터를 송수신할 수 있다. 이때, 타 기기는 네트워크에 연결하여 데이터를 송수신할 수 있는 장치이면 어느 것이어도 무방하며, 일 예로, 공기 조화 장치, 난방 장치, 공기 정화 장치, 전등, TV, 자동차 등과 같은 장치일 수 있다. 또한, 상기 타 기기는, 문, 창문, 수도 밸브, 가스 밸브 등을 제어하는 장치 등일 수 있다. 또한, 상기 타 기기는, 온도, 습도, 기압, 가스 등을 감지하는 센서 등일 수 있다.The
또한, 통신부(1100)는 특정 영역 또는 일정 범위 내에 위치한 다른 로봇 청소기(100)와 통신할 수 있다. In addition, the
한편, 본 발명에서는, 로봇 청소기, 자율주행 청소기, 청소기는 모두 동일한 의미로 사용될 수 있음을 밝혀둔다. 따라서, 제1 청소기와 제2 청소기는 각각 제1 로봇 청소기와 제2 로봇 청소기를 의미한다. On the other hand, in the present invention, it turns out that the robot cleaner, autonomous driving cleaner, cleaner can all be used in the same meaning. Thus, the first cleaner and the second cleaner mean a first robot cleaner and a second robot cleaner, respectively.
도 5a 및 도 5b를 참조하면, 자율주행을 수행하는 제1 청소기(100a)와 제2 청소기(100b)는 네트워크 통신(50)을 통해 서로 데이터를 주고 받을 수 있다. 또한, 자율주행을 수행하는 제1 청소기(100a) 및/또는 제2 청소기(100b)는 네트워크 통신(50) 또는 다른 통신을 통해 단말기(300)로부터 수신되는 제어명령에 의해 청소 관련 동작을 수행하거나 또는 대응되는 동작을 수행할 수 있다. 5A and 5B, the first cleaner 100a and the
즉, 비록 도시되지는 않았지만, 자율주행을 수행하는 복수의 청소기(100a, 100b)가 제1 네트워크 통신을 통해서는 단말기(300)와 통신을 수행하고, 제2 네트워크 통신을 통해서는 상호간에 통신을 수행할 수 있다. That is, although not shown, the plurality of
여기에서, 네트워크 통신(50)은 WLAN(Wireless LAN), WPAN(Wireless Personal Area Network), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), Zigbee, Z-wave, Blue-Tooth, RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultrawide-Band), Wireless USB(Wireless Universal Serial Bus) 등과 같은 무선 통신 기술 중 적어도 하나를 이용한 근거리 통신을 의미할 수 있다. Here, the
도시된 네트워크 통신(50)은 서로 통신하고자 하는 로봇 청소기의 통신방식이 무엇인지에 따라 달라질 수 있다. The illustrated
도 5a에서, 자율주행을 수행하는 제1 청소기(100a)의 및/또는 제2 청소기(100b)는 각각의 센싱 유닛을 통해 센싱된 정보를 네트워크 통신(50)을 통해 단말기(300)에 제공할 수 있다. 또한, 단말기(300)는 수신된 정보를 기초로 생성된 제어명령을 네트워크 통신(50)을 통해 제1 청소기(100a)의 및/또는 제2 청소기(100b)에 전달할 수 있다.In FIG. 5A, the first cleaner 100a and / or the
또한, 도 5a에서, 제1 청소기(100a)와 제2 청소기(100b)는 비젼 네트워크(vision network)를 수행하여, 위치 정보 및 주행 상태와 관련된 정보를 공유할 수 있다. 여기에서, 비젼 네트워크(vision network)란, 네트워크 통신 환경이 지원되지 않는 환경에서 제1 청소기(100a) 및/또는 제2 청소기(100b)에 구비된 광 모듈을 통해 천장에 투사된 이미지를 제2 청소기(100b) 및/또는 제1 청소기(100a)가 상방 카메라를 통해 인식하여, 시각적으로 위치 정보 및 주행 상태와 관련된 정보를 공유하는 것을 의미한다. In addition, in FIG. 5A, the first cleaner 100a and the second cleaner 100b may perform a vision network to share location information and information related to driving conditions. In this case, the vision network refers to an image projected on the ceiling through an optical module provided in the first cleaner 100a and / or the second cleaner 100b in an environment in which network communication environment is not supported. This means that the cleaner 100b and / or the
일 예에서, 제2 청소기(100b)는 제1 청소기(100a)로부터 투사되는 이미지를 기초로 제1 청소기(100a)의 위치 및 주행방향을 파악하여, 제1 청소기(100a)를 따라 주행을 수행할 수 있다. 이러한 경우, 제1 청소기(100a)는 마스터로, 제2 청소기(100b)는 슬레이브로 동작한다고 말할 수 있다. 또는, 제2 청소기(100b)는 제1 청소기(100a)를 추종한다고 말할 수 있다. 또는, 경우에 따라서는 제1 청소기(100a)와 제2청소기(100b)가 서로 협업한다고 말할 수도 있다.In one example, the second cleaner 100b grasps the position and the driving direction of the first cleaner 100a based on the image projected from the first cleaner 100a and performs driving along the
이하 도 5b에서는 본 발명의 일 실시예에 따른 자율주행을 수행하는 복수의 청소기(100a, 100b)를 포함하는 시스템이 설명된다.5B, a system including a plurality of
도 5b를 참조하면, 본 발명의 일 실시예에 따른 청소 시스템은, 자율 주행을 수행하는 복수의 청소기(100a, 100b), 네트워크 통신(50), 서버(500), 및 복수의 단말기(300a, 300b)을 포함할 수 있다. Referring to FIG. 5B, a cleaning system according to an embodiment of the present invention may include a plurality of
이 중 복수의 청소기(100a, 100b)와, 네트워크 통신(50), 그리고 적어도 하나의 단말기(300a)는 건물(10) 내에 배치되고, 다른 단말기(300b)와 서버(500)는 건물(10) 외부에 위치할 수 있다. Among them, the plurality of
복수의 청소기(100a, 100b)는, 스스로 주행하며 청소를 수행하는 청소기로서, 자율 주행 및 자율 청소를 수행할 수 있다. The plurality of
한편, 네트워크 통신이 지원되는 환경하에서는, 다음과 같은 동작도 가능하다. On the other hand, under the environment in which network communication is supported, the following operations are also possible.
복수의 청소기(100a, 100b), 서버(500), 및 복수의 단말기(300a, 300b)는 네트워크 통신(50)를 통해 서로 연결되어 서로 데이터를 교환할 수 있다. 이를 위해, 비록 도시되지는 않았지만, AP(access point; AP) 장치 등의 무선 공유기를 더 포함할 수 있다. 이러한 경우, 내부 네트워크 내에 위치한 단말기(300a)는, 상기 AP 장치를 통해 복수의 청소기(100a, 100b) 중 적어도 하나와 접속함으로써, 청소기에 대한 모니터링, 원격제어 등을 수행할 수 있다. 또한, 외부 네트워크에 위치한 단말기(300b)도, 상기 AP 장치를 통해 복수의 청소기(100a, 100b) 중 적어도 하나와 접속함으로써, 청소기에 대한 모니터링, 원격제어 등을 수행할 수 있게 된다.The plurality of
서버(500)는 이동 단말기(300b)를 통해서 직접 무선 연결될 수 있다. 또는, 서버(500)는 이동 단말기(300b)를 통하지 않고 복수의 청소기(100a, 100b) 중 적어도 하나와 연결될 수도 있다.The
서버(500)는 프로그램 처리가능한 프로세서를 포함할 수 있으며, 각종 알고리즘을 구비할 수 있다. 예로서, 서버(500)는 머신 러닝(machine learning) 및/또는 데이터 마이닝(data mining)의 수행과 관련된 알고리즘을 구비할 수 있다. 또 예로써, 서버(500)는, 음성 인식 알고리즘을 구비할 수 있다. 이러한 경우, 음성 데이터 수신시, 수신되는 음성 데이터를, 텍스트 형식의 데이터로 변환하여, 출력할 수 있다. The
서버(500)는, 복수의 청소기(100a, 100b)에 대한 펌웨어 정보, 운전 정보(코스 정보 등)를 저장하고, 복수의 청소기(100a, 100b)에 대한 제품 정보를 등록할 수 있다. 예를 들어, 서버(500)는, 청소기 제조자가 운영하는 서버이거나 또는 공개된 애플리케이션 스토어 운영자가 운영하는 서버일 수 있다.The
다른 예에서, 상기 서버(500)는 내부 네트워크(10) 내에 구비되어, 홈 기기들에 대한 상태 정보를 저장하거나, 홈 기기에서 공유되는 컨텐츠를 저장하는 홈 서버일 수도 있다. 서버(500)가 홈 서버인 경우, 이물질과 관련된 정보, 예를 들어, 이물질 이미지 등을 저장할 수 있다.In another example, the
한편, 복수의 청소기(100a, 100b) 중 어느 하나는 마스터 청소기(100a)가 되고, 다른 하나는 슬레이브 청소기(100b)가 될 수 있다. 예로써, 제1청소기(100a)는 청소 바닥의 먼지를 흡입하는 건식 청소기이고, 제2청소기(100b)는 제1청소기(100a)가 청소한 바닥을 걸레질하는 습식 청소기일 수 있다. 또한, 제1청소기(100a)와 제2청소기(100b)의 구조 및 사양은 서로 상이할 수 있다. Meanwhile, any one of the plurality of
이러한 경우, 제1청소기(100a)가 제2청소기(100b)의 주행 및 청소를 동작을 유도하는 정보를 제공해줄 수 있다. 또, 제2청소기(100b)는 제1청소기(100a)를 추종하며 주행 및 청소를 수행할 수 있다. 여기에서, 제2청소기(100b)가 제1청소기(100a)를 추종한다는 것은, 제2청소기(100b)가 제1청소기(100a)와 적절한 거리를 유지하면서 제1청소기(100a)를 좇아서 주행 및 청소를 수행하는 것을 의미한다.In this case, the first cleaner 100a may provide information for inducing the driving and cleaning of the
도 5c를 참조하면, 제2청소기(100b)가 제1청소기(100a)를 추종하며 청소를 수행할 수 있다. Referring to FIG. 5C, the second cleaner 100b may follow the first cleaner 100a and perform cleaning.
이를 위해, 제1청소기(100a)에는 일측, 예를 들어 상방에는 복수의 광원을 포함하는 광 모듈(1410)이 구비될 수 있고, 제1청소기(100a)를 추종하는 제2청소기(100b)에는 상방 카메라(1420)가 구비될 수 있다. To this end, the first cleaner 100a may be provided with an
구체적으로, 제1청소기(100a)가 광 모듈(1410)을 통해 천장에 특정 이미지가 나타나도록 광을 조사하면, 제2청소기(100b)에서는 상방 카메라(1420)를 통해 획득된 특정 이미지를 분석하여, 제1청소기(100a)의 위치 및/또는 주행 상태를 기반으로, 제1청소기(100a)를 추종하는 주행명령을 생성할 수 있다. 이때에, 제1청소기(100a)와 제2청소기(100b)의 이격거리는, 제1청소기(100a)에서 투사되는 특정 이미지가 제2청소기(100b)의 상방 카메라(1420)의 화각범위 내에 들어오는 범위를 유지해야 할 것이다. Specifically, when the
이하에서는, 이러한 이격거리를, "비전 네트워크(vision network) 통신 거리"로 명명하기로 한다.In the following, such a separation distance will be referred to as a "vision network (vision network) communication distance".
또한, 제1청소기(100a)의 광 모듈(1410)을 통해 천장에 투사되는 특정 이미지가 제공하는 정보는 매우 다양할 수 있다. 즉, 상기 특정 이미지는 제1청소기(100a)의 위치 정보 및/또는 주행 상태와 관련된 정보를 포함한다. In addition, the information provided by the specific image projected onto the ceiling through the
또한, 제1청소기(100a)의 현재 위치 및 주행방향뿐만 아니라, 주행정지, 주행속도, 장애물 감지 등의 주행 상태와 관련된 다양한 정보를 이미지 투사를 통해 제공할 수 있다. 나아가, 이러한 다양한 정보는 제1청소기(100a)의 현재 위치 및 현재 주행 상태에 기반할 수도 있고, 제1청소기(100a)에 저장된 맵 정보에 기반할 수도 있을 것이다.In addition, not only the current position and driving direction of the
제2청소기(100b)는 제1청소기(100a)의 주행 경로를 따라 주행하면서 청소를 수행한다. 다만, 제1청소기(100a)와 제2청소기(100b)의 진행방향이 항상 일치하지는 않는다. 예를 들어, 제1청소기(100a)가 상/하/좌/우로 이동하거나 회전하는 경우, 제2청소기(100b)는 소정 시간 후에 상/하/좌/우로 이동하거나 회전하므로, 현재 진행방향이 서로 달라질 수 있다.The
또한, 제1청소기(100a)의 주행 속도(Va)와 제2청소기(100b)의 주행 속도(Vb)는 서로 다를 수 있다. In addition, the traveling speed Va of the
이러한 경우, 비젼 네트워크 통신 거리를 고려하여, 제1청소기(100a) 및/또는 제2청소기(100b)의 주행 속도(Vb)를 가변할 수 있다. 예로써, 투사된 이미지의 분석에 따라 제1청소기(100a)와 제2청소기(100b)가 일정 거리 이상으로 멀어지면, 제2청소기(100b)의 주행 속도(Vb)가 이전보다 빨라지도록 제어할 수 있다. 또, 투사된 이미지의 분석에 따라 제1청소기(100a)와 제2청소기(100b)가 일정 거리 이상으로 가까워지면 제2청소기(100b)의 주행 속도(Vb)가 이전보다 느리도록 제어하거나 또는 소정 시간 정지하도록 제어할 수 있다. 이를 통해, 비젼 네트워크 통신 거리를 적절히 유지하면서, 제2청소기(100b)가 제1청소기(100a)를 계속 추종하며 청소를 수행할 수 있다. In this case, the traveling speed Vb of the first cleaner 100a and / or the second cleaner 100b may be varied in consideration of the vision network communication distance. For example, when the first cleaner 100a and the second cleaner 100b are separated by a predetermined distance or more according to the analysis of the projected image, the traveling speed Vb of the second cleaner 100b may be controlled to be faster than before. Can be. In addition, if the first cleaner 100a and the second cleaner 100b are closer than a predetermined distance according to the analysis of the projected image, the traveling speed Vb of the
이하, 도 6은, 본 발명의 일 실시예에 따른 복수의 로봇 청소기가 협업/추종 청소를 위해 천장에 투사된 광 신호에 대응되는 이미지를 기초로 선행 청소기의 위치를 인식하는 방법을 설명하기 개념도이다.6 is a conceptual diagram illustrating a method of recognizing a position of a preceding cleaner based on an image corresponding to an optical signal projected on a ceiling by a plurality of robot cleaners according to an embodiment of the present invention. to be.
즉, 본 발명에서는 추종/협업 청소를 수행하는 제1청소기(100a)와 제2청소기(100b) 간에 상대 위치를 감지할 수 있는 추가 센서가 없거나(자신의 위치를 감지하는 센서는 있음) 또는 네트워트 통신이 지원되지 않는 환경에서, 비젼 네트워크(vision network)를 통해, 적어도 후행 청소기(100b)가 선행 청소기(100a)의 위치를 인식할 수 있도록 구현되었다.That is, in the present invention, there is no additional sensor capable of detecting a relative position between the
도 6에서, 제1청소기(100a)의 상방에는 복수의 광원으로 이루어진 광 모듈(1410)이 구비되어, 제1청소기(100a)가 주행하는 동안 주행과 관련된 광 신호를 천장을 향해 방사하도록 동작한다. 또한, 제2청소기(100b)의 상방에는 카메라(1420)가 구비되어, 제1청소기(100a)로부터 방사되어 천장에 투사된 광 신호에 대응되는 이미지(601)를 획득하여, 주행 여부 및 주행방향을 결정한다. In FIG. 6, an
이때, 제1청소기(100a)의 투사영역(R1)이 제2청소기(100b)의 화각범위(R2) 내에 위치해야만, 제2청소기(100b)에서 이미지(601)를 획득할 수 있다. 따라서, 제1청소기(100a)의 투사영역(R1)의 범위와 제2청소기(100b)의 화각범위(R2)를 고려하여 비젼 네트워크 통신 거리가 결정되며, 이는 제1청소기(100a)의 광 모듈의 종류와 제2청소기(100b)의 상방 카메라의 종류에 따라 다르게 결정될 수 있다. In this case, an
한편, 투사영역(R1)과 화각범위(R2)의 너비는 천장의 높이(H), 즉 제1청소기(100a)의 상부면으로부터 천장의 높이(h1)와 제2청소기(100b)의 상부면으로부터 천장의 높이(h2)의 평균에 따라 달라질 수 있다. 예를 들어, 투사영역(R1)과 화각범위(R2)의 너비는 일반적으로 천장의 높이(H)가 높으면 더 증가한다고 말할 수 있다. 다만, 이러한 경우 투사된 이미지(601)의 선명도는 반대로 감소되므로, 제2청소기(100b)에서는 투사된 이미지(601)의 크기(size)와 선명도를 기초로 천장의 높이(H)를 산출할 수 있을 것이다. Meanwhile, the widths of the projection area R1 and the angle of view range R2 are the height H of the ceiling, that is, the height h1 of the ceiling from the top surface of the first cleaner 100a and the top surface of the
이와 같이 본 발명에서는, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이 추종/협업 청소를 수행할 수 있다.As described above, in the present invention, a plurality of robot cleaners are not equipped with sensors for locating each other, or even in an environment in which the sensors are mounted but network communication is not supported, the preceding robot cleaner and the following robot cleaner are not reversed. Follow-up / collaborative cleaning can be performed.
구체적으로, 제1청소기에서 자신의 주행과 관련된 광 신호를 천장에 방사하고, 제2청소기는 자신의 상방 카메라의 화각범위 내에서 확인되는 상기 광 신호에 대응되는 이미지를 획득 및 분석하여, 제1청소기의 위치를 인식한 다음 제1청소기를 추종하는 주행명령을 생성할 수 있다. In detail, the first vacuum cleaner emits an optical signal related to its driving on a ceiling, and the second vacuum cleaner acquires and analyzes an image corresponding to the optical signal identified within an angle of view of the upper camera, thereby obtaining a first image. After recognizing the position of the cleaner, a driving command that follows the first cleaner may be generated.
여기에서, 상기 광 모듈은 상기 제1 청소기의 상방에 위치하고, 복수의 레이저 또는 복수의 LED 가 예를 들어 밀집된 형태로 이루어질 수 있다. 또는, 상기 광 모듈은 복수의 레이저 또는 복수의 LED 가 정해진 특정 이미지를 형성하도록 배치될 수 있으며, 다만 이러한 형상에 제한되는 것은 아니며 다른 형태의 배치도 얼마든지 가능하다.Here, the optical module is located above the first cleaner, and a plurality of lasers or a plurality of LEDs may be formed in a dense form, for example. Alternatively, the optical module may be arranged such that a plurality of lasers or a plurality of LEDs form a specific image. However, the optical module is not limited to this shape and may be arranged in other forms.
예를 들어, 상기 광 모듈은 상방 이외에(또는 대체하여), 측면 또는 하부면에 구비되어 광 신호에 대응되는 이미지를 벽면 또는 바닥면에 투사할 수도 있다. 또한, 상기 광 모듈은 복수의 발신기와 수신기를 포함하여 이루어질 수 있다. For example, the optical module may be provided on the side surface or the bottom surface in addition to (or alternatively) to project the image corresponding to the optical signal onto the wall or the bottom surface. In addition, the optical module may include a plurality of transmitters and receivers.
또한, 제2카메라에 구비된 상방 카메라는, 화각범위 내의 투사 이미지의 위치에 따라 화각범위를 다르게 조절할 수 있다. 예를 들어, 투사 이미지의 일부만이 화각범위에 위치한 경우이면 화각범위를 늘리고, 투사 이미지가 화각범위의 중앙에 가까우면 화각범위를 좁히고 선명도를 증가시킬 수 있다. In addition, the upper camera provided in the second camera may adjust the angle of view range differently according to the position of the projection image within the angle of view range. For example, when only a part of the projection image is located in the field of view range, the view angle range may be increased, and when the projection image is close to the center of the field of view range, the view angle range may be narrowed and the sharpness may be increased.
또한, 관련된 예로써, 제2청소기는 화각범위 내의 투사 이미지의 위치에 따라 제2청소기의 주행방향 또는 주행속도를 다르게 조절할 수도 있다. Also, as a related example, the second cleaner may adjust the traveling direction or the traveling speed of the second cleaner differently according to the position of the projection image within the angle of view range.
구체적인 예로, 투사 이미지의 윗부분이 잘리고 나머지부분이 화각범위에 위치한 경우이면 비젼 네트워크 통신 거리를 고려하여 제2청소기의 주행속도를 증가시킬 수 있다. 또는, 투사 이미지의 측면부분이 잘리고 나머지부분이 화각범위에 위치한 경우이면 제2청소기가 제1청소기의 주행라인을 벗어나려는 것으로 보고 주행방향을 적절히 조절할 수 있을 것이다. 또는, 투사 이미지가 화각범위의 중앙 또는 주행방향과 대향되는 방향 쪽에 위치한 경우이면 제2청소기와 제1청소기의 이격거리가 가까운 것으로 보고 제2청소기의 주행속도를 감소시킬 수 있을 것이다. As a specific example, when the upper part of the projection image is cut off and the remaining part is located in the angle of view range, the traveling speed of the second cleaner may be increased in consideration of the vision network communication distance. Alternatively, if the side part of the projection image is cut off and the remaining part is located in the angle of view range, the second cleaner may move out of the driving line of the first cleaner and may adjust the driving direction appropriately. Alternatively, if the projection image is located at the center of the angle of view range or in a direction opposite to the driving direction, the separation distance between the second cleaner and the first cleaner may be considered to be close, and the driving speed of the second cleaner may be reduced.
또한, 도 6에서 제1청소기(100a)의 광 모듈의 방사 여부 및 간격은 제1청소기의 주행 상태에 따라 다르게 결정될 수 있다. 예로써, 제1청소기(100a)의 광 모듈(1410)의 방사는 제1청소기가 주행 정지하거나 또는 주행방향을 변경하는 경우에만 수행하도록 동작할 수 있다. In addition, in FIG. 6, whether the optical module of the
또한, 도 6에서 제2청소기(100b)의 상방 카메라(1420)는 제1청소기(100a)의 최초 주행 시에 자동으로 활성화되도록 구현될 수 있다. 즉, 제2청소기(100b)가 주행을 개시하기 전에 상방 카메라(1420)가 먼저 활성화 상태로 전환될 수 있다. 또한, 제2청소기(100b)의 상방 카메라(1420)는 실제 촬영 동작 없이 프리뷰 이미지를 통해, 천장에 투사되는 이미지를 획득될 수 있다.In addition, in FIG. 6, the
이하, 도 7은 도 6에 도시된 개념도를 구체적으로 설명하기 위한 대표 흐름도이다.7 is a representative flowchart for explaining in detail the conceptual diagram illustrated in FIG. 6.
도 7을 참조하면, 먼저 선행하는 제1청소기가 주행을 시작하는 것으로 본 발명에 따른 동작이 개시된다(S10). Referring to FIG. 7, an operation according to the present invention is started by first driving the first cleaner (S10).
이때, 제2청소기는 제1청소기의 주행이 개시되기 전, 서로 접촉하거나 또는 인접하거나 매우 가까운 거리에 있는 것을 전제로 한다. 즉, 제1청소기와 제2청소기는 처음부터 비젼 네트워크(vision network) 통신 거리 내에 위치한 것을 전제로 한다. In this case, it is assumed that the second vacuum cleaners are in contact with each other or are adjacent or very close to each other before the first vacuum cleaner starts to travel. That is, it is assumed that the first vacuum cleaner and the second vacuum cleaner are located within a vision network communication distance from the beginning.
또한, 제1청소기의 주행방향 또는 목표방향은 저장된 자신의 맵(map) 정보 또는 외부기기에서 수신된 제어명령에 기반하여 결정될 수 있다. 제2청소기는 이러한 맵(map) 정보의 공유 없이 제1청소기의 주행을 추종하는 주행을 수행한다.In addition, the driving direction or the target direction of the first cleaner may be determined based on stored map information or a control command received from an external device. The second cleaner performs the driving following the driving of the first cleaner without sharing such map information.
제1청소기의 주행에 따라 제1청소기가 자신의 광 모듈을 통해, 현재 주행과 관련된 광 신호를 방사하면, 방사된 광 신호에 대응되는 특정 이미지가 천장에 투사된다(S20). When the first cleaner emits an optical signal related to the current driving through its optical module according to the driving of the first cleaner, a specific image corresponding to the emitted optical signal is projected on the ceiling (S20).
여기에서, 상기 광 신호에 대응되는 특정 이미지는 상기 제1 청소기의 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보를 포함하는 정해진 이미지를 가리킨다. 또한, 상기 특정 이미지는 점, 선, 화살표, 마크, 기타 약속된 심볼(symbol)이나 패턴 등을 포함할 수 있고, 나아가 복수의 광원의 발광개수/발광횟수/발광간격 중 적어도 하나를 다르게 하여 형성되는 정해진 형상을 모두 포함할 수 있다.Here, the specific image corresponding to the optical signal indicates a predetermined image including information related to at least one of the driving state and the driving direction of the first cleaner. In addition, the specific image may include a dot, a line, an arrow, a mark, or other promised symbols or patterns, and may be formed by varying at least one of the number of emission, the number of emission, and the emission interval of the plurality of light sources. It may include all of the predetermined shape.
제2청소기는 자신의 상방 카메라를 이용하여 천장에 투사된 광 신호에 대응되는 특정 이미지를 획득한다(S30). 상방 카메라는 S10단계에서 또는 그 이전부터 활성화 상태를 유지하며, 프리뷰 이미지를 통해 천장에 투사된 특정 이미지를 획득한다.The second cleaner acquires a specific image corresponding to the light signal projected on the ceiling by using the upper camera of the second cleaner (S30). The upward camera remains active at or before step S10 and acquires a specific image projected onto the ceiling through the preview image.
다음, 제2청소기는 획득된 이미지를 기초로 제1청소기의 위치를 인식한다(S40). 여기에서, 제1청소기의 위치를 인식한다는 것은 제1청소기의 주행방향을 기초로 현재 예상 위치를 추정하는 것을 의미할 수 있다. Next, the second cleaner recognizes the position of the first cleaner based on the acquired image (S40). Here, recognizing the position of the first cleaner may mean estimating the current estimated position based on the driving direction of the first cleaner.
구체적인 예로, 제1청소기가 전방을 향해 주행하는 경우, 제1청소기는 전방에 대응되는 이미지를 투사하면서 전방으로 주행할 것이므로, 제2청소기에서는 투사된 이미지를 기초로 제1청소기가 비젼 네트워크 통신 거리 내에서 전방을 향해 주행하고 있는 것으로 위치를 추정할 수 있다. As a specific example, when the first cleaner travels forward, since the first cleaner will travel forward while projecting an image corresponding to the front, in the second cleaner, the first cleaner is based on the projected image and thus the vision network communication distance. The position can be estimated by running forward from within.
다만, 제1청소기가 실제 광 신호를 투사하는 시점과 제2청소기가 광 신호에 대응되는 이미지를 획득하는 시점은 다소 차이가 있으므로, 추정된 제1청소기의 위치와 현재 제1청소기의 위치에는 다소 차이가 있을 수 있다. 이에, 일 예에서는, 제2청소기가 이러한 시간 차를 보정하는 알고리즘을 백그라운드(background)에서 실행하여, 제1청소기의 상대 위치를 보다 정확하게 산출할 수도 있을 것이다.However, the timing at which the first cleaner projects the actual optical signal and the timing at which the second cleaner acquires the image corresponding to the optical signal are somewhat different, so the estimated position of the first cleaner and the current position of the first cleaner are somewhat different. There may be differences. Thus, in one example, the second cleaner may perform an algorithm for correcting such a time difference in the background to more accurately calculate the relative position of the first cleaner.
또한, 제2청소기는 획득된 이미지를 기초로 제1청소기의 주행 상태를 추가로 인식할 수 있다. 예를 들어, 제1청소기가 일식적으로 주행을 정지하는 경우, 광 모듈을 통해 주행정지와 관련된 이미지를 투사하고, 제2청소기가 이러한 이미지를 획득함으로써 제1청소기의 주행정지를 인식할 수 있을 것이다. 또는, 제1청소기가 주행방향을 변경한 경우, 광 모듈을 통해 변경된 주행방향과 관련된 이미지를 투사하고, 제2청소기가 이러한 이미지를 획득함으로써 제1청소기의 주행방향의 변경을 인식할 수 있을 것이다. In addition, the second cleaner may further recognize the driving state of the first cleaner based on the acquired image. For example, when the first vacuum cleaner stops traveling, the image related to the driving stop may be projected through the optical module, and the second vacuum cleaner may recognize the driving stop of the first vacuum by acquiring such an image. will be. Alternatively, when the first cleaner changes the driving direction, the optical module may project an image related to the changed driving direction, and the second cleaner may acquire the image to recognize the change in the driving direction of the first cleaner. .
이를 위해, 제2청소기의 메모리에는 제1청소기에서 방사하는 광 신호에 대응되는 이미지 또는 형상과 매치되는 주행 관련 정보가 미리 저장될 수 있다. To this end, the driving related information matching the image or shape corresponding to the optical signal emitted from the first cleaner may be stored in advance in the memory of the second cleaner.
구체적으로, 제2 청소기에는 상기 광 신호에 대응되는 이미지에 매치되는 주행 상태 및 주행 방향과 관련된 정보가 메모리에 미리 저장되고, 상방 카메라를 통해 획득된 이미지에 매치되는 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보가 메모리로부터 검출되는 방식으로 제1청소기의 주행 상태를 인식할 수 있을 것이다.Specifically, in the second cleaner, information related to the driving state and the driving direction that match the image corresponding to the optical signal is stored in advance in the memory, and at least one of the driving state and the driving direction that matches the image acquired through the upper camera. The driving condition of the first cleaner may be recognized in such a manner that information related to the is detected from the memory.
다만, 앞서 설명한 바와 같이 제1청소기가 광 신호를 방사하는 시점에서의 제1청소기의 주행방향과 제2청소기가 광 신호에 대응되는 이미지를 인식하는 시검에서의 제1청소기의 주행방향은 다를 수 있으므로, 실제로는 수 밀리초(ms) 또는 수 마이크로초(us)이전의 주행 상태를 의미한다고 말할 수 있다. However, as described above, the driving direction of the first cleaner at the time when the first cleaner emits the optical signal and the driving direction of the first cleaner at the inspection in which the second cleaner recognizes the image corresponding to the optical signal may be different. Therefore, it can be said that it actually means the driving state before several milliseconds (ms) or several microseconds (us).
또한, 일 실시 예에서, 천장에 투사된 이미지는 제1청소기의 주행속도와 관련된 정보를 추가로 제공할 수 있다. 구체적으로, 투사 이미지를 형성하는 제1청소기의 광 신호의 발광 간격 및 발광 범위 중 적어도 하나를 기초로 제1청소기의 주행속도가 표시될 수 있을 것이다.In addition, in one embodiment, the image projected on the ceiling may further provide information related to the traveling speed of the first cleaner. Specifically, the traveling speed of the first vacuum cleaner may be displayed based on at least one of the light emission interval and the light emission range of the optical signal of the first vacuum cleaner forming the projection image.
또한, 일 실시 예에서, 천장에 투사된 이미지는 제1청소기에서 감지된 장애물/진입불가와 관련된 정보를 제2청소기에 추가로 제공해줄 수 있다. 구체적으로, 제1청소기의 주행 중에 제2청소기의 진입 불가 영역에 진입한 것이 감지되면, 정지명령에 대응되는 광 신호를 천장에 투사함으로서, 제2청소기가 진입하지 않도록 유도할 수 있을 것이다. In addition, in one embodiment, the image projected on the ceiling may additionally provide the second cleaner with information related to the obstacle / non-entry detected by the first cleaner. Specifically, when it is detected that the second cleaner is not allowed to enter the area while the first cleaner is running, the second cleaner may be prevented from entering by projecting an optical signal corresponding to the stop command onto the ceiling.
한편, 제1청소기와 제2청소기의 종류가 서로 다른 경우, 제1청소기는 진입할 수 있으나 제2청소기는 진입할 수 없는 경우가 있다. 본 발명에서는 제1청소기와 제2청소기 간에 일반적인 네트워크 통신은 없는 것으로 전제로 하였으므로, 제1청소기가 제2청소기의 사양을 미리 알고 있는 것을 전제로 하여 제2청소기만 진입 불가한 영역임을 인식한 상태에서, 정지명령에 대응되는 광 신호를 천장에 투사하도록 동작할 수 있다. 다만, 제2청소기의 본체 높이로 인하여 진입 불가 영역인 경우, 제1청소기가 천장에 투사하는 이미지의 선명도를 기초로 진입 불가 영역인지를 추정할 수는 있을 것이다.On the other hand, when the types of the first and second cleaners are different, the first cleaner may enter, but the second cleaner may not enter. In the present invention, since it is assumed that there is no general network communication between the first vacuum cleaner and the second vacuum cleaner, a state in which the first vacuum cleaner recognizes the specifications of the second vacuum cleaner in advance and recognizes that only the second vacuum cleaner is inaccessible. In this case, the light signal corresponding to the stop command may be projected onto the ceiling. However, in the case of the inaccessible area due to the height of the main body of the second cleaner, it may be estimated whether the inaccessible area is based on the sharpness of the image projected by the first cleaner on the ceiling.
또한, 광신호에 대응되는 복수의 이미지가 순서대로 투사되는 경우, 투사된 순서에 대응되는 복수의 이미지들에 매치되는 주행과 관련된 정보들이 순서대로 검출될 수 있다. Also, when a plurality of images corresponding to the optical signal are projected in order, information related to driving that matches the plurality of images corresponding to the projected order may be detected in order.
예를 들어, 제1청소기의 주행방향을 가리키는 제1이미지를 투사하고, 곧 이어서 제1청소기의 주행속도를 나타내는 제2이미지를 순차로 투사할 수 있을 것이다.For example, it may be possible to project a first image indicative of the driving direction of the first cleaner, followed by sequentially projecting a second image representing the traveling speed of the first cleaner.
이와 같이 제1청소기의 위치가 인식되면, 제2청소기의 인식된 제1청소기의 위치를 기초로 제2청소기의 주행명령을 생성할 수 있다(S50). 여기에서, 제2청소기의 주행명령은 제1청소기의 추종과 관련된 제어명령을 의미할 수 있다. As such, when the position of the first cleaner is recognized, a driving command of the second cleaner may be generated based on the recognized position of the first cleaner (S50). Here, the driving command of the second cleaner may mean a control command associated with following the first cleaner.
구체적인 예로, 제1청소기의 정지상태인 것으로 인식되면, 비젼 네트워크(vision network) 통신 거리를 고려하여 제2청소기에서도 정지명령을 생성할 수 있다. As a specific example, when it is recognized that the first cleaner is in the stopped state, the stop cleaner may generate the stop command in consideration of the vision network communication distance.
또 다른 예로, 제1청소기에서 주행방향을 변경한 것으로 인식되면, 제2청소기에서는 소정 시간 이전 주행방향을 따르다가 소정 시간 경과 후 변경된 주행방향을 좇도록 주행명령을 생성할 수 있을 것이다. As another example, if it is recognized that the driving direction is changed in the first cleaner, the second cleaner may generate a driving command to follow the driving direction before the predetermined time and follow the changed driving direction after the predetermined time.
여기에서, 상기 소정 시간은 제1청소기의 주행속도, 비젼 네트워크 통신 거리(제2청소기의 화각범위), 제1청소기의 투사시점 및 제2청소기의 이미지 획득 시점을 고려하여 결정될 수 있다. Here, the predetermined time may be determined in consideration of the traveling speed of the first cleaner, the vision network communication distance (view angle range of the second cleaner), the projection time of the first cleaner, and the image acquisition time of the second cleaner.
도 8a 내지 도 8f는 후행 청소기의 주행명령과 관련하여, 선행 청소기에서 투사되는 주행 상태와 관련된 다양한 투사 이미지들의 예시를 보인 것이다. 이러한 다양한 투사 이미지들은 광 모듈의 위치 및 배치 형태에 따라 다르게 구현될 수 있다. 8A to 8F illustrate examples of various projection images related to the driving state projected by the preceding cleaner in relation to the running command of the trailing cleaner. These various projection images may be implemented differently according to the position and arrangement of the optical module.
선행하는 제1청소기는, 도 8a에 도시된 바와 같이, 제1청소기의 주행방향을 나타내는 화살표 이미지(801)를 투사할 수 있다. 또한, 도 8b에 도시된 바와 같이, 주행정지를 나타내는 약속된 이미지(802)를 투사할 수 있다. The preceding first vacuum cleaner may project an
또 다른 예로, 도 8c에 도시된 바와 같이, 제1청소기의 주행방향의 정보를 약속된 숫자 이미지로 투사할 수도 있다. 예를 들어, 숫자 '4'를 나타내는 투사 이미지(803)는 '서쪽 방향'을 나타내고 수초 후, 변경된 숫자 '8'을 나타내는 투사 이미지(804)는 '남쪽 방향'을 나타낼 수 있다.As another example, as shown in FIG. 8C, the information on the driving direction of the first cleaner may be projected as a promised numeric image. For example, the projected
또 다른 예로, 주행방향의 변경이 없는 경우, 도 8d 및 도 8e에 도시된 바와 같이, 호의 길이를 달리하는 원 이미지들(805, 806)을 투사하거나 또는 굵기/두께를 달리하는 화살표 이미지들(807, 808)을 투사함으로써, 제1청소기의 주행속도의 변경을 알려줄 수 있다. 예를 들어, 도 8e에서 전방으로 주행하는 제1청소기가 주행방향은 유지하면서 주행속도만 증가한 경우, t 초 후, 더 굵은 화살표 이미지(808)로 광을 출력할 수 있다. As another example, when there is no change in the driving direction, as illustrated in FIGS. 8D and 8E, arrow images projecting
또 다른 예로, 도 8f에 도시된 바와 같이 광 모듈의 발광 간격을 이미지가 변화하는 정해진 패턴의 이미지들(809, 810, 811)을 연속적으로 투사함으로써, 제1청소기의 전방주행유지(continue) -> 회전(rotation) 의 일련의 주행동작을 제2청소기에서 인식하게끔 할 수도 있다.As another example, as shown in FIG. 8F, by continuously projecting
한편, 도 8f에서 설명한 예시와 같이 선행하는 제1청소기가 전방을 주행해다가 예를 들어, 청소 라인 변경을 위해, 회전 및 역방향 주행을 수행하는 경우가 있다. On the other hand, as shown in the example illustrated in FIG. 8F, the preceding first cleaner travels forward, and for example, may perform rotation and reverse travel to change the cleaning line.
이때, 제2청소기 측에서, 현재 자신의 위치에서 제1청소기에서 방사하는 변경된 주행방향을 그대로 좇게 되면 선행하는 로봇 청소기와 후행하는 로봇 청소기의 선후가 뒤바뀔 수 있다. 이는, 특히 복수의 로봇 청소기가 각각 서로 다른 역할을 수행하여 어느 하나가 다른 하나를 반드시 후행하며 청소해야 하는 경우(예, 먼지흡입 후 물걸레 청소) 문제가 될 수 있다. At this time, if the second cleaner side follows the changed driving direction radiated from the first cleaner at its current position, the front and rear of the preceding robot cleaner and the following robot cleaner may be reversed. This may be a problem especially when a plurality of robot cleaners play different roles, so that one must clean the other after the other (eg, clean the mop after inhaling dust).
이러한 비젼 네트워크의 한계는 다음과 같은 동작 구현을 통해 해결될 수 있을 것이다. The limitation of this vision network may be solved by implementing the following operation.
이하, 도 9 및 도 10는 선행 청소기에서 라인 변경 등에 따라 역방향 주행이 이루어지는 경우에도, 선행하는 로봇 청소기와 후행하는 로봇 청소기의 선후가 유지될 수 있도록 하기 위한 서로 다른 예시 동작을 구체적으로 보여준다. Hereinafter, FIGS. 9 and 10 specifically illustrate different exemplary operations for maintaining the front and rear of the preceding robot cleaner and the following robot cleaner even when reverse driving is performed according to a line change or the like in the preceding cleaner.
먼저, 제1 실시 예를 도 9를 참조하여 구체적으로 설명하겠다.First, the first embodiment will be described in detail with reference to FIG. 9.
도 9를 참조하면, 선행하는 제1청소기에서 방향전환과 관련된 광 신호가 천장에 투사된다(S910). 이어서, 제1청소기는 스스로 주행을 정지한다(S920). Referring to FIG. 9, an optical signal related to a change of direction is projected on the ceiling in the preceding first cleaner (S910). Subsequently, the first vacuum cleaner stops driving itself (S920).
여기에서, 제1청소기의 주행 정지 시점은, 후행하는 제2청소기에서 방향전환과 관련된 이미지를 인식하는 시점을 고려하여 결정될 수 있다. 이와 같이, 제1청소기가 스스로 주행을 정지함으로써, 후행하는 제2청소기가 방향전환을 위해 터닝(turning)하는 동안 비젼 네트워크 통신 거리를 벗어나는 것을 방지할 수 있다. Here, the driving stop timing of the first cleaner may be determined in consideration of the timing of recognizing the image related to the change of direction in the following second cleaner. In this manner, the first cleaner stops traveling by itself, thereby preventing the trailing second cleaner from moving out of the vision network communication distance while turning for redirection.
다음, 제2청소기는 상방 카메라를 이용하여, 천장에 투사된 광 신호에 대응되는 이미지를 기초로 제2청소기의 주행방향을 변경하는 동작을 수행한다(S930). 또는, 제2청소기는 방향전환과 관련된 이미지가 획득되면, 획득된 이미지와 이전의 이미지를 기초로 회전하여 주행방향을 변경한다.Next, the second cleaner performs an operation of changing the driving direction of the second cleaner based on the image corresponding to the light signal projected on the ceiling by using the upper camera (S930). Alternatively, when the image related to the change of direction is obtained, the second cleaner rotates based on the obtained image and the previous image to change the driving direction.
구체적으로, 제2청소기는 일단 장애물이 감지될 때까지 이전 이미지에 대응되는 주행방향을 유지한다. 여기에서, 상기 장애물은 청소영역의 바닥으로부터 돌출되어 청소기의 주행을 방해하는 벽(wall), 가구, 집기 등의 고정 장애물과 움직이는 이동 장애물뿐만 아니라, 낭떠러지(cliff)도 포함할 수 있다. 장애물이 감지되면, 주행바퀴의 회전 및 이동을 통해 제1청소기에서 투사한 변경된 주행방향을 좇도록 주행을 수행한다. In detail, the second vacuum cleaner maintains the driving direction corresponding to the previous image until the obstacle is detected. Here, the obstacle may include not only fixed obstacles such as walls, furniture, and household appliances and moving moving obstacles, which protrude from the bottom of the cleaning area to prevent the cleaner from running, but also a cliff. When an obstacle is detected, driving is performed to follow the changed driving direction projected by the first cleaner through the rotation and movement of the driving wheel.
다음, 소정 시간이 경과되면, 제1청소기가 주행을 재개하고 현재 주행과 관련된 광 신호를 천장에 투사한다(S940). 그러면, 제2청소기는 청소 라인이 변경된 제1청소기의 현재 주행을 순서 뒤바뀜 없이 추종/협업하면서 청소를 계속 수행할 수 있다.Next, when a predetermined time elapses, the first cleaner resumes driving and projects an optical signal associated with the current driving onto the ceiling (S940). Then, the second vacuum cleaner can continue the cleaning while following / cooperating the current running of the first vacuum cleaner in which the cleaning line has been changed without reversing the order.
일 예에서, 제2청소기는 상기 소정 시간의 경과에 따라 상기 제1청소기의 주행이 개시되면, 상기 방향전환과 관련된 이미지가 제2청소기의 화각범위의 중심(또는, 정해진 영역)에 오도록 상기 제2청소기의 위치를 조절하여 주행할 수 있다. 이러한 동작을 '얼라인 동작'으로 명명할 수 있다. 이러한 얼라인 동작을 통해, 제2청소기는 제1청소기가 지나온 주행경로를 그대로 일치되게 주행하게 된다. In an example, when the second cleaner starts running of the first cleaner as the predetermined time elapses, the second cleaner causes the image related to the change of direction to be at the center (or a predetermined area) of the angle of view range of the second cleaner. 2 You can drive by adjusting the position of the vacuum cleaner. Such an action may be referred to as an 'align action'. Through this aligning operation, the second cleaner travels in the same manner as the driving path passed by the first cleaner.
이하, 제2 실시 예를 도 10과, 도 11a 내지 11f를 참조하여 구체적으로 설명하겠다.Hereinafter, the second embodiment will be described in detail with reference to FIGS. 10 and 11A through 11F.
여기에서는, 도 11a에 도시된 바와 같이, 선행하는 제1청소기(100a)와 후행하는 제2청소기(100b) 모두에 각각 광 모듈(1410a, 1410b)과 상방 카메라(1420a, 1420b)가 구비된 것을 전제로 하여 설명하기로 한다.Here, as shown in FIG. 11A, the
이러한 경우, 제1청소기(100a)에서 투사된 제1 이미지(IM1)과 제2청소기(100b)에서 투사된 제2 이미지(IM2) 모두를 제1청소기(100a) 및 제2청소기(100b)에서 각각 인식할 수 있다. 이 실시 예에서는, 비젼 네트워크 통신 거리는가 제1청소기(100a)에 구비된 상방 카메라(1420a)의 화각범위와 제2청소기(100b)에 구비된 상방 카메라(1420b)의 화각범위의 중첩영역을 의미할 수 있다. In this case, both the first image IM1 projected by the
도 11a에서, 제1 이미지(IM1)와 제2 이미지(IM2)는 독립적으로 투사되며, 동시에 투사되거나 어느 하나만 투사될 수 있다. 또한, 제1 이미지(IM1)의 투사에 응답하여 제2 이미지(IM2)가 투사 여부가 달라지거나, 또는 제2 이미지(IM2)의 투사에 응답하여 제1 이미지(IM1)가 투사 여부가 결정될 수 있다.In FIG. 11A, the first image IM1 and the second image IM2 are independently projected and may be projected simultaneously or only one of them. In addition, whether or not the second image IM2 is projected may be changed in response to the projection of the first image IM1, or whether or not the first image IM1 is projected in response to the projection of the second image IM2. have.
다시 도 10을 참조하면, 선행하는 제1청소기에서 방향전환과 관련된 제1 광 신호가 천장에 투사된다(S1010). 구체적으로, 도 11b 및 도 11c를 참조하면, 제1청소기가 전방 이미지(1101)를 투사하며 전방으로 주행하다가, 벽 장애물(50)과 접촉하여 회전 및 방향전환을 통해 라인을 변경하면, 제1청소기에서 제2청소기를 기준으로 후방 이미지(1102)를 투사하게 된다. 그에 따라, 제2청소기는 t 시간 내의 두 이미지들(1101, 1102)을 통해, 제1청소기에서 방향전환이 이루어진 것을 인식할 수 있을 것이다.Referring back to FIG. 10, the first light signal associated with the change of direction in the preceding first cleaner is projected onto the ceiling (S1010). Specifically, referring to FIGS. 11B and 11C, when the first cleaner drives forward while projecting the
다음, 제2청소기에서는 방향전환과 관련된 제1 광 신호에 응답하여, 정지명령과 관련된 제2 광 신호를 천장에 투사한다(S1020). 도 11d를 참조하면, 제1청소기와 제2청소기는 각각 자신이 투사한 이미지와 상대방이 투사한 이미지를 모두 인식할 수 있다. 그에 따라, 제1청소기에서는 제2청소기에서 방사한 정지 이미지(1103)를 기초로 주행을 정지하고, 제2청소기에서는 제1청소기에서 방사한 후방 이미지(1102)로 곧 주행방향을 변경할 준비를 수행한다.Next, in response to the first optical signal associated with the change of direction, the second cleaner projects the second optical signal associated with the stop command on the ceiling (S1020). Referring to FIG. 11D, the first vacuum cleaner and the second vacuum cleaner may recognize both the image projected by the first cleaner and the image projected by the counterpart. Accordingly, the first vacuum cleaner stops driving based on the
다음, 제2청소기에서는 제1청소기가 이전에 투사한 이미지를 기초로 주행을 진행하다가 장애물이 감지되면 제1 광 신호에 대응되는 이미지, 즉 후방 이미지(1102)를 기초로 주행방향을 변경하는 주행을 수행한다(S1040). 도 11e를 참조하면, 제2청소기가 제1청소기에서 이전에 방사한 전방 이미지(1101)를 좇아 주행을 진행하다가, 벽 장애물(50)이 감지되면, 제1청소기에서 마지막에 방사한 후방 이미지(1102)를 목표방향 및 목표위치로 하여 회전 및 이동하도록 주행을 수행한다. Next, in the second vacuum cleaner, the first vacuum cleaner travels based on a previously projected image, and when an obstacle is detected, the second vacuum cleaner changes the driving direction based on the image corresponding to the first optical signal, that is, the
이와 같이 제2청소기가 터닝(turning)을 수행하는 동안, 제2청소기에서는 정지 이미지(1103)의 방사를 유지하고, 제1청소기는 정지된 상태에서 마지막에 방사한 후방 이미지(1102)를 계속 방사한다.In this manner, while the second cleaner performs turning, the second cleaner maintains the emission of the
제2청소기의 주행방향이 변경되어 제1 광 신호에 대응되는 주행방향과 일치되면, 제2청소기에서 정지명령과 관련된 제2 광 신호의 투사를 중단한다(S1050). 그에 따라, 도 11f에 도시된 바와 같이, 공통 화각범위에 제1청소기로부터 방사되는 후방 이미지(1102)만 남는다.When the driving direction of the second cleaner is changed to match the driving direction corresponding to the first optical signal, the second cleaner stops the projection of the second optical signal related to the stop command (S1050). Thus, as shown in FIG. 11F, only the
한편, 제2 광 신호의 투사가 중단되면, 제1청소기에서는 주행을 재개하고, 현재 주행과 관련된 광 신호를 천장에 투사하도록 광 모듈을 제어한다(S1060). 그에 따라, 제2청소기에서는, 제1청소기가 이전과 반대 방향으로 주행하더라도 선후의 뒤바뀜 없이 자연스럽게 추종하며 주행할 수 있다. On the other hand, when the projection of the second optical signal is stopped, the first cleaner resumes driving and controls the optical module to project the optical signal related to the current driving on the ceiling (S1060). Therefore, in the second vacuum cleaner, even if the first vacuum cleaner travels in the opposite direction as before, the second vacuum cleaner can naturally run following the back of the vehicle without being reversed.
한편, 비록 도시되지는 않았지만, 제2청소기에서는 제1청소기의 주행라인을 그대로 추종할 수 있도록 전술한 '얼라인 동작'을 수행할 수 있다. 다만, 여기에서의 얼라인 동작은 제2청소기가 제3이미지를 방사하는 동작이 추가된다. Although not shown, the second cleaner may perform the above-described 'align operation' to follow the driving line of the first cleaner as it is. However, in the alignment operation here, an operation in which the second cleaner emits the third image is added.
구체적으로, 제2청소기는, 제1이미지에 대응되는 방향으로 주행이 개시되면 제3이미지를 천장에 투사하여 상기 제1청소기에서 방사되는 제1이미지와 얼라인을 수행한다.In detail, when the driving starts in a direction corresponding to the first image, the second cleaner may align the first image emitted from the first cleaner by projecting the third image onto the ceiling.
즉, 도 11f에서, 제2청소기가 방사하는 제3이미지가 후방 이미지(1102)의 위치와 완전히 중첩되도록 제2청소기의 위치를 조절함으로써, 제1청소기의 주행라인과 제2청소기의 주행라인을 일치시킬 수 있다. 이때, 제3이미지는 후방 이미지(1102)와 동일한 이미지일 수 있다. That is, in FIG. 11F, by adjusting the position of the second cleaner such that the third image emitted by the second cleaner completely overlaps the position of the
한편, 또 다른 예에서는, 천장의 고도와 관련된 정보를 기초로 후행하는 제2청소기에 대한 주행 가이드를 제공해줄 수 있다. On the other hand, in another example, it is possible to provide a driving guide for the following second cleaner based on the information related to the altitude of the ceiling.
이를 위해, 제1청소기는 광 모듈 주변에 하나 이상의 수신기를 구비할 수 있으며, 광 모듈을 통해 특정 이미지에 대응되는 광 신호를 투사함과 동시에 광 신호가 천장을 맞고 돌아오는 반사신호를 수신기를 통해 수신함으로써, 천장의 고도 정보를 산출할 수도 있다. 그에 따라, 천장의 고도가 제2청소기가 진입하기에 낮은지 여부를 추가로 파악할 수 있을 것이다. To this end, the first vacuum cleaner may include one or more receivers around the optical module. The first vacuum cleaner may project an optical signal corresponding to a specific image through the optical module, and at the same time, the optical signal may be returned to the ceiling through the receiver. By receiving, it is also possible to calculate the altitude information of the ceiling. Accordingly, it may be further determined whether the altitude of the ceiling is low enough for the second cleaner to enter.
예를 들어, 천장의 고도가 낮은 것으로 파악된 경우, 즉 제1청소기는 진입할 수 있으나 제2청소기는 진입 불가 영역인 경우, 제1청소기에서 진입불가를 나타내는 이미지에 대응되는 광 신호를 천장에 투사하여, 제2청소기가 진입하여 부딪히지 않도록 방지할 수 있을 것이다. For example, when it is determined that the altitude of the ceiling is low, that is, when the first vacuum cleaner can enter but the second vacuum cleaner is inaccessible, the first vacuum cleaner receives an optical signal corresponding to the image indicating that the first vacuum cleaner cannot enter. By projecting, it will be possible to prevent the second cleaner from entering and hitting.
또 다른 예로, 제1청소기는 카드 형태의 맵 지도 이미지를 삽입하여 천장에 투사함으로서, 제2청소기와 맵 지도 정보를 공유할 수도 있을 것이다. 이를 위해, 제1청소기의 상부 일측, 구체적으로 광 모듈의 전방에는, 맵 지도 카드를 수납할 수 있는 수납 공간이 마련될 수 있을 것이다. As another example, the first cleaner may share the map map information with the second cleaner by inserting the card map image into the ceiling and projecting it on the ceiling. To this end, an accommodating space for accommodating a map map card may be provided at an upper side of the first cleaner, specifically, in front of the optical module.
한편, 이상에서는 두 대의 청소기를 사용하여 협업 청소하는 것을 예시로 설명하였으나, 이에 한정되지 않으며 세대 이상의 청소기가 협업하여 서로의 위치를 인식하면서 청소를 수행하는 경우에도 본 발명의 실시 예들이 적용될 수 있을 것이다.On the other hand, the above has been described as an example of the cooperative cleaning using two cleaners, but is not limited to this, embodiments of the present invention can be applied to the case where the cleaner to perform cleaning while recognizing the location of each other by working with more than one generation will be.
한편, 일 실시 예에서는 천장에 투사된 이미지의 위치를 기초로 후행하는 제2청소기의 주행방향 및 주행속도의 조절할 수 있다. 구체적으로, 투사된 이미지가 화각범위의 중앙에 오는 것을 기준위치로 설정하고, 기준위치를 벗어나는 방향 및 벗어난 정도에 따라 제2청소기의 주행방향과 주행속도를 소정범위로 증가시키거나 감소시킬 수 있다. On the other hand, in one embodiment, it is possible to adjust the running direction and the running speed of the second vacuum cleaner, based on the position of the image projected on the ceiling. Specifically, it is possible to set the projected image to be at the center of the angle of view range as a reference position, and increase or decrease the running direction and traveling speed of the second cleaner to a predetermined range according to the direction away from the reference position and the degree of deviation. .
한편, 천장이 낮거나 주변이 밝은 환경에서는, 비록 도시되지는 않았지만, 제1청소기 및/또는 제2청소기에서 주변 조도에 따라 광 신호의 패턴을 다르게 변경하거나, 비젼 네트워크의 수행이 어려움을 알리는 알림 신호를 출력하거나, 또는 후행하는 청소기가 현재 위치에서 정지하도록 제어할 수도 있을 것이다.On the other hand, in an environment where the ceiling is low or the surroundings are bright, although not shown, the first vacuum cleaner and / or the second vacuum cleaner may change the pattern of the optical signal differently according to the ambient light, or may notify the difficulty of performing the vision network. The cleaner may output a signal or control a trailing cleaner to stop at the current position.
또한, 본 발명에서는 선행하는 제1청소기가 제1 광 모듈을 구비하고 후행하는 제2청소기에서 상방 카메라와 함께 제2 광 모듈을 구비하는 것으로도 구현가능하다. 이러한 경우, 제2청소기는 제1 광 모듈에 대응되는 제1 이미지와 제2 광 모듈에 대응되는 제2 이미지를 동시에 획득할 수 있고, 제1 이미지와 제2 이미지가 오버랩되도록 주행을 조절함으로써, 선행하는 제1청소기와 얼라인하면서 추종/협업 청소를 수행할 수 있다.Further, in the present invention, it is also possible to implement the preceding first cleaner with the first optical module and with the upward camera in the following second cleaner with the second optical module. In this case, the second cleaner may simultaneously acquire a first image corresponding to the first optical module and a second image corresponding to the second optical module, and adjust driving to overlap the first image and the second image. Following / collaborative cleaning can be performed while aligning with the preceding first vacuum cleaner.
이상에서 살펴본 바와 같이, 본 발명의 실시 예에 따른 복수의 로봇 청소기에 의하면, 복수의 로봇 청소기가 서로의 위치를 파악하기 위한 센서를 탑재하지 않고 또는 센서가 탑재되었으나 네트워크 통신이 지원되지 않는 환경에서도, 천장에 투사된 광 신호에 대응되는 이미지를 획득 및 분석함으로써, 선행하는 로봇 청소기와 후행하는 로봇 청소기가 선후 뒤바뀜 없이, 선행하는 로봇 청소기의 위치를 인식하여 효율적인 추종/협업 청소를 수행할 수 있다. 또한, 천장에 투사되는 이미지가 화각범위의 특정 위치에 오도록 청소기의 주행을 조절하거나 또는 천장에 투사되는 복수의 서로 다른 이미지들이 서로 중첩되도록 청소기의 주행을 조절함으로써, 선행하는 청소기의 주행경로를 일치되게 추종할 수 있다.As described above, according to the plurality of robot cleaners according to an embodiment of the present invention, a plurality of robot cleaners may not be equipped with sensors for locating each other, or even in an environment in which a sensor is mounted but network communication is not supported. By acquiring and analyzing the image corresponding to the light signal projected on the ceiling, the preceding robot cleaner and the following robot cleaner can recognize the position of the preceding robot cleaner without performing backward and reverse, and perform efficient following / collaborative cleaning. . In addition, by adjusting the driving of the cleaner so that the image projected on the ceiling is at a specific position of the angle of view range, or by adjusting the driving of the cleaner so that a plurality of different images projected on the ceiling overlap each other, matching the traveling path of the preceding cleaner. Can follow.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 제어부(1800)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer readable codes on a medium on which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet). In addition, the computer may include a
Claims (11)
광 모듈을 구비하고, 상기 광 모듈로부터 주행과 관련된 광 신호를 방사하여 천장에 투사하는 제1 청소기; 및
본체에 구비된 상방 카메라를 이용하여 상기 천장에 투사된 광 신호에 대응되는 이미지를 획득하고, 획득된 이미지를 기초로 상기 제1 청소기의 위치를 인식하여 주행명령을 생성하는 제2 청소기를 포함하고,
상기 제1 청소기의 주행라인 변경시, 상기 제1청소기에서는 방향전환과 관련된 이미지가 천장에 투사되도록 상기 광 모듈을 동작하고 소정 시간 동안 상기 제1 청소기의 주행을 정지하고,
상기 제2 청소기는 상기 방향전환과 관련된 이미지가 획득되면, 획득된 이미지와 이전의 이미지를 기초로 회전하여 주행방향을 변경하고,
상기 소정 시간의 경과에 따라 상기 제1 청소기의 주행이 개시되면, 상기 방향전환과 관련된 이미지가 화각범위의 중심에 오도록 상기 제2 청소기의 위치를 조절하여 주행하는 것을 특징으로 하는 복수의 로봇 청소기.A plurality of robot cleaners comprising a first cleaner and a second cleaner,
A first cleaner having an optical module and emitting an optical signal related to driving from the optical module to project it to a ceiling; And
A second cleaner configured to acquire an image corresponding to the light signal projected on the ceiling by using an upper camera provided in the main body, and generate a driving command by recognizing a position of the first cleaner based on the acquired image; ,
When the driving line of the first cleaner is changed, the first cleaner operates the optical module to project the image related to the change of direction on the ceiling, and stops the driving of the first cleaner for a predetermined time.
When the second cleaner acquires an image related to the change of direction, the second cleaner rotates based on the acquired image and the previous image to change the driving direction,
When the driving of the first cleaner is started as the predetermined time elapses, the plurality of robot cleaners are operated by adjusting the position of the second cleaner so that the image related to the change of direction is at the center of the angle of view range.
상기 광 모듈은 상기 제1 청소기의 상방에 위치하고, 복수의 레이저 또는 복수의 LED 로 이루어지는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 1,
The optical module is located above the first cleaner and is composed of a plurality of lasers or a plurality of LEDs.
상기 광 신호에 대응되는 이미지는 상기 제1 청소기의 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보를 포함하는 정해진 이미지인 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 1,
And the image corresponding to the optical signal is a predetermined image including information related to at least one of a driving state and a driving direction of the first cleaner.
상기 제2 청소기에는 상기 광 신호에 대응되는 이미지에 매치되는 주행 상태 및 주행 방향과 관련된 정보가 메모리에 미리 저장되고,
상기 상방 카메라를 통해 획득된 이미지에 매치되는 주행 상태 및 주행 방향 중 적어도 하나와 관련된 정보가 메모리로부터 검출되는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 3,
The second cleaner may store information related to a driving state and a driving direction corresponding to the image corresponding to the optical signal in advance in a memory.
And a plurality of robot cleaners, wherein information related to at least one of a driving state and a driving direction that matches the image acquired through the upper camera is detected from a memory.
상기 이미지를 형성하는 광 신호의 발광 간격 및 발광 범위 중 적어도 하나를 기초로 상기 제1 청소기의 주행속도가 표시되는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 1,
And a traveling speed of the first cleaner based on at least one of a light emission interval and a light emission range of the optical signal forming the image.
상기 제1 청소기의 주행 중 상기 제2 청소기가 진입 불가 영역에 진입한 것이 감지되면, 정지명령에 대응되는 광 신호를 천장에 투사하는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 1,
And detecting the second cleaner entering an inaccessible area while the first cleaner is running, projecting an optical signal corresponding to the stop command to the ceiling.
상기 제1 청소기에서 방향전환과 관련된 제1이미지가 천장에 투사되면, 상기 제2 청소기에 구비된 광 모듈로부터 정지명령에 대응되는 제2이미지를 천장에 투사하고,
상기 제1 청소기에 구비된 상방 카메라를 이용하여 획득된 상기 제2이미지를 기초로 주행정지를 수행하는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 1,
When the first image related to the change of direction is projected on the ceiling by the first cleaner, the second image corresponding to the stop command is projected onto the ceiling from the optical module provided in the second cleaner,
And a plurality of robot cleaners, wherein the driving stop is performed based on the second image obtained by using the upper camera provided in the first cleaner.
상기 제1 청소기는 상기 제2이미지의 투사가 중단될 때까지 주행을 정지하고,
상기 제1 청소기의 방향전환 완료에 따라 상기 제2이미지의 투사가 중단되면, 상기 제2 청소기가 상기 제1 청소기를 추종하며 상기 제1이미지에 대응되는 방향으로 주행하는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 9.
The first cleaner stops driving until projection of the second image is stopped,
When the projection of the second image is stopped when the redirection of the first cleaner is completed, the second cleaner follows the first cleaner and travels in a direction corresponding to the first image. vacuum cleaner.
상기 제2 청소기는, 상기 제1이미지에 대응되는 방향으로 주행이 개시되면 제3이미지를 천장에 투사하여 상기 제1 청소기에서 방사되는 제1이미지와 얼라인을 수행하는 것을 특징으로 하는 복수의 로봇 청소기.The method of claim 10,
The plurality of robots, when the driving is started in a direction corresponding to the first image, aligns the first image emitted from the first cleaner by projecting a third image onto the ceiling. vacuum cleaner.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180084978A KR102081340B1 (en) | 2018-07-20 | 2018-07-20 | A plurality of autonomous cleaner and a controlling method for the same |
PCT/KR2019/009019 WO2020017943A1 (en) | 2018-07-20 | 2019-07-22 | Multiple robotic cleaners and method for controlling same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180084978A KR102081340B1 (en) | 2018-07-20 | 2018-07-20 | A plurality of autonomous cleaner and a controlling method for the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200013177A KR20200013177A (en) | 2020-02-06 |
KR102081340B1 true KR102081340B1 (en) | 2020-02-25 |
Family
ID=69164543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180084978A KR102081340B1 (en) | 2018-07-20 | 2018-07-20 | A plurality of autonomous cleaner and a controlling method for the same |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102081340B1 (en) |
WO (1) | WO2020017943A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210080022A (en) * | 2019-12-20 | 2021-06-30 | 엘지전자 주식회사 | Moving Robot and controlling method |
KR102369661B1 (en) * | 2020-02-26 | 2022-03-02 | 엘지전자 주식회사 | Moving robot and Controlling method for the same |
CN111887777B (en) * | 2020-07-29 | 2023-03-07 | 深圳市普森斯科技有限公司 | Cleaning control method, cleaning control device, electronic device and storage medium |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100483548B1 (en) | 2002-07-26 | 2005-04-15 | 삼성광주전자 주식회사 | Robot cleaner and system and method of controlling thereof |
JP4639253B2 (en) | 2008-10-31 | 2011-02-23 | 東芝テック株式会社 | Autonomous mobile device and control method thereof |
KR101331952B1 (en) | 2011-10-13 | 2013-11-26 | 엘지전자 주식회사 | Robot cleaner and controlling method thereof |
KR101854337B1 (en) * | 2016-05-17 | 2018-05-03 | 엘지전자 주식회사 | Cleaner and controlling method |
JP2018106217A (en) * | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Autonomous mobile body, movement control method and movement control program |
-
2018
- 2018-07-20 KR KR1020180084978A patent/KR102081340B1/en active IP Right Grant
-
2019
- 2019-07-22 WO PCT/KR2019/009019 patent/WO2020017943A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100483548B1 (en) | 2002-07-26 | 2005-04-15 | 삼성광주전자 주식회사 | Robot cleaner and system and method of controlling thereof |
JP4639253B2 (en) | 2008-10-31 | 2011-02-23 | 東芝テック株式会社 | Autonomous mobile device and control method thereof |
KR101331952B1 (en) | 2011-10-13 | 2013-11-26 | 엘지전자 주식회사 | Robot cleaner and controlling method thereof |
KR101854337B1 (en) * | 2016-05-17 | 2018-05-03 | 엘지전자 주식회사 | Cleaner and controlling method |
JP2018106217A (en) * | 2016-12-22 | 2018-07-05 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Autonomous mobile body, movement control method and movement control program |
Also Published As
Publication number | Publication date |
---|---|
WO2020017943A1 (en) | 2020-01-23 |
KR20200013177A (en) | 2020-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102015498B1 (en) | A plurality of autonomous cleaner and a controlling method for the same | |
KR102252034B1 (en) | A robot cleaner and a controlling method for the same | |
KR102067603B1 (en) | A plurality of robot cleaner and a controlling method for the same | |
KR102234641B1 (en) | Moving robot and Controlling method for the same | |
KR20190134969A (en) | A plurality of robot cleaner and a controlling method for the same | |
KR20200103203A (en) | A plurality of autonomous mobile robots and a controlling method for the same | |
EP3809939B1 (en) | Plurality of autonomous cleaner and controlling method for the same | |
KR102210360B1 (en) | a Moving robot and Controlling method for the moving robot | |
KR20220031589A (en) | Moving robot and Controlling method for the same | |
KR102309303B1 (en) | Robot Cleaner and Controlling Method for the same | |
KR102217540B1 (en) | Moving robot and Controlling method for the same | |
KR102424536B1 (en) | a Moving robot and Controlling method for the moving robot | |
KR102081340B1 (en) | A plurality of autonomous cleaner and a controlling method for the same | |
KR102179057B1 (en) | A plurality of autonomous cleaner and a controlling method for the same | |
US12004702B2 (en) | Mobile robot and method of controlling mobile robot | |
KR102309898B1 (en) | Docking equipment and Moving robot system | |
KR102535719B1 (en) | a Moving robot and Controlling method for the moving robot | |
KR102035467B1 (en) | A robot cleaner and a controlling method for the same | |
KR20200133544A (en) | A moving robot and an controlling method for the same | |
KR102361982B1 (en) | Moving robot and method for controlling thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |