KR102070067B1 - Artificial intelligence Moving Robot and controlling method - Google Patents
Artificial intelligence Moving Robot and controlling method Download PDFInfo
- Publication number
- KR102070067B1 KR102070067B1 KR1020170139495A KR20170139495A KR102070067B1 KR 102070067 B1 KR102070067 B1 KR 102070067B1 KR 1020170139495 A KR1020170139495 A KR 1020170139495A KR 20170139495 A KR20170139495 A KR 20170139495A KR 102070067 B1 KR102070067 B1 KR 102070067B1
- Authority
- KR
- South Korea
- Prior art keywords
- obstacle
- image
- image data
- unit
- mobile robot
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
- A47L9/2836—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
- A47L9/2852—Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명의 장애물을 학습하는 인공지능 이동 로봇 및 그 제어방법은 영상획득부를 통해 주행중 영상을 촬영하여 촬영되는 복수의 영상데이터를 저장하고, 장애물 감지유닛에 의해 장애물이 소정거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 상기 대응모션을 결정하는 제어부를 포함하여, 장애물이 소정거리 내에 위치한 시점에서 그 이전에 촬영된 영상을 통해 장애물을 판단하여, 장애물이 소정거리 내에 위치하는 시점에서 즉시 대응하는 동작을 수행할 수 있고, 상이한 복수의 장애물에 대하여 장애물 감지 시 동일한 감지신호가 입력되더라도 영상을 통해 장애물을 판단하여 장애물에 따라 상이한 동작이 수행되도록 하여 다양한 장애물에 대응할 수 있으므로 영상을 이용한 장애물 학습을 통해 장애물을 효과적으로 회피할 수 있고 장애물의 종류에 따른 동작을 수행할 수 있다. The artificial intelligence mobile robot learning the obstacles of the present invention and a control method thereof store a plurality of image data photographed by shooting an image while driving through an image acquisition unit, and the obstacle detection unit determines that the obstacle is located within a predetermined distance. The control unit starts a corresponding motion at a predetermined time point, and includes a controller configured to determine the corresponding motion according to the obstacle determined based on the image data acquired before the predetermined time point. The obstacle may be determined based on the captured image, and the corresponding operation may be immediately performed when the obstacle is located within a predetermined distance, and the obstacle may be determined through the image even when the same detection signal is input when detecting the obstacle with respect to a plurality of different obstacles. To perform different actions according to obstacles It can cope with obstacles to learning through obstacles using video effectively avoid obstacles and can perform the operation according to the type of obstacles.
Description
본 발명은 이동 로봇 및 그 제어방법에 관한 것으로, 청소영역을 주행하며 청소를 수행하는 이동 로봇 및 그 제어방법에 관한 것이다. The present invention relates to a mobile robot and a control method thereof, and more particularly, to a mobile robot and a method of controlling the same.
일반적으로 이동 로봇은 사용자의 조작 없이도 청소하고자 하는 구역 내를 스스로 주행하면서 바닥면으로부터 먼지 등의 이물질을 흡입하여 자동으로 청소하는 기기이다.In general, a mobile robot is a device for automatically cleaning by inhaling foreign substances such as dust from the floor surface while driving by itself in the area to be cleaned without the user's operation.
이러한 이동 로봇은 청소구역 내에 설치된 가구나 사무용품, 벽 등의 장애물까지의 거리를 감지하고, 장애물 회피 동작을 수행한다. The mobile robot detects the distance to obstacles such as furniture, office supplies, walls, etc. installed in the cleaning area, and performs an obstacle avoidance operation.
이동 로봇은, 장애물을 감지하기 위한 수단으로, 적외선, 레이저 등의 장애물 감지수단을 구비하고 있다. 이동로봇은 적외선 또는 레이저 등의 센서에 의한 감지신호를 바탕으로, 소정 거리 내의 장애물을 감지하여 장애물을 회피한다. The mobile robot is a means for detecting an obstacle, and includes an obstacle detection means such as an infrared ray or a laser. The mobile robot avoids obstacles by detecting an obstacle within a predetermined distance based on a detection signal by a sensor such as an infrared ray or a laser.
장애물을 감지 시 즉시 경로를 변경하는 경우 해당 영역에 대한 청소를 수행할 수 없으므로, 최대한 장애물에 근접하거나 또는 충돌한 후에 경로를 변경하게 된다. If the path is changed immediately when an obstacle is detected, the area cannot be cleaned, so the path is changed after approaching or colliding with the obstacle as much as possible.
그러나, 청소를 위해 접근하여 장애물에 충돌하는 경우, 이동 로봇의 충돌로 인하여 대상이 파손되는 등의 문제점이 발생할 수 있다. 예를 들어 탁자위의 화분이 떨어지거나 장애물이 파손될 수 있고, 장애물의 위치가 변경되는 등의 문제가 발생할 수 있다. However, in the case of approaching and cleaning an obstacle to the cleaning, problems such as damage to the object due to the collision of the mobile robot may occur. For example, there may be a problem that the flower pot on the table may fall or an obstacle may be broken, and the position of the obstacle may be changed.
또한, 이동 로봇이 장애물과 충돌하는 과정에서 미끄러짐 등의 현상이 발생함에 따라 이동 로봇에서 판단하는 위치와 실제 위치에 오차가 발생하는 문제점이 있다. In addition, there is a problem that an error occurs in the position and the actual position determined by the mobile robot as a phenomenon such as a slip occurs in the process of collision with the obstacle.
따라서 장애물의 종류를 인식하여 장애물에 따라 이동 로봇이 동작할 필요성이 있다.
Therefore, it is necessary to recognize the type of obstacle to operate the mobile robot according to the obstacle.
본 발명이 해결하고자 하는 과제는, 주행중에 영상을 촬영하고, 장애물이 감지되면 기 촬영된 영상을 통해 장애물에 대응하는 모션을 수행하는 이동 로봇 및 그 제어방법을 제공하는 것이다.
SUMMARY OF THE INVENTION An object of the present invention is to provide a mobile robot and a control method of photographing an image while driving and performing a motion corresponding to an obstacle through a pre-photographed image when an obstacle is detected.
본 발명이 일 실시예에 따른 이동 로봇은, 이동 가능한 본체; 주행방향에 대한 영상을 촬영하는 영상획득부; 주행방향에 위치한 장애물을 감지하는 장애물 감지유닛; 상기 영상획득부를 통해 촬영되는 복수의 영상데이터를 저장하고, 상기 장애물 감지유닛에 의해 상기 장애물이 소정거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 상기 대응모션을 결정하는 제어부를 포함한다. According to an embodiment of the present invention, a mobile robot includes: a main body movable; An image acquisition unit for photographing an image of a driving direction; An obstacle detecting unit detecting an obstacle located in a driving direction; Stores a plurality of image data photographed through the image acquisition unit, and starts the corresponding motion at a predetermined time point determined by the obstacle detection unit to be located within a predetermined distance, the image obtained before the predetermined time point And a controller configured to determine the corresponding motion according to the obstacle determined based on data.
본 발명의 이동 로봇의 제어방법은 주행 중, 영상획득부에 의해 주행방향에 대한 영상을 촬영하여 영상데이터를 저장하는 단계; 장애물 감지유닛을 통해 소정 거리 내에 장애물이 위치한 것을 판단하는 단계; 상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점, 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라 대응모션을 결정하는 단계; 상기 소정 시점에, 상기 장애물에 대한 대응모션을 시작하는 단계; 및 상기 대응모션에 따라 동작하여 상기 장애물을 회피하거나 또는 통과하여 주행하는 단계를 포함한다. The control method of the mobile robot of the present invention includes the steps of: storing the image data by taking an image of the driving direction by the image acquisition unit while driving; Determining that the obstacle is located within a predetermined distance through the obstacle detecting unit; Determining a corresponding motion according to a predetermined time point at which the obstacle is determined to be located within a predetermined distance and the obstacle determined based on the previously acquired image data; Starting a corresponding motion for the obstacle at the predetermined time point; And operating according to the corresponding motion to avoid or pass through the obstacle.
본 발명의 이동 로봇 및 그 제어방법은 주행방향에 위치하는 장애물에 대하여 장애물에 대한 감지신호를 바탕으로 대응할 수 있는 복수의 대응모션을 설정하고, 복수의 대응모션 중 어느 하나의 대응모션을 수행함에 따라 장애물에 따라 상이한 동작을 수행할 수 있다. The mobile robot and its control method of the present invention set a plurality of corresponding motions corresponding to the obstacles located in the driving direction based on a detection signal for the obstacles, and perform any one of the plurality of corresponding motions. Accordingly, different operations may be performed according to obstacles.
본 발명은 주행중에 영상을 촬영하고, 장애물이 소정 거리 내에 위치하는 경우 기 촬영된 영상을 분석하여 장애물에 대하여 설정된 복수의 모션 중 어느 하나를 선택하여 수행함에 따라, 상이한 복수의 장애물에 대하여 장애물 감지 시 동일한 감지신호가 입력되더라도 영상을 통해 장애물을 판단하여 장애물에 따라 상이한 동작이 수행되도록 하여 다양한 장애물에 대응할 수 있다. According to the present invention, when an image is taken while driving, and an obstacle is located within a predetermined distance, an obstacle is detected for a plurality of different obstacles as the selected image is analyzed by performing any one of a plurality of motions set for the obstacle. Even when the same detection signal is input at the same time, the obstacle may be determined based on the image so that different operations may be performed according to the obstacle, and thus various obstacles may be responded to.
또한, 본 발명은 주행 중에 주행방향에 대한 영상을 촬영함으로써, 장애물이 소정거리 내에 위치한 시점에서 그 이전에 촬영된 영상을 통해 장애물을 판단할 수 있고, 장애물이 소정거리 내에 위치하기 전에 사전에 영상을 통해 장애물을 사전에 판단하여, 장애물이 소정거리 내에 위치하는 시점에서 즉시 대응하는 동작을 수행할 수 있으므로, 장애물을 효과적으로 회피할 수 있고 장애물의 종류에 따른 동작을 수행할 수 있다. In addition, the present invention by taking an image of the driving direction while driving, it is possible to determine the obstacle through the image taken before it at the time when the obstacle is located within a predetermined distance, the image in advance before the obstacle is located within the predetermined distance By determining the obstacle in advance, the corresponding operation can be performed immediately at the time when the obstacle is located within a predetermined distance, it is possible to effectively avoid the obstacle and to perform the operation according to the type of obstacle.
본 발명은 촬영되는 영상을 기반으로 장애물을 추적할 수 있고, 장애물이 감지되는 시점에서 즉각적으로 동작을 수행함에 따라 장애물과의 충돌로 인한 장애물의 파손을 방지하고, 충돌로 인한 위치 오차를 방지할 수 있으며, 주행하는 영역의 환경변화를 감지하여 동작할 수 있다.
The present invention can track the obstacle based on the image to be photographed, and as soon as the operation is performed at the time when the obstacle is detected to prevent the damage of the obstacle due to the collision with the obstacle, to prevent the position error due to the collision It can be operated by detecting an environment change of the driving area.
도 1 은 본 발명의 일 실시예에 따른 이동 로봇 시스템의 이동 로봇이 도시된 사시도이다.
도 2 는 도 1의 이동 로봇의 수평 화각을 도시한 도이다.
도 3 은 도 1의 이동 로봇의 전면도이다.
도 4 는 도 1의 이동 로봇의 저면을 도시한 도이다.
도 5 는 본 발명의 일 실시예에 따른 이동 로봇 및 장애물 인식을 위한 시스템이 간략하게 도시된 도이다.
도 6 은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 7 및 도 8 은 발명의 이동 로봇의 주행 및 주행중 촬영되는 영상의 예가 도시된 도이다.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 장애물에 따른 감지신호 및 장애물인식에 대하여 설명하는데 참조되는 도이다.
도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 중 장애물의 종류에 따른 동작을 설명하는데 참조되는 도이다.
도 11은 본 발명의 일실시예에 따른 이동 로봇 및 장애물 인식을 위한 기기간의 신호 흐름을 설명하는데 참조되는 도이다.
도 12 는 본 발명의 일실시예에 따른 이동 로봇의 장애물감지 및 대응 동작을 수행하는 과정을 설명하는데 참조되는 흐름도이다.
도 13 는 본 발명의 일실시예에 따른 이동 로봇의 장애물 인식 및 그에 따른 제어방법을 설명하는데 참조되는 순서도이다. 1 is a perspective view showing a mobile robot of the mobile robot system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a horizontal angle of view of the mobile robot of FIG. 1.
3 is a front view of the mobile robot of FIG. 1.
4 is a diagram illustrating a bottom surface of the mobile robot of FIG. 1.
5 is a diagram schematically illustrating a system for recognizing a mobile robot and an obstacle according to an embodiment of the present invention.
6 is a block diagram illustrating main parts of a mobile robot according to an exemplary embodiment of the present invention.
7 and 8 are diagrams showing an example of an image photographed while driving and driving of the mobile robot of the present invention.
FIG. 9 is a diagram for describing a detection signal and an obstacle recognition according to an obstacle of a mobile robot according to an embodiment of the present invention.
FIG. 10 is a diagram referred to for describing an operation according to a type of an obstacle while driving of a mobile robot according to an embodiment of the present invention.
FIG. 11 is a diagram referred to for describing a signal flow between a mobile robot and a device for obstacle recognition according to an embodiment of the present invention.
12 is a flowchart referred to for explaining a process of performing an obstacle detection and a corresponding operation of a mobile robot according to an embodiment of the present invention.
FIG. 13 is a flowchart referred to for describing obstacle recognition and a control method according to an embodiment of the present invention. FIG.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. 본 발명의 제어구성은 적어도 하나의 프로세서로 구성될 수 있다. Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be embodied in various different forms, and the present embodiments merely make the disclosure of the present invention complete, and those of ordinary skill in the art to which the present invention belongs. It is provided to fully inform the person having the scope of the invention, which is defined only by the scope of the claims. Like reference numerals refer to like elements throughout. The control configuration of the present invention may be composed of at least one processor.
도 1은 본 발명의 일 실시예에 따른 이동 로봇의 사시도이다. 도 2는 도 1의 이동 로봇의 수평 화각을 도시한 것이다. 도 3은 도 1의 이동 로봇의 전면도이다. 도 4는 도 1의 이동 로봇의 저면을 도시한 것이다. 1 is a perspective view of a mobile robot according to an embodiment of the present invention. 2 illustrates a horizontal angle of view of the mobile robot of FIG. 1. 3 is a front view of the mobile robot of FIG. 1. 4 illustrates a bottom surface of the mobile robot of FIG. 1.
도 1 내지 도 4를 참조하면, 본 발명의 일 실시예에 따른 이동 로봇(1)은 청소구역의 바닥을 따라 이동하며, 바닥 상의 먼지 등의 이물질을 흡입하는 본체(10)와, 본체(10)의 전면에 배치되어 장애물을 감지하는 감지수단을 포함한다. 1 to 4, the
본체(10)는 외관을 형성하며 내측으로 본체(10)를 구성하는 부품들이 수납되는 공간을 형성하는 케이싱(11)과, 케이싱(11)에 배치되어 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)과, 케이싱(11)에 회전 가능하게 구비되는 좌륜(36(L))과 우륜(36(R))을 포함할 수 있다. 좌륜(36(L))과 우륜(36(R))이 회전함에 따라 본체(10)가 청소구역의 바닥을 따라 이동되며, 이 과정에서 흡입유닛(34)을 통해 이물질이 흡입된다.The
흡입유닛(34)은 흡입력을 발생시키는 흡입 팬(미도시)과, 흡입 팬의 회전에 의해 생성된 기류가 흡입되는 흡입구(10h)를 포함할 수 있다. 흡입유닛(34)은 흡입구(10h)를 통해 흡입된 기류 중에서 이물질을 채집하는 필터(미도시)와, 필터에 의해 채집된 이물질들이 축적되는 이물질 채집통(미도시)을 포함할 수 있다.The
또한, 본체(10)는 좌륜(36(L))과 우륜(36(R))을 구동시키는 주행부를 포함할 수 있다. 주행부는 적어도 하나의 구동모터를 포함할 수 있다. 적어도 하나의 구동모터는 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.In addition, the
좌륜 구동모터와 우륜 구동모터는 제어부의 주행제어부에 의해 작동이 독립적으로 제어됨으로써 본체(10)의 직진, 후진 또는 선회가 이루어질 수 있다. 예를들어, 본체(10)가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜(37)이 더 구비될 수 있다.The left wheel drive motor and the right wheel drive motor may be driven straight, backward or swiveling of the
케이싱(11)의 저면부 전방측에 위치하며, 방사상으로 연장된 다수개의 날개로 이루어진 솔을 갖는 복수의 브러시(35)가 더 구비될 수 있다. 복수의 브러시(35)의 회전에 의해 청소구역의 바닥으로부터 먼지들이 제거되며, 이렇게 바닥으로부터 분리된 먼지들은 흡입구(10h)를 통해 흡입되어 채집통에 모인다.A plurality of
케이싱(11)의 상면에는 사용자로부터 이동 로봇(1)의 제어를 위한 각종 명령을 입력받는 조작부(160)를 포함하는 컨트롤 패널이 구비될 수 있다.The upper surface of the
감지수단은, 도 1의 (a)와 같이 복수의 센서를 이용하여 장애물을 감지하는 센서부(150), 영상을 촬영하는 영상획득부(170)를 포함한다. The sensing means includes a
또한, 감지수단은, 도 1의 (b)와 같이, 본체(10)의 전면에 배치되어, 장애물을 감지하는 장애물 감지유닛(100), 영상을 촬영하는 영상획득부(170)를 포함할 수 있다. 장애물 감지유닛(100)은 광패턴을 조사하고 촬영되는 영상을 통해 장애물을 감지한다. 장애물 감지유닛(100)은 패턴획득부(140)를 포함하고, 또한, 센서부(150)를 포함할 수 있다. In addition, the sensing means, as shown in Figure 1 (b), may be disposed in the front of the
영상획득부(170)는 각각 전방을 향하도록 구비되어 주행방향을 촬영하고, 또한, 경우에 따라 천장을 향하도록 구비될 수 있다. 경우에 따라 전방과 천장을 향하는 두개의 영상획득부(170)가 구비될 수도 있다. 두개의 영상획득부가 구비되는 경우, 본체의 전면과 상단부에 각각 설치되어 전방과 천장의 영상을 각각 촬영할 수 있다. The
장애물 감지유닛(100)은 본체(10)의 전면에 배치될 수 있다. The
장애물 감지유닛(100)은 케이싱(11)의 전면에 고정되고, 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 패턴획득부(140)를 포함한다. 이때 패턴획득부(140)는 도시된 바와 같이 패턴조사부의 하부에 설치되거나 또는 제 1 및 제 2 패턴조사부 사이에 배치될 수 있다. The
도 2에서, 표시된 조사각(θh)은 제 1 패턴 조사부(120)로부터 조사된 제 1 패턴 광(P1)의 수평조사각을 표시한 것으로, 수평선의 양단이 제 1 패턴 조사부(120)와 이루는 각도를 나타내며, 130˚ 내지 140˚ 범위에서 정해지는 것이 바람직하나, 반드시 이에 한정되어야 하는 것은 아니다. 도 2에 표시된 점선은 이동 로봇(1)의 전방을 향하는 것이며, 제 1 패턴 광(P1)은 점선에 대해 대칭인 형태로 구성될 수 있다.In FIG. 2, the displayed irradiation angle θh represents the horizontal irradiation angle of the first pattern light P1 irradiated from the first
본체(10)에는 재충전이 가능한 배터리(38)가 구비되며, 배터리(38)의 충전 단자(33)가 상용 전원(예를 들어, 가정 내의 전원 콘센트)과 연결되거나, 상용 전원과 연결된 별도의 충전대(400)에 본체(10)가 도킹되어, 충전 단자(33)가 충전대의 단자(410)와의 접촉을 통해 상용 전원과 전기적으로 연결되고, 배터리(38)의 충전이 이루어질 수 있다. 이동 로봇(1)을 구성하는 전장 부품들은 배터리(38)로부터 전원을 공급받을 수 있으며, 따라서, 배터리(38)가 충전된 상태에서 이동 로봇(1)은 상용 전원과 전기적으로 분리된 상태에서 자력 주행이 가능하다.The
도 5 는 본 발명의 일 실시예에 따른 이동 로봇 및 장애물 인식을 위한 시스템이 간략하게 도시된 도이다. 5 is a diagram schematically illustrating a system for recognizing a mobile robot and an obstacle according to an embodiment of the present invention.
이동 로봇(1)은 주행영역(H) 중 소정의 청소영역에 대한 청소명령을 수신하여 청소를 수행한다. 이동 로봇(1)은 주행 중 촬영되는 영상을 분석하여 장애물의 종류를 판단한다. The
이동 로봇(1)은 주행영역(H)에 존재하는 복수의 장애물(2, 3)을 감지하여 장애물을 인식하고, 장애물의 종류에 따라 접근, 통과, 회피 중 어느 하나의 동작을 수행한다. 이때, 이동 로봇(1)은 장애물에 접근하지 않고 회피하거나, 소정거리 접근한 후 소정의 동작을 수행할 수 있고, 장애물에 근접한 이후에 회피할 수 있으며, 장애물의 형태에 따라 장애물을 통과할 수 있다. The
이동 로봇(1)은 주행 중에 구비되는 영상획득부(170)를 통해 주행방향을 촬영하고 장애물 감지유닛(100)을 통해 소정거리 내에 위치하는 장애물을 감지한다. 이동 로봇(1)은 영상획득부(170)를 통해 연속적으로 주행방향을 촬영할 수 있고, 설정에 따라 소정시간 간격으로 영상을 촬영할 수 있다. The
이동 로봇(1)은 주행중에 촬영되는 영상을 저장하고, 장애물 감지유닛(100)을 통해 장애물이 감지되면, 대응 가능한 대응모션을 선별한 후, 영상분석을 통해 판단된 장애물에 따라, 특히 장애물의 종류에 따라 장애물에 대한 대응모션을 결정하여 동작한다. The
이동 로봇(1)은 상이한 장애물에 대하여 장애물 감지유닛(100)에 의해 동일한 감지신호가 입력되는 경우라도, 기 촬영된 영상을 바탕으로 장애물을 분석하여, 장애물에 따른 대응모션을 설정하고, 그에 따라 장애물에 대응하는 동작을 수행한다. Even if the same detection signal is input by the
또한, 이동 로봇(1)은 영상이 촬영되면, 소정 시간 간격으로 영상을 분석하여 영상에 포함된 장애물을 인식하고, 장애물 감지유닛(100)에의해 소정 거리내에 장애물이 위치하는 것이 감지되면, 기 판단된 장애물의 종류를 바탕으로 대응모션에 대한 동작을 수행할 수 있다. In addition, when the image is taken, the
예를 들어, 이동 로봇(1)은 장애물에 따라 위험장애물인 경우 접근하지 않고 회피하도록 하고, 일반 장애물인 경우 근접거리까지 접근하거나 또는 장애물에 충돌 후 회피하도록 한다. For example, the
이동 로봇(1)은 자체 저장되는 데이터를 바탕으로 장애물의 종류를 판단하고 또한, 서버(90) 또는 단말(80)과 연결되어 장애물의 종류를 판단할 수 있다. 이동 로봇(1)은 네트워크(N)를 통해 서버(90)와의 통신하기 위해 별도의 통신장치(미도시)와 연결될 수 있다. The
이동 로봇(1)은 주행 중 촬영되는 영상에 대하여, 각 영상데이터를 필터링하여, 소정 시간 간격으로 서버 또는 단말로 전송하여 장애물 정보를 요청함으로써, 영상데이터에 포함된, 장애물에 대한 정보를 서버 또는 단말로부터 수신한다. 이동 로봇(1)은 장애물 감지유닛(100)에 의해 장애물이 소정거리 내에 위치하는 것으로 판단되는 때에, 영상데이터를 통해 장애물을 즉시 확인할 수 있다. The
단말(80)은 이동 로봇(1)을 제어하기 위한 어플리케이션을 구비하고, 어플리케이션의 실행을 통해 이동 로봇(1)이 청소할 주행구역에 대한 맵을 표시하고, 맵 상에 특정 영역을 청소하도록 영역을 지정할 수 있다. 또한, 이동 로봇으로부터 수신되는 데이터를 바탕으로 이동 로봇의 위치를 표시하고, 청소상태에 대한 정보를 표시한다. The terminal 80 includes an application for controlling the
단말은 통신모듈이 탑재되어 네트워크 접속이 가능하고 이동 로봇을 제어하기 위한 프로그램, 또는 이동 로봇 제어용 어플리케이션이 설치된 기기로, 컴퓨터, 랩탑, 스마트폰, PDA, 태블릿PC 등의 기기가 사용될 수 있다. 또한, 단말은, 스마트 워치 등의 웨어러블(wearable) 장치 또한 사용될 수 있다. The terminal is a device equipped with a communication module is connected to the network and the program for controlling the mobile robot, or the application for controlling the mobile robot, a device such as a computer, laptop, smartphone, PDA, tablet PC may be used. In addition, the terminal may also use a wearable device such as a smart watch.
단말(80)은 이동 로봇과, 가정 내 구축되는 네트워크를 통해 상호 연결될 수 있다. 단말과 이동 로봇은 WIFI로 연결됨은 물론, 블루투스, 적외선통신, 지그비 등의 근거리 무선통신방식을 이용하여 상호 통신할 수 있다. 단말과 이동 로봇의 통신 방식은, 이에 한정되지 않음을 명시한다. The terminal 80 may be connected to the mobile robot through a network built in the home. The terminal and the mobile robot may be connected to each other using WIFI as well as short range wireless communication such as Bluetooth, infrared communication, and Zigbee. It is specified that the communication method between the terminal and the mobile robot is not limited thereto.
또한, 단말(80)은 이동 로봇(1)으로부터 수신되는 영상에 대응하여 장애물의 종류를 판단할 수 있다. 단말(80)은 기 저장된 데이터를 바탕으로 장애물의 종류를 판단하거나, 서버와 연결되어 장애물의 종류를 판단할 수 있다. 예를들어 이동 로봇(1)이 네트워크 접속을 통한 서버연결이 불가능한 경우, 단말(80)이 이동 로봇의 데이터를 수신하여 서버로 전송할 수 있다. In addition, the terminal 80 may determine the type of obstacle in response to the image received from the
또한, 단말(80)은 영상을 화면에 표시하여 사용자의 입력을 통해 장애물의 종류를 입력하여 이동 로봇으로 전송할 수 있고, 어플리케이션의 메뉴를 통해 특정 장애물에 대한 동작을 지정할 수 있다. In addition, the terminal 80 may display an image on a screen, input a type of obstacle through a user input, and transmit the type of obstacle to a mobile robot, and designate an operation for a specific obstacle through a menu of an application.
서버(90)는 소정 네트워크(N)를 통해 접속되는, 이동 로봇(1)으로부터 수신되는 영상데이터를 분석하여 장애물의 종류를 판단하고, 그에 대한 응답을 이동 로봇(1)으로 전송한다. 서버(90)는 단말로부터 요청이 있는 경우 장애물의 종류를 판단하여 응답할 수 있다. The
서버(90)는 복수의 이동 로봇(1)으로부터 수신되는 영상데이터를 바탕으로 하는 장애물 인식을 위한 데이터베이스(미도시)를 구비하여, 영상데이터로부터 추출되는 장애물에 대한 특징을 인식하여 장애물의 종류를 판단한다. The
서버(90)는 장애물 정보를 누적하여 저장하고, 장애물 정보를 분석하여 장애물의 종류를 판단한다. 또한, 서버(90)는 장애물을 종류에 따라 분류하여 장애물에 대한 이동 로봇(1)의 동작을 설정할 수 있다. The
서버(90)는 새로운 장애물 정보를 분석하여, 기 저장된 장애물 정보를 갱신한다. 또한, 서버(90)는 단말(80)에 의해 설정되거나 또는 변경되는 장애물에 대한 이동 로봇의 동작정보를 수신하여 저장하고, 기 저장된 장애물 정보에 매칭하여 장애물에 대한 이동 로봇의 동작에 대한 설정을 갱신한다. The
도 6은 본 발명의 일 실시예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.6 is a block diagram illustrating main parts of a mobile robot according to an exemplary embodiment of the present invention.
도 6에 도시된 바와 같이, 이동 로봇(1)은 장애물 감지유닛(100), 영상획득부(170), 청소부(260), 주행부(250), 데이터부(180), 출력부(190), 조작부(160), 통신부(280) 그리고 동작 전반을 제어하는 제어부(110)를 포함한다. As shown in FIG. 6, the
조작부(160)는 적어도 하나의 버튼, 스위치, 터치입력수단을 포함하여, 이동 로봇(1)의 작동 전반에 필요한, 온/오프 또는 각종 명령을 입력받아 제어부(110)로 입력한다. The
출력부(190)는 LED, LCD와 같은 디스플레이를 구비하고, 이동 로봇(1)의 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태 등을 표시한다. 또한, 출력부(190)는 스피커 또는 버저를 구비하여, 동작모드, 예약 정보, 배터리 상태, 동작상태, 에러상태에 대응하는 소정의 효과음, 경고음 또는 음성안내를 출력한다. The
통신부(280)는, 무선통신 방식으로 단말(80)과 통신한다. 또한, 통신부(280)는 가정 내 네트워크를 통해, 인터넷망에 연결되어, 외부의 서버(90)와 통신할 수 있다. The
통신부(280)는 생성되는 지도를 단말(80)로 전송하고, 단말로부터 청소명령을 수신하며, 이동 로봇의 동작상태, 청소상태에 대한 데이터를 단말로 전송한다. 통신부(280)는 지그비, 블루투스 등의 근거리 무선통신 뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다. The
통신부(280)는 장애물 감지유닛(100)으로부터 감지되는 장애물에 대한 정보를 통신부(280)를 통해 서버(90)로 전송하고, 서버로부터 장애물에 대한 데이터를 수신한다. 또한, 통신부(280)는 단말(80)로부터 주행구역 내에 존재하는 장애물에 대한 정보 및 그에 따른 동작정보를 수신하고, 이동 로봇의 동작데이터를 단말(80)로 전송한다. The
주행부(250)는 적어도 하나의 구동모터를 포함하여 주행제어부(113)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(250)는 앞서 설명한 바와 같이, 좌륜(36(L))을 회전시키는 좌륜 구동모터와 우륜(36(R))을 회전시키는 우륜 구동모터를 포함할 수 있다.The driving
청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 청소부(260)는 먼지나 쓰레기 등의 이물질을 흡입하는 흡입유닛(34)에 구비되는 흡입 팬의 동작을 제어하여 먼지가 흡입구를 통해 이물질 채집통(먼지통)에 투입되도록 한다. The
또한, 청소부(260)는 본체의 저면부 후방에 설치되어 바닥면과 접하여 바닥면을 물걸레질하는 물걸레청소부(미도시), 물걸레청소부로 물을 공급하는 물통(미도시)을 더 포함할 수 있다. In addition, the
배터리(미도시)는 구동 모터뿐만 아니라, 이동 로봇(1)의 작동 전반에 필요한 전원을 공급한다. 배터리가 방전될 시, 이동 로봇(1)은 충전을 위해 충전대(400)로 복귀하는 주행을 할 수 있으며, 이러한 복귀 주행 중, 이동 로봇(1)은 스스로 충전대의 위치를 탐지할 수 있다. 충전대(400)는 소정의 복귀 신호를 송출하는 신호 송출부(미도시)를 포함할 수 있다. 복귀 신호는 초음파 신호 또는 적외선 신호일 수 있으나, 반드시 이에 한정되어야하는 것은 아니다.The battery (not shown) supplies not only a drive motor, but also power necessary for the overall operation of the
데이터부(180)에는 장애물 감지유닛(100), 또는 센서부(150)로부터 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. In the
데이터부(180)는 장애물의 종류를 판단하기 위한 장애물데이터(181), 촬영되는 영상이 저장되는 영상데이터(182), 영역에 대한 지도데이터(183)가 저장된다. 지도데이터(183)에는 장애물정보가 포함되며, 이동 로봇에 의해 탐색되는 주행가능한 영역에 대한 기초맵, 기초맵으로부터 영역이 구분된 청소맵, 청소맵의 영역의 형상을 정리하여 사용자가 확인할 수 있도록 생성된 사용자맵, 그리고 청소맵과 사용자맵이 중첩되어 표시되는 가이드맵이 저장될 수 있다. The
장애물데이터(181)는 장애물 인식 및 장애물의 종류를 판단하기 위한 데이터이고, 인식된 장애물에 대한 이동 로봇의 동작, 예를 들어 주행속도, 주행방향, 회피 여부, 정지 여부 등에 대한 모션정보와, 스피커(173)를 통해 출력되는 효과음, 경고음, 음성안내에 대한 데이터가 포함된다. 영상데이터(182)는 촬영된 영상, 서버로부터 수신된 장애물 인식을 위한 인식정보가 포함된다. The
또한, 데이터부(180)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 청소모드에 따른 데이터, 센서부(150)에 의한 초음파/레이저 등의 감지신호가 저장된다. In addition, the
데이터부(180)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 것으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. The
장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130), 그리고 패턴획득부(140)를 포함한다. 앞서 설명한 도 1의 (a)와 같이 패턴조사부가 구비되지 않는 경우에는 조사되는 패턴없이, 영상획득부가 촬영되는 영상으로부터 장애물을 감지할 수 있다. The
또한, 영상획득부는 복수로 구비될 수 있다. 패턴조사부가 구비되는 경우, 패턴이 포함된 영상을 촬영하는 영상획득부와 주행방향 또는 전방의 상부를 촬영하는 별도의 영상획득부가 더 구비될 수 있다. In addition, the image acquisition unit may be provided in plurality. When the pattern irradiation unit is provided, an image acquisition unit for photographing an image including a pattern and a separate image acquisition unit for photographing a driving direction or an upper portion of the front may be further provided.
장애물 감지유닛(100)은 제 1 패턴 조사부(120), 제 2 패턴 조사부(130) 및 패턴획득부(140)를 포함한다. 또한, 장애물 감지유닛(100)은 적어도 하나의 센서로 구성된 센서부(150)를 포함할 수 있다. 경우에 따라 장애물 감지유닛(100)은 센서부로 구성될 수 있다. The
장애물 감지유닛(100)은 앞서 설명한 바와 같이, 본체(10)의 전면에 설치되어, 이동 로봇의 전방에 제 1 및 제 2 패턴의 광(P1, P2)을 조사하고, 조사된 패턴의 광을 촬영하여 패턴이 포함된 영상을 획득한다. 장애물 감지유닛(100)은 획득영상을 장애물 감지신호로써 제어부(110)로 입력한다. As described above, the
장애물 감지유닛(100)의 제 1 및 제 2 패턴 조사부(120, 130)는 광원과, 광원으로부터 조사된 광이 투과됨으로써 소정의 패턴을 생성하는 패턴생성자(OPPE: Optical Pattern Projection Element)를 포함할 수 있다. 광원은 레이져 다이오드(Laser Diode, LD), 발광 다이오드(Light Emitteing Diode, LED) 등 일 수 있다. 레이져 광은 단색성, 직진성 및 접속 특성에 있어 다른 광원에 비해 월등해, 정밀한 거리 측정이 가능하며, 특히, 적외선 또는 가시광선은 대상체의 색상과 재질 등의 요인에 따라 거리 측정의 정밀도에 있어서 편차가 크게 발생되는 문제가 있기 때문에, 광원으로는 레이져 다이오드가 바람직하다. 패턴생성자는 렌즈, DOE(Diffractive optical element)를 포함할 수 있다. 각각의 패턴 조사부(120, 130)에 구비된 패턴 생성자의 구성에 따라 다양한 패턴의 광이 조사될 수 있다.The first and second
패턴획득부(140)는 본체(10) 전방의 영상을 획득할 수 있다. 특히, 패턴획득부(140)에 의해 획득된 영상(이하, 획득영상이라고 함.)에는 패턴 광(P1, P2)이 나타나며, 이하, 획득영상에 나타난 패턴 광(P1, P2)의 상을 광 패턴이라고 하고, 이는 실질적으로 실제 공간상에 입사된 패턴 광(P1, P2)이 이미지 센서에 맺힌 상이기 때문에, 패턴 광들(P1, P2)과 같은 도면 부호를 부여하여, 제 1 패턴 광(P1) 및 제 2 패턴 광(P2)과 각각 대응하는 상들을 제 1 광 패턴(P1) 및 제 2 광 패턴(P2)이라고 하기로 한다.The
패턴조사부가 구비되지 않는 경우, 패턴획득부(140)는 본체 전방의, 패턴광이 포함되지 않은 영상을 획득한다. When the pattern irradiator is not provided, the
패턴획득부(140)는 피사체의 상을 전기적 신호로 변환시킨 후 다시 디지털 신호로 바꿔 메모리소자에 기억시키는 카메라를 포함할 수 있다. 카메라는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수개의 광다이오드(photodiode, 예를들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.The
이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다.The image sensor is an apparatus for converting an optical image into an electrical signal, and is composed of a chip in which a plurality of photo diodes are integrated. For example, a pixel may be a photo diode. Charges are accumulated in each pixel by an image formed on the chip by light passing through the lens, and the charges accumulated in the pixels are converted into an electrical signal (for example, a voltage). As the image sensor, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), and the like are well known.
영상처리부는 이미지센서로부터 출력된 아날로그 신호를 바탕으로 디지털 영상을 생성한다. 영상처리부는 아날로그 신호를 디지털 신호로 변환하는 AD컨버터와, AD컨버터로부터 출력된 디지털 신호에 따라 일시적으로 디지털 정보(digital data)를 기록하는 버퍼 메모리(buffer memory)와, 버퍼 메모리에 기록된 정보를 처리하여 디지털 영상을 구성하는 디지털 신호처리기(DSP:Digital Signal Processor)를 포함할 수 있다.The image processor generates a digital image based on the analog signal output from the image sensor. The image processor includes an AD converter for converting an analog signal into a digital signal, a buffer memory for temporarily recording digital data in accordance with a digital signal output from the AD converter, and information recorded in the buffer memory. It may include a digital signal processor (DSP) for processing to form a digital image.
장애물 감지유닛(100)은 획득영상을 통해 패턴을 분석하여 패턴의 형태에 따라 장애물을 감지하고, 센서부(150)는 각 센서의 감지거리에 위치하는 장애물을 구비되는 센서를 통해 감지한다. The
센서부(150)는 복수의 센서를 포함하여 장애물을 감지한다. 센서부(150)는 레이저, 초음파, 적외선 중 적어도 하나를 이용하여 본체(10)의 전방, 즉 주행방향의 장애물을 감지한다. 또한, 센서부(150)는 주행구역 내 바닥에 낭떠러지의 존재 여부를 감지하는 낭떠러지 감지센서를 더 포함할 수 있다. 센서부(150)는 송출되는 신호가 반사되어 입사되는 경우, 장애물의 존재 여부 또는 장애물까지의 거리에 대한 정보를 장애물 감지신호로써 제어부(110)로 입력한다. The
영상획득부(170)는 이동 로봇이 동작하면, 연속적 영상을 촬영한다. 또한, 영상획득부(170)는 소정 주기로 영상을 촬영할 수 있다. 영상획득부(170)는 장애물 감지유닛(100)에 의해 장애물이 감지되지 않는, 주행 또는 청소상태에서도 영상을 촬영한다. The
예를 들어 영상획득부(170)는 1회 촬영 후, 동일한 주행방향으로 이동하게 되면, 주행방향이 변경되지 않고 유지되는 동안 1회 촬영된 영상에 촬영된 장애물의 크기가 변화할 뿐 동일한 장애물이 촬영되므로, 소정 시간 단위로, 주기적으로 영상을 촬영한다. 또한, 영상획득부(170)는 주행방향이 변경되는 경우, 새로운 영상을 촬영한다. For example, when the
영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정할 수 있다. 또한, 영상획득부(170)는 센서부에 의한 감지거리와 이동 로봇의 이동속도를 고려하여 촬영 주기를 설정할 수 있다. The
영상획득부(170)는 본체가 주행하는 중에 촬영되는 영상을 영상데이터(182)로써 데이터부(180)에 저장한다. The
한편, 장애물 감지유닛(100)은 주행 중에 주행방향에 위치하는 장애물을 감지하여 제어부로 감지신호를 입력한다. 장애물 감지유닛(100)은 감지되는 장애물의 위치 또는 그 움직임에 대한 정보를 제어부(110)로 입력한다. 패턴획득부(140)는 패턴조사부에 의해 조사된 패턴이 포함된 영상을 감지신호로써 제어부로 입력하고, 센서부(150)는 구비되는 센서에 의해 감지되는 장애물에 대한 감지신호를 제어부로 입력한다. Meanwhile, the
제어부(110)는 주행영역(H) 중 지정된 주행구역 내에서, 이동 로봇이 주행하도록 주행부(250)를 제어한다. The
제어부(110)는 주행 중, 주행부(250) 및 청소부(260)를 제어하여, 이동 로봇 주변의 먼지 또는 이물질을 흡수하도록 함으로써 주행구역에 대한 청소를 수행한다. 그에 따라 청소부(260)는 브러쉬를 동작시켜 이동 로봇 주변의 먼지 또는 이물질을 흡입하기 쉬운 상태로 만들고, 흡입장치를 동작시켜 먼지 또는 이물질을 흡입한다. 주행 중에 이물질을 흡입하여 청소를 수행하도록 청소부를 제어한다. The
제어부(110)는 배터리의 충전용량을 체크하여 충전대로의 복귀 시기를 결정한다. 제어부(110)는 충전용량이 일정값에 도달하면, 수행중이던 동작을 중지하고, 충전대 복귀를 위해 충전대 탐색을 시작한다. 제어부(110)는 배터리의 충전용량에 대한 알림 및 충전대 복귀에 대한 알림을 출력할 수 있다. The
제어부(110)는 조작부(160)의 조작에 의해 입력되는 데이터를 처리하여 이동 로봇의 동작모드를 설정하고, 동작상태를 출력부(190)를 통해 출력하며, 동작상태, 에러상태 또는 장애물 감지에 따른 경고음, 효과음, 음성안내가 스피커를 통해 출력되도록 한다. The
또한, 제어부(110)는 영상획득부(170) 또는 장애물 감지유닛(100)로부터 감지되는 장애물에 대하여, 장애물을 인식하고, 장애물에 대응하여 복수의 대응모션중 어느 하나를 설정하여 수행되도록 한다. In addition, the
제어부(110)는 영상획득부(170)에 의해 촬영되는 영상으로부터 장애물을 판단하고, 장애물 감지유닛(100)에 의해 장애물이 소정거리 내에 위치하는 것으로 감지되면, 장애물에 대한 대응모션을 설정하여 동작하도록 한다. The
제어부(110)는 장애물 감지유닛(100)에 의해 장애물이 감지되기 전, 영상획득부(170)를 통해 촬영된 영상, 즉 영상데이터를 분석하여 영상데이터에 포함된 장애물을 판단할 수 있다. 제어부(110)는 자체 구비되는 데이터를 통해 장애물을 판단할 수 있고, 또한 통신부를 통해 서버 또는 단말로 영상데이터를 전송하여 장애물의 종류를 판단할 수 있다. The
제어부(110)는 영상이 촬영된 후, 장애물 감지유닛(100)에 의해, 장애물이 소정 거리 내에 위치하는 것으로 감지되면, 감지신호를 해당 장애물의 종류에 따라 대응모션을 설정하는 센서부에 의해 해당 장애물이 감지되는 경우, 미리 인식된 장애물의 종류에 따라 본체가 지정된 동작을 수행하도록 한다. After the image is captured, the
제어부(110)는 장애물 감지유닛의 감지거리에 따라, 장애물이 감지되는 때에 장애물에 대응하는 동작이 수행되도록 할 수 있고, 또한, 장애물 감지유닛에 의해 장애물이 감지되더라도, 장애물이 지정된 거리 내에 위치하는 경우에 장애물에 대응하는 동작이 수행되도록 할 수 있다. The
예를 들어 패턴획득부에 의한 감지신호로부터 장애물이 초기 감지되는 거리와, 초음파 센서에 의해 감지되는 거리가 상이한 경우 장애물에 대한 감지신호가 입력되는 시점이 상이해 진다. 그에 따라, 제어부(110)는 장애물을 감지할 수 있는 수단이 복수이거나, 또는 레이저센서와 같이 장애물을 감지할 수 있는 거리가 일정 거리 이상인 경우, 장애물 감지유닛(100)에 의해 감지되는 장애물까지의 거리를 바탕으로, 장애물이 지정된 거리, 예를 들어 30cm 에 위치하는 경우 복수의 대응모션 중 어느 하나가 수행되도록 한다. For example, when the distance from which the obstacle is initially detected from the detection signal by the pattern acquisition unit is different from the distance detected by the ultrasonic sensor, the time point at which the detection signal for the obstacle is input is different. Accordingly, the
제어부(110)는 장애물에 대한 감지신호를 바탕으로, 감지신호의 형태에 따라 복수의 대응모션 중 수행 가능한 대응모션을 선별하고, 영상데이터를 분석하여 영상에 포함된 장애물을 인식하여 그에 따라 어느 하나의 대응모션을 선택하여 본체의 동작을 제어한다. The
예를 들어 제어부는 감지신호가 패턴에 포함된 영상인 경우 패턴의 형태에 따라 상이한 감지신호로써 판단할 수 있고, 감지신호, 즉 패턴의 형태에 따라 장애물을 구분할 수 있다. For example, when the detection signal is an image included in the pattern, the controller may determine it as a different detection signal according to the shape of the pattern, and may distinguish an obstacle according to the detection signal, that is, the shape of the pattern.
제어부(110)는 영상을 통해 장애물을 인식하는 경우, 촬영된 영상에 대하여 소정 주기로, 장애물 감지유닛에 의해 감지신호가 입력되기 전, 수행할 수 있고, 또한, 장애물 감지신호가 입력되는 때에 판단할 수도 있다. 제어부(110)는 필요에 따라 서버(90) 또는 단말(80)로 데이터를 전송하여 장애물에 대한 데이터를 수신할 수 있다. When the
예를 들어 제어부(110)는 상이한 장애물, 문턱, 선풍기, 테이블에 대하여 동일한 감지신호가 입력되는 경우, 해당 감지신호에 대하여 동작 가능한 대응모션을 복수로 선별하고, 영상데이터를 통해 문턱, 선풍기, 테이블에 대하여 각각 대응모션을 설정하여 동작을 제어한다. For example, when the same detection signal is input to different obstacles, thresholds, fans, and tables, the
제어부(110)는 장애물인식부(111), 맵생성부(112), 주행제어부(113)를 포함한다. The
맵생성부(112)는 초기 동작 시, 또는 청소영역에 대한 지도가 저장되어 있지 않은 경우, 청소영역을 주행하면서 장애물 정보를 바탕으로 청소영역에 대한 지도를 생성한다. 또한, 맵생성부(112)는 주행중 획득되는 장애물 정보를 바탕으로, 기 생성된 지도를 갱신한다. The
맵생성부(112)는 주행 중 장애물인식부(111)를 획득되는 정보를 바탕으로 기초맵을 생성하고, 기초맵으로부터 영역을 구분하여 청소맵을 생성한다. 또한, 맵생성부(112)는 청소맵에 대하여 영역을 정리하고, 영역에 대한 속성을 설정하여 사용자맵과 가이드맵을 생성한다. 기초맵은, 주행을 통해 획득되는 청소영역의 형태가 외곽선으로 표시되는 지도이고, 청소맵은 기초맵에 영역이 구분된 지도이다. 기초맵과 청소맵에는 이동 로봇의 주행 가능한 영역과 장애물정보가 포함된다. 사용자맵은 청소맵의 영역을 단순화하고 외각선의 형태를 정리하여 가공한 것으로 시각적 효과를 가미한 지도이다. 가이드맵은 청소맵과 사용자맵이 중첩된 지도이다. 가이드맵에는 청소맵이 표시되므로, 이동 로봇이 실제 주행할 수 있는 영역을 바탕으로 청소명령이 입력될 수 있다. The
맵생성부(112)는 기초맵 생성 후, 청소영역을 복수의 영역으로 구분하고, 복수의 영역을 연결하는 연결통로를 포함하며, 각 영역 내의 장애물에 대한 정보를 포함하여 지도를 생성한다. 맵생성부(112)는, 지도상의 영역 구분을 위해 소영역을 분리하여 대표영역을 설정하고, 분리된 소영역을 별도의 세부영역으로 설정하여 대표영역에 병합함으로써 영역이 구분된 지도를 생성한다.After generating the base map, the
맵생성부(112)는 구분된 각 영역에 대하여, 영역의 형태를 가공한다. 맵생성부(112)는 구분된 영역에 대하여 속성을 설정하고, 영역별 속성에 따라 영역의 형태를 가공한다.The
장애물인식부(111)는 영상획득부(170) 또는 장애물 감지유닛(100)으로부터 입력되는 데이터를 통해 장애물을 판단하고, 맵생성부(112)는 주행구역에 대한 지도를 생성하고, 감지되는 장애물에 대한 정보가 지도에 포함되도록 한다. 또한, 주행제어부(113)는 장애물 정보에 대응하여 이동방향 또는 주행경로를 변경하여 장애물을 통과하거나 또는 장애물을 회피하여 주행하도록 주행부(250)를 제어한다. The
주행제어부(113)는 주행부(250)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다. 주행제어부(113)는 청소명령에 따라 주행부(250)와 청소부(260)를 제어하여 본체(10)가 청소영역을 주행하면서 이물질을 흡입하여 청소가 수행되도록 한다. The driving
장애물인식부(111)는 장애물 감지유닛(100)으로부터 입력되는 데이터를 분석하여 장애물을 판단한다. 장애물인식부(111)는 장애물 감지유닛의 감지신호, 예를 들어 초음파 또는 레이저 등의 신호에 따라 장애물의 방향 또는 장애물까지의 거리를 산출하고, 또한, 패턴이 포함된 획득영상을 분석하여 패턴을 추출하고 패턴의 형태를 분석하여 장애물을 판단한다. 장애물인식부(111)는 초음파 또는 적외선 신호를 이용하는 경우 장애물과의 거리 또는 장애물의 위치에 따라 수신되는 초음파의 형태, 초음파가 수신되는 시간에 차이가 있으므로 이를 바탕으로 장애물을 판단한다. The
또한, 장애물인식부(111)는 영상획득부(170)에 의해 장애물을 촬영한 영상데이터가 입력되면, 데이터부(180)에 저장한다. 영상획득부(170)는 전방의 장애물을 복수회 촬영하므로, 영상데이터 또한 복수개가 저장된다. 또한, 영상획득부(170)가 주행방향에 대한 영상을 연속 촬영하는 경우, 장애물인식부(111)는 입력되는 동영상을 영상데이터로써 저장하거나 또는 동영상을 프레임 단위로 구분하여 영상데이터로써 저장한다. 장애물인식부(111)는 동영상을 프레임 단위로 분석하여 불필요한 프레임, 즉 대상물이 흔들리거나 초점이 맞지 않는 프레임 또는 빈 프레임(장애물이 촬영되지 않은 프레임)은 제거하고, 소정 시간 단위로 프레임을 영상데이터로써 저장한다. In addition, the
장애물인식부(111)는 복수의 영상데이터를 분석하여, 촬영된 대상, 즉 장애물을 인식할 수 있는지 여부를 판단한다. 이때 장애물인식부(111)는 영상데이터를 분석하여 영상데이터가 인식 가능한 것인지 아닌지 여부를 판단한다. 예를 들어, 장애물인식부(111)는 흔들린 영상, 초점이 맞지 않는 영상, 어두워서 장애물을 구분할 수 없는 영상을 분리하여 폐기한다. The
장애물인식부(111)는 영상데이터를 분석하여 장애물의 특징으로 추출하고, 장애물의 형상(형태), 크기 및 색상 바탕으로 장애물을 판단하고 그 위치를 판단한다. 장애물인식부(111)는 기 촬영된 복수의 영상으로부터 장애물을 분석하고, 장애물이 지정거리에 위치하는 것으로 판단되는 시점을 기준으로 기 설정된 시간 이전에 촬영된 영상을 분석하여 장애물을 판단한다. The
감지신호에 의해 장애물 판단 후 영상데이터를 통한 장애물 판단을 수행하는 것으로 기재하고 있으나, 그 순서에 한정되지 아니하고, 영상을 통한 장애물 판단을 수행한 후에 감지신호에 의한 장애물 판단은 수행할 수 있고, 또한, 동시에 수행 될 수 있다. Although it is described that an obstacle is determined through the image data after the obstacle is determined by the detection signal, the present invention is not limited thereto, and the obstacle is determined by the detection signal after the obstacle is determined through the image. , Can be performed at the same time.
장애물에 지정거리 이내로 접근한 상태에서는 장애물의 일부만 촬영될 수 있으므로, 기 설정된 시간 이전에 촬영된, 즉 지정거리보다 먼 거리에서 촬영되어 장애물의 전체형상이 촬영된 영상을 이용하여 장애물을 판단한다. 장애물인식부(111)는 구체적인 장애물의 종류를 판단할 수 있고, 경우에 따라 형상과 크기만을 판단할 수도 있다. Since only a part of the obstacle may be photographed in a state in which the obstacle is approached within a specified distance, the obstacle is determined using an image photographed before a preset time, that is, captured at a distance greater than the specified distance and the entire shape of the obstacle is photographed. The
장애물인식부(111)는 영상데이터로부터 영상의 배경을 제외하고, 기 저장된 장애물데이터를 바탕으로 장애물의 특징을 추출하여 장애물의 종류를 판단할 수 있다. 장애물데이터(181)는 서버로부터 수신되는 새로운 장애물데이터에 의해 갱신된다. 이동 로봇(1)은 감지되는 장애물에 대한 장애물데이터를 저장하고 그외 데이터에 대하여 서버로부터 장애물의 종류에 대한 데이터를 수신할 수 있다. The
장애물인식부(111)는 영상을 구성하는 소정의 픽셀들에 대해 점, 선, 면 등의 특징을 검출 (feature detection)하고, 이렇게 검출된 특징을 바탕으로 장애물을 검출한다. The
장애물인식부(111)는 장애물의 외곽선을 추출하여 그 형태를 바탕으로 장애물을 인식하여 그 종류를 판단한다. 장애물인식부(111)는 형태를 바탕으로, 장애물의 색상, 크기에 따라 장애물의 종류를 판단할 수 있다. 또한, 장애물인식부(111)는 장애물의 형태와 움직임을 바탕으로 장애물의 종류를 판단할 수 있다. The
장애물인식부(111)는 장애물 정보를 바탕으로, 사람, 동물, 사물을 구분한다. 장애물인식부(111)는 장애물의 종류를, 일반장애물, 위험장애물, 생체장애물, 바닥장애물로 분류하고, 각 분류에 대하여 세부적인 장애물의 종류를 판단할 수 있다. The
또한, 장애물인식부(111)는 인식 가능한 영상데이터를 통신부(280)를 통해 서버(90)로 전송하여 장애물의 종류를 판단하도록 한다. 통신부(280)는 적어도 하나의 영상데이터를 서버(90)로 전송한다.In addition, the
서버(90)는 이동 로봇(1)으로부터 영상데이터가 수신되면, 영상데이터를 분석하여 촬영된 대상에 대한 외곽선 또는 형상을 추출하고, 기 저장된 장애물에 대한 데이터와 비교하여, 장애물의 종류를 판단한다. 서버(90)는 유사한 형태 또는 유사한 색상의 장애물을 우선 검색하고, 해당 영상데이터로부터 특징을 추출하여 비교함으로써, 장애물의 종류를 판단한다. When the image data is received from the
서버(90)는 장애물의 종류를 판단한 후, 장애물에 대한 데이터를 이동 로봇(1)으로 전송한다. After determining the type of obstacle, the
장애물인식부(111)는 통신부를 통해 서버로부터 수신되는 장애물에 대한 데이터를 장애물데이터로써 데이터부(180)에 저장한다. 장애물인식부(111)는 서버에 의해 장애물의 종류가 판단되면, 그에 대응하는 동작을 수행하도록 한다. 주행제어부(113)는 장애물의 종류에 대응하여 장애물을 회피하거나, 접근하거나 또는 통과하도록 주행부를 제어하고, 경우에 따라 소정의 효과음 또는 경고음, 음성안내가 스피커를 통해 출력되도록 한다. The
장애물인식부(111)는 앞서 설명한 바와 같이, 영상데이터를 인식 가능한지 여부를 판단하고, 저장된 장애물데이터에 따라 영상데이터를 서버로 전송함으로써, 서버의 응답에 따라 장애물의 종류를 인식한다. As described above, the
또한, 장애물인식부는 복수의 장애물 중 선택된 장애물에 대하여, 장애물 인식을 위한 장애물데이터를 저장함으로써, 서버로 영상데이터를 전송하지 않더라도 장애물인식데이터를 바탕으로, 장애물을 인식할 수 있다. In addition, the obstacle recognition unit may store the obstacle data for obstacle recognition of the selected obstacle among the plurality of obstacles, and may recognize the obstacle based on the obstacle recognition data even if the image data is not transmitted to the server.
제어부(110)는 데이터부(180)의 저장용량에 한계가 있으므로, 선택된 일부 장애물에 대한 정보를 장애물인식데이터로써 저장할 수 있다. 예를 들어 제어부(110)는 단말(80)을 통해 선택된 장애물, 또는 감지 횟수를 바탕으로 감지 횟수가 많은 장애물에 대하여 데이터부에 장애물인식데이터를 저장할 수 있다. Since the
그에 따라 장애물인식부(111)는 청소영역에 존재하는 장애물, 반복적으로 감지되는 장애물에 대하여 데이터부에 저장함으로써, 장애물이 감지되면 즉시 그에 대응하는 동작을 수행할 수 있다. Accordingly, the
주행제어부(113)는 영상데이터로부터 주행제어부(113)는 장애물의 종류가 인식되면, 장애물의 종류에 대응하여 주행부(250)를 제어하여, 본체(10)가 소정의 동작을 수행하도록 한다. When the driving
주행제어부(113)는 장애물 감지유닛(100)의 감지신호에 따라 장애물이 소정 거리 내에 위치하는 것으로 판단되면, 감지신호의 종류 또는 형태에 따라 실행 가능한 대응모션에 대하여, 영상데이터를 바탕으로 판단되는 장애물의 종류, 형태 크기에 따라 복수의 대응모션 중 어느 하나를 설정하여 동작을 수행한다. If it is determined that the obstacle is located within a predetermined distance according to the detection signal of the
주행제어부(113)는 장애물인식부(111)로부터 인식되는 장애물에 대응하여, 주행 가능 여부 또는 진입가능 여부를 판단하여 장애물에 접근하여 주행하거나, 장애물을 통과하거나, 또는 장애물을 회피하도록 주행경로/청소경로를 설정하여 주행부(250)를 제어한다. In response to the obstacle recognized by the
예를 들어, 주행제어부(113)는 장애물에 대응하여, 본체(10)가 정지, 감속, 가속, 역주행, 유턴, 주행방향을 변경하도록 하며, 장애물에 대하여 일정거리 이상 접근하지 않도록 하고, 일정시간 대기하도록 할 수 있다. 또한, 주행제어부(113)는 장애물에 따라 지정된 소리가 스피커를 통해 출력되도록 하며, 지정된 동작과 함께 소리가 출력되도록 할 수 있다. For example, the driving
주행제어부(113)는 장애물 감지유닛(100)을 통해 장애물이 지정된 거리 내에 위치하는 경우, 감지신호에 따라 회피, 접근, 접근거리에 대한 설정, 그리고 정지, 감속, 가속, 역주행, 유턴 및 주행방향 변경과 같은 복수의 대응모션을 설정하고, 기 촬영된 영상데이터로부터 판단되는 장애물에 따라 어느 하나의 대응모션을 설정하여 주행부를 제어한다. When the obstacle is located within the designated distance through the
즉 주행제어부(113)는 입력되는 감지신호에 따라 복수의 대응모션을 설정하되, 기 촬영된, 감지신호가 입력되기 이전 시간의 영상데이터로부터 판단되는 장애물에 대응하여 복수의 대응모션 중 어느 하나의 대응모션이 수행되되도록 주행부를 제어한다. 주행제어부(113)는 영상데이터를 통해 장애물의 종류가 구체적으로 판단되는 경우 장애물의 종류에 따라 대응모션을 설정하고, 정확한 종류를 판단할 수 없는 경우라도, 장애물의 형상 또는 크기에 따라 대응모션을 설정할 수 있다. 예를 들어 구체적인 종류는 알 수 없으나, 바닥면으로부터 일정 크기 이상의 공간, 즉 이동 로봇이 통관 가능한 높이와 폭의 공간, 이 존재하는 경우 본체가 장애물을 통과하도록 설정할 수 있다. That is, the driving
도 7 및 도 8은 발명의 이동 로봇의 주행 및 주행중 촬영되는 영상의 예가 도시된 도이다. 7 and 8 are diagrams showing an example of an image photographed while driving and driving of the mobile robot of the present invention.
도 7에 도시된 바와 같이, 이동 로봇(1)은 주행 중, 본체(10)의 전방에 위치하는 장애물을 감지한다.As shown in FIG. 7, the
도 7의 (a)와 같은 주행영역(H)에서 이동 로봇(1)이 창문(O4)을 향해 주행하는 경우, 도 7의 (b)와 같은 영상이 촬영된다. 촬영된 영상에는 주행방향에 위치하는 복수의 장애물(O01 내지 O06)이 포함된다. When the
영상획득부(170)는 영상을 연속하여 촬영하거나, 또는 소정 주기에 따라 반복하여 촬영할 수 있다. The
이동 로봇(1)이 일정거리 전진하면, 도 8에 도시된 바와 같이, 장애물에 가까워짐에 따라 장애물이 확대된 형태로 촬영된다. When the
이동 로봇(1)의 본체가 이동할수록 촬영되는 영상에는 이동 로봇의 주행방향에 위치한 장애물일수록 영상 내에서의 면적이 증가하고 이동 로봇의 주행방향과 반대에 위치한 장애물일수록 영상에서 차지하는 면적이 감소하게 된다. As the main body of the
도 8의 (a)와 같이 이동 로봇이 이동함에 따라, 영역 내에 위치하는 복수의 장애물(O01 내지 O06) 중, 제 2 및 제 3 장애물(O02, O03)에 접근하게 된다. 그에 따라 영상획득부(170)를 통해 촬영되는 영상에는 도 8의 (b)에 도시된 바와 같이, 제 2 및 제 3 장애물(O02, O03)이 촬영된다. As the mobile robot moves as shown in FIG. 8A, the second and third obstacles O02 and O03 are approached among the plurality of obstacles O01 to O06 located in the area. Accordingly, the second and third obstacles O02 and O03 are photographed in the image photographed through the
장애물인식부(111)는 도 7와 같은 위치에서 촬영된 영상을 저장하고, 저장된 영상데이터를 통해 복수의 장애물(O01 내지 O06)을 감지하여 인식할 수 있다. 도 8에 도시된 바와 같이 이동 로봇(1)이 제 2 및 제 3 장애물(O02, O03)에 접근하면, 장애물 감지유닛(100)에 의해 감지신호가 입력되고, 장애물인식부(111)는 장애물이 지정거리 내에 위치하는 것으로 판단하여 기 촬영된 영상데이터를 바탕으로 장애물을 판단한다. 장애물인식부(111)는 감지신호 입력 전에 장애물을 판단할 수 있고, 또한, 서버 또는 단말로 영상데이터를 전송하여 장애물을 판단할 수 있다. The
이동 로봇(1)의 주행방향이 변경되는 경우, 감지신호에 따라 장애물을 판단하는 경우, 주행방향이 변경되기 전에 촬영된 영상데이터에는 주행방향의 장애물이 촬영되지 않을 가능성이 크므로 주행방향이 변경된 이후의 영상을 바탕으로 장애물을 판단한다. 따라서 이동 로봇(1)은 장애물 감지유닛(100)의 감지신호에 따라 장애물이 지정거리 내에 위치하는 경우, 동일한 주행방향에서 기 촬영된 영상데이터를 바탕으로 장애물을 판단한다. When the driving direction of the
이동 로봇(1)은 촬영된 영상데이터로부터 장애물을 인식하여 장애물의 종류를 판단한다. 영상획득부(170)는 주행 중에 촬영되는 영상데이터를 저장하고, 제어부는 소정 주기에 따라 영상데이터를 분석하여 장애물을 판단하거나 또는 장애물이 지정거리에 위치하는 것으로 장애물 감지유닛(100)에 의해 감지되면 기 촬영된 영상데이터를 이용하여 장애물을 판단할 수 있다. The
제어부는 제 2 및 제 3 장애물(O02, O03)에 대하여 앞서 설명한 바와 같이 영상데이터를 통해 장애물의 종류, 형태, 크기 등에 대한 정보를 판단하므로, 그에 대응하여 대응모션이 수행되도록 주행부를 제어한다. The controller determines the information on the type, shape, size, etc. of the obstacle through the image data as described above with respect to the second and third obstacles O02 and O03, and controls the driving unit to perform a corresponding motion in response thereto.
예를 들어 제어부(110)는 탁자인 제 2 장애물(O002)에 대하여, 제 2 장애물에 대한 감지신호가 입력되면, 접근 후 회피, 진입의 두가지 대응모션을 선별하고, 영상데이터를 분석하여 탁자 밑으로 진입 가능한지 여부에 따라 어느 하나의 대응모션을 결정하여 동작한다. For example, when the detection signal for the second obstacle is input to the second obstacle O002, which is a table, the
종류가 동일한 탁자라도, 그 크기가 상이하고, 탁자 밑의 공간의 크기가 상이하며, 이동 로봇의 크기 또한 상이할 수 있으므로 이동 로봇의 진입 가능 여부가 상이하므로, 제어부는 장애물 감지유닛(100)의 감지신호를 바탕으로 복수의 대응모션, 예를 들어 접근 후 회피하거나 진입 또는 통과하도록 하는, 수행 가능한 대응모션을 설정하되, 영상분석을 통해 장애물의 종류, 형태(형상), 크기에 따라 복수의 대응모션 중 어느 하나의 대응모션을 지정하여 수행하도록 결정한다. Even if the table is the same type, the size is different, the size of the space under the table is different, the size of the mobile robot may also be different, so whether or not the entry of the mobile robot is different, the control unit of the
탁자의 높이와 탁자 다리의 폭에 따라 탁자 밑으로 진입할지 여부를 판단하여 주행방향을 결정하게 된다. 또한, 동일한 제 2 장애물(O2), 탁자에 대하여, 제 3 장애물(03)인 의자의 존재 여부에 따라 대응모션이 변경될 수 있다. Depending on the height of the table and the width of the legs of the table to determine whether to enter under the table to determine the driving direction. In addition, with respect to the same second obstacle O2 and the table, the corresponding motion may be changed according to the presence or absence of the chair as the
그에 따라 이동 로봇은, 장애물에 대하여 감지신호 입력 시 처리할 수 있는 복수의 대응모션을 설정하고, 영상을 통해 판단되는 장애물의 정보에 따라 어느 하나의 대응모션을 설정함에 따라 탁자라는 장애물에 대하여 장애물의 크기나 형상, 이동 로봇의 본체 크기 등에 따라 상이한 대응모션을 수행할 수 있다. Accordingly, the mobile robot sets a plurality of corresponding motions that can be processed when the detection signal is input to the obstacle, and sets one of the corresponding motions according to the information of the obstacle determined through the image. Depending on the size and shape of the, the size of the main body of the mobile robot can be performed a different corresponding motion.
도 9 는 본 발명의 일실시예에 따른 이동 로봇의 장애물에 따른 감지신호 및 장애물인식에 대하여 설명하는데 참조되는 도이고, 도 10 은 본 발명의 일실시예에 따른 이동 로봇의 주행 중 장애물의 종류에 따른 동작을 설명하는데 참조되는 도이다. 9 is a view for explaining the detection signal and the obstacle recognition according to the obstacle of the mobile robot according to an embodiment of the present invention, Figure 10 is a kind of obstacles while driving the mobile robot according to an embodiment of the present invention Is a diagram referred to for explaining the operation according to.
도 9의 (a)에 도시된 바와 같이 장애물 감지유닛(100)은, 지정 거리 내에 장애물이 위치하는 것으로 감지되면, 그에 대한 감지신호를 입력한다. As illustrated in (a) of FIG. 9, when detecting that an obstacle is located within a predetermined distance, the
장애물 감지유닛(100) 중, 패턴조사부로부터 조사된 패턴이 패턴획득부에 촬영되면, 영상에는 도시된 바와 같이 장애물에 조사된 패턴(P1)이 표시된다.When the pattern irradiated from the pattern irradiator is photographed on the pattern acquisition unit, the pattern P1 irradiated to the obstacle is displayed on the image.
패턴이 기준선(ref1)보다 상부에 위치함에 따라, 장애물인식부(111)는 주행방향에 일정 높이는 갖는 장애물이 위치하는 것으로 판단할 수 있다. As the pattern is positioned above the reference line ref1, the
그에 따라 주행제어부는 감지신호에 대응하여, 전방에 위치한 장애물에 대하여 수행할 수 있는 대응모션을 복수 설정한다. 예를 들어 회피, 접근, 진입, 통과 등의 대응모션을 설정할 수 있다. Accordingly, in response to the detection signal, the traveling controller sets a plurality of corresponding motions that can be performed on the obstacle located ahead. For example, response motion such as avoidance, approach, entry, and passage can be set.
또한, 장애물인식부(111)는 감지신호가 입력된 때에, 기 촬영된, 즉 감지신호가 입력되기 전에 촬영된 영상데이터를 분석하여 주행방향에 위치한 장애물을 판단한다. In addition, the
도 9의 (b)의 같이 에어컨의 하단부에 패턴이 조사되는 경우, 도 9의 (c)와 같이 선풍기의 하부, 선풍기의 받침대 부분에 패턴이 조사되는 경우, 도 9의 (d)와 같이 문턱에 패턴이 조사되는 경우, 그리고 도 9의 (e)와 같이, 작은 상자에 패턴이 조사되는 경우, 앞서 설명한 도 9의 (a)와 같은 패턴이 영상으로 촬영될 수 있다. When the pattern is irradiated to the lower end of the air conditioner as shown in (b) of FIG. 9, when the pattern is irradiated to the bottom of the fan and the pedestal portion of the fan as shown in (c) of FIG. 9, the threshold as shown in (d) of FIG. When the pattern is irradiated, and when the pattern is irradiated to the small box as shown in (e) of FIG. 9, the pattern as shown in FIG. 9 (a) described above may be photographed.
각각 상이한 장애물임에도 동일한 패턴이 검출됨에 따라, 장애물인식부(111)는 기 촬영된 영상을 바탕으로 장애물을 판단한다. As the same pattern is detected even though the obstacles are different from each other, the
도 10에 도시된 바와 같이, 감지신호가 입력되기 전에 촬영된 영상을 분석하여 주행방향에 위치한 장애물이 선풍기인 것을 판단할 수 있다. As shown in FIG. 10, the obstacle image located in the driving direction may be determined by analyzing the photographed image before the detection signal is input.
도 10의 (a)에 도시된 바와 같이, 이동 로봇(1)은 주행 중에, 촬영된 영상을 저장하고, 장애물 감지유닛(100)에 의해 장애물이 지정 거리 내에 위치하는 것이 감지되면, 장애물인식부(111)는 기 촬영된 영상을 분석하여 영상데이터에 촬영된 장애물을 인식하여 종류, 크기, 형상(형태) 등의 장애물에 대한 정보를 판단한다.As shown in (a) of FIG. 10, the
장애물인식부(111)는 감지신호가 입력되기 전, 즉 장애물이 지정 거리 보다 먼 거리에 위치한 때에 촬영된 영상데이터를 분석하여 장애물을 판단한다. The
예를 들어 장애물인식부(111)는 제 2 거리(D02)에서 감지신호가 입력되는 경우, 제 2 거리에서는 도 10의 (c)와 같이 장애물의 일부만이 촬영되므로, 장애물에 대한 감지신호가 입력되기 전, 감지신호가 입력되는 시점을 기준으로 일정 시간 전에 제 1 거리(D01)에서 촬영된 도 10 (b) 영상을 분석하여 장애물을 판단한다. 장애물인식부(1111)는 동일한 주행방향에서 촬영된 영상을 바탕으로 촬영한다. For example, when the
장애물인식부(111)는 본체의 주행 반향이 변경되는 경우, 주행방향이 변경된 이후에 촬영된 영상으로부터 장애물을 판단한다.When the driving echo of the main body is changed, the
주행제어부는 감지신호에 따른 복수의 대응모션 중, 도 9의 (c)와 같이 장애물이 선풍기임을 영상을 통해 판단하여 그에 대한 대응모션을 수행하도록 한다. 예를 들어 선풍기의 경우, 이동 로봇이 선풍기의 하부, 선풍기의 받침대 위로 올라가 고립되는 경우가 발생할 수 있으므로, 선풍기에 10cm 이상 접근하지 않고 회피하도록 대응모션(일정거리 접근 후 회피)을 설정하여 주행부를 제어한다. The driving controller determines that the obstacle is an electric fan as shown in FIG. 9C among the corresponding motions according to the detection signal, and performs the corresponding motion. For example, in the case of an electric fan, the mobile robot may be isolated from the lower part of the electric fan and the base of the electric fan, so that the moving part may be set by avoiding 10 cm or more of the electric fan. To control.
또한, 영상을 통해 도 9의 (e)와 같이 상자로 판단되는 경우에는 상자에 접근하여 충돌한 후, 이동 가능 여부를 확인할 후에 회피하도록 설정할 수 있다. 상자가 가벼운 경우 이동 로봇에 의해 위치가 변경될 수 있으므로, 접근하여 충돌하도록 대응모션을 설정할 수 있다. In addition, if it is determined through the image as a box as shown in FIG. If the box is light, the position can be changed by the mobile robot, so the corresponding motion can be set to approach and collide.
제어부(110)는 감지되는 장애물에 대한 정보를 장애물데이터로써 저장한다. The
장애물데이터에는, 장애물이 감지되는 횟수에 따라 자주 감지되는 장애물에 대한 데이터가 저장된다. In the obstacle data, data about an obstacle that is frequently detected according to the number of times that the obstacle is detected is stored.
주행제어부(113)는 장애물의 종류에 따라 위험장애물인지 여부를 추가로 판단하여, 그에 대응하는 동작을 수행하도록 주행부를 제어할 수 있다. 주행제어부(113)는 장애물의 종류에 따라 동작이 지정된 경우 지정된 동작을 수행하도록 하고, 별도로 동작이 지정되지 않은 경우, 위험장애물 인지 여부에 따라 장애물에 대한 접근의 정도를 가변하여 설정할 수 있다. 또한, 주행제어부(113)는 위험장애물인 경우 장애물에 종류에 따라 소정의 효과음 또는 경고음을 출력하고, 음성안내를 출력할 수 있다. 주행제어부(113)는 화분, 화병 등의 파손가능성이 있는 대상, 애완동물, 고립 가능성이 있는 의자 다리 등을 위험장애물로 설정할 수 있다. The driving
또한, 장애물인식부(111)는 동일한 감지신호가 입력되어 동일한 장애물이 위치하는 경우라도, 장애물의 크기 또는 형상에 따라 상이한 대응모션을 수행할 수 있다. In addition, the
예를 들어 의자의 다리로 판단되는 감지신호가 입력되는 경우, 영상을 통해 의자인 것을 판단하는 경우에도, 의자의 높이와 의자의 다리 사이의 간격에 따라 회피, 접근, 진입의 동작이 수행될 수 있다. 장애물인식부(111)는 감지신호 입력 후 영상을 분석하여 의자 다리 사이의 간격과 의자의 높이를 산출하여 진입 여부를 판단한다. 그에 따라 주행제어부는 회피, 접근, 진입 중 어느 하나의 대응모션이 수행되도록 한다. For example, when a detection signal determined to be a leg of a chair is input, even when it is determined that the chair is an image, an operation of avoiding, approaching or entering may be performed according to the distance between the height of the chair and the leg of the chair. have. The
도 11은 본 발명의 일실시예에 따른 이동 로봇 및 장애물 인식을 위한 기기간의 신호 흐름을 설명하는데 참조되는 도이다. FIG. 11 is a diagram referred to for describing a signal flow between a mobile robot and a device for obstacle recognition according to an embodiment of the present invention.
도 11에 도시된 바와 같이, 이동 로봇(1)은 주행구역을 주행하면서 청소를 수행한다.As shown in Fig. 11, the
이동 로봇(1)은 주행 중 영상을 촬영하고, 영상을 영상데이터로 저장한다. 제어부(110)는 영상을 통해 장애물을 판단하는 경우, 저장된 장애물 정보를 바탕으로 영상을 분석하여 장애물을 판단한다(S1).The
또한, 이동 로봇(1)은 영상데이터를 서버(90) 또는 단말(80)로 전송하여 장애물 확인을 요청할 수 있다(S2).In addition, the
서버(90)는 영상데이터를 분석하여 장애물에 대한 특징을 추출하여, 형태를 바탕으로 장애물의 종류를 판단한다. 서버(90)는 누적되는 장애물에 대한 데이터를 데이터베이스에 저장하여 장애물 판단에 활용한다. The
단말(80)은 이동 로봇(1)이 서버에 접속할 수 없는 경우 서버로 데이터를 전송할 수 있다. 또한, 단말(80)은 수신된 영상데이터를 바탕으로 장애물의 종류를 판단할 수 있고, 사용자 입력을 통해 장애물의 종류를 판단할 수 있다. The terminal 80 may transmit data to the server when the
서버(90) 또는 단말(80)은 이동 로봇의 요청 대응하여, 장애물의 종류에 대한 데이터를 이동 로봇(1)으로 전송한다(S3). 또한, 서버(90) 또는 단말(80)은 장애물의 종류에 대응하는 회피동작에 대한 데이터를 이동 로봇(1)으로 전송할 수 있다. 이동 로봇(1)은 수신되는 데이터에 따라 회피 동작을 수행한다. In response to a request of the mobile robot, the
도 12 는 본 발명의 일실시예에 따른 이동 로봇의 장애물감지 및 대응 동작을 수행하는 과정을 설명하는데 참조되는 흐름도이다. 12 is a flowchart referred to for explaining a process of performing an obstacle detection and a corresponding operation of a mobile robot according to an embodiment of the present invention.
도 12에 도시된 바와 같이, 이동 로봇(1)은 주행 중에 영상획득부(170)를 통해 복수의 영상을 촬영한다. 제어부(110)는 장애물 감지유닛을 통해 장애물이 감지되지 않더라고 주행중에 영상이 촬영되도록 한다. As shown in FIG. 12, the
영상은 소정시간 간격으로 정지영상으로 촬영될 수 있고, 또한 연속 촬영을 통해 동영상으로 촬영될 수 있다. 영상획득부(170)는 촬영되는 영상을 복수의 영상데이터(I01 내지 I03)으로 데이터부에 저장한다(S11). Images may be taken as still images at predetermined time intervals, and may also be captured as moving images through continuous shooting. The
영상획득부(170)에 구비되는 영상처리부는 촬영된 영상을 필터링하여 일정시간 간격으로 영상데이터가 저장되도록 하고, 동영상이 촬영되는 경우 프레임 단위로 분석하여 불필요한 프레임은 제거한 후 영상데이터를 저장한다. The image processing unit provided in the
제어부(110)는 영상데이터는 저장하고, 장애물 감지유닛에 의해 장애물이 감지되면(T1), 장애물이 지정 거리 내에 위치하는 경우 기 촬영된 영상데이터를 분석하여 배경을 제거하고(S12) 특징을 추출한다(S13). 장애물인식부(111)는 장애물에 대한 형상(형태), 크기, 종류를 판단한다(S14).The
제어부(110)는 감지신호와 영상을 통해 판단되는 장애물에 대응하여 대응모션을 설정하고 그에 따라 동작하도록 주행부를 제어한다. The
경우에 따라 제어부(110)는 장애물 감지유닛(100)에 의해 감지신호가 입력되기 전, 소정 단위로 영상데이터를 분석하여 필터링하고 특징으로 추출하여(S12, S13), 장애물의 형상, 크기, 또는 종류를 판단할 수 있다(S14). 장애물에 대한 판단이 완료된 상태에서 장애물 감지유닛(100)에 의해 감지신호가 입력되면(T2), 제어부는 감지신호와 영상을 통한 장애물 판단을 근거로 장애물에 대한 대응모션을 설정하여 지정된 동작을 수행한다(S17).In some cases, before the detection signal is input by the
한편, 제어부(1110)는 복수의 영상데이터를 서버로 전송하여(S15), 서버로 장애물 판단을 요청할 수 있다. 서버로부터 장애물에 대한 데이터가 수신되면 장애물 정보(S16)를 저장하고, 그에 따라 장애물을 판단한다(S14).Meanwhile, the controller 1110 may transmit a plurality of image data to the server (S15), and request an obstacle determination from the server. When data on the obstacle is received from the server, the obstacle information (S16) is stored, and the obstacle is determined accordingly (S14).
제어부(110)는 장애물 감지유닛(100)의 감지신호와 영상을 통한 장애물 판단을 바탕으로 대응모션을 설정하고 그에 따라 동작을 수행한다(S17).The
도 13 은 본 발명의 일실시예에 따른 이동 로봇의 장애물 인식 및 그에 따른 제어방법을 설명하는데 참조되는 순서도이다. FIG. 13 is a flowchart referred to for describing obstacle recognition and a control method thereof according to an exemplary embodiment of the present invention. FIG.
도 13에 도시된 바와 같이, 이동 로봇(1)은 주행영역(H) 내에서 주행가능한 영역을 주행하고 지정된 영역에 대한 청소를 수행한다(S310). As shown in FIG. 13, the
이동 로봇(1)은 이동 또는 청소명령이 입력되면, 영상획득부(170)를 통해 영상을 촬영한다. 영상획득부(170)는 연속으로 영상을 촬영하거나(동영상) 또는, 소정 시간 간격으로, 영상을 촬영할 수 있다(S320). 촬영된 획득영상은 영상데이터로써 저장된다. When a moving or cleaning command is input, the
영상획득부(170)는 이동 로봇의 이동 속도에 따라 촬영 주기를 설정하고, 또한 장애물 감지유닛의 장애물 감지 가능한 거리를 기준으로 설정할 수 있다. The
영상획득부(170)는 복수의 영상데이터에 대하여, 인식 가능한지 여부를 판단하여 필터링하고, 영상분석이 가능한 영상을 선별하여 영상데이터로 저장한다. The
예를 들어 영상획득부(170)는 장애물의 움직임 또는 촬영중 본체(10)의 움직임에 의해 장애물이 정상적으로 촬영되지 못한 경우, 예를 들어 촬영대상인 장애물에 대한 이미지가 흔들려 장애물을 인식할 수 없는 경우, 초점이 맞지 않아 인식이 불가능한 경우는 제외하고, 정상적으로 촬영된 영상을 선별하여 영상데이터로 저장한다. For example, the
영상획득부(170)는 이동 로봇(1)이 동작하는 중에 영상을 촬영하고, 장애물 감지유닛(100)은 패턴을 조사하거나, 초음파, 적외선, 레이저를 이용하여 주행방향에 위치한 장애물을 감지하여 감지신호를 입력한다(S300). The
장애물인식부(111)는 감지신호를 바탕으로 주행방향에 위치한 장애물의 유무, 또는 3D센서를 이용하여 패턴분석을 통해 장애물의 크기, 위치 등을 판단할 수 있다(S340). The
제어부(110)는 패턴을 조사하여 획득된 패턴의 형태를 통해 장애물을 판단하는 경우, 동일한 감지신호가 입력되는 장애물 들을 분류하여 구분하고, 각각의 감지신호에 따라 수행 가능한 복수의 대응모션을 설정한다(S350). When the
제어부(110)는 장애물 감지유닛의 센서의 종류에 따라 감지가능한 거리에 차이가 있으므로, 감지신호를 바탕으로 장애물까지의 거리를 판단하여 장애물이 지정거리에 위치하는지 여부를 판단한다(S360). Since the
제어부(110)는 감지신호의 형태에 따라 주행방향에 위치한 장애물에 대하여 수행 가능한 복수의 대응모션을 판단하고, 장애물이 지정거리 내에 위치하는 경우, 기 촬영된 이전 시점의 영상데이터를 분석하여(S370), 장애물을 판단한다(S380).The
장애물인식부(111)는 영상데이터를 분석하여 장애물에 대한 인식이 가능한지 여부에 따라 필터링하고, 영상처리를 통해 필터링된 영상데이터로부터 배경을 제거한 후, 장애물의 외곽선 또는 특징점을 추출하여 장애물에 대한 형태와 특징을 추출한다.The
장애물인식부(111)는 영상데이터의 밝기, 선명도, 본체(10)의 이동속도를 바탕으로 영상데이터의 식별 여부를 판단할 수 있다. 장애물인식부(111)는 영상데이터의 복수의 픽셀값의 밝기값을 바탕으로 영상데이터의 밝기를 판단하여 노출과다, 노출부족, 정상노출을 구분한다. 또한, 장애물인식부(111)는 본체의 이동속도가 설정속도 이상인 경우, 촬영되는 영상에 흔들림이 있다고 판단할 수 있고, 영상데이터의 선명도를 판단하여 식별 가능 여부를 판단한다. The
장애물인식부(111)는 추출된 장애물의 외곽선과 특징을 추출하여 형태를 분석하고, 장애물데이터를 바탕으로 장애물의 종류, 크기를 판단한다.The
한편, 장애물인식부(111)는 별도의 장애물데이터가 존재하지 않거나, 또는 장애물데이터로부터 장애물의 종류를 판단할 수 없는 경우 서버(90) 또는 단말로 영상데이터를 전송하여 장애물 확인을 요청할 수 있다. 서버를 통한 장애물 판단은 영상이 촬영되면 즉시 수행될 수 있다. 자체 판단 또는 서버로부터의 응답에 의해 장애물의 종류를 판단한다. On the other hand, when the
서버(90)는 하나의 장애물에 대하여 복수의 영상데이터를 저장하고, 특정 장애물에 대한 특징을 추출하여 데이터베이스에 저장한다. 서버(90)는 이동 로봇(1)으로부터 수신된 영상데이터를 분석하여 기 저장된 데이터와 비교함으로써, 장애물의 종류를 판단한다. 서버(90)는 장애물의 종류 및 그에 관련된 장애물데이터를 이동 로봇(1)으로 전송한다. The
장애물인식부(111)는 장애물에 대한 형태와 특징에 대응하여 판단된 장애물에 대한 데이터를 바탕으로 복수의 대응모션 중 어느 하나를 설정한다(S390). The
주행제어부는 주행부를 제어하여 설정된 대응모션에 따른 동작을 수행한다(S400). The driving controller controls the driving unit to perform an operation according to the corresponding motion (S400).
주행제어부(113)는 위험장애물인 경우, 장애물에 일정거리 이상 접근하지 않고 회피하여 주행하도록 설정한다. 또한, 주행제어부(113)는 장애물의 종류에 따라 지정된 동작이 존재하는 경우 지정된 동작을 수행하도록 설정한다.In the case of a dangerous obstacle, the driving
주행제어부(113)는 장애물에 접근한 후 회피하거나, 지정거리 도달시 즉시 회피하도록 설정할 수 있고, 접근하는 경우 접근 거리를 설정할 수 있으며, 장애물로 진입, 통과하도록 설정할 수 있다. 또한, 이동로봇은 소정의 경고음을 출력할 수도 있다. The driving
따라서 이동 로봇(1)은 동일한 감지신호가 입력되는 경우라도, 영상분석을 통해 장애물에 따라 상이한 동작이 수행할 수 있고, 동일한 감지신호 및 장애물의 종류라 하더라도 장애물의 크기나 형태에 따라 대응모션을 상이하게 수행할 수 있다. Therefore, even if the same sensing signal is input, the
본 발명은 장애물에 지정거리 접근하면 설정된 동작을 수행함으로써, 장애물에 대하여 즉각적으로 대응할 수 있고, 기 촬영된 영상을 이용함에 따라 장애물 판단이 용이해지므로 보다 효과적으로 장애물을 회피할 수 있다.
According to the present invention, when a predetermined distance is approached to an obstacle, the set operation may be performed immediately, and the obstacle may be easily determined by using a pre-recorded image, thereby more effectively avoiding the obstacle.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
The above description is merely illustrative of the technical idea of the present invention, and those skilled in the art to which the present invention pertains may make various modifications and changes without departing from the essential characteristics of the present invention.
1: 이동 로봇 10: 본체
100: 장애물 감지유닛 110: 제어부
111: 장애물인식부 113: 주행제어부
120, 130: 패턴 조사부 140: 패턴 획득부
150: 센서부 170: 영상획득부
180: 데이터부
250: 주행부 260: 청소부1: mobile robot 10: main body
100: obstacle detection unit 110: control unit
111: obstacle recognition unit 113: driving control unit
120, 130: pattern irradiation unit 140: pattern acquisition unit
150: sensor unit 170: image acquisition unit
180: data part
250: running part 260: cleaning part
Claims (22)
주행방향에 대한 영상을 촬영하는 영상획득부;
주행방향에 위치한 장애물을 감지하는 장애물 감지유닛;
상기 영상획득부를 통해 촬영되는 복수의 영상데이터를 저장하고, 상기 장애물 감지유닛으로부터 입력된 소정 형태의 감지신호에 따라, 상기 감지신호를 통해 산출되는 장애물과의 거리를 바탕으로 상기 장애물이 소정 거리 내에 위치하는지 여부를 판단하고, 상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점에 대응모션을 시작하되, 상기 소정 시점 이전에 획득된 상기 영상데이터를 바탕으로 판단되는 상기 장애물에 따라, 복수의 대응모션 중 어느 하나를 선택하여 상기 대응모션을 결정하는 제어부를 포함하고,
상기 제어부는 상기 소정 시점의 상기 본체의 주행방향과 동일한 주행방향에서 촬영된 영상데이터에 기초하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇. A movable body;
An image acquisition unit for photographing an image of a driving direction;
An obstacle detecting unit detecting an obstacle located in a driving direction;
Stores a plurality of image data photographed through the image acquisition unit, in accordance with a predetermined type of detection signal input from the obstacle detection unit, the obstacle within a predetermined distance based on the distance to the obstacle calculated through the detection signal Determine whether or not to be located, and start the corresponding motion at a predetermined time point at which it is determined that the obstacle is located within a predetermined distance, and according to the obstacle determined based on the image data acquired before the predetermined time point, A control unit for selecting one of the motions to determine the corresponding motion;
And the controller determines the obstacle based on image data photographed in the same travel direction as the travel direction of the main body at the predetermined time point.
상기 제어부는 상기 감지신호에 따라 복수의 대응모션이 수행 가능하도록 설정하는 것을 특징으로 하는 이동 로봇.The method of claim 1,
The control unit is a mobile robot, characterized in that for setting a plurality of corresponding motion to perform according to the detection signal.
상기 제어부는 동일하게 입력되는 상기 감지신호에 대하여, 상기 영상데이터를 바탕으로 상기 복수의 대응모션 중 어느 하나의 대응모션이 수행되도록 제어하는 것을 특징으로 하는 이동 로봇. The method of claim 2,
And the control unit controls the corresponding input signal to perform any one of the corresponding motions among the plurality of corresponding motions based on the image data.
상기 제어부는 상기 장애물 감지유닛에 의해 상기 장애물이 소정 거리에 위치하는 것으로 판단되는 시점을 기준으로, 일정 시간 이전에 촬영된 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
The controller may determine the obstacle by analyzing the image data photographed before a predetermined time on the basis of the point of time when the obstacle is determined to be located at a predetermined distance by the obstacle detecting unit.
상기 제어부는 상기 영상데이터를 분석하여 상기 장애물의 형상, 크기 또는 장애물의 종류를 판단하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
The controller analyzes the image data to determine the shape, size, or type of the obstacle.
상기 제어부는 상기 감지신호가 입력되기 전, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
The controller may determine the obstacle by analyzing the image data before the detection signal is input.
상기 제어부는 상기 감지신호가 입력되면, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
The controller may determine the obstacle by analyzing the image data when the detection signal is input.
상기 제어부는 상기 영상데이터는 단말 또는 서버로 전송하여 상기 영상데이터에 포함된 상기 장애물에 대한 정보를 수신하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
The control unit is a mobile robot, characterized in that for transmitting the image data to the terminal or server to receive information about the obstacle included in the image data.
상기 영상획득부는 주행방향에 대하여 연속적으로 촬영하거나 또는 지정된 시간에 따라 영상을 촬영하여 상기 영상데이터를 저장하는 것을 특징으로 하는 이동 로봇.The method of claim 1,
The image acquisition unit is a mobile robot, characterized in that for continuously shooting in the driving direction or to take an image according to a specified time to store the image data.
상기 제어부는 정지, 감속, 가속, 역주행, 대기, 회피, 근거리 접근 금지, 음성안내 중 적어도 하나가 조합된 상기 대응모션을 수행하도록 제어하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
And the controller controls to perform the corresponding motion in which at least one of stop, deceleration, acceleration, reverse driving, standby, avoidance, short-range access prohibition, and voice guidance is performed.
상기 장애물 감지유닛은 초음파센서, 레이저센서, 적외선센서, 3D센서 중 적어도 하나를 포함하는 이동 로봇.The method of claim 1,
The obstacle detecting unit includes at least one of an ultrasonic sensor, a laser sensor, an infrared sensor, and a 3D sensor.
상기 제어부는 상기 영상데이터를 단말 또는 서버로 전송하여 장애물 확인을 요청하고, 상기 서버 또는 상기 단말로부터 수신되는 응답데이터에 대응하여 상기 장애물의 종류를 판단하는 것을 특징으로 하는 이동 로봇. The method of claim 1,
The controller transmits the image data to a terminal or a server to request an obstacle check, and determines the type of the obstacle in response to the response data received from the server or the terminal.
장애물 감지유닛을 통해 장애물에 대한 감지신호가 입력되는 단계;
상기 감지신호를 통해 산출되는 장애물과의 거리를 바탕으로 상기 장애물이 본체로부터 소정 거리 내에 위치하는지 여부를 판단하는 단계;
상기 장애물이 소정 거리 내에 위치하는 것으로 판단되는 소정 시점에, 그 이전에 획득된 상기 영상데이터 중 상기 소정 시점의 본체의 주행방향과 동일한 주행방향에서 촬영된 영상데이터에 기초하여 상기 장애물을 판단하는 단계;;
상기 장애물에 따라 복수의 대응모션 중 어느 하나를 대응모션으로 결정하는 단계;
상기 소정 시점에, 상기 장애물에 대한 상기 대응모션을 시작하는 단계; 및
상기 대응모션에 따라 동작하여 상기 장애물을 회피하거나 또는 통과하여 주행하는 단계를 포함하는 이동 로봇의 제어방법. While driving, taking an image of a driving direction by an image acquisition unit and storing image data;
Inputting a detection signal for an obstacle through the obstacle detecting unit;
Determining whether the obstacle is located within a predetermined distance from the main body based on a distance from the obstacle calculated through the detection signal;
Determining, at a predetermined time point at which the obstacle is determined to be located within a predetermined distance, the obstacle is determined based on the image data photographed in the same traveling direction as the traveling direction of the main body at the predetermined time point among the image data previously acquired; ;;
Determining one of a plurality of corresponding motions as a corresponding motion according to the obstacle;
Starting the corresponding motion for the obstacle at the predetermined time point; And
Operating in accordance with the corresponding motion to avoid the obstacle or to pass through the control method of the mobile robot.
상기 대응모션을 설정하는 단계는, 상기 장애물 감지유닛으로부터 입력되는 감지신호의 형태에 따라 복수의 대응모션을 설정하고, 상기 영상데이터에 의해 상기 복수의 대응모션 중 어느 하나를 선택하는 단계를 더 포함하는 이동 로봇의 제어방법. The method of claim 15,
The setting of the corresponding motion may further include setting a plurality of corresponding motions according to the type of the detection signal input from the obstacle detecting unit, and selecting one of the plurality of corresponding motions based on the image data. Control method of the mobile robot.
영상 촬영 후 상기 장애물 감지유닛으로부터 상기 장애물에 대한 감지신호가 입력되기 전, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 단계를 더 포함하는 이동 로봇의 제어방법. The method of claim 15,
And analyzing the image data to determine the obstacle after the image is photographed and before the detection signal for the obstacle is input from the obstacle detecting unit.
상기 장애물 감지유닛으로부터 상기 장애물에 대한 감지신호가 입력되면, 상기 영상데이터를 분석하여 상기 장애물을 판단하는 단계를 더 포함하는 이동 로봇의 제어방법. The method of claim 15,
And detecting the obstacle by analyzing the image data when a detection signal for the obstacle is input from the obstacle detecting unit.
상기 영상데이터를 분석하여 상기 장애물의 형상, 크기 또는 종류를 판단하는 것을 특징으로 하는 이동 로봇의 제어방법. The method of claim 18 or 19,
And analyzing the image data to determine the shape, size, or type of the obstacle.
상기 영상데이터를 단말 또는 서버로 전송하여 상기 영상데이터에 포함된 상기 장애물에 대한 정보를 수신하는 단계를 더 포함하는 이동 로봇의 제어방법.
The method of claim 15,
And transmitting information about the obstacle included in the image data by transmitting the image data to a terminal or a server.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170139495A KR102070067B1 (en) | 2017-10-25 | 2017-10-25 | Artificial intelligence Moving Robot and controlling method |
CN201880081516.XA CN111479662B (en) | 2017-10-25 | 2018-10-25 | Artificial intelligent mobile robot for learning obstacle and control method thereof |
EP18870615.4A EP3702111B1 (en) | 2017-10-25 | 2018-10-25 | Artificial intelligence moving robot which learns obstacles, and control method therefor |
AU2018356126A AU2018356126B2 (en) | 2017-10-25 | 2018-10-25 | Artificial intelligence moving robot which learns obstacles, and control method therefor |
US16/759,118 US11586211B2 (en) | 2017-10-25 | 2018-10-25 | AI mobile robot for learning obstacle and method of controlling the same |
PCT/KR2018/012688 WO2019083291A1 (en) | 2017-10-25 | 2018-10-25 | Artificial intelligence moving robot which learns obstacles, and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170139495A KR102070067B1 (en) | 2017-10-25 | 2017-10-25 | Artificial intelligence Moving Robot and controlling method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190046201A KR20190046201A (en) | 2019-05-07 |
KR102070067B1 true KR102070067B1 (en) | 2020-01-28 |
Family
ID=66656067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170139495A KR102070067B1 (en) | 2017-10-25 | 2017-10-25 | Artificial intelligence Moving Robot and controlling method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102070067B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11599114B2 (en) | 2019-07-09 | 2023-03-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
US11967157B2 (en) | 2021-08-20 | 2024-04-23 | Samsung Electronics Co., Ltd. | Robot and method for controlling thereof |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019172733A2 (en) * | 2019-05-08 | 2019-09-12 | 엘지전자 주식회사 | Moving robot capable of interacting with subject being sensed, and method of interaction between moving robot and subject being sensed |
WO2020241924A1 (en) * | 2019-05-29 | 2020-12-03 | 엘지전자 주식회사 | Intelligent cleaning robot setting travel route on basis of image learning, and operation method thereof |
US11650597B2 (en) * | 2019-07-09 | 2023-05-16 | Samsung Electronics Co., Ltd. | Electronic apparatus for identifying object through warped image and control method thereof |
KR102254157B1 (en) * | 2019-07-09 | 2021-05-21 | 삼성전자주식회사 | Warped image based ground object recognition electronic apparatus and controlling method thereof |
KR102269053B1 (en) * | 2019-07-09 | 2021-06-24 | 삼성전자주식회사 | Electronic apparatus and controlling method thereof |
KR20210148739A (en) * | 2020-06-01 | 2021-12-08 | 삼성전자주식회사 | Cleaning robot and controlling method thereof |
KR20220121483A (en) * | 2021-02-25 | 2022-09-01 | 엘지전자 주식회사 | Method of intelligently generating map and mobile robot thereof |
KR102699471B1 (en) * | 2021-12-28 | 2024-08-26 | 한국로봇융합연구원 | Robot operation system that reacts when recognizing obstacles |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100662638B1 (en) * | 2001-04-18 | 2007-01-02 | 삼성광주전자 주식회사 | Apparatus for correcting obstacle detection error of robot cleaner and method therefor |
KR100728225B1 (en) * | 2005-10-27 | 2007-06-14 | 엘지전자 주식회사 | Driving method for moving robot and moving robot using the method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101717821B1 (en) | 2014-06-27 | 2017-03-17 | 롯데첨단소재(주) | Styrenic copolymers and thermoplastic resin composition comprising thereof |
-
2017
- 2017-10-25 KR KR1020170139495A patent/KR102070067B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100662638B1 (en) * | 2001-04-18 | 2007-01-02 | 삼성광주전자 주식회사 | Apparatus for correcting obstacle detection error of robot cleaner and method therefor |
KR100728225B1 (en) * | 2005-10-27 | 2007-06-14 | 엘지전자 주식회사 | Driving method for moving robot and moving robot using the method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11599114B2 (en) | 2019-07-09 | 2023-03-07 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
US12078998B2 (en) | 2019-07-09 | 2024-09-03 | Samsung Electronics Co., Ltd. | Electronic apparatus and controlling method thereof |
US11967157B2 (en) | 2021-08-20 | 2024-04-23 | Samsung Electronics Co., Ltd. | Robot and method for controlling thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20190046201A (en) | 2019-05-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11586211B2 (en) | AI mobile robot for learning obstacle and method of controlling the same | |
KR102070067B1 (en) | Artificial intelligence Moving Robot and controlling method | |
US11846950B2 (en) | Mobile robot and control method thereof | |
US11226633B2 (en) | Mobile robot and method of controlling the same | |
US10695906B2 (en) | Moving robot and controlling method | |
KR102024092B1 (en) | Moving Robot and controlling method | |
EP3950234B1 (en) | Mobile robot and control method thereof | |
KR102032285B1 (en) | Moving Robot and controlling method | |
KR20180098891A (en) | Moving Robot and controlling method | |
KR102500529B1 (en) | Moving Robot and controlling method | |
US20230091839A1 (en) | Moving robot and control method thereof | |
KR20190119234A (en) | Moving Robot and controlling method | |
KR102330607B1 (en) | Artificial intelligence Moving Robot and controlling method | |
KR20190103511A (en) | Moving Robot and controlling method | |
EP3986679B1 (en) | Moving robot and method of controlling the same | |
KR102152731B1 (en) | Moving Robot and controlling method | |
KR102306436B1 (en) | Moving Robot and controlling method | |
KR20210080022A (en) | Moving Robot and controlling method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |