[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102514499B1 - Artificial intelligence lawn mower robot and controlling method for the same - Google Patents

Artificial intelligence lawn mower robot and controlling method for the same Download PDF

Info

Publication number
KR102514499B1
KR102514499B1 KR1020210006278A KR20210006278A KR102514499B1 KR 102514499 B1 KR102514499 B1 KR 102514499B1 KR 1020210006278 A KR1020210006278 A KR 1020210006278A KR 20210006278 A KR20210006278 A KR 20210006278A KR 102514499 B1 KR102514499 B1 KR 102514499B1
Authority
KR
South Korea
Prior art keywords
driving
main body
unit
control
controlling
Prior art date
Application number
KR1020210006278A
Other languages
Korean (ko)
Other versions
KR20210008903A (en
Inventor
주형국
송현섭
유경만
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180160279A external-priority patent/KR20200075140A/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020210006278A priority Critical patent/KR102514499B1/en
Publication of KR20210008903A publication Critical patent/KR20210008903A/en
Application granted granted Critical
Publication of KR102514499B1 publication Critical patent/KR102514499B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/835Mowers; Mowing apparatus of harvesters specially adapted for particular purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/061Safety devices with audible signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 명세서는 주행 영역을 주행하는 중 촬영부의 촬영 결과를 근거로 상기 주행 영역의 상태를 판단한 결과, 상기 주행 영역 상에서 위치가 변화되는 감지 대상물을 감지한 경우, 상기 감지 대상물에 대응하여 주행을 제어하는 인공지능 이동 로봇 및 이의 제어 방법에 관한 것이다.In the present specification, when the state of the driving area is determined based on the photographing result of the photographing unit while driving in the driving area, and an object whose position is changed in the driving area is detected, driving is controlled in response to the sensing object. It relates to an artificial intelligence mobile robot and its control method.

Description

인공지능 이동 로봇 및 이의 제어 방법{ARTIFICIAL INTELLIGENCE LAWN MOWER ROBOT AND CONTROLLING METHOD FOR THE SAME}Artificial intelligence mobile robot and its control method {ARTIFICIAL INTELLIGENCE LAWN MOWER ROBOT AND CONTROLLING METHOD FOR THE SAME}

본 발명은 주행 영역을 자율주행하는 이동 로봇 및 이의 제어 방법에 관한 것이다.The present invention relates to a mobile robot that autonomously travels in a driving area and a control method thereof.

일반적으로 이동 로봇은 사용자의 조작 없이도 소정 구역을 스스로 주행하면서 자동으로 소정의 동작을 수행하는 기기이다. 이동 로봇은 구역 내에 설치된 장애물을 감지하여 장애물에 접근하거나 회피하여 동작을 수행한다.In general, a mobile robot is a device that automatically performs a predetermined operation while traveling in a predetermined area by itself without a user's manipulation. The mobile robot detects an obstacle installed in the area and approaches or avoids the obstacle to perform an action.

이러한 이동 로봇은 영역을 주행하면서 청소를 수행하는 청소로봇은 물론 영역의 바닥면의 잔디를 깎는 이동 로봇이 포함될 수 있다. 일반적으로 잔디 깎기 장치는 사용자가 탑승하여 사용자의 운전에 따라 이동하면서 바닥의 잔디를 깎거나 풀을 제초하는 승용형 장치와, 사용자가 수동으로 끌거나 밀어서 이동하면서 잔디를 깎는 워크비하인드타입 또는 핸드타입의 장치가 있다. 이러한 잔디 깎기 장치는 사용자의 직접적인 조작에 의해 이동하며 잔디를 깎는 것으로 사용자의 직접 장치를 작동해야하는 번거로움이 있다. 그에 따라 이동 로봇에 잔디를 깎을 수 있는 수단을 구비한 이동 로봇형의 잔디 깎기 장치가 연구되고 있다. Such a mobile robot may include a cleaning robot that cleans while driving in an area as well as a mobile robot that mows the lawn of the floor of an area. In general, lawn mowers include a ride-on device that mows or weeds grass on the floor while a user rides and moves according to the user's driving, and a walk-behind type or hand-type device that mows grass while the user moves by manually dragging or pushing. There is a device of Such a lawn mowing device is moved by a user's direct manipulation, and it is inconvenient for a user to directly operate the device to mow the lawn. Accordingly, research is being conducted on a mobile robot-type lawn mower equipped with a means for mowing the lawn in the mobile robot.

이러한 잔디 깎기용 이동 로봇(잔디 깎기)의 경우 실내가 아닌 실외에서 동작하므로, 주행에 많은 제약이 따르게 된다. 이를테면, 야외에는 애완 동물, 타 이동 로봇 등 동적 장애물이 존재할 수 있는데, 이러한 동적 장애물은 유동으로 인해 이동 로봇의 주행 또는 제초 동작을 방해하게 될 수 있다. 또는, 상기 이동 로봇은 잔디를 절삭하는 날카로운 블레이드가 회전하며 주행 영역의 잔디를 제초하게 되는데, 사물의 인식 능력이 이동 로봇의 사용자에 비해 발달되지 않은 애완 동물이나 아기가 상기 주행 영역 상에 존재하는 경우, 상기 이동 로봇을 피하지 못하게 되어 상기 이동 로봇의 제초 수단에 의한 사고가 발생할 우려가 있다. 즉, 상기 이동 로봇은 상기 주행 영역 상의 동적 장애물에 의한 주행 제한 및 안전 확보의 제약이 따르게 된다.In the case of such a mobile robot (lawn mower) for lawn mowing, since it operates outdoors, not indoors, many restrictions are imposed on driving. For example, there may be dynamic obstacles such as pets and other mobile robots outdoors, and these dynamic obstacles may interfere with the mobile robot's driving or weeding operation due to flow. Alternatively, the mobile robot weeds the grass in the driving area by rotating a sharp blade that cuts the grass, and a pet or baby whose object recognition ability is not developed compared to the user of the mobile robot exists on the driving area. In this case, it is impossible to avoid the mobile robot, and there is a concern that an accident caused by the weeding means of the mobile robot may occur. That is, the mobile robot is subjected to driving restrictions and safety guarantee restrictions due to dynamic obstacles in the driving area.

한편, 한국 공개특허 10-2018-0023303(공개일: 2018년03월07일)(이하, 선행문헌이라 칭한다)에는 선풍기, 또는 사람의 발을 감지하여 회피하도록 주행하는 이동 로봇이 개시되어있는데, 이러한 선행문헌에 개시된 이동 로봇은 실내 환경을 주행하는 이동 로봇에 제한되어, 야외 환경을 주행하는 잔디 깎기용 이동 로봇에 적용되기에는 무리가 있었다. 즉, 선행문헌은 야외 환경에 따른 요인 및 제약이 고려되지 않아, 야외 환경 상의 동적 장애물을 고려한 주행 제어는 제시하지 못하였다.On the other hand, Korean Patent Publication No. 10-2018-0023303 (published date: March 7, 2018) (hereinafter referred to as prior literature) discloses a mobile robot that travels to avoid by detecting a fan or a person's feet, The mobile robot disclosed in these prior documents is limited to a mobile robot that travels in an indoor environment, and is difficult to apply to a mobile robot for lawn mowing that travels in an outdoor environment. That is, the prior literature did not suggest driving control considering dynamic obstacles in the outdoor environment because factors and restrictions according to the outdoor environment were not considered.

결과적으로, 종래의 잔디 깎기용 이동 로봇 기술에서는 야외 환경 상의 동적 장애물에 의한 주행 제약 및 안전의 문제가 따르게 되었으며, 이로 인해 이동 로봇의 주행 및 동작의 정확성, 안정성, 신뢰성, 효용성 및 활용성이 보장되지 못하는 한계가 있었다. 또한, 이동 로봇 기술 전반에서도 이러한 한계를 개선할 수 있는 기술 또한 제안되지 못하여, 동적 장애물에 의한 제약을 해결하지 못하였다.As a result, in the conventional mobile robot technology for lawn mowing, driving restrictions and safety problems due to dynamic obstacles in the outdoor environment have been followed, which ensures the accuracy, stability, reliability, effectiveness and usability of the driving and operation of the mobile robot There were limits to what could not be done. In addition, a technique capable of improving these limitations has not been proposed even in mobile robot technology in general, so that the limitations caused by dynamic obstacles have not been resolved.

본 발명이 해결하고자 하는 과제는, 상술한 바와 같은 종래기술의 한계를 개선하는 것을 과제로 한다.The problem to be solved by the present invention is to improve the limitations of the prior art as described above.

구체적으로는, 주행 영역상에 존재하는 동적 장애물을 감지하여, 감지 결과에 따라 주행을 제어할 수 있는 이동 로봇 및 이의 제어 방법을 제공하고자 한다.Specifically, it is intended to provide a mobile robot capable of detecting a dynamic obstacle existing on a driving area and controlling driving according to a detection result, and a control method thereof.

또한, 주행 영역상에 존재하는 동적 장애물을 정확하게 감지할 수 있는 이동 로봇 및 이의 제어 방법을 제공하고자 한다.In addition, it is intended to provide a mobile robot capable of accurately detecting a dynamic obstacle existing on a driving area and a control method thereof.

아울러, 감지한 동적 장애물에 따라 적절한 대응 주행이 이루어질 수 있는 이동 로봇 및 이의 제어 방법을 제공하고자 한다.In addition, it is intended to provide a mobile robot and a control method thereof capable of appropriately responding to a detected dynamic obstacle.

상술한 바와 같은 과제를 해결하기 위한 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 주행 영역을 촬영하는 촬영 수단을 통해 동적 장애물을 감지하여, 이에 따라 주행을 제어하는 것을 해결 수단으로 한다.The mobile robot and its control method according to the present invention for solving the above problems are to detect a dynamic obstacle through a photographing means for photographing a driving area and to control driving accordingly.

구체적으로는, 인공지능 기술을 활용/적용하여 상기 촬영부에 의해 촬영된 상기 주행 영역 상의 대상물 중에 위치 변화가 감지되는 대상물을 동적 장애물로 감지하여, 감지 결과에 따라 본체의 주행을 제어하게 된다.Specifically, by utilizing/applying artificial intelligence technology, an object whose position change is detected among objects in the driving area photographed by the photographing unit is detected as a dynamic obstacle, and the driving of the main body is controlled according to the detection result.

즉, 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 주행 영역을 주행하는 중 촬영부의 촬영 결과를 근거로 상기 주행 영역의 상태를 판단한 결과, 상기 주행 영역 상에서 위치가 변화되는 감지 대상물을 감지한 경우, 상기 감지 대상물에 대응하여 주행을 제어하는 것을 해결 수단으로 한다.That is, the mobile robot and its control method according to the present invention, when the state of the driving area is determined based on the photographing result of the photographing unit while traveling in the driving area, and an object whose position is being changed is detected on the driving area. , Controlling driving in response to the sensing target is used as a solution.

이와 같은 해결 수단을 통해 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 주행 영역 내에 존재하는 동적 장애물을 감지하여, 감지 결과에 따른 대응 주행이 이루어지게 됨으로써, 상술한 바와 같은 과제를 해결하게 된다.Through such a solution, the mobile robot and its control method according to the present invention detects a dynamic obstacle present in the driving area and performs corresponding driving according to the detection result, thereby solving the above-described problems.

상기와 같은 기술적 특징은, 이동 로봇을 제어하는 제어 수단, 이동 로봇 및 이동 로봇을 제어하는 방법 및 이동 로봇의 동적 장애물 감지 방법/동적 장애물 감지에 따른 제어 방법, 또는 인공지능을 적용한 이동 로봇, 인공지능을 활용하여 동적 장애물을 감지하는 방법 등으로 실시될 수 있으며, 본 명세서는 상기와 같은 기술적 특징을 과제 해결 수단으로 하는 이동 로봇 및 이의 제어 방법의 실시 예를 제공한다.The above technical features include a control means for controlling the mobile robot, a mobile robot and a method for controlling the mobile robot, a dynamic obstacle detection method of the mobile robot, a control method based on dynamic obstacle detection, or a mobile robot applying artificial intelligence, artificial intelligence It can be implemented as a method of detecting a dynamic obstacle using intelligence, etc., and the present specification provides an embodiment of a mobile robot and a control method thereof using the above technical features as a means for solving problems.

상기와 같은 기술적 특징을 과제 해결 수단으로 하는 본 발명에 따른 이동 로봇은, 본체, 상기 본체를 이동시키는 구동부, 상기 본체의 주변을 촬영하여 상기 본체의 주행 영역에 대한 영상 정보를 생성하는 촬영부 및 상기 구동부를 제어하여 상기 본체의 주행을 제어하고, 상기 영상 정보를 근거로 상기 주행 영역의 상태를 판단하는 제어부를 포함하고, 상기 제어부는, 상기 본체가 상기 주행 영역을 주행하는 중 상기 주행 영역의 상태를 판단한 결과, 상기 주행 영역 상에서 위치가 변화되는 감지 대상물을 감지한 경우, 상기 감지 대상물에 대응하여 상기 본체의 주행을 제어한다.The mobile robot according to the present invention using the above technical features as a means for solving problems includes a main body, a driving unit for moving the main body, a photographing unit for generating image information about a driving area of the main body by photographing the surroundings of the main body, and and a control unit configured to control driving of the main body by controlling the driving unit and to determine a state of the driving area based on the image information, wherein the control unit controls the driving area while the main body is traveling in the driving area. As a result of determining the state, when an object whose position is changed in the driving area is detected, driving of the main body is controlled in response to the object to be sensed.

또한, 상기와 같은 기술적 특징을 과제 해결 수단으로 하는 본 발명에 따른 이동 로봇의 제어 방법은, 본체, 상기 본체를 이동시키는 구동부, 상기 본체의 주변을 촬영하는 촬영부 및 상기 구동부를 제어하여 상기 본체의 주행을 제어하고, 상기 촬영부의 촬영 결과를 근거로 상기 본체의 주행 영역의 상태를 판단하는 제어부를 포함하는 이동 로봇의 제어 방법으로, 상기 주행 영역을 주행하는 중 상기 본체의 주변을 촬영하여 상기 주행 영역에 대한 영상 정보를 생성하는 단계, 상기 영상 정보를 근거로 상기 주행 영역상에서 위치가 변화되는 감지 대상물을 감지하는 단계 및 감지 결과에 따라 상기 본체의 주행을 제어하는 단계를 포함한다.In addition, the method for controlling a mobile robot according to the present invention using the above technical features as a means for solving problems is to control a main body, a driving unit for moving the main body, a photographing unit for capturing the surroundings of the main body, and the driving unit to control the main body. A control method of a mobile robot including a control unit for controlling driving and determining a state of a driving area of the body based on a photographing result of the photographing unit, wherein the surroundings of the body are photographed while traveling in the driving area Generating image information about the driving area, detecting a sensing object whose position changes in the driving area based on the image information, and controlling driving of the main body according to a detection result.

본 발명에 따른 이동 로봇 및 이의 제어 방법은, 주행 영역을 촬영하는 촬영 수단을 통해 동적 장애물을 감지하여, 이에 따라 주행을 제어함으로써, 주행 영역상에 존재하는 동적 장애물을 감지하여, 감지 결과에 따라 주행을 제어할 수 있는 효과가 있다.A mobile robot and its control method according to the present invention detects a dynamic obstacle through a photographing means for capturing a driving area, controls driving accordingly, detects a dynamic obstacle existing on a driving area, and according to the detection result It has the effect of controlling driving.

또한, 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 주행 영역 상에 존재하는 동적 장애물을 정확하게 감지할 수 있으며, 감지한 동적 장애물에 따라 적절한 대응 주행이 이루어질 수 있는 효과가 있다.In addition, the mobile robot and its control method according to the present invention can accurately detect a dynamic obstacle existing on a driving area, and can perform appropriate corresponding driving according to the detected dynamic obstacle.

아울러, 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 동적 장애물에 의한 이동 로봇의 주행 제약 및 이동 로봇의 주행 및 제초 동작으로 인한 사용자의 안전 위험 문제를 개선할 수 있는 효과가 있다.In addition, the mobile robot and its control method according to the present invention has the effect of improving the user's safety risk problem due to the driving restriction of the mobile robot by dynamic obstacles and the driving and weeding operation of the mobile robot.

결과적으로, 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 종래기술의 한계를 개선함은 물론, 인공지능을 활용/적용한 잔디 깎기용 이동 로봇 기술 분야의 정확성, 신뢰성, 안정성, 효용성 및 활용성을 증대시킬 수 있게 되는 효과가 있다.As a result, the mobile robot and its control method according to the present invention not only improve the limitations of the prior art, but also improve the accuracy, reliability, stability, effectiveness and usability of the field of mobile robot technology for lawn mowing using / applying artificial intelligence. There is an effect that can be increased.

도 1a는 본 발명에 따른 이동 로봇의 일 실시 예를 나타낸 구성도 a.
도 1b는 본 발명에 따른 이동 로봇의 일 실시 예를 나타낸 구성도 b.
도 1c는 본 발명에 따른 이동 로봇의 일 실시 예를 나타낸 구성도 c.
도 2는 본 발명에 따른 이동 로봇의 주행 영역의 일 실시 예를 나타낸 개념도.
도 3a는 본 발명에 따른 이동 로봇의 주행 원리를 나타낸 개념도.
도 3b는 본 발명에 따른 이동 로봇의 위치 판단을 위한 장치 간의 신호 흐름을 나타낸 개념도.
도 4는 본 발명에 따른 이동 로봇의 구체적인 구성을 나타낸 구성도.
도 5a는 본 발명에 따른 이동 로봇의 주행 영역 상의 감지 대상물의 예시를 나타낸 예시도 a.
도 5b는 본 발명에 따른 이동 로봇의 주행 영역 상의 감지 대상물의 예시를 나타낸 예시도 b.
도 6은 본 발명에 따른 이동 로봇의 실시 예에 따른 동작 과정을 나타낸 순서도.
도 7은 본 발명에 따른 이동 로봇의 실시 예에 따른 감지 대상물에 대한 대응 주행의 예시를 나타낸 예시도.
도 8a는 본 발명에 따른 이동 로봇의 실시 예에 따른 감지 대상물에 대한 대응 주행의 구체적인 예시를 나타낸 예시도 a.
도 8b는 본 발명에 따른 이동 로봇의 실시 예에 따른 감지 대상물에 대한 대응 주행의 구체적인 예시를 나타낸 예시도 b.
도 8c는 본 발명에 따른 이동 로봇의 실시 예에 따른 감지 대상물에 대한 대응 주행의 구체적인 예시를 나타낸 예시도 c.
도 9는 본 발명에 따른 이동 로봇의 제어 방법의 순서를 나타낸 순서도.
Figure 1a is a configuration diagram showing an embodiment of a mobile robot according to the present invention a.
Figure 1b is a configuration diagram showing an embodiment of a mobile robot according to the present invention b.
Figure 1c is a configuration diagram showing an embodiment of a mobile robot according to the present invention c.
2 is a conceptual diagram illustrating an embodiment of a driving area of a mobile robot according to the present invention.
Figure 3a is a conceptual diagram showing the driving principle of the mobile robot according to the present invention.
3B is a conceptual diagram illustrating signal flow between devices for determining the location of a mobile robot according to the present invention.
4 is a configuration diagram showing a specific configuration of a mobile robot according to the present invention.
Figure 5a is an exemplary diagram showing an example of a sensing object on a driving area of a mobile robot according to the present invention a.
Figure 5b is an exemplary diagram showing an example of a sensing object on a driving area of a mobile robot according to the present invention b.
6 is a flowchart illustrating an operation process according to an embodiment of a mobile robot according to the present invention.
7 is an exemplary view showing an example of corresponding driving for a sensing object according to an embodiment of a mobile robot according to the present invention;
Figure 8a is an exemplary view showing a specific example of corresponding driving for a sensing object according to an embodiment of a mobile robot according to the present invention a.
Figure 8b is an exemplary view showing a specific example of corresponding driving for the sensing target according to an embodiment of the mobile robot according to the present invention b.
Figure 8c is an exemplary view showing a specific example of corresponding driving for the sensing target according to an embodiment of the mobile robot according to the present invention c.
9 is a flowchart illustrating a procedure of a control method of a mobile robot according to the present invention.

이하에서는, 첨부된 도면을 참조하여 본 발명에 따른 이동 로봇 및 이의 제어 방법의 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments of a mobile robot and a control method thereof according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of reference numerals, and overlapping descriptions thereof to omit

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the technology disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the technology disclosed in this specification, the detailed description will be omitted. In addition, it should be noted that the accompanying drawings are only intended to facilitate understanding of the spirit of the technology disclosed in this specification, and should not be construed as limiting the spirit of the technology by the accompanying drawings.

이하, 본 발명에 따른 이동 로봇(이하, 로봇이라 칭한다)의 실시 형태를 설명한다.Hereinafter, an embodiment of a mobile robot (hereinafter referred to as a robot) according to the present invention will be described.

상기 로봇은, 자율주행이 가능한 로봇, 잔디 깎기 이동 로봇, 잔디 깎기 로봇, 잔디 깎기 장치, 또는 잔디 깎기용 이동 로봇을 의미할 수 있다.The robot may refer to a robot capable of autonomous driving, a mobile lawn mowing robot, a lawn mowing robot, a lawn mowing device, or a mobile robot for lawn mowing.

상기 로봇(100)은, 도 1a에 도시된 바와 같이, 본체(10), 상기 본체(10)를 이동시키는 구동부(11), 상기 본체(10)의 주변을 촬영하여 상기 본체(10)의 주행 영역(1000)에 대한 영상 정보를 생성하는 촬영부(12) 및 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어하고, 상기 영상 정보를 근거로 상기 주행 영역(1000)의 상태를 판단하는 제어부(20)를 포함한다.As shown in FIG. 1A, the robot 100 moves the main body 10 by photographing the main body 10, the driving unit 11 that moves the main body 10, and the surroundings of the main body 10. The driving of the main body 10 is controlled by controlling the photographing unit 12 and the driving unit 11 that generate image information about the area 1000, and the state of the driving area 1000 based on the image information. It includes a control unit 20 that determines the.

상기 제어부(20)는, 상기 본체(10)의 현재 위치를 판단하여, 상기 주행 영역(1000) 내를 주행하도록 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어하고, 상기 본체(10)가 상기 주행 영역(1000)을 주행하는 중 상기 촬영부(12)가 상기 본체(10)의 주변을 촬영하도록 제어하여, 상기 촬영부(12)에서 생성된 상기 영상 정보를 근거로 상기 주행 영역(1000)의 상태를 판단할 수 있다.The control unit 20 determines the current position of the main body 10 and controls the driving of the main body 10 by controlling the driving unit 11 to travel within the driving area 1000, and (10) Controls the photographing unit 12 to photograph the surroundings of the main body 10 while driving in the driving area 1000, and based on the image information generated by the photographing unit 12, The state of the driving area 1000 may be determined.

이와 같이 상기 본체(10), 상기 구동부(11), 상기 촬영부(12) 및 상기 제어부(20)를 포함하는 상기 로봇(100)에서 상기 제어부(20)는, 상기 본체(10)가 상기 주행 영역을 주행하는 중 상기 주행 영역(1000)의 상태를 판단한 결과, 상기 주행 영역(1000) 상에서 위치가 변화되는 감지 대상물을 감지한 경우, 상기 감지 대상물에 대응하여 상기 본체(10)의 주행을 제어한다.In this way, in the robot 100 including the main body 10, the driving unit 11, the photographing unit 12, and the control unit 20, the control unit 20 determines that the main body 10 is the driving unit. As a result of determining the state of the driving area 1000 while driving in the area, when a sensing target whose position changes on the driving area 1000 is detected, driving of the main body 10 is controlled in response to the sensing object. do.

즉, 상기 로봇(100)은, 상기 제어부(20)가 주행 중 상기 주행 영역(1000) 상에 존재하는 상기 감지 대상물을 감지하여, 감지 결과에 따라 상기 본체(10)의 주행을 제어하는 것을 특징으로 한다.That is, in the robot 100, the control unit 20 detects the object present on the driving area 1000 while driving, and controls the driving of the main body 10 according to the detection result. to be

상기 로봇(100)은, 도 1b 및 1c에 도시된 바와 같이 이동이 가능하도록 마련되어서, 잔디를 절삭할 수 있는 상기 본체(10)를 포함하는 자율주행 로봇일 수 있다. 상기 본체(10)는 상기 로봇(100)의 외관을 형성하고, 상기 로봇(100)의 주행 및 잔디 절삭 등의 동작이 수행되는 하나 이상의 수단이 구비된다. 상기 본체(10)에는 상기 본체(10)를 원하는 방향으로 이동시키고, 회전시킬 수 있는 상기 구동부(11)가 마련된다. 상기 구동부(11)는 복수 개의 회전 가능한 구동 바퀴를 포함할 수 있고, 각각의 바퀴는 개별적으로 회전될 수 있어서, 상기 본체(10)가 원하는 방향으로 회전될 수 있다. 보다 구체적으로 상기 구동부(11)는 적어도 하나의 주 구동 바퀴(11a)와, 보조 바퀴(11b)를 포함할 수 있다. 예를 들어, 상기 본체(10)는 두개의 주 구동 바퀴(11a)를 포함할 수 있으며, 상기 주 구동 바퀴는 상기 본체(10)의 후방 저면에 설치될 수 있다.As shown in FIGS. 1B and 1C , the robot 100 may be a self-driving robot including the main body 10 that is movable and capable of cutting grass. The main body 10 forms the exterior of the robot 100, and is provided with one or more means for performing operations such as driving and lawn cutting of the robot 100. The main body 10 is provided with the driving unit 11 capable of moving and rotating the main body 10 in a desired direction. The driving unit 11 may include a plurality of rotatable driving wheels, and each wheel may be individually rotated, so that the main body 10 may be rotated in a desired direction. More specifically, the driving unit 11 may include at least one main driving wheel 11a and an auxiliary wheel 11b. For example, the main body 10 may include two main driving wheels 11a, and the main driving wheels may be installed on a rear bottom surface of the main body 10.

상기 로봇(100)은, 도 2에 도시된 바와 같은 주행 영역(1000) 내에서 스스로 주행할 수 있다. 상기 로봇(100)은 주행 중에 특정 동작을 수행할 수 있다. 여기서, 상기 특정 동작은, 상기 주행 영역(1000) 내의 잔디를 절삭하는 동작일 수 있다. 상기 주행 영역(1000)은 상기 로봇(100)의 주행 및 동작 대상에 해당하는 영역으로, 소정의 실외/야외 영역이 상기 주행 영역(1000)으로 형성될 수 있다. 이를테면, 상기 로봇(100)이 잔디를 절삭하기 위한 정원, 마당 등이 상기 주행 영역(1000)으로 형성될 수 있다. 상기 주행 영역(1000)에는 상기 로봇(100)의 구동 전원이 충전되는 충전 장치(500)가 설치될 수 있으며, 상기 로봇(100)은 상기 주행 영역(1000) 내에 설치된 상기 충전 장치(500)에 도킹하여 구동 전원을 충전하게 될 수 있다.The robot 100 can travel by itself within the driving area 1000 as shown in FIG. 2 . The robot 100 may perform a specific operation while driving. Here, the specific operation may be an operation of cutting grass within the driving area 1000 . The driving area 1000 is an area corresponding to a driving and operation target of the robot 100, and a predetermined outdoor/outdoor area may be formed as the driving area 1000. For example, a garden or a yard for the robot 100 to cut grass may be formed as the driving area 1000 . A charging device 500 for charging driving power of the robot 100 may be installed in the driving area 1000, and the robot 100 is connected to the charging device 500 installed in the driving area 1000. It can be docked to charge the driving power.

상기 주행 영역(1000)은 도 2에 도시된 바와 같이 일정한 경계 영역(1200)으로 형성될 수 있다. 상기 경계 영역(1200)은, 상기 주행 영역(1000)과 외부 영역(1100)의 경계선에 해당되어, 상기 로봇(100)이 상기 경계 영역(1200) 내에서 상기 외부 영역(1100)을 벗어나지 않도록 주행하게 될 수 있다. 이 경우, 상기 경계 영역(1200)은 폐곡선 또는 폐루프로 형성될 수 있다. 또한, 이 경우에 상기 경계 영역(1200)은 폐곡선 또는 폐루프로 형성되는 와이어(1200)에 의해 정의될 수 있다. 상기 와이어(1200)는 임의의 영역에 설치될 수 있으며, 상기 로봇(100)은 설치된 와이어(1200)에 의해 형성되는 폐곡선의 주행 영역(1000) 내에서 주행할 수 있다. As shown in FIG. 2 , the driving area 1000 may be formed as a certain boundary area 1200 . The boundary area 1200 corresponds to the boundary line between the driving area 1000 and the outside area 1100, so that the robot 100 travels within the boundary area 1200 so as not to deviate from the outside area 1100. can be done In this case, the boundary area 1200 may be formed as a closed curve or a closed loop. Also, in this case, the boundary region 1200 may be defined by the wire 1200 formed as a closed curve or closed loop. The wire 1200 may be installed in an arbitrary area, and the robot 100 may travel within a driving area 1000 of a closed curve formed by the installed wire 1200 .

상기 주행 영역(1000)에는 또한, 도 2에 도시된 바와 같이 하나 이상의 송출기(200)가 배치될 수 있다. 상기 송출기(200)는, 상기 로봇(100)이 위치 정보를 판단하기 위한 신호를 송출하는 신호 발생 수단으로, 상기 주행 영역(1000) 내에 분산 배치되어 설치될 수 있다. 상기 로봇(100)은 상기 송출기(200)에서 송출된 신호를 수신하여, 수신 결과를 근거로 현재 위치를 판단하거나, 상기 주행 영역(1000)에 대한 위치 정보를 판단할 수 있다. 이 경우, 상기 로봇(100)은 상기 신호를 수신하는 수신부를 통해 상기 신호를 수신할 수 있다. 상기 송출기(200)는, 바람직하게는 상기 주행 영역(1000)에서 상기 경계 영역(1200)의 근방에 배치될 수 있다. 이 경우, 상기 로봇(100)은 상기 경계 영역(1200)의 근방에 배치된 상기 송출기(200)의 배치 위치를 근거로 상기 경계 영역(1200)을 판단하게 될 수 있다.Also, as shown in FIG. 2 , one or more transmitters 200 may be disposed in the driving area 1000 . The transmitter 200 is a signal generating means for transmitting a signal for the robot 100 to determine location information, and may be distributed and installed within the driving area 1000 . The robot 100 may receive a signal transmitted from the emitter 200 and determine a current location based on a reception result or determine location information about the driving area 1000 . In this case, the robot 100 may receive the signal through a receiver that receives the signal. The transmitter 200 may be preferably disposed near the border area 1200 in the driving area 1000 . In this case, the robot 100 may determine the border area 1200 based on the location of the transmitter 200 disposed near the border area 1200 .

도 2에 도시된 바와 같은 상기 주행 영역(1000)을 주행하며 잔디를 절삭하는 상기 로봇(100)은, 도 3a에 도시된 바와 같은 주행 원리에 동작할 수 있고, 도 3b에 도시된 바와 같은 위치 판단을 위한 장치 간의 신호 흐름이 이루어질 수 있다.The robot 100 cutting the grass while traveling in the driving area 1000 shown in FIG. 2 can operate according to the driving principle shown in FIG. 3A and in the position shown in FIG. 3B. A signal flow between devices for determination may be made.

상기 로봇(100)은 도 3a에 도시된 바와 같이 소정 영역을 이동하는 단말(300)과 통신하며, 상기 단말(300)로부터 수신한 데이터를 바탕으로 상기 단말(300)의 위치를 추종하며 주행할 수 있다. 상기 로봇(100)은, 상기 단말(300)로부터 수신되거나 또는 상기 단말(300)을 추종하여 주행하는 중에 수집되는 위치 정보를 근거로 소정 영역에 가상의 경계를 설정하고, 경계에 의해 형성되는 내부 영역을 상기 주행 영역(1000)으로 설정할 수 있다. 상기 로봇(100)은, 상기 경계 영역(1200) 및 상기 주행 영역(1000)이 설정되면, 상기 경계 영역(1200)을 벗어나지 않도록 상기 주행 영역(1000) 내를 주행할 수 있다. 경우에 따라 상기 단말(300)은 상기 경계 영역(1200)을 설정하여 상기 로봇(100)에 전송할 수 있다. 상기 단말(300)은 영역을 변경하거나 확장하는 경우, 변경된 정보를 상기 로봇(100)에 전송하여, 상기 로봇(100)이 새로운 영역에서 주행하도록 할 수 있다. 또한, 상기 단말(300)은 상기 로봇(100)으로부터 수신되는 데이터를 화면에 표시하여 상기 로봇(100)의 동작을 모니터링할 수 있다.As shown in FIG. 3A, the robot 100 communicates with the terminal 300 moving in a predetermined area, and tracks the position of the terminal 300 based on the data received from the terminal 300 and travels. can The robot 100 sets a virtual boundary in a predetermined area based on location information received from the terminal 300 or collected while driving following the terminal 300, and the inside formed by the boundary An area may be set as the driving area 1000 . When the boundary area 1200 and the driving area 1000 are set, the robot 100 may travel within the driving area 1000 without leaving the boundary area 1200 . In some cases, the terminal 300 may set the border area 1200 and transmit it to the robot 100 . When an area is changed or expanded, the terminal 300 transmits the changed information to the robot 100 so that the robot 100 can drive in the new area. In addition, the terminal 300 can monitor the operation of the robot 100 by displaying data received from the robot 100 on a screen.

상기 로봇(100) 또는 상기 단말(300)은, 위치 정보를 수신하여 현재 위치를 판단할 수 있다. 상기 로봇(100) 및 상기 단말(300)은 상기 주행 영역(1000)에 배치된 상기 송출기(200)로부터 송신되는 위치 정보, 또는 GPS위성(400)을 이용한 GPS신호를 바탕으로 현재 위치를 판단할 수 있다. 상기 로봇(100) 및 상기 단말(300)은, 바람직하게는 3개의 송출기(200)로부터 전송되는 신호를 수신하여 신호를 비교함으로써 현재 위치를 판단할 수 있다. 즉, 상기 송출기(200)는, 바람직하게는 상기 주행 영역(1000)에 3개 이상이 배치될 수 있다. The robot 100 or the terminal 300 may determine a current location by receiving location information. The robot 100 and the terminal 300 may determine the current location based on location information transmitted from the transmitter 200 disposed in the driving area 1000 or a GPS signal using the GPS satellite 400. can The robot 100 and the terminal 300 can determine the current position by receiving signals transmitted from preferably three transmitters 200 and comparing the signals. That is, three or more transmitters 200 may be preferably disposed in the driving area 1000 .

상기 로봇(100)은 상기 주행 영역(1000) 내의 어느 하나의 지점을 기준 위치로 설정한 후, 이동 중 위치를 좌표로 산출한다. 예를 들어 초기 시작 위치, 상기 충전 장치(500)의 위치를 기준 위치로 설정할 수 있고, 또한, 상기 송출기(200) 중 어느 하나의 위치를 기준 위치로 하여 상기 주행 영역(1000)에 대한 좌표를 산출할 수 있다. 또한, 상기 로봇(100)은 매 동작 시, 초기 위치를 기준 위치로 설정한 후, 주행하며 위치를 판단할 수도 있다. 상기 로봇(100)은 기준 위치를 기준으로, 상기 구동 바퀴(11)의 회전수, 회전 속도, 상기 본체(10)의 회전 방향 등을 바탕으로 주행 거리를 연산하고, 이에 따라 상기 주행 영역(1000) 내에서의 현재 위치를 판단할 수 있다. 상기 로봇(100)은 상기 GPS위성(400)을 이용하여 위치를 판단하는 경우라도, 어느 하나의 지점을 기준 위치로 하여 위치를 판단할 수 있다.The robot 100 sets any one point in the driving area 1000 as a reference position, and then calculates the position during movement as coordinates. For example, the initial start position and the position of the charging device 500 can be set as a reference position, and the coordinates for the driving area 1000 can be set using the position of any one of the transmitters 200 as a reference position. can be calculated In addition, the robot 100 may determine the position while traveling after setting the initial position as the reference position in each operation. The robot 100 calculates the travel distance based on the reference position, the number of revolutions of the drive wheels 11, the rotation speed, the rotation direction of the main body 10, and the like, and accordingly, the travel area 1000 ) can determine the current position within. The robot 100 may determine the position using any one point as a reference position even when determining the position using the GPS satellite 400.

상기 로봇(100)은, 도 3에 도시된 바와 같이, 상기 송출기(200) 또는 상기 GPS위성(400)에서 송신되는 위치 정보를 근거로 현재 위치를 판단할 수 있다. 상기 위치 정보는, GPS 신호, 초음파 신호, 적외선 신호, 전자기 신호 또는 UWB(Ultra Wide Band) 신호의 형태로 전송될 수 있다. 상기 송출기(200)에서 송신되는 신호는, 바람직하게는 UWB(Ultra Wide Band) 신호일 수 있다. 이에 따라 상기 로봇(100)은, 상기 송출기(200)에서 송신된 UWB(Ultra Wide Band) 신호를 수신하여, 이를 근거로 현재 위치를 판단하게 될 수 있다.As shown in FIG. 3 , the robot 100 may determine a current location based on location information transmitted from the emitter 200 or the GPS satellite 400 . The location information may be transmitted in the form of a GPS signal, an ultrasonic signal, an infrared signal, an electromagnetic signal, or an ultra wide band (UWB) signal. The signal transmitted from the transmitter 200 may preferably be a UWB (Ultra Wide Band) signal. Accordingly, the robot 100 may receive the UWB (Ultra Wide Band) signal transmitted from the emitter 200 and determine the current location based on this.

이와 같이 동작하는 상기 로봇(100)은, 도 4에 도시된 바와 같이, 상기 본체(10), 상기 구동부(11), 상기 촬영부(12) 및 상기 제어부(20)를 포함하여, 상기 주행 영역(1000)을 주행하는 중 상기 주행 영역(1000) 상에 존재하는 상기 감지 대상물을 감지하고, 감지 결과에 따라 상기 주행 영역(1000)을 주행하게 될 수 있다. 상기 로봇(100)은 또한, 통신부(13), 출력부(14), 저장부(15), 센싱부(16), 수신부(17), 입력부(18), 장애물 감지부(19) 및 제초부(30) 중 하나 이상을 더 포함할 수 있다.As shown in FIG. 4 , the robot 100 operating in this way includes the main body 10, the driving unit 11, the photographing unit 12, and the control unit 20, and includes the driving area. While driving on the driving area 1000, the object to be sensed existing on the driving area 1000 may be detected, and the driving area 1000 may be driven according to the detection result. The robot 100 also includes a communication unit 13, an output unit 14, a storage unit 15, a sensing unit 16, a receiving unit 17, an input unit 18, an obstacle detection unit 19, and a weeding unit. (30) may further include one or more.

상기 구동부(11)는, 상기 본체(10)의 하부에 구비되는 구동 바퀴로, 회전 구동하여 상기 본체(10)를 이동시킬 수 있다. 즉, 상기 구동부(11)는, 상기 본체(10)가 상기 주행 영역(1000)을 주행하도록 구동하게 될 수 있다. 상기 구동부(11)는, 적어도 하나의 구동모터를 포함하여 상기 로봇(100)이 주행하도록 상기 본체(10)를 이동시킬 수 있다. 이를테면, 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다. The driving unit 11 is a driving wheel provided at a lower portion of the main body 10, and may rotate and drive the main body 10 to move. That is, the driving unit 11 may drive the main body 10 to travel in the driving area 1000 . The driving unit 11 may include at least one driving motor to move the main body 10 so that the robot 100 travels. For example, a left wheel drive motor for rotating the left wheel and a right wheel drive motor for rotating the right wheel may be included.

상기 구동부(11)는, 구동 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 구동부(11)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 구동부(11)는 상기 제어부(20)에 의해 제어될 수 있다.The driving unit 11 may transmit information about a driving result to the controller 20 and receive a control command for an operation from the controller 20 . The driving unit 11 may operate according to a control command transmitted from the control unit 20 . That is, the driving unit 11 may be controlled by the control unit 20 .

상기 촬영부(12)는, 상기 본체(10)의 주변을 촬영하는 카메라일 수 있다. 상기 촬영부(12)는, 상기 본체(10)의 전방을 촬영하여 상기 본체(10)의 주변, 상기 주행 영역(1000) 상에 존재하는 장애물을 감지할 수 있다. 상기 촬영부(12)는 디지털 카메라로, 이미지센서(미도시)와 영상처리부(미도시)를 포함할 수 있다. 이미지 센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지 센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다. 또한, 상기 촬영부(12)는 촬영된 결과를 영상 처리하여, 상기 영상 정보를 생성하는 영상처리부(DSP)를 포함할 수 있다.The photographing unit 12 may be a camera that photographs the periphery of the main body 10 . The photographing unit 12 may detect an obstacle existing around the main body 10 and on the driving area 1000 by photographing the front of the main body 10 . The photographing unit 12 is a digital camera, and may include an image sensor (not shown) and an image processing unit (not shown). An image sensor is a device that converts an optical image into an electrical signal, and is composed of a chip in which a plurality of photo diodes are integrated. A pixel may be exemplified as the photo diode. Charges are accumulated in each pixel by the image projected on the chip by light passing through the lens, and the charges accumulated in the pixels are converted into electrical signals (eg, voltage). As an image sensor, a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), and the like are well known. In addition, the photographing unit 12 may include a video processing unit (DSP) for generating the image information by processing a photographed result into an image.

상기 촬영부(12)는, 촬영 결과를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 촬영부(12)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 촬영부(12)는 상기 제어부(20)에 의해 제어될 수 있다.The photographing unit 12 may transmit a photographing result to the controller 20 and receive a control command for an operation from the controller 20 . The photographing unit 12 may operate according to a control command transmitted from the control unit 20 . That is, the photographing unit 12 may be controlled by the controller 20 .

상기 통신부(13)는, 상기 로봇(100)과 통신하는 하나 이상의 통신 대상 수단과 통신할 수 있다. 상기 통신부(13)는, 무선 통신 방식으로 상기 송출기(200) 및 상기 단말(300)과 통신할 수 있다. 상기 통신부(13)는 또한, 소정의 네트워크에 연결되어 외부의 서버 또는 상기 로봇(100)을 제어하는 상기 단말(300)과 통신할 수 있다. 상기 단말(300)과 통신하는 경우 상기 통신부(13)는, 생성되는 지도를 상기 단말(300)로 전송하고, 상기 단말(300)로부터 명령을 수신하며, 상기 로봇(100)의 동작 상태에 대한 데이터를 상기 단말(300)로 전송할 수 있다. 상기 통신부(13)는 지그비, 블루투스 등의 근거리 무선 통신뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신할 수 있다.The communication unit 13 may communicate with one or more communication target means that communicate with the robot 100 . The communication unit 13 may communicate with the transmitter 200 and the terminal 300 in a wireless communication method. The communication unit 13 may also communicate with an external server or the terminal 300 that controls the robot 100 by being connected to a predetermined network. When communicating with the terminal 300, the communication unit 13 transmits a generated map to the terminal 300, receives a command from the terminal 300, and controls the operating state of the robot 100. Data may be transmitted to the terminal 300 . The communication unit 13 may transmit/receive data by including communication modules such as Wi-Fi and WiBro as well as short-range wireless communication such as ZigBee and Bluetooth.

상기 통신부(13)는, 통신 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 통신부(13)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 통신부(13)는 상기 제어부(20)에 의해 제어될 수 있다.The communication unit 13 may transmit information about a communication result to the control unit 20 and receive a control command for an operation from the control unit 20 . The communication unit 13 may operate according to a control command received from the control unit 20 . That is, the communication unit 13 may be controlled by the control unit 20 .

상기 출력부(14)는, 상기 로봇(100)의 상태에 관한 정보를 음성의 형태로 출력하는 출력수단으로, 이를테면 스피커를 포함할 수 있다. 상기 출력부(14)는 상기 로봇(100)의 동작 중 이벤트 발생 시, 상기 이벤트에 관한 알람을 출력할 수 있다. 예를 들면, 상기 로봇(100)의 구동 전원이 소진되거나, 상기 로봇(100)에 충격이 가해지거나, 상기 주행 영역(1000) 상에서 사고가 발생할 시, 사용자에게 이에 대한 정보가 전달되도록 알람 음성을 출력하게 될 수 있다.The output unit 14 is an output means for outputting information about the state of the robot 100 in the form of voice, and may include, for example, a speaker. When an event occurs during operation of the robot 100, the output unit 14 may output an alarm related to the event. For example, when the driving power of the robot 100 is exhausted, an impact is applied to the robot 100, or an accident occurs on the driving area 1000, an alarm sound is provided to inform the user about the accident. may be output.

상기 출력부(14)는, 동작 상태에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 출력부(14)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 출력부(14)는 상기 제어부(20)에 의해 제어될 수 있다.The output unit 14 may transmit information about an operating state to the controller 20 and receive a control command for an operation from the controller 20 . The output unit 14 may operate according to a control command transmitted from the control unit 20 . That is, the output unit 14 may be controlled by the control unit 20 .

상기 저장부(15)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 저장수단으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. 상기 저장부(15)에는, 수신되는 신호가 저장되고, 장애물을 판단하기 위한 기준 데이터가 저장되며, 감지된 장애물에 대한 장애물 정보가 저장될 수 있다. 또한, 상기 저장부(15)에는 상기 로봇(100)의 동작을 제어하기 위한 제어 데이터, 상기 로봇(100)의 동작 모드에 따른 데이터, 수집되는 위치 정보, 상기 주행 영역(1000) 및 그 경계(1200)에 대한 정보가 저장될 수 있다.The storage unit 15 is a storage means for storing data that can be read by a microprocessor, and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, It may include RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In the storage unit 15, a received signal may be stored, reference data for determining an obstacle may be stored, and obstacle information on the detected obstacle may be stored. In addition, the storage unit 15 includes control data for controlling the operation of the robot 100, data according to the operation mode of the robot 100, location information to be collected, the driving area 1000 and its boundaries ( 1200) may be stored.

상기 센싱부(16)는, 상기 본체(10)의 자세 및 동작에 대한 정보를 센싱하는 하나 이상의 센서를 포함할 수 있다. 상기 센싱부(16)는, 상기 본체(10)의 움직임을 감지하는 기울기 센서 및 상기 구동부(11)의 구동 속도를 감지하는 속도 센서 중 하나 이상을 포함할 수 있다. 상기 기울기 센서는, 상기 본체(10)의 자세 정보를 센싱하는 센서일 수 있다. 상기 기울기 센서는, 상기 본체(10)의 전, 후, 좌, 우 방향으로 기울어지는 경우, 기울어진 방향과 각도를 산출하여 상기 본체(10)의 자세 정보를 센싱할 수 있다. 상기 기울기 센서는 틸트 센서, 가속도 센서 등이 사용될 수 있고, 가속도 센서의 경우 자이로식, 관성식, 실리콘 반도체식 중 어느 것이나 적용 가능하다. 또한, 그 외에 상기 본체(10)의 움직임을 감지할 수 있는 다양한 센서 또는 장치가 사용될 수 있을 것이다. 상기 속도 센서는, 상기 구동부(11)에 구비된 구동 바퀴의 구동 속도를 센싱하는 센서일 수 있다. 상기 속도 센서는, 상기 구동 바퀴가 회전하는 경우, 상기 구동 바퀴의 회전을 감지하여 구동 속도를 센싱할 수 있다.The sensing unit 16 may include one or more sensors that sense information about the posture and motion of the main body 10 . The sensing unit 16 may include at least one of a tilt sensor for detecting the movement of the main body 10 and a speed sensor for detecting the driving speed of the driving unit 11 . The tilt sensor may be a sensor that senses posture information of the main body 10 . The inclination sensor may sense posture information of the main body 10 by calculating an inclined direction and an angle when the main body 10 is tilted in front, rear, left, and right directions. A tilt sensor, an acceleration sensor, and the like may be used as the inclination sensor, and any one of a gyro type, an inertial type, and a silicon semiconductor type may be applied to the acceleration sensor. In addition, various sensors or devices capable of detecting the movement of the main body 10 may be used. The speed sensor may be a sensor that senses a driving speed of a driving wheel provided in the driving unit 11 . The speed sensor may sense the driving speed by detecting rotation of the driving wheel when the driving wheel rotates.

상기 센싱부(16)는, 센싱 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 센싱부(16)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 센싱부(16)는 상기 제어부(20)에 의해 제어될 수 있다.The sensing unit 16 may transmit information about a sensing result to the controller 20 and receive a control command for an operation from the controller 20 . The sensing unit 16 may operate according to a control command transmitted from the control unit 20 . That is, the sensing unit 16 may be controlled by the control unit 20 .

상기 수신부(17)는, 위치 정보를 송수신하기 위한 복수의 센서모듈을 포함할 수 있다. 상기 수신부(17)는, 상기 송출기(200)로부터 상기 신호를 수신하는 위치 센서 모듈을 포함할 수 있다. 상기 위치 센서 모듈은, 상기 송출기(200)로 신호를 송신할 수도 있다. 상기 송출기(200)가 초음파, UWB(Ultra Wide Band), 적외선 중 어느 하나의 방식으로 신호를 송신하는 경우, 상기 수신부(17)는, 그에 대응하여 초음파, UWB, 적외선신호를 송수신하는 센서모듈이 구비될 수 있다. 상기 수신부(17)는, 바람직하게는 UWB 센서를 포함할 수 있다. 참고로, UWB 무선기술은 무선 반송파(RF carrier)를 사용하지 않고, 기저역(Baseband)에서 수 GHz 이상의 매우 넓은 주파수 역을 사용하는 것을 의미한다. UWB 무선기술은 수 나노 혹은 수 피코 초의 매우 좁은 펄스를 사용한다. 이와 같은 UWB 센서에서 방출되는 펄스는 수 나노 혹은 수 피코이므로, 관통성이 좋고, 그에 따라 주변에 장애물이 존재하더라도 다른 UWB 센서에서 방출하는 매우 짧은 펄스를 수신할 수 있다.The receiver 17 may include a plurality of sensor modules for transmitting and receiving location information. The receiver 17 may include a position sensor module that receives the signal from the emitter 200 . The position sensor module may transmit a signal to the emitter 200. When the transmitter 200 transmits a signal in any one of ultrasonic, UWB (Ultra Wide Band), and infrared, the receiver 17 is a sensor module that transmits and receives ultrasonic, UWB, and infrared signals correspondingly. may be provided. The receiver 17 may preferably include a UWB sensor. For reference, UWB wireless technology means using a very wide frequency band of several GHz or more in a baseband without using an RF carrier. UWB radio technology uses very narrow pulses of a few nanoseconds or a few picoseconds. Since the pulse emitted from such a UWB sensor is several nano or several pico, the penetrability is good, and thus, even if there is an obstacle around, a very short pulse emitted from another UWB sensor can be received.

상기 로봇(100)이 상기 단말(300)을 추종하여 주행하는 경우, 상기 단말(300)과 상기 로봇(100)은 각각 UWB 센서를 포함하여, 상기 UWB 센서를 통해 상호 간에 UWB 신호를 송수신할 수 있다. 상기 단말(300)은 구비되는 UWB 센서를 통해 UWB 신호를 송출하고, 상기 로봇(100)은 UWB 센서를 통해 수신되는 UWB 신호를 바탕으로 상기 단말(300)의 위치를 판단하여, 상기 단말(300)을 추종하여 이동할 수 있다. 이 경우, 상기 단말(300)은 송신측, 상기 로봇(100)은 수신측으로 동작하게 된다. 상기 송출기(200)가 UWB 센서를 구비하여 신호를 송출하는 경우, 상기 로봇(100) 또는 상기 단말(300)은 구비되는 UWB 센서를 통해 상기 송출기(200)에서 송신된 신호를 수신할 수 있다. 이때 상기 송출기(200)의 신호 방식과 상기 로봇(100) 및 상기 단말(300)의 신호 방식은 동일하거나 또는 상이할 수 있다.When the robot 100 drives by following the terminal 300, the terminal 300 and the robot 100 each include a UWB sensor and can transmit and receive UWB signals to each other through the UWB sensor. there is. The terminal 300 transmits a UWB signal through a UWB sensor, and the robot 100 determines the position of the terminal 300 based on the UWB signal received through the UWB sensor. ) can be followed. In this case, the terminal 300 operates as a transmitting side and the robot 100 operates as a receiving side. When the transmitter 200 has a UWB sensor and transmits a signal, the robot 100 or the terminal 300 can receive the signal transmitted from the transmitter 200 through the provided UWB sensor. At this time, the signal method of the transmitter 200 and the signal method of the robot 100 and the terminal 300 may be the same or different.

상기 수신부(17)는, 복수의 UWB 센서를 포함할 수 있다. 상기 수신부(17)에 두 개의 UWB 센서가 포함되는 경우, 예를 들어 상기 본체(10)의 좌측과 우측에 각각 구비되어, 각각 신호를 수신함으로써, 수신되는 복수의 신호를 비교하여 정확한 위치 산출이 이루어질 수 있다. 예를 들어, 상기 로봇(100)과 상기 송출기(200) 또는 상기 단말(300)의 위치에 따라, 좌측의 센서와 우측의 센서에서 측정되는 거리가 상이한 경우, 이를 바탕으로 상기 로봇(100)과 상기 송출기(200) 또는 상기 단말(300)의 상대적 위치, 상기 로봇(100)의 방향을 판단하게 될 수 있다.The receiver 17 may include a plurality of UWB sensors. When two UWB sensors are included in the receiving unit 17, for example, they are provided on the left and right sides of the main body 10, respectively, and receive signals, thereby comparing a plurality of received signals to calculate an accurate position. It can be done. For example, if the distance measured by the sensor on the left and the sensor on the right is different according to the positions of the robot 100 and the transmitter 200 or the terminal 300, based on this, the robot 100 and The relative position of the transmitter 200 or the terminal 300 and the direction of the robot 100 may be determined.

상기 수신부(17)는 또한, GPS위성(400)으로부터 GPS신호를 송수신하는 GPS 모듈을 더 포함할 수 있다. The receiver 17 may further include a GPS module for transmitting and receiving GPS signals from the GPS satellites 400 .

상기 수신부(17)는, 신호의 수신 결과를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 수신부(17)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 수신부(17)는 상기 제어부(20)에 의해 제어될 수 있다. The receiver 17 may transmit a signal reception result to the controller 20 and receive a control command for an operation from the controller 20 . The receiving unit 17 may operate according to a control command transmitted from the control unit 20 . That is, the receiver 17 can be controlled by the control unit 20 .

상기 입력부(18)는, 적어도 하나의 버튼, 스위치, 터치패드 등의 입력 수단과, 디스플레이부 등의 출력 수단을 포함하여 사용자 명령을 입력받고, 상기 로봇(100)의 동작 상태를 출력할 수 있다.The input unit 18 includes an input unit such as at least one button, switch, or touch pad, and an output unit such as a display unit to receive a user command and output an operating state of the robot 100. .

상기 입력부(18)는, 상기 디스플레이부를 통해 상기 로봇(100)의 상태를 표시하고, 상기 로봇(100)의 제어 조작이 이루어지는 제어 화면을 표시할 수 있다. 상기 제어 화면은, 상기 로봇(100)의 구동 상태가 표시 출력되고, 사용자로부터 상기 로봇(100)의 구동 조작에 대한 명령이 입력되는 사용자 인터페이스 화면을 의미할 수 있다. 상기 제어 화면은, 상기 제어부(20)의 제어를 통해 상기 디스플레이부에 표시되고, 상기 제어 화면 상의 표시 및 입력된 명령 등이 상기 제어부(20)에 의해 제어될 수 있다.The input unit 18 may display a state of the robot 100 through the display unit and display a control screen on which control operations of the robot 100 are performed. The control screen may refer to a user interface screen on which a driving state of the robot 100 is displayed and output and a command for driving the robot 100 is input from a user. The control screen is displayed on the display unit under the control of the control unit 20, and commands displayed on the control screen and input may be controlled by the control unit 20.

상기 입력부(18)는, 동작 상태에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 입력부(18)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 입력부(18)는 상기 제어부(20)에 의해 제어될 수 있다.The input unit 18 may transmit information about an operating state to the controller 20 and receive a control command for an operation from the controller 20 . The input unit 18 may operate according to a control command transmitted from the control unit 20 . That is, the input unit 18 may be controlled by the control unit 20 .

상기 장애물 감지부(19)는, 복수의 센서를 포함하여 주행방향에 존재하는 장애물을 감지한다. 상기 장애물 감지부(19)는 레이저, 초음파, 적외선, 3D센서 중 적어도 하나를 이용하여 상기 본체(10)의 전방, 즉 주행 방향의 장애물을 감지할 수 있다. 상기 장애물 감지부(19)는 또한, 상기 본체(10)의 배면에 설치되어 낭떠러지를 감지하는, 낭떠러지 감지센서를 더 포함할 수 있다.The obstacle detection unit 19 includes a plurality of sensors to detect obstacles present in the driving direction. The obstacle detecting unit 19 may detect an obstacle in front of the main body 10, that is, in a driving direction, by using at least one of laser, ultrasonic, infrared, and 3D sensors. The obstacle detection unit 19 may further include a cliff detection sensor installed on the rear surface of the main body 10 to detect a cliff.

상기 장애물 감지부(19)는, 감지 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 장애물 감지부(19)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 장애물 감지부(19)는 상기 제어부(20)에 의해 제어될 수 있다.The obstacle detecting unit 19 may transmit information about a detection result to the controller 20 and receive a control command for an operation from the controller 20 . The obstacle detection unit 19 may operate according to a control command transmitted from the control unit 20 . That is, the obstacle detection unit 19 may be controlled by the control unit 20 .

상기 제초부(30)는, 주행 중 바닥면의 잔디를 깎는다. 상기 제초부(30)는 잔디를 깎기 위한 브러쉬 또는 칼날이 구비되어 회전을 통해 바닥의 잔디를 깎게 될 수 있다.The weeding unit 30 mows the grass on the floor while driving. The weeding unit 30 may be provided with a brush or a blade for mowing grass and mow the grass of the floor through rotation.

상기 제초부(30)는, 동작 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 제초부(30)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 제초부(30)는 상기 제어부(20)에 의해 제어될 수 있다.The weeding unit 30 may transmit information about an operation result to the control unit 20 and receive a control command for operation from the control unit 20 . The weeding unit 30 may operate according to a control command transmitted from the control unit 20 . That is, the weeding unit 30 may be controlled by the control unit 20 .

상기 제어부(20)는, 중앙 처리 장치를 포함하여 상기 로봇(100)의 전반적인 동작 제어를 수행할 수 있다. 상기 제어부(20)는 상기 본체(10), 상기 구동부(11) 및 상기 촬영부(12)를 통해, 상기 주행 영역(1000)을 주행하는 중 상기 주행 영역(1000)의 상태를 판단하여 상기 본체(10)의 주행을 제어하고, 상기 통신부(13), 상기 출력부(14), 상기 저장부(15), 상기 센싱부(16), 상기 수신부(17), 상기 입력부(18), 상기 장애물 감지부(19) 및 상기 제초부(30)를 통해 상기 로봇(100)의 기능/동작이 수행되도록 제어할 수 있다.The controller 20 may perform overall motion control of the robot 100, including the central processing unit. The control unit 20 determines the state of the driving area 1000 while driving in the driving area 1000 through the main body 10, the driving unit 11 and the photographing unit 12 to determine the state of the main body (10), the communication unit 13, the output unit 14, the storage unit 15, the sensing unit 16, the receiving unit 17, the input unit 18, the obstacle Functions/operations of the robot 100 may be controlled to be performed through the sensor 19 and the weeding unit 30 .

상기 제어부(20)는, 데이터의 입출력을 제어하고, 설정에 따라 상기 본체(10)가 주행하도록 상기 구동부(11)를 제어할 수 있다. 상기 제어부(20)는 상기 구동부(11)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써, 상기 본체(10)가 직진 또는 회전하여 주행하도록 제어할 수 있다.The controller 20 may control the input/output of data and control the driving unit 11 so that the main body 10 travels according to settings. The control unit 20 controls the driving unit 11 to independently control the operation of the left wheel drive motor and the right wheel drive motor, so that the main body 10 can be driven straight or rotated.

상기 제어부(20)는, 상기 단말(300)로부터 수신되는 위치 정보 또는 상기 송출기(200)로부터 수신한 신호를 근거로 판단한 위치 정보를 바탕으로 상기 주행 영역(1000)에 대한 경계(1200)를 설정할 수 있다. 상기 제어부(20)는 또한, 주행 중 자체 수집한 위치 정보를 근거로 상기 주행 영역(1000)에 대한 경계(1200)를 설정할 수도 있다. 상기 제어부(20)는 설정되는 경계(1200)에 의해 형성되는 영역 중 어느 일 영역을 상기 주행 영역(1000)으로 설정할 수 있다. 상기 제어부(20)는 불연속적인 위치 정보를 선 또는 곡선으로 연결하여 폐루프(closed loop) 형태로 경계(1200)를 설정하고, 내부 영역을 상기 주행 영역(1000)으로 설정할 수 있다. 상기 제어부(20)는 상기 주행 영역(1000) 및 그에 따른 경계(1200)가 설정되면, 상기 주행 영역(1000) 내에서 주행하며 설정된 경계(1200)를 벗어나지 않도록 상기 본체(10)의 주행을 제어할 수 있다. 상기 제어부(20)는 수신되는 위치 정보를 바탕으로 현재 위치를 판단하고, 판단한 현재 위치가 상기 주행 영역(1000) 내에 위치하도록 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어할 수 있다.The controller 20 sets a boundary 1200 for the driving area 1000 based on location information received from the terminal 300 or location information determined based on a signal received from the transmitter 200. can The control unit 20 may also set a boundary 1200 for the driving area 1000 based on location information collected by itself during driving. The controller 20 may set any one area of the area formed by the set boundary 1200 as the driving area 1000 . The control unit 20 may set the boundary 1200 in a closed loop form by connecting discontinuous location information with a line or a curve, and set the inner area as the driving area 1000 . When the driving area 1000 and the corresponding boundary 1200 are set, the control unit 20 controls the driving of the main body 10 so as to drive within the driving area 1000 and not deviate from the set boundary 1200. can do. The control unit 20 determines the current location based on the received location information and controls the driving unit 11 to control the driving of the body 10 so that the determined current location is located within the driving area 1000. can

또한, 상기 제어부(20)는, 상기 촬영부(12) 및 상기 장애물 감지부(19) 중 하나 이상에 의해 입력되는 장애물 정보에 따라, 장애물을 회피하여 주행하도록 상기 본체(10)의 주행을 제어할 수 있다. 이 경우 상기 제어부(20)는, 상기 장애물 정보를 상기 주행 영역(1000)에 대한 기저장된 영역 정보에 반영하여 상기 주행 영역(1000)을 수정하게 될 수 있다.In addition, the controller 20 controls the driving of the main body 10 to avoid obstacles according to obstacle information input by at least one of the photographing unit 12 and the obstacle detecting unit 19. can do. In this case, the controller 20 may modify the driving area 1000 by reflecting the obstacle information in pre-stored area information for the driving area 1000 .

도 4에 도시된 바와 같은 구성으로 이루어진 상기 로봇(100)은, 상기 제어부(20)가 상기 영상 정보를 근거로 상기 주행 영역(1000)의 상태를 판단하여, 판단한 결과 상기 감지 대상물을 감지한 경우, 상기 감지 대상물에 대응하여 상기 본체(10)의 주행을 제어하게 될 수 있다.In the robot 100 configured as shown in FIG. 4 , when the controller 20 determines the state of the driving area 1000 based on the image information and detects the object to be detected as a result of the determination , the driving of the main body 10 may be controlled in response to the sensing object.

상기 로봇(100)은, 상기 주행 영역(1000)을 주행하면서 설정된 동작을 수행하게 될 수 있다. 이를테면, 도 5a 및 도 5b에 도시된 바와 같은 영상 정보에 촬영된 상기 주행 영역(1000)을 주행하면서 상기 주행 영역(1000)의 바닥면에 존재하는 잔디를 절삭하게 될 수 있다. The robot 100 may perform set motions while traveling in the driving area 1000 . For example, grass existing on the bottom surface of the driving area 1000 may be cut while driving the driving area 1000 captured in the image information as shown in FIGS. 5A and 5B .

상기 로봇(100)에서 상기 본체(10)는, 상기 구동부(11)의 구동을 통해 주행하게 될 수 있다. 상기 본체(10)는 상기 구동부(11)가 구동하여 상기 본체(10)를 이동시키게 됨으로써 주행하게 될 수 있다.In the robot 100, the main body 10 may travel through driving of the driving unit 11. The main body 10 may be driven by driving the driving unit 11 to move the main body 10 .

상기 로봇(100)에서 상기 구동부(11)는, 구동 바퀴의 구동을 통해 상기 본체(10)를 이동시킬 수 있다. 상기 구동부(11)는 상기 구동 바퀴의 구동에 의해 상기 본체(10)를 이동시킴으로써, 상기 본체(10)의 주행을 수행하게 될 수 있다.In the robot 100, the driving unit 11 may move the main body 10 by driving driving wheels. The driving unit 11 may move the main body 10 by driving the driving wheel, thereby driving the main body 10 .

상기 로봇(100)에서 상기 촬영부(12)는, 구비된 위치에서 상기 본체(10)의 주변을 촬영하여, 촬영 결과에 따른 영상 정보를 생성할 수 있다. 상기 촬영부(12)는, 상기 본체(10)의 후측 상부에 구비될 수 있다. 이처럼 상기 촬영부(12)가 상기 본체(10)의 후측 상부에 구비됨으로써, 상기 본체(10)의 주행 및 절삭 동작으로 인해 발생되는 이물질이 상기 촬영부(12)를 오염시키는 것을 방지하게 될 수 있다. 상기 촬영부(12)는, 상기 본체(10)의 주행 방향을 촬영할 수 있다. 즉, 상기 촬영부(12)는, 상기 본체(10)가 주행하게 되는 상기 본체(10)의 전방을 촬영하게 될 수 있다. 이에 따라, 상기 본체(10)가 주행하게 되는 전방의 상태를 촬영하게 될 수 있다. 상기 촬영부(12)는, 상기 본체(10)가 상기 주행 영역(1000)을 주행하는 중, 상기 본체(10)의 주변을 실시간으로 촬영하여 상기 영상 정보를 생성할 수 있다. 또한, 상기 촬영부(12)는, 촬영 결과를 상기 제어부(20)에 실시간으로 전달할 수 있다. 이에 따라, 상기 제어부(20)가 상기 주행 영역(1000)의 실시간 상태를 판단하게 될 수 있다.In the robot 100, the photographing unit 12 may photograph the periphery of the main body 10 from the provided position and generate image information according to a photographing result. The photographing unit 12 may be provided on an upper portion of the rear side of the main body 10 . As such, since the photographing unit 12 is provided on the upper rear side of the main body 10, contamination of the photographing unit 12 by foreign substances generated by driving and cutting operations of the main body 10 can be prevented. there is. The photographing unit 12 may photograph the running direction of the main body 10 . That is, the photographing unit 12 may photograph the front of the main body 10 on which the main body 10 travels. Accordingly, the front state in which the main body 10 travels can be photographed. The photographing unit 12 may generate the image information by capturing the surroundings of the main body 10 in real time while the main body 10 is traveling in the driving area 1000 . Also, the photographing unit 12 may deliver a photographing result to the controller 20 in real time. Accordingly, the controller 20 may determine the real-time state of the driving area 1000 .

상기 로봇(100)에서 상기 제어부(20)는, 상기 주행 영역(1000)을 주행하도록 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어하고, 상기 영상 정보를 근거로 상기 주행 영역(1000)의 상태를 판단하여 상기 감지 대상물(D)을 감지할 수 있다. 상기 감지 대상물(D)은, 상기 주행 영역(1000) 상에 존재하는 대상물 중 위치가 변화되는 대상물을 의미한다. 즉, 상기 감지 대상물(D)은, 동적 장애물일 수 있다. 이를테면, 애완 동물, 상기 주행 영역(1000)이 형성된 야외에 진입한 야생 동물, 사람, 또는 로봇 등일 수 있다. 상기 제어부(20)는, 상기 영상 정보를 근거로 상기 주행 영역(1000)의 상태를 판단한 결과, 상기 주행 영역(1000) 상에서 위치가 변화되는 상기 감지 대상물(D)을 감지한 경우, 상기 본체(10)가 상기 감지 대상물(D)에 대응하여 주행하도록 제어할 수 있다. 즉, 상기 제어부(20)는, 상기 영상 정보를 근거로 상기 주행 영역(1000) 상에 상기 감지 대상물(D)이 존재하는지 여부를 감지하고, 상기 감지 대상물(D)을 감지한 경우, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어하게 될 수 있다.In the robot 100, the controller 20 controls the driving of the body 10 by controlling the driving unit 11 to travel in the driving area 1000, and controls the driving of the main body 10, based on the image information. The sensing object D can be sensed by determining the state of 1000 . The sensing object D refers to an object whose position is changed among objects existing on the driving area 1000 . That is, the sensing object D may be a dynamic obstacle. For example, it may be a pet, a wild animal, a person, or a robot entering the outdoors where the driving area 1000 is formed. The controller 20 determines the state of the driving area 1000 based on the image information, and when detecting the sensing object D whose position changes on the driving area 1000, the main body ( 10) can be controlled to travel in response to the sensing object (D). That is, the control unit 20 detects whether or not the detection target D exists on the driving area 1000 based on the image information, and when the detection target D is detected, the detection target D is detected. The driving of the body 10 may be controlled in response to the object D.

상기 제어부(20)는, 상기 영상 정보에 촬영된 대상물 중 위치 변화가 감지되는 대상물을 인식하여, 인식한 대상물을 상기 감지 대상물(D)로 감지할 수 있다. 즉, 상기 제어부(20)는, 상기 영상 정보 상에서 위치 변화가 감지되는 대상물을 인식하여 상기 감지 대상물(D)을 감지할 수 있다. 예를 들면, 도 5a에 도시된 같이 상기 촬영부(12)에 의해 촬영되어 상기 영상 정보 상에 포함된 대상물 1(D1)이 도 5b에 도시된 바와 같이 위치가 변화된 경우, 위치 변화가 이루어진 상기 대상물 1(D1)을 상기 감지 대상물(D)로 감지하게 될 수 있다. 또는, 도 5a에 도시된 바와 같이 상기 영상 정보 상에 포함되지 않은 대상물 2(D2)가 위치가 변화되어 도 5b에 도시된 바와 같이 상기 영상 정보 상에 포함된 경우, 위치 변화가 이루어진 상기 대상물 2(D2)를 상기 감지 대상물(D)로 감지하게 될 수 있다. The control unit 20 may recognize an object whose location change is sensed among objects photographed in the image information, and may detect the recognized object as the detection object D. That is, the controller 20 may detect the object D by recognizing an object whose location change is sensed on the image information. For example, as shown in FIG. 5A, when the location of object 1 (D1) captured by the photographing unit 12 and included in the image information is changed as shown in FIG. 5B, the location change is made. Object 1 (D1) may be sensed as the sensing object (D). Alternatively, as shown in FIG. 5A, when the location of object 2 (D2) not included in the image information is changed and included in the image information as shown in FIG. 5B, the object 2 whose location is changed (D2) may be sensed as the sensing object (D).

이처럼 상기 감지 대상물(D)을 감지하여, 감지 결과에 따라 주행하는 상기 로봇(100)은, 도 6에 도시된 바와 같은 과정으로 동작하여 상기 감지 대상물(D)의 감지 결과에 따른 주행을 수행하게 될 수 있다. 상기 로봇(100)은, 도 6에 도시된 바와 같이, 주행 시작(P1), 주변 촬영(P2), 영상 정보 생성(P3), 감지 대상물 감지(P4) 및 이에 따른 주행 유지(P5) 또는 대응 주행(P6) 순으로 동작하게 될 수 있다.In this way, the robot 100 that senses the object D and travels according to the detection result operates in the same process as shown in FIG. 6 and travels according to the result of detecting the object D. It can be. As shown in FIG. 6, the robot 100 starts driving (P1), captures the surroundings (P2), generates image information (P3), detects an object to be detected (P4), and maintains driving (P5) or responds thereto. It may be operated in order of driving (P6).

상기 로봇(100)은, 상기 본체(10)가 상기 주행 영역(1000)에 대한 주행을 시작(P1)한 후, 상기 촬영부(12)를 통해 상기 본체(10)의 주변을 촬영(P2)하여, 도 5a 및 도 5b에 도시된 바와 같은 영상 정보를 생성(P3)할 수 있다. 상기 제어부(20)는, 상기 촬영부(12)에서 생성된 상기 영상 정보를 근거로 상기 주행 영역(1000) 상에 존재하는 상기 감지 대상물(D)을 감지(P4)하여, 감지 결과에 따라 상기 본체(10)가 주행을 유지(P5)하거나, 상기 감지 대상물(D)에 대응하여 주행(P6)하도록 제어할 수 있다. 상기 제어부(20)는, 도 5a에서 도 5b 순으로 촬영된 상기 영상 정보 상에서 대상물 1(D1) 및 대상물 2(D2)와 같이 위치가 변화되는 대상물을 상기 감지 대상물(D)로 감지할 수 있다. 즉, 상기 제어부(20)는, 상기 영상 정보 상에서 위치 변화가 감지되는 대상물을 인식하여 상기 감지 대상물(D)을 감지하게 될 수 있다. 상기 제어부(20)는, 상기 감지 대상물(D)을 미감지한 경우, 상기 본체(10)가 주행을 유지(P5)하도록 제어하고, 상기 감지 대상물(D)을 감지한 경우, 상기 감지 대상물(D)에 대응하여 주행(P6)하도록 제어할 수 있다. 즉, 상기 로봇(100)은, 동적 장애물이 미감지된 경우, 주행을 유지(P5)하고, 동적 장애물이 감지된 경우, 동적 장애물에 대응하여 주행(P6)하게 될 수 있다. 상기 감지 대상물(D)에 대응한 주행은, 이를테면 주행 정지, 주행 전환 등일 수 있다.After the main body 10 starts traveling in the driving area 1000 (P1), the robot 100 photographs the surroundings of the main body 10 through the photographing unit 12 (P2) Thus, image information as shown in FIGS. 5A and 5B may be generated (P3). The control unit 20 detects (P4) the detection target D existing on the driving area 1000 based on the image information generated by the photographing unit 12, and detects the detection target D based on the detection result. The main body 10 may be controlled to maintain driving (P5) or to travel (P6) in response to the sensing object (D). The control unit 20 may detect an object whose position is changed, such as object 1 (D1) and object 2 (D2), as the sensing object (D) on the image information captured in the order of FIGS. 5A to 5B. . That is, the control unit 20 may detect the object D by recognizing an object whose location change is sensed on the image information. The control unit 20 controls the main body 10 to maintain driving (P5) when the detection target object D is not sensed, and when the detection target object D is detected, the detection target object ( It can be controlled to drive (P6) in response to D). That is, the robot 100 may maintain driving (P5) when a dynamic obstacle is not detected, and may travel (P6) in response to a dynamic obstacle when a dynamic obstacle is detected. Driving corresponding to the object D to be sensed may be, for example, stopping driving or changing driving.

상기 제어부(20)는, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어(P6)하는 경우, 기설정된 복수의 제어 모드 중 하나 이상에 따라 상기 본체(10)의 주행을 제어할 수 있다. 상기 제어 모드는, 상기 본체(10)의 주행 동작을 제어하는 모드일 수 있다. 이를테면, 상기 본체(10)가 정지하도록 제어하는 모드, 상기 본체(10)가 주행 속도를 감속하도록 제어하는 모드 등일 수 있다.When the controller 20 controls the driving of the main body 10 in response to the object D to be detected (P6), the driving of the main body 10 is controlled according to one or more of a plurality of preset control modes. You can control it. The control mode may be a mode for controlling a driving operation of the main body 10 . For example, it may be a mode in which the main body 10 is controlled to stop, a mode in which the main body 10 is controlled to decelerate the traveling speed, and the like.

상기 제어부(20)는, 상기 제어 모드 중 하나 이상을 조합하여 상기 본체(10)가 상기 감지 대상물(D)에 대응하여 주행하도록 제어할 수 있다. 상기 복수의 제어 모드는, 상기 본체(10)가 서행하여 주행하도록 제어하는 제1 제어 모드, 상기 본체(10)가 주행을 대기하도록 제어하는 제2 제어 모드 및 상기 본체(10)가 상기 감지 대상물(D)을 회피하여 주행하도록 제어하는 제3 제어 모드를 포함할 수 있다. 즉, 상기 제어부(20)는, 상기 감지 대상물(D)에 대응하여 주행을 제어하는 경우, 상기 제1 제어 모드, 상기 제2 제어 모드 및 상기 제3 제어 모드 중 하나 이상을 조합하여 상기 본체(10)의 주행을 제어하게 될 수 있다. 이에 따라 상기 로봇(100)은, 상기 감지 대상물(D)에 대응하여 서행, 대기 및 회피 중 하나 이상으로 동작하게 될 수 있다. 이 경우, 상기 제어부(20)는, 상기 본체(10)가 복수의 동작을 순서대로 동작하도록 제어하게 될 수 있다. 이를테면, 도 7에 도시된 바와 같이, 서행(C1), 대기(C2) 및 회피(C3) 순으로 동작하도록, 상기 복수의 제어 모드 중 하나 이상에 따라 상기 본체(10)의 주행을 제어하게 될 수 있다. 보다 구체적인 예를 들면, 도 8a에 도시된 바와 같이 상기 제1 제어 모드로 제어하여 상기 본체(10)가 상기 감지 대상물(D)의 주변(L1)에서 서행(C1)하도록 제어하고, 상기 본체(10)가 서행(C1)하여 상기 감지 대상물(D)의 근처(L2)에 도달하면, 도 8b에 도시된 바와 같이 상기 제2 제어 모드로 제어하여 상기 대상물(D)의 근처(L2)에서 주행을 정지(C2)하도록 제어하고, 상기 감지 대상물(D)이 위치를 유지하는 경우, 도 8c에 도시된 바와 같이 상기 제3 제어 모드로 제어하여 상기 감지 대상물(D)을 회피하여 상기 감지 대상물(D)의 위치와 다른 방향(L3)으로 주행(C3)하도록 제어하게 될 수 있다. 이에 따라 상기 로봇(100)은, 복수의 동작을 수행하며 상기 감지 대상물(D)에 대응하여 주행하게 될 수 있다. The control unit 20 may control the main body 10 to travel in response to the sensing object D by combining one or more of the control modes. The plurality of control modes include a first control mode for controlling the main body 10 to travel slowly, a second control mode for controlling the main body 10 to wait for driving, and a control mode for controlling the main body 10 to travel at the detection target It may include a third control mode for controlling driving while avoiding (D). That is, when the controller 20 controls driving in response to the sensing object D, the main body ( 10) can be controlled. Accordingly, the robot 100 may operate in one or more of slow motion, standby, and avoidance in response to the sensing object D. In this case, the controller 20 may control the main body 10 to sequentially operate a plurality of operations. For example, as shown in FIG. 7, the driving of the main body 10 is controlled according to one or more of the plurality of control modes to operate in the order of slowing (C1), standby (C2), and avoiding (C3). can For a more specific example, as shown in FIG. 8A, control is performed in the first control mode so that the main body 10 moves slowly (C1) around the object D to be sensed (L1), and the main body ( 10) moves slowly (C1) and reaches the vicinity (L2) of the object (D), as shown in FIG. is controlled to stop (C2), and when the sensing object (D) maintains its position, as shown in FIG. 8C, the sensing object (D) is avoided by controlling in the third control mode. It may be controlled to travel (C3) in a direction (L3) different from the location of D). Accordingly, the robot 100 may perform a plurality of motions and travel in response to the object D to be sensed.

상기 제어부(20)는, 상기 복수의 제어 모드 중 하나 이상에 따라 상기 본체(10)의 주행을 제어하는 경우, 상기 본체(10)와 상기 감지 대상물(D)의 이격 거리가 일정 거리 이상으로 유지되도록 상기 본체(10)의 주행을 제어할 수 있다. 즉, 상기 제어부(20)는, 상기 복수의 제어 모드에 따라 상기 본체(10)의 주행을 제어하는 경우, 상기 본체(10)와 상기 감지 대상물(D)이 일정 거리 이상으로 이격되도록 제어하게 될 수 있다. 여기서, 상기 일정 거리는 상기 로봇(100) 및 상기 감지 대상물(D)의 안전이 확보되는 거리로, 상기 로봇(100)의 사용자에 의해 설정될 수 있다. 이에 따라 상기 로봇(100)은, 상기 감지 대상물(D)에 대응하여 서행, 대기 또는 회피 중 하나 이상의 동작으로 주행하는 경우, 상기 감지 대상물(D)과의 이격 거리가 상기 일정 거리 이상 확보된 상태로 주행하게 될 수 있다.When the control unit 20 controls the driving of the main body 10 according to one or more of the plurality of control modes, the separation distance between the main body 10 and the sensing object D is maintained at a predetermined distance or more. It is possible to control the driving of the main body 10 as much as possible. That is, when controlling the driving of the main body 10 according to the plurality of control modes, the control unit 20 will control the main body 10 and the object D to be separated by a predetermined distance or more. can Here, the predetermined distance is a distance that secures the safety of the robot 100 and the object D to be detected, and may be set by the user of the robot 100 . Accordingly, when the robot 100 travels in one or more motions of slow movement, waiting, or avoidance in response to the sensing object D, a state in which the distance from the sensing object D is secured at least the predetermined distance. can be driven by

상기 제어부(20)는, 상기 감지 대상물(D)의 감지가 중단될 때까지 상기 복수의 제어 모드 중 하나 이상의 제어 모드로 상기 본체(10)의 주행을 제어할 수 있다. 즉, 상기 제어부(20)는, 상기 감지 대상물(D)이 상기 본체(10)의 주변 영역에서 이탈되어 상기 촬영부(20)로 촬영되지 않을 때까지 상기 감지 대상물(D)에 대응하여 주행하도록 제어하게 될 수 있다. The control unit 20 may control driving of the main body 10 in one or more control modes among the plurality of control modes until the detection of the object D is stopped. That is, the control unit 20 is configured to drive in response to the detection target D until the detection target D is separated from the peripheral area of the main body 10 and is not captured by the photographing unit 20. can be controlled

이와 같이 상기 감지 대상물(D)을 감지한 경우, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어하는 상기 제어부(20)는, 상기 감지 대상물(D)의 종류에 따라 상기 본체(10)의 주행을 제어할 수 있다. 이를테면, 상기 감지 대상물(D)의 종류에 따라 상기 복수의 제어 모드 중 하나 이상을 조합하여 상기 본체(10)의 주행을 제어하게 될 수 있다. 상기 제어부(20)는, 상기 감지 대상물(D)을 감지한 결과 및 기설정된 감지 기준을 근거로 상기 감지 대상물(D)의 종류를 판단하여, 상기 감지 대상물(D)의 종류에 따라 상기 본체(10)의 주행을 제어할 수 있다. 상기 감지 기준은, 상기 감지 대상물(D)의 종류 별 특성/특징에 대한 기준으로, 상기 감지 대상물(D)의 종류를 판단하는 근거가 되는 기준일 수 있다. 이에 따르면 상기 제어부(20)는, 상기 감지 대상물(D)을 감지한 감지 결과에서 상기 감지 대상물(D)의 특성/특징을 판단하고, 판단 결과를 상기 감지 기준과 비교하여, 비교 결과를 근거로 상기 감지 대상물(D)의 종류를 판단하게 될 수 있다. 상기 제어부(20)는 또한, 상기 감지 대상물(D)의 종류에 따른 기설정된 제어 기준에 따라 상기 본체(10)의 주행을 제어할 수 있다. 즉, 상기 제어부(20)는, 상기 감지 결과를 근거로 상기 감지 대상물(D)의 종류를 판단하고, 기설정된 상기 제어 기준 중 판단한 상기 감지 대상물(D)의 종류에 해당하는 기준을 판단하여, 판단한 제어 기준에 따라 상기 본체(10)가 상기 감지 대상물(D)에 대응하여 주행하도록 제어하게 될 수 있다. 여기서, 상기 제어 기준은, 상기 감지 대상물(D)의 종류에 따른 상기 복수의 제어 모드의 조합에 대한 기준일 수 있다. 예를 들면, 상기 감지 대상물(D)이 애완 동물인 경우, 도 7에 도시된 바와 같이 서행(C1), 대기(C2), 회피(C3) 순으로 주행하도록 상기 제1 제어 모드, 상기 제2 제어 모드 및 상기 제3 제어 모드 순으로 상기 본체(10)의 주행을 제어하도록 설정될 수 있다. 상기 감지 대상물(D)의 종류 및 상기 제어 기준은, 상기 로봇(100)의 사용자에 의해 설정될 수 있다. 이를테면, 애완 동물의 경우에도 도 7에 도시된 바와 같은 순서 외에 다른 순서, 또는 다른 제어 모드의 조합으로 주행을 제어하도록 설정될 수도 있다.In this way, when the sensing object D is sensed, the control unit 20 for controlling the driving of the main body 10 in response to the sensing object D, according to the type of the sensing object D The driving of the main body 10 can be controlled. For example, driving of the main body 10 may be controlled by combining one or more of the plurality of control modes according to the type of the object D to be detected. The control unit 20 determines the type of the sensing object D based on a result of sensing the sensing object D and a predetermined sensing criterion, and the main body ( 10) can be controlled. The detection criterion is a criterion for characteristics/characteristics of each type of the detection object D, and may be a criterion for determining the type of the detection object D. According to this, the control unit 20 determines the characteristics/characteristics of the detection target D from the detection result of detecting the detection target D, compares the determination result with the detection criterion, and based on the comparison result The type of the sensing object (D) may be determined. The control unit 20 may also control the driving of the main body 10 according to a predetermined control criterion according to the type of the sensing object D. That is, the control unit 20 determines the type of the sensing object (D) based on the detection result, and determines a criterion corresponding to the determined type of the sensing object (D) among the preset control criteria, According to the determined control criterion, the main body 10 may be controlled to travel in response to the object D to be sensed. Here, the control criterion may be a criterion for a combination of the plurality of control modes according to the type of the object D to be sensed. For example, when the detection target D is a pet, as shown in FIG. 7 , the first control mode, the second control mode, and the second control mode drive the vehicle in the order of slow travel (C1), standby (C2), and avoidance (C3). It may be set to control the driving of the main body 10 in order of the control mode and the third control mode. The type of the object D to be detected and the control criterion may be set by the user of the robot 100 . For example, even in the case of a pet, it may be set to control driving in an order other than the order shown in FIG. 7 or in a combination of other control modes.

이처럼 상기 감지 대상물(D)을 감지한 경우, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어하는 상기 제어부(20)는, 상기 로봇(100)에 포함된 다른 구성을 제어하여 상기 감지 대상물(D)에 대응한 동작을 수행하게 될 수 있다.In this way, when the sensing object D is sensed, the control unit 20 that controls the driving of the main body 10 in response to the sensing object D controls other components included in the robot 100. Thus, an operation corresponding to the sensing object D may be performed.

상기 로봇(100)은, 외부의 통신 대상 수단과 통신하는 상기 통신부(13)를 더 포함하되, 상기 제어부(20)는, 상기 감지 대상물(D)을 감지한 결과에 대한 알림 정보를 생성하여, 상기 통신부(13)를 통해 상기 알림 정보를 상기 통신 대상 수단에 전송할 수 있다. 여기서, 상기 통신 대상 수단은, 사용자의 단말(300) 등일 수 있다. 즉, 상기 제어부(20)는, 상기 감지 대상물(D)을 감지한 경우, 상기 통신부(13)를 통해 상기 로봇(100)의 사용자에게 상기 감지 대상물(D)의 감지 결과에 대한 정보를 제공하게 될 수 있다. The robot 100 further includes the communication unit 13 communicating with an external communication target unit, wherein the control unit 20 generates notification information for a result of detecting the detection target D, The notification information may be transmitted to the communication target means through the communication unit 13 . Here, the communication target means may be the user's terminal 300 or the like. That is, when the control unit 20 detects the detection target object D, the user of the robot 100 through the communication unit 13 provides information on the detection result of the detection target object D. It can be.

상기 로봇(100)은, 외부로 음성을 출력하는 출력부(14)를 더 포함하되, 상기 제어부(20)는, 상기 감시 대상물(D)을 감지한 결과에 대한 알람 신호를 생성하여, 상기 출력부(14)를 통해 상기 알람 신호에 따른 음성을 출력할 수 있다. 즉, 상기 제어부(20)는, 상기 감지 대상물(D)을 감지한 경우, 상기 출력부(14)를 통해 상기 감지 대상물(D)의 감지 결과에 대한 알람을 발생하게 될 수 있다.The robot 100 further includes an output unit 14 that outputs audio to the outside, and the control unit 20 generates an alarm signal for a result of detecting the object D to be monitored, and outputs the output A sound according to the alarm signal may be output through the unit 14 . That is, when the control unit 20 detects the detection target object D, it may generate an alarm for the detection result of the detection target object D through the output unit 14.

상술한 바와 같은 상기 로봇(100)은, 하술할 상기 이동 로봇의 제어 방법(이하 ,제어 방법이라 칭한다)이 적용되어 실시될 수 있다.The robot 100 as described above may be implemented by applying a control method (hereinafter, referred to as a control method) of the mobile robot to be described below.

상기 제어 방법은, 도 1a 내지 도 1c에 도시된 바와 같은 이동 로봇(100)을 제어하기 위한 방법으로, 앞서 설명한 상기 로봇(100)에 적용될 수 있으며, 또한 앞서 설명한 상기 로봇(100) 이외에도 적용될 수 있다.The control method is a method for controlling the mobile robot 100 as shown in FIGS. 1A to 1C and can be applied to the robot 100 described above, and can also be applied to other than the robot 100 described above. there is.

상기 제어 방법은, 상기 본체(10), 상기 본체(10)를 이동시키는 상기 구동부(11), 상기 본체(10)의 주변을 촬영하는 상기 촬영부(12) 및 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어하고, 상기 촬영부(12)의 촬영 결과를 근거로 상기 본체(10)의 주행 영역(1000)의 상태를 판단하는 상기 제어부(20)를 포함하는 상기 로봇(100)의 제어 방법으로, 상기 감지 대상물(D)을 감지하여 주행을 제어하는 방법일 수 있다.The control method controls the main body 10, the driving part 11 for moving the main body 10, the photographing part 12 for photographing the surroundings of the main body 10, and the driving part 11 The robot ( As the control method of 100), it may be a method of controlling driving by sensing the object D to be sensed.

상기 제어 방법은, 상기 제어부(20)가 상기 로봇(100)의 동작을 제어하는 방법일 수 있다.The control method may be a method in which the controller 20 controls the operation of the robot 100 .

상기 제어 방법은, 상기 제어부(20)에서 수행되는 제어 방법일 수 있다.The control method may be a control method performed by the controller 20 .

상기 제어 방법은, 도 8에 도시된 바와 같이, 상기 주행 영역(1000)을 주행하는 중 상기 본체(10)의 주변을 촬영하여 상기 주행 영역(1000)에 대한 영상 정보를 생성하는 단계(S10), 상기 영상 정보를 근거로 상기 주행 영역(1000) 상에서 위치가 변화되는 감지 대상물(D)을 감지하는 단계(S20) 및 감지 결과에 따라 상기 본체(10)의 주행을 제어하는 단계(S30)를 포함한다.As shown in FIG. 8, the control method generates image information for the driving area 1000 by photographing the surroundings of the main body 10 while driving in the driving area 1000 (S10). , Step (S20) of detecting an object (D) whose position is changed on the driving area (1000) based on the image information and controlling the driving of the main body (10) according to the detection result (S30) include

즉, 상기 로봇(100)은, 상기 생성하는 단계(S10), 상기 감지하는 단계(S20) 및 상기 제어하는 단계(S30) 순으로 제어가 이루어지게 될 수 있다.That is, the robot 100 may be controlled in the order of the generating step (S10), the sensing step (S20), and the controlling step (S30).

상기 생성하는 단계(S10)는, 상기 주행 영역(1000)을 주행하는 중 상기 촬영부(12)가 상기 본체(10)의 주변을 촬영하여 상기 영상 정보를 생성하는 단계일 수 있다.The generating step ( S10 ) may be a step of generating the image information by taking a picture of the surroundings of the main body 10 by the photographing unit 12 while driving in the driving area 1000 .

즉, 상기 생성하는 단계(S10)는, 상기 촬영부(12)가 상기 본체(10)의 주변을 촬영하여 상기 영상 정보를 생성하도록, 상기 제어부(20)가 상기 촬영부(12)를 제어하는 단계일 수 있다.That is, in the generating step (S10), the control unit 20 controls the capturing unit 12 so that the capturing unit 12 photographs the surroundings of the main body 10 to generate the image information. may be a step.

상기 생성하는 단계(S10)는, 상기 본체(10)의 전방을 촬영하여 상기 영상 정보를 생성할 수 있다.In the generating step (S10), the image information may be generated by photographing the front of the main body 10.

상기 생성하는 단계(S10)는, 상기 본체(10)가 상기 주행 영역(1000)을 주행하는 중, 상기 촬영부(12)가 상기 본체(10)의 주변을 실시간으로 촬영하여 상기 영상 정보를 생성할 수 있다. In the generating step (S10), while the main body 10 is traveling in the driving area 1000, the photographing unit 12 captures the surroundings of the main body 10 in real time to generate the image information. can do.

상기 감지하는 단계(S20)는, 상기 제어부(20)가 상기 생성하는 단계(S10)에서 생성된 상기 영상 정보를 근거로 상기 감지 대상물(D)을 감지하는 단계일 수 있다.The sensing step (S20) may be a step of the controller 20 sensing the object (D) based on the image information generated in the generating step (S10).

즉, 상기 감지하는 단계(S20)는, 상기 제어부(20)가 상기 촬영부(12)에서 생성된 상기 영상 정보 상에서 상기 감지 대상물(D)에 해당하는 대상물을 감지하는 단계일 수 있다.That is, the detecting step (S20) may be a step in which the control unit 20 detects an object corresponding to the detection target object D on the image information generated by the photographing unit 12.

상기 감지하는 단계(S20)는, 상기 영상 정보에 촬영된 대상물 중 위치 변화가 감지되는 대상물을 인식하여, 인식한 대상물을 상기 감지 대상물(D)로 감지할 수 있다.In the sensing step (S20), an object whose position change is sensed among the objects captured in the image information may be recognized, and the recognized object may be sensed as the sensing object D.

상기 감지하는 단계(S20)는, 상기 영상 정보를 근거로 상기 주행 영역(1000)의 상태를 판단한 결과, 상기 주행 영역(1000) 상에서 위치가 변화되는 대상물을 인식한 경우, 인식한 대상물을 상기 감지 대상물(D)로 감지할 수 있다.In the sensing step (S20), as a result of determining the state of the driving area 1000 based on the image information, when an object whose position changes on the driving area 1000 is recognized, the detected object is detected. It can be detected as an object (D).

상기 제어하는 단계(S30)는, 상기 제어부(20)가 상기 감지하는 단계(S20)에서 감지된 결과에 따라 상기 본체(10)의 주행을 제어하는 단계일 수 있다.The controlling step (S30) may be a step in which the controller 20 controls the driving of the main body 10 according to the result detected in the sensing step (S20).

즉, 상기 제어하는 단계(S30)는, 상기 제어부(20)가 상기 감지 대상물(D)의 감지 결과에 따라 상기 본체(10)의 주행을 제어하는 단계일 수 있다.That is, the controlling step (S30) may be a step in which the controller 20 controls the driving of the main body 10 according to the detection result of the object D to be detected.

상기 제어하는 단계(S30)는, 상기 감지 대상물(D)을 미감지한 경우, 상기 본체(10)의 주행을 유지하여 제어할 수 있다.In the controlling step (S30), when the detection object (D) is not detected, the main body 10 may be maintained and controlled.

즉, 상기 제어하는 단계(S30)는, 상기 감지 대상물(D)이 감지되지 않은 경우, 수행 중인 주행 및 동작을 유지하도록 제어하게 될 수 있다.That is, in the controlling step (S30), when the detection object (D) is not detected, it may be controlled to maintain driving and operation being performed.

상기 제어하는 단계(S30)는, 상기 감지 대상물(D)을 감지한 경우, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어할 수 있다.In the controlling step (S30), when the detection target object D is sensed, driving of the main body 10 may be controlled in response to the detection target object D.

상기 제어하는 단계(S30)는, 상기 감지 결과 및 기설정된 감지 기준을 근거로 상기 감지 대상물(D)의 종류를 판단하여, 상기 감지 대상물(D)의 종류에 따라 상기 본체(10)의 주행을 제어할 수 있다.In the controlling step (S30), the type of the sensing object D is determined based on the sensing result and a predetermined sensing criterion, and the main body 10 is driven according to the type of the sensing object D. You can control it.

상기 제어하는 단계(S30)는, 상기 감지 결과에서 상기 감지 대상물(D)을 감지한 감지 결과에서 상기 감지 대상물(D)의 특성/특징을 판단하고, 판단 결과를 상기 감지 기준과 비교하여, 비교 결과를 근거로 상기 감지 대상물(D)의 종류를 판단할 수 있다.The controlling step (S30) determines the characteristics/characteristics of the detection object D from the detection result of the detection target D from the detection result, compares the determination result with the detection standard, and compares the result. Based on the result, it is possible to determine the type of the sensing object (D).

상기 제어하는 단계(S30)는, 상기 감지 대상물(D)의 종류에 따른 기설정된 제어 기준에 따라 상기 본체(10)의 주행을 제어할 수 있다. In the controlling step (S30), the driving of the main body 10 may be controlled according to a predetermined control criterion according to the type of the object D to be detected.

상기 제어하는 단계(S30)는, 상기 제어 기준 중 판단한 상기 감지 대상물(D)의 종류에 해당하는 기준을 판단하여, 판단한 제어 기준에 따라 상기 본체(10)의 주행을 제어할 수 있다.In the controlling step (S30), the driving of the main body 10 may be controlled according to the determined control criterion by determining a criterion corresponding to the type of the object to be detected (D) determined among the control criterion.

상기 제어하는 단계(S30)는, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어하는 경우, 기설정된 복수의 제어 모드 중 하나 이상에 따라 상기 본체(10)의 주행을 제어할 수 있다.In the controlling step (S30), when the driving of the main body 10 is controlled in response to the object D, the driving of the main body 10 is controlled according to one or more of a plurality of preset control modes. can do.

상기 제어하는 단계(S30)는, 상기 감지 대상물(D)에 대응하여 상기 본체(10)의 주행을 제어하는 경우, 상기 본체(10)가 서행하여 주행하도록 제어하는 제1 제어 모드, 상기 본체(10)가 주행을 대기하도록 제어하는 제2 제어 모드 및 상기 본체(10)가 상기 감지 대상물(D)을 회피하여 주행하도록 제어하는 제3 제어 모드 중 하나 이상의 제어 모드로 상기 본체(10)의 주행을 제어할 수 있다.In the controlling step (S30), when controlling the driving of the main body 10 in response to the sensing object D, a first control mode for controlling the main body 10 to travel slowly, the main body ( Driving of the main body 10 in at least one control mode of a second control mode in which the main body 10 is controlled to wait for driving and a third control mode in which the main body 10 is controlled to avoid the sensing object D and travel can control.

상기 제어하는 단계(S30)는, 상기 제어 모드 중 하나 이상을 조합하여 상기 본체(10)가 상기 감지 대상물(D)에 대응하여 주행하도록 제어할 수 있다.In the controlling step (S30), one or more of the control modes may be combined to control the main body 10 to travel in response to the object D to be detected.

상기 제어하는 단계(S30)는, 상기 복수의 제어 모드 중 하나 이상에 따라 상기 본체(10)의 주행을 제어하는 경우, 상기 본체(10)와 상기 감지 대상물(D)의 이격 거리가 일정 거리 이상으로 유지되도록 상기 본체(10)의 주행을 제어할 수 있다.In the controlling step (S30), when the driving of the main body 10 is controlled according to one or more of the plurality of control modes, the separation distance between the main body 10 and the object D to be detected is equal to or greater than a predetermined distance. It is possible to control the driving of the main body 10 so as to be maintained.

상기 제어하는 단계(S30)는, 상기 감지 대상물(D)의 감지가 중단될 때까지 상기 복수의 제어 모드 중 하나 이상의 제어 모드로 상기 본체(10)의 주행을 제어할 수 있다. In the controlling step (S30), driving of the main body 10 may be controlled in one or more control modes from among the plurality of control modes until the detection of the object D is stopped.

상기 제어하는 단계(S30)는 또한, 상기 감지 대상물(D)을 감지한 경우, 상기 감지 대상물(D)을 감지한 결과에 대한 알림 정보를 생성하여, 상기 로봇(100)에 포함된 상기 통신부(13)를 통해 상기 알림 정보를 상기 통신 대상 수단에 전송할 수 있다. In the controlling step (S30), when the sensing object (D) is detected, notification information for a result of sensing the sensing object (D) is generated, and the communication unit included in the robot 100 ( Through 13), the notification information can be transmitted to the communication target means.

상기 제어하는 단계(S30)는 또한, 상기 감지 대상물(D)을 감지한 경우, 상기 감시 대상물(D)을 감지한 결과에 대한 알람 신호를 생성하여, 상기 로봇(100)에 포함된 상기 출력부(14)를 통해 상기 알람 신호에 따른 음성을 출력할 수 있다.The controlling step (S30) also generates an alarm signal for a result of detecting the monitoring object (D) when the detection object (D) is detected, and the output unit included in the robot 100 A sound according to the alarm signal can be output through (14).

상기 생성하는 단계(S10), 상기 감지하는 단계(S20) 및 상기 제어하는 단계(S30)를 포함하는 상기 제어 방법은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 상기 제어부(20)를 포함할 수도 있다.The control method including the generating step (S10), the sensing step (S20), and the controlling step (S30) can be implemented as computer readable code on a program recorded medium. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those implemented in the form of a carrier wave (eg, transmission over the Internet). Also, the computer may include the controller 20.

상술한 바와 같은 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 이동 로봇의 제어수단, 이동 로봇 시스템, 이동 로봇의 제어시스템, 이동 로봇을 제어하는 방법, 이동 로봇의 장애물 감지 방법 및 이동 로봇의 동적 장애물 감지 방법 등에 적용되어 실시될 수 있다. 특히, 이동 로봇을 제어하는 인공지능, 인공지능을 적용/활용한 이동 로봇의 제어 수단, 제어 방법, 또는 인공지능을 적용/활용한 이동 로봇 등에 유용하게 적용되어 실시될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 이동 로봇, 이동 로봇을 제어하는 제어 수단, 이동 로봇 시스템, 이동 로봇을 제어하기 위한 방법 등에도 적용되어 실시될 수 있다.As described above, the mobile robot and its control method according to the present invention are a mobile robot control means, a mobile robot system, a mobile robot control system, a method for controlling a mobile robot, an obstacle detection method of a mobile robot, and a dynamic movement of a mobile robot. It may be applied and implemented such as an obstacle detection method. In particular, artificial intelligence for controlling a mobile robot, a control means or control method for a mobile robot applying/using artificial intelligence, or a mobile robot applying/using artificial intelligence can be usefully applied and implemented. However, the technology disclosed in this specification is not limited thereto, and may be applied to all mobile robots to which the technical idea of the above technology may be applied, a control means for controlling the mobile robot, a mobile robot system, a method for controlling the mobile robot, and the like. can

지금까지 본 발명에 따른 구체적인 실시 예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안 되며, 후술하는 특허청구의 범위뿐 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.Although specific embodiments according to the present invention have been described so far, various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments and should not be defined, and should be defined by not only the scope of the claims to be described later, but also those equivalent to the scope of these claims.

이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.As described above, although the present invention has been described with limited embodiments and drawings, the present invention is not limited to the above embodiments, and those skilled in the art in the field to which the present invention belongs can make various modifications and changes from these descriptions. transformation is possible Therefore, the spirit of the present invention should be grasped only by the claims described below, and all equivalent or equivalent modifications thereof will be said to belong to the scope of the spirit of the present invention.

10: 본체 11: 구동부
12: 촬영부 20: 제어부
100: 이동 로봇 200: 송출기
300: 단말기 400: GPS 위성
1000: 주행 영역
10: main body 11: driving unit
12: photographing unit 20: control unit
100: mobile robot 200: transmitter
300: terminal 400: GPS satellite
1000: driving area

Claims (9)

야외의 주행 영역상에서 잔디를 절삭하며 주행하는 이동 로봇에 있어서,
본체;
상기 본체를 이동시키는 구동부;
상기 본체의 주변을 촬영하여 상기 주행 영역에 대한 영상 정보를 생성하는 촬영부;
상기 본체가 상기 주행 영역을 주행하는 중 바닥면의 잔디를 절삭하는 제초부; 및
상기 구동부를 제어하여 상기 본체의 주행을 제어하고, 상기 영상 정보를 근거로 상기 주행 영역의 상태를 판단하고, 상기 제초부를 제어하여 상기 주행 영역상의 잔디 절삭 동작을 제어하는 제어부;를 포함하고,
상기 제어부는,
상기 본체가 상기 주행 영역을 주행하는 중 상기 주행 영역의 상태를 판단한 결과, 상기 주행 영역 상에서 위치가 변화되는 감지 대상물을 감지한 경우,
상기 감지 대상물에 대응하여 상기 제초부의 동작을 중지시키고 기설정된 복수의 제어 모드 중 하나 이상의 제어 모드를 조합하여 상기 본체의 주행을 제어하되,
상기 복수의 제어 모드는,
상기 본체가 서행하여 주행하도록 제어하는 제1 제어 모드;
상기 본체가 주행을 대기하도록 제어하는 제2 제어 모드; 및
상기 본체가 상기 감지 대상물을 회피하여 주행하도록 제어하는 제3 제어 모드;를 포함하고,
상기 제어부는,
상기 영상 정보에 촬영된 대상물 중 위치 변화가 감지되는 대상물을 인식하여, 인식한 대상물을 상기 감지 대상물로 감지하고, 상기 감지 대상물을 감지한 결과 및 기설정된 감지 기준을 근거로 상기 감지 대상물의 종류를 판단하여, 상기 감지 대상물이 상기 본체의 주변 영역에서 이탈되어 상기 감지 대상물의 감지가 중단될 때까지, 상기 제초부의 동작을 중지시키고, 상기 감지 대상물의 종류에 대응하여 조합한 상기 복수의 제어 모드 중 하나 이상을 조합한 조합 모드로 상기 본체의 주행을 제어하고,
상기 조합 모드에 따라 상기 본체의 주행을 제어하는 경우,
상기 제초부의 동작을 중지시키며 상기 본체와 상기 감지 대상물의 이격 거리가 일정 거리 이상으로 유지되도록 상기 본체의 주행을 제어하는 것을 특징으로 하는 이동 로봇.
In a mobile robot that travels while cutting grass on an outdoor driving area,
main body;
a driving unit for moving the main body;
a photographing unit generating image information about the driving area by photographing the periphery of the main body;
a weeding unit cutting grass on a floor surface while the main body travels in the driving area; and
A control unit configured to control driving of the body by controlling the drive unit, determine a state of the driving area based on the image information, and control a grass cutting operation on the driving area by controlling the weeding unit;
The control unit,
As a result of determining the state of the driving area while the main body is driving in the driving area, when it detects an object whose position is changed on the driving area,
Stopping the operation of the weeding unit in response to the object to be detected and controlling the driving of the main body by combining one or more control modes among a plurality of preset control modes,
The plurality of control modes,
a first control mode for controlling the main body to travel slowly;
a second control mode for controlling the main body to wait for driving; and
A third control mode for controlling the main body to avoid the sensing target and drive;
The control unit,
Among the objects photographed in the image information, an object whose position change is detected is recognized, the recognized object is detected as the sensing object, and the type of the sensing object is determined based on the detection result of the sensing object and a preset detection criterion. and stopping the operation of the weeding unit until the object to be detected is separated from the peripheral area of the main body and the detection of the object is stopped, and among the plurality of control modes combined according to the type of the object to be sensed. Control the driving of the main body in a combination mode combining one or more;
When controlling the driving of the main body according to the combination mode,
The mobile robot characterized in that the driving of the main body is controlled so that the separation distance between the main body and the object to be sensed is maintained at a predetermined distance or more while stopping the operation of the weeding unit.
제1 항에 있어서,
상기 촬영부는,
상기 본체의 후측 상부에 구비되는 것을 특징으로 하는 이동 로봇.
According to claim 1,
the filming unit,
Mobile robot, characterized in that provided on the upper rear side of the main body.
제1 항에 있어서,
상기 촬영부는,
상기 본체의 주행 방향을 촬영하는 것을 특징으로 하는 이동 로봇.
According to claim 1,
the filming unit,
Mobile robot, characterized in that for photographing the traveling direction of the main body.
삭제delete 삭제delete 제1 항 내지 제3 항 중 어느 한 항에 있어서,
외부의 통신 대상 수단과 통신하는 통신부;를 더 포함하되,
상기 제어부는,
상기 감지 대상물을 감지한 결과에 대한 알림 정보를 생성하여, 상기 통신부를 통해 상기 알림 정보를 상기 통신 대상 수단에 전송하는 것을 특징으로 하는 이동 로봇.
According to any one of claims 1 to 3,
A communication unit that communicates with an external communication target means; further comprising,
The control unit,
The mobile robot, characterized in that generating notification information for a result of detecting the detection target, and transmitting the notification information to the communication target unit through the communication unit.
제1 항 내지 제3 항 중 어느 한 항에 있어서,
외부로 음성을 출력하는 출력부;를 더 포함하되,
상기 제어부는,
상기 감지 대상물을 감지한 결과에 대한 알람 신호를 생성하여, 상기 출력부를 통해 상기 알람 신호에 따른 음성을 출력하는 것을 특징으로 하는 이동 로봇.
According to any one of claims 1 to 3,
An output unit for outputting audio to the outside; further comprising,
The control unit,
The mobile robot, characterized in that for generating an alarm signal for a result of sensing the object to be detected, and outputting a voice according to the alarm signal through the output unit.
본체;
상기 본체를 이동시키는 구동부;
상기 본체의 주변을 촬영하는 촬영부;
상기 본체가 야외의 주행 영역을 주행하는 중 바닥면의 잔디를 절삭하는 제초부; 및
상기 구동부를 제어하여 상기 본체의 주행을 제어하고, 상기 촬영부의 촬영 결과를 근거로 상기 본체의 주행 영역의 상태를 판단하고, 상기 제초부를 제어하여 상기 주행 영역상의 잔디 절삭 동작을 제어하는 제어부;를 포함하는 주행 영역상의 잔디를 절삭하며 주행하는 이동 로봇의 제어 방법에 있어서,
상기 주행 영역을 주행하는 중 상기 본체의 주변을 촬영하여 상기 주행 영역에 대한 영상 정보를 생성하는 단계;
상기 영상 정보를 근거로 상기 주행 영역 상에서 위치가 변화되는 감지 대상물을 감지하는 단계; 및
감지 결과에 따라 상기 본체의 주행을 제어하는 단계;를 포함하고,
상기 감지하는 단계는,
상기 영상 정보에 촬영된 대상물 중 위치 변화가 감지되는 대상물을 인식하여, 인식한 대상물을 상기 감지 대상물로 감지하고,
상기 제어하는 단계는,
상기 감지 대상물의 감지 시, 상기 잔디 절삭 동작이 중지되도록 상기 제초부의 동작을 중지시키고, 상기 감지 결과 및 기설정된 감지 기준을 근거로 상기 감지 대상물의 종류를 판단하여, 상기 감지 대상물의 종류에 따라 기설정된 복수의 제어 모드 중 하나 이상의 제어 모드를 조합하여 상기 본체의 주행을 제어하되,
상기 복수의 제어 모드는,
상기 본체가 서행하여 주행하도록 제어하는 제1 제어 모드;
상기 본체가 주행을 대기하도록 제어하는 제2 제어 모드; 및
상기 본체가 상기 감지 대상물을 회피하여 주행하도록 제어하는 제3 제어 모드;를 포함하고,
상기 제어하는 단계는,
상기 감지 대상물이 상기 본체의 주변 영역에서 이탈되어 상기 감지 대상물의 감지가 중단될 때까지, 상기 제초부의 동작을 중지시키며 상기 본체와 상기 감지 대상물의 이격 거리가 일정 거리 이상으로 유지되도록 상기 본체의 주행을 제어하는 것을 특징으로 하는 이동 로봇의 제어 방법.
main body;
a driving unit for moving the main body;
a photographing unit for photographing the periphery of the main body;
a weeding unit that cuts grass on the floor while the main body drives in an outdoor driving area; and
A control unit that controls driving of the main body by controlling the driving unit, determines a state of a driving area of the main body based on a photographing result of the capturing unit, and controls a grass cutting operation in the driving area by controlling the weeding unit. In the control method of a mobile robot that travels while cutting grass on a driving area that includes,
generating image information about the driving area by photographing the periphery of the main body while driving in the driving area;
detecting an object whose position is changed in the driving area based on the image information; and
Including; controlling the driving of the main body according to the detection result;
The detecting step is
Among the objects photographed in the image information, an object whose position change is detected is recognized, and the recognized object is detected as the sensing object;
The control step is
When the object to be detected is detected, the operation of the weeding unit is stopped so that the cutting operation of the grass is stopped, and the type of the object to be sensed is determined based on the detection result and a preset detection criterion. Control the driving of the main body by combining one or more control modes among a plurality of set control modes,
The plurality of control modes,
a first control mode for controlling the main body to travel slowly;
a second control mode for controlling the main body to wait for driving; and
A third control mode for controlling the main body to avoid the sensing target and drive;
The control step is
The main body travels so that the separation distance between the main body and the sensing object is maintained at a predetermined distance or more while stopping the operation of the weeding unit until the sensing object is separated from the surrounding area of the main body and sensing of the sensing object is stopped. A control method of a mobile robot, characterized in that for controlling.
삭제delete
KR1020210006278A 2018-12-12 2021-01-15 Artificial intelligence lawn mower robot and controlling method for the same KR102514499B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210006278A KR102514499B1 (en) 2018-12-12 2021-01-15 Artificial intelligence lawn mower robot and controlling method for the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180160279A KR20200075140A (en) 2018-12-12 2018-12-12 Artificial intelligence lawn mover robot and controlling method for the same
KR1020210006278A KR102514499B1 (en) 2018-12-12 2021-01-15 Artificial intelligence lawn mower robot and controlling method for the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180160279A Division KR20200075140A (en) 2018-12-12 2018-12-12 Artificial intelligence lawn mover robot and controlling method for the same

Publications (2)

Publication Number Publication Date
KR20210008903A KR20210008903A (en) 2021-01-25
KR102514499B1 true KR102514499B1 (en) 2023-03-27

Family

ID=85799797

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210006278A KR102514499B1 (en) 2018-12-12 2021-01-15 Artificial intelligence lawn mower robot and controlling method for the same

Country Status (1)

Country Link
KR (1) KR102514499B1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101622693B1 (en) * 2014-04-30 2016-05-19 엘지전자 주식회사 Lawn mower robot and Controlling Method for the same
KR20180075176A (en) * 2016-12-26 2018-07-04 엘지전자 주식회사 Moving Robot and controlling method

Also Published As

Publication number Publication date
KR20210008903A (en) 2021-01-25

Similar Documents

Publication Publication Date Title
KR102292263B1 (en) Moving robot, system of moving robot and method for moving to charging station of moving robot
US20200189107A1 (en) Artificial intelligence moving robot and method for controlling the same
US11178811B2 (en) Lawn mower robot, system of lawn mower robot and control method of lawn mower robot system
KR102272161B1 (en) Lawn mover robot system and controlling method for the same
KR102269851B1 (en) Moving robot and contorlling method thereof
KR102489483B1 (en) Transmitter of moving robot system and method for detecting thief of tramsmitter
KR102249808B1 (en) Lawn mover robot system and controlling method for the same
KR102206388B1 (en) Lawn mover robot and controlling method for the same
US20220105631A1 (en) Artificial intelligence moving robot and method for controlling the same
US11861054B2 (en) Moving robot and method for controlling the same
KR102514499B1 (en) Artificial intelligence lawn mower robot and controlling method for the same
KR102421519B1 (en) Moving robot system and method for generating boundary information of the same
US20200238531A1 (en) Artificial intelligence moving robot and method for controlling the same
KR102378270B1 (en) Moving robot system and method for generating boundary information of the same
KR102385611B1 (en) Moving robot system and method for generating boundary information of the same
KR102302473B1 (en) Moving robot of charing station and moving robot system

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant