WO2014058161A1 - Mobile robot and movement method for mobile robot using virtual wall - Google Patents
Mobile robot and movement method for mobile robot using virtual wall Download PDFInfo
- Publication number
- WO2014058161A1 WO2014058161A1 PCT/KR2013/008432 KR2013008432W WO2014058161A1 WO 2014058161 A1 WO2014058161 A1 WO 2014058161A1 KR 2013008432 W KR2013008432 W KR 2013008432W WO 2014058161 A1 WO2014058161 A1 WO 2014058161A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- virtual wall
- moving
- position recognition
- movement
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 238000004891 communication Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0255—Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
Definitions
- the present invention relates to a mobile robot using a virtual wall and a moving method thereof, and more particularly, to a moving method using a virtual wall of a mobile robot that does not calculate a target point and a moving path.
- the mobile robot In order for the mobile robot to recognize the surrounding environment information, calculate the travel path, and reach the target location, the mobile robot must recognize the absolute magnetic location and construct a map.
- the mobile robot recognizes the surrounding environment information and constructs a map by the SLAM (Simultaneous Localization And Mapping) technique and the moving route map building by the worker.
- the SLAM technique automatically constructs a movement path map of the surrounding environment through internal or external sensors at a certain position, and repeats the process of finding the position of the moved robot again based on the configured map.
- it is necessary to construct a new map every time the environment changes, and there is a problem that it is difficult to apply in public places where the space is small and the space is not constant.
- the movement route map building by the worker has a high time and expertise in making a driving pattern, is very expensive when using high resolution vision, requires a high performance CPU for real-time image processing, and has to move along a predetermined path.
- the conventional robot moving along a predetermined driving pattern or driving route can be moved along the driving pattern or driving route only by constructing the entire surrounding map using the SLAM technique or the movement route map building by the operator, or continue in real time. To find out where the robot is. In this case, as described above, not only the amount of calculation is increased, but also the time required for constructing the map at the initial stage of the robot driving, and there is a problem that can be used only in limited space.
- the robot may move to the audience and provide information to the audience. Therefore, by providing information to the viewers who need the service according to the surrounding environment while moving freely rather than a specific driving route, a more familiar, natural and suitable service is possible for the visitors.
- the movement of the guide robot can be naturally moved and moved along a random driving path instead of a predetermined driving path, and can be used as soon as only the virtual wall can be recognized.
- the present invention has been made in an effort to provide a robot moving method and a mobile robot capable of moving a specific region without a map configuration and absolute position estimation.
- Another object of the present invention is to provide a method for moving a robot that can move a specific area and a method for implementing a virtual wall for a mobile robot.
- the robot for solving the problem of the present invention, (a) observing at least one or more position recognition display installed outside, (b) relative to the position recognition display using the position recognition display Calculating a moving direction and relative coordinates; and (c) determining a virtual wall collision based on the relative moving direction and the relative coordinates within a first time by calculating a moving speed.
- the method of moving the robot may further include converting the moving direction when it is determined that the virtual wall collides in the step (c).
- the moving direction converted in the step (d) may be a direction away from the virtual wall.
- the converted moving direction is converted using at least one of an angle between the virtual wall and the relative moving direction or a position with respect to the relative moving direction of the virtual wall. It may be a direction of movement.
- the position recognition display may be visually distinguished up, down, left and right.
- step (a) may be observed by any one of an infrared camera, a visible light camera, an infrared light receiving means, a wireless communication means, and an ultrasonic wave receiving means.
- the step (b) is a robot for the position recognition display using the distance of the position recognition display from the robot and the vertical vector of the virtual wall centered on the position recognition display and the angle of the robot. It may be to calculate the relative movement direction and relative coordinates of.
- the mobile robot for solving the problem of the present invention the position recognition observation unit for observing at least one or more position recognition display installed outside, using the position recognition display for the position recognition display It includes a virtual wall determination unit for calculating the relative movement direction and relative coordinates of the robot, calculates the movement speed to determine whether the virtual wall collision within a first time and a moving unit for moving the robot.
- the mobile robot may further include a movement control unit for converting the movement direction when it is determined that the virtual wall collision.
- the movement controller of the mobile robot may determine a movement direction converted to a direction away from the virtual wall.
- the movement controller of the mobile robot may determine a movement direction converted using at least one of an angle between the virtual wall and the relative movement direction or a position of the virtual wall with respect to the relative movement direction.
- the position recognition display of the mobile robot may be visually distinguished up, down, left and right.
- the position recognition observer of the mobile robot may include any one of an infrared camera, a visible light camera, an infrared light receiving means, a wireless communication means, and an ultrasonic receiving means.
- the virtual wall determination unit of the mobile robot may control the robot to perform a preset action when determining the observed position recognition display as a preset home display.
- a robot can perform a service while moving a specific area without a map configuration and absolute position estimation.
- the robot can move and perform services without leaving a specific area by using a virtual wall.
- the robot can move and move naturally because it can be moved by a random moving line instead of a predetermined driving path, and the robot can be used immediately by simply setting the position recognition display attached to the outside.
- FIG. 1 is a flowchart illustrating a method of moving a robot according to the present invention.
- FIG. 2 is a block diagram of a mobile robot according to the present invention.
- 3 is an embodiment of a position display.
- FIG. 4 is an embodiment of a moving method using a virtual wall of a mobile robot according to the present invention.
- FIG. 5 is an embodiment of a moving method using a virtual wall of a mobile robot according to the present invention.
- FIG. 7 is an embodiment of a moving method using a virtual wall of a mobile robot according to the present invention.
- FIG. 8 is an embodiment of a home display.
- FIG. 9 is an embodiment of a position display.
- each functional unit represented herein is merely an example of an implementation of the present invention. Accordingly, other implementations may be used in other implementations of the invention without departing from the spirit and scope of the invention.
- each functional unit may be implemented in purely hardware or software configurations, but may be implemented in a combination of various hardware and software configurations that perform the same functions.
- the robot movement method includes (a) position recognition display observation step (S110), (b) moving direction and coordinate calculation step (S120), (c) virtual wall collision determination step (S130). do.
- a virtual fence is a boundary that the robot must not pass over, which means that it can be realized using a position display and act like a virtual wall.
- the safety zone means an interior zone composed of virtual walls, and may be implemented as a polygon.
- virtual lines 430 extending from both sides of the position recognition marks 411, 412, 413, and 414 may operate as virtual walls.
- the position recognition mark is located at the center of the virtual wall.
- the position recognition mark may act as a vertex at a right angle to configure a safe area.
- a four-sided safety region using four position recognition marks is taken as an example, but various types of safety regions may be configured by using at least three position recognition marks.
- the position recognition mark should be provided externally, and the virtual extension line in the left and right directions from the position indication mark should act as a virtual wall.
- the position recognition display for implementing the virtual wall is sufficient if the upper, lower, left, and right of the position recognition display can be distinguished from each other when visually implemented, it is not necessary to uniquely distinguish each position recognition display (Fig. 3 or In FIG. 9, all of them may be used as a position recognition display for implementing a virtual wall.
- the robot as shown in FIG. 3 or FIG. 9 may have a virtual line extending to both sides from the position recognition display as shown in FIG. Can be installed outside of
- the position recognition display may be distinguished from both the case recognized from the bottom side and the case recognized from the top side, the right side, and the left side.
- the position recognition display may be installed on the outside so that the virtual extension line in the left and right directions from the position recognition display in which the top, bottom, left and right are distinguishable from each other may be the side of the desired safety region, thereby realizing the virtual wall and the safety region.
- the lower direction of the visually implemented position recognition display of FIG. 3 is always installed to face the inside of the safety area as shown in FIG. 6.
- Virtual walls and safe areas can be implemented.
- the location indication is displayed so that it can be visually observed
- it can be displayed by a specific material so that it can be observed by a specific light such as infrared light, and by any one of an infrared camera, a visible light camera, and an infrared light receiving unit. Can be observed.
- the moving robot can determine the virtual wall for the safe area, the position recognition display can be performed. Therefore, the moving robot can be observed as the wireless communication means or the ultrasonic receiving means even if the visual indication is not performed.
- the relative movement direction and the relative coordinates of the robot can be known. It can also be observed by means or by means of ultrasonic reception.
- the location recognition display When the location recognition display is observed by the wireless communication means, the location recognition display may be implemented as a beacon, and after preset time synchronization with the robot, may transmit a preset radio wave.
- the robot may know the relative movement direction and relative coordinates of the robot with respect to the beacon by using the radio wave received from the beacon. This method is related to the prior art and is not described in detail herein.
- the robot calculates the relative movement direction and relative coordinates of the robot with respect to the position recognition display.
- relative coordinates are calculated using the current position of the robot and the position of the position recognition mark observed in the position recognition observation unit.
- the robot 520 may move from a position of FIG. 5 (a) to a direction closer to the virtual wall 530 formed by the position recognition display 510 from FIG. 5 (b).
- the robot may calculate the time to hit the virtual wall 530 formed by the position recognition display 510 by calculating the speed by the current moving unit.
- the robot 520 determines that the current virtual wall 530 is not colliding, and does not change the moving direction. .
- the time that the robot 520 hits the virtual wall 530 is within a preset first time, and the robot 520 collides with the current virtual wall 530. I think I will.
- the robot 520 may change the moving direction so that the virtual wall 530 may continue to move to the safe area without colliding with the virtual wall 530.
- the robot 520 may determine the moving direction in a direction away from the virtual wall 530.
- the moving direction to be converted when colliding with the virtual wall may be set in advance in a direction to rotate left or right by a certain angle from the moving direction before the conversion.
- the rotation direction may be determined using an angle formed between the virtual wall and the moving direction of the robot.
- the robot 520 determines to turn left. Can be.
- the rotation angle may be set in advance, or set to be randomly determined in a predetermined angle range, and in this case, the rotation angle may be determined using an angle between the virtual wall and the relative moving direction of the robot.
- the robot may repeat the virtual wall A 741 and the virtual wall B 742. Accordingly, the converted movement direction may determine the rotation angle of the converted movement direction such that the movement direction does not exceed the vertical surface vector of the virtual wall when the robot rotates to the right.
- a mobile robot according to the present invention will be described with reference to FIG. 2.
- the mobile robot according to the present invention includes a position recognition observer 210, a virtual wall determiner 220, and a mover 230.
- the position recognition observer 210 observes the position recognition display installed outside and transmits the result of the conversion to the virtual wall determination unit 220.
- the location indication may be displayed to be visually observed or may be displayed by a specific material such that it may be observed by a specific light such as infrared light, and may be viewed by any one of an infrared camera, a visible light camera, and an infrared light receiving unit. Can be.
- Position recognition display may be displayed so that the top, bottom, left and right are distinguished so that the robot can distinguish the safe zone and the direction of the virtual wall.
- the virtual wall determination unit 220 calculates the relative movement direction and the relative coordinates of the robot with respect to the position recognition display through the converted electrical signal, and calculates whether the robot is in a safe area or the movement speed of the robot. Determine whether to collide with the virtual wall.
- the virtual wall determination unit 220 determines whether to collide with the virtual wall within the first time in consideration of the moving speed of the robot when determining whether the virtual wall collides, and if it is determined that the virtual wall collision, the moving control unit ( 240 may be further included.
- the virtual wall determination unit 220 transmits the relative movement direction and relative coordinates of the robot to the position recognition display to the movement control unit 240 when it is determined that the virtual wall collision, the movement control unit 240 and the relative movement direction of the robot
- the relative coordinates can be used to change the direction of movement of the robot so that it does not collide with the virtual wall.
- the virtual wall determination unit 220 may control the robot to perform a preset action.
- the robot 840 when the robot 840 freely moves the safety area 820 formed of the position recognition marks 811 to 814 visually embodied, the robot 840 observes the preset home mark 815.
- the home display 815 may be set to move to a location where the home display 815 is located or to perform a predetermined action such as playing a specific content while staying for a predetermined time.
- the home display is not limited in kind as long as it can be distinguished from the location recognition display.
- the acts performed when the home display is observed may also have various applications and do not limit the kind thereof.
- the home display may be implemented as a plurality of home displays of the first home display and the second home display, which can be distinguished from each other by the application of the user, and the robot may be configured to perform the first or second action preset according to each home display. Naturally, you can set it.
- the movement control unit 240 may change the movement direction of the robot according to the virtual wall collision schedule, and may be a direction away from the virtual wall, and the angle or the virtual wall between the virtual wall and the relative movement direction of the robot.
- the movement direction may be converted by using at least one of positions with respect to the relative movement direction of the robot.
- the moving unit 230 means a means for moving the robot, such as a wheel, biped walking leg, a caterpillar, and the like.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Electromagnetism (AREA)
- Acoustics & Sound (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
The movement method for a robot according to the present invention comprises the steps of: (a) observing at least one externally provided position-recognition display; (b) using the position-recognition display(s) to calculate the relative movement direction and relative coordinates of the robot relative to the position-recognition display(s); and (c) calculating the movement speed so as to assess whether there has been a collision with a virtual wall in accordance with the relative movement direction and relative coordinates within a first time. The present invention makes it possible for the robot to move without going outside a specific area through the use of the virtual wall, even without operations requiring a substantial amount of computing power such as map compilation and absolute position estimation.
Description
본 발명은 가상벽을 이용하는 이동형 로봇 및 그 이동 방법에 관한 것으로서, 더 자세하게는 목표 지점 및 이동 경로를 산출하지 않는 이동형 로봇의 가상벽을 이용한 이동 방법에 관한 것이다.The present invention relates to a mobile robot using a virtual wall and a moving method thereof, and more particularly, to a moving method using a virtual wall of a mobile robot that does not calculate a target point and a moving path.
종래 원하는 목표 지점까지 충돌 없이 이동하는 자율 이동 로봇 기술 및 이동 방법이 개시되어 왔다.In the past, autonomous mobile robot technology and a moving method for moving to a desired target point without collision have been disclosed.
이동 로봇이 주변 환경 정보를 인식하고 이동 경로를 산출하여 목표지점까지 도달하기 위해서는 절대적인 자기 위치를 인식하고 지도를 구성(Map Building)해야 한다.In order for the mobile robot to recognize the surrounding environment information, calculate the travel path, and reach the target location, the mobile robot must recognize the absolute magnetic location and construct a map.
이동 로봇이 주변 환경 정보를 인식하고 지도를 구성하는 방법으로 SLAM(Simultaneous Localization And Mapping) 기법과 작업자에 의한 이동 경로 맵빌딩(Map Building)이 있다. SLAM 기법은 어떤 위치에서 내부나 외부 센서들을 통해 자동으로 주변 환경의 이동경로 맵을 구성하고, 구성된 맵을 바탕으로 다시 이동한 로봇의 위치를 알아내는 과정을 반복하여 로봇의 위치와 주변 환경의 맵을 동시에 추정하는 것으로서, 환경이 바뀌면 매번 새롭게 맵을 구성해야 하며, 가정처럼 좁고 공간이 일정하지 않은 공공장소에서는 적용이 어려운 문제점이 있다. 또한 작업자에 의한 이동경로 맵 빌딩은 주행 패턴을 만드는 시간과 전문성이 높고, 고 해상도 비전을 사용하는 경우 매우 고가격이며, 실시간 영상처리를 위한 고성능 CPU가 필요하며 정해진 경로를 따라 움직여야 하는 문제점이 있다. The mobile robot recognizes the surrounding environment information and constructs a map by the SLAM (Simultaneous Localization And Mapping) technique and the moving route map building by the worker. The SLAM technique automatically constructs a movement path map of the surrounding environment through internal or external sensors at a certain position, and repeats the process of finding the position of the moved robot again based on the configured map. At the same time, it is necessary to construct a new map every time the environment changes, and there is a problem that it is difficult to apply in public places where the space is small and the space is not constant. In addition, the movement route map building by the worker has a high time and expertise in making a driving pattern, is very expensive when using high resolution vision, requires a high performance CPU for real-time image processing, and has to move along a predetermined path.
즉, 정해진 주행 패턴 또는 주행 경로를 따라 이동하는 종래의 로봇은 SLAM 기법이나 작업자에 의한 이동 경로 맵빌딩을 이용하여 주변 전체 지도를 구성해야만 해당 주행 패턴 또는 주행 경로를 따라 이동 가능하거나, 실시간으로 계속해서 로봇 자신의 위치를 파악해야 한다. 이 경우 앞서 언급한 것처럼 연산량이 가중될 뿐만 아니라, 로봇의 구동 초기에 지도를 구성하는 시간이 필요하고, 제한적인 공간에서만 사용 가능한 문제점 또한 존재한다.In other words, the conventional robot moving along a predetermined driving pattern or driving route can be moved along the driving pattern or driving route only by constructing the entire surrounding map using the SLAM technique or the movement route map building by the operator, or continue in real time. To find out where the robot is. In this case, as described above, not only the amount of calculation is increased, but also the time required for constructing the map at the initial stage of the robot driving, and there is a problem that can be used only in limited space.
하지만, 자율 이동 로봇 중에서 특정 목표지점을 갖지 않는 이동 로봇의 경우는, SLAM 기법과 맵 빌딩 같은 지도 구성 및 절대적 위치 추정이 필요 없는 경우가 있다. However, in the case of a mobile robot that does not have a specific target point among autonomous mobile robots, there is a case where a map configuration such as SLAM technique and map building and absolute position estimation are not necessary.
예를 들어, 전시회장에서 관람객을 상대로 자율적으로 이동하면서 정보를 제공하는 이동 로봇의 경우, 해당 공간을 자유롭게 돌아다니면서 관람객을 인식하면 관람객 쪽으로 이동하여 관람객에게 정보를 제공할 수 있다. 따라서, 특정 주행 경로가 아니라 자유롭게 이동하면서 주변 환경에 따라 서비스가 필요한 관람객에게 정보를 제공함으로써, 관람객에게 보다 친숙하고 자연스럽고 적합한 서비스가 가능하다.For example, in the case of a mobile robot that provides information while moving autonomously to an audience at an exhibition hall, if the robot recognizes the audience while moving around the space freely, the robot may move to the audience and provide information to the audience. Therefore, by providing information to the viewers who need the service according to the surrounding environment while moving freely rather than a specific driving route, a more familiar, natural and suitable service is possible for the visitors.
이 경우, 지도 구성 및 절대적 위치 추정과 같은 연산량이 높은 처리를 할 필요가 없고, 로봇의 자율적인 이동이 특정 영역을 벗어나지 않도록 제어할 필요가 있다.In this case, it is not necessary to perform a high computational processing such as map construction and absolute position estimation, and it is necessary to control so that the autonomous movement of the robot does not leave a specific area.
또한, 이 경우 안내로봇의 동선을 정해진 주행 경로가 아닌 랜덤한 주행 경로를 따라 자연스러운 이동 및 움직임이 가능하며, 가상벽만 인식 가능하면 바로 사용 할 수 있다.In this case, the movement of the guide robot can be naturally moved and moved along a random driving path instead of a predetermined driving path, and can be used as soon as only the virtual wall can be recognized.
따라서, 지도 구성 및 절대적 위치 추정과 같은 맵 빌딩이 불필요하고 연산량이 높은 처리가 없이도 특정 영역을 벗어나지 않으며 자연스러운 이동 동작을 구현하는 이동형 로봇 및 이동형 로봇의 이동 방법이 필요하다.Therefore, there is a need for a mobile robot and a method of moving the robot, which does not leave a specific area without a map building, such as map construction and absolute position estimation, and does not have a high computational amount and implements natural movement.
본 발명이 이루고자 하는 기술적 과제는 지도 구성 및 절대적 위치 추정이 없이도 특정 영역을 이동 가능한 로봇의 이동 방법 및 이동형 로봇을 제공하는 데 있다.SUMMARY OF THE INVENTION The present invention has been made in an effort to provide a robot moving method and a mobile robot capable of moving a specific region without a map configuration and absolute position estimation.
본 발명의 이루고자 하는 다른 기술적 과제는 특정 영역을 이동 가능한 로봇의 이동 방법 및 이동형 로봇을 위한 가상벽을 구현하는 방법을 제공하는 데 있다.Another object of the present invention is to provide a method for moving a robot that can move a specific area and a method for implementing a virtual wall for a mobile robot.
본 발명의 과제를 해결하기 위한 로봇의 이동에 따르면, (a) 외부에 설치된 위치인식 표시를 적어도 하나 이상 관측하는 단계, (b) 상기 위치인식 표시를 이용하여 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하는 단계 및 (c) 이동속도를 계산하여 제 1 시간 이내에 상기 상대적 이동 방향 및 상기 상대적 좌표에 따라 가상벽 충돌 여부를 판단하는 단계를 포함한다.According to the movement of the robot for solving the problem of the present invention, (a) observing at least one or more position recognition display installed outside, (b) relative to the position recognition display using the position recognition display Calculating a moving direction and relative coordinates; and (c) determining a virtual wall collision based on the relative moving direction and the relative coordinates within a first time by calculating a moving speed.
상기 로봇의 이동 방법은 상기 (c) 단계에서 상기 가상벽 충돌로 판단되는 경우, 상기 이동방향을 변환하는 단계를 더 포함할 수 있다.The method of moving the robot may further include converting the moving direction when it is determined that the virtual wall collides in the step (c).
상기 로봇의 이동 방법은 상기 (d) 단계에서 변환되는 이동방향은 상기 가상벽으로부터 멀어지는 방향일 수 있다.In the moving method of the robot, the moving direction converted in the step (d) may be a direction away from the virtual wall.
상기 로봇의 이동 방법은 상기 (d) 단계에서, 변환되는 이동방향은, 상기 가상벽과 상기 상대적 이동 방향과의 각도 또는 상기 가상벽의 상기 상대적 이동 방향에 대한 위치 중 적어도 어느 하나를 이용하여 변환되는 이동방향일 수 있다.In the moving method of the robot, in the step (d), the converted moving direction is converted using at least one of an angle between the virtual wall and the relative moving direction or a position with respect to the relative moving direction of the virtual wall. It may be a direction of movement.
상기 로봇의 이동 방법에서 상기 위치인식 표시는 시각적으로 상하좌우가 구별되는 것일 수 있다.In the movement method of the robot, the position recognition display may be visually distinguished up, down, left and right.
상기 로봇의 이동 방법에서 상기 (a) 단계는 적외선 카메라, 가시광선 카메라, 적외선 수광 수단, 무선 통신 수단, 초음파 수신 수단 중 어느 하나에 의해 관측될 수 있다.In the robot moving method, step (a) may be observed by any one of an infrared camera, a visible light camera, an infrared light receiving means, a wireless communication means, and an ultrasonic wave receiving means.
상기 로봇의 이동 방법에서 상기 (b) 단계는 로봇으로부터 상기 위치인식 표시의 거리 및 상기 위치인식 표시를 중심으로 한 상기 가상벽의 수직 벡터와 상기 로봇의 각도를 이용하여 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하는 것일 수 있다.In the robot moving method, the step (b) is a robot for the position recognition display using the distance of the position recognition display from the robot and the vertical vector of the virtual wall centered on the position recognition display and the angle of the robot. It may be to calculate the relative movement direction and relative coordinates of.
본 발명의 또 다른 측면에 따르면 본 발명의 과제를 해결하기 위한 이동형 로봇은, 외부에 설치된 위치인식 표시를 적어도 하나 이상 관측하는 위치인식 관측부, 상기 위치인식 표시를 이용하여 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하고, 이동속도를 계산하여 제 1 시간 이내에 가상벽 충돌 여부를 판단하는 가상벽 판단부 및 로봇을 이동시키는 이동부를 포함한다.According to another aspect of the present invention, the mobile robot for solving the problem of the present invention, the position recognition observation unit for observing at least one or more position recognition display installed outside, using the position recognition display for the position recognition display It includes a virtual wall determination unit for calculating the relative movement direction and relative coordinates of the robot, calculates the movement speed to determine whether the virtual wall collision within a first time and a moving unit for moving the robot.
상기 이동형 로봇은 가상벽 충돌로 판단되는 경우 상기 이동방향을 변환하는 이동 제어부를 더 포함할 수 있다.The mobile robot may further include a movement control unit for converting the movement direction when it is determined that the virtual wall collision.
상기 이동형 로봇의 이동 제어부는 상기 가상벽으로부터 멀어지는 방향으로 변환되는 이동방향을 결정할 수 있다.The movement controller of the mobile robot may determine a movement direction converted to a direction away from the virtual wall.
상기 이동형 로봇의 상기 이동 제어부는 상기 가상벽과 상기 상대적 이동 방향과의 각도 또는 상기 가상벽의 상기 상대적 이동 방향에 대한 위치 중 적어도 어느 하나를 이용하여 변환되는 이동방향을 결정할 수 있다.The movement controller of the mobile robot may determine a movement direction converted using at least one of an angle between the virtual wall and the relative movement direction or a position of the virtual wall with respect to the relative movement direction.
상기 이동형 로봇의 상기 위치인식 표시는 시각적으로 상하좌우가 구별되는 것일 수 있다.The position recognition display of the mobile robot may be visually distinguished up, down, left and right.
상기 이동형 로봇의 상기 위치인식 관측부는 적외선 카메라, 가시광선 카메라, 적외선 수광 수단, 무선 통신 수단, 초음파 수신 수단 중 어느 하나를 포함할 수 있다.The position recognition observer of the mobile robot may include any one of an infrared camera, a visible light camera, an infrared light receiving means, a wireless communication means, and an ultrasonic receiving means.
상기 이동형 로봇의 상기 가상벽 판단부는 관측된 상기 위치인식 표시를 미리 설정된 홈 표시로 판단하는 경우, 미리 설정된 행위를 하도록 로봇을 제어할 수 있다.The virtual wall determination unit of the mobile robot may control the robot to perform a preset action when determining the observed position recognition display as a preset home display.
본 발명에 의하면, 지도 구성 및 절대적 위치 추정이 없이도 로봇이 특정 영역을 이동하면서 서비스를 수행 가능하다. According to the present invention, a robot can perform a service while moving a specific area without a map configuration and absolute position estimation.
또한, 본 발명에 의하면 로봇이 가상벽을 이용하여 특정 영역을 벗어나지 않으면서 이동 및 서비스 수행이 가능하다.In addition, according to the present invention, the robot can move and perform services without leaving a specific area by using a virtual wall.
또한, 본 발명에 의하면 정해진 주행 경로가 아닌 랜덤한 동선으로 이동 가능하므로 로봇이 자연스럽게 이동 및 움직일 수 있으며, 외부에 부착된 위치 인식표시에 대한 간단한 설정만으로 바로 로봇을 사용 가능하다.In addition, according to the present invention, the robot can move and move naturally because it can be moved by a random moving line instead of a predetermined driving path, and the robot can be used immediately by simply setting the position recognition display attached to the outside.
도 1은 본 발명에 따른 로봇의 이동 방법 흐름도이다.1 is a flowchart illustrating a method of moving a robot according to the present invention.
도 2는 본 발명에 따른 이동형 로봇의 블럭도이다.2 is a block diagram of a mobile robot according to the present invention.
도 3은 위치인식 표시의 실시예이다.3 is an embodiment of a position display.
도 4는 본 발명에 따른 이동형 로봇의 가상벽을 이용한 이동 방법의 실시예이다.4 is an embodiment of a moving method using a virtual wall of a mobile robot according to the present invention.
도 5는 본 발명에 따른 이동형 로봇의 가상벽을 이용한 이동 방법의 실시예이다.5 is an embodiment of a moving method using a virtual wall of a mobile robot according to the present invention.
도 6은 위치인식 표시의 설치 실시예이다.6 shows an installation example of the position indication display.
도 7은 본 발명에 따른 이동형 로봇의 가상벽을 이용한 이동 방법의 실시예이다.7 is an embodiment of a moving method using a virtual wall of a mobile robot according to the present invention.
도 8은 홈 표시의 실시예이다.8 is an embodiment of a home display.
도 9는 위치인식 표시의 실시예이다.9 is an embodiment of a position display.
<부호의 설명><Description of the code>
411, 412, 413, 414, 510, 611, 612, 613, 614, 811, 812, 813, 824: 위치인식 표시411, 412, 413, 414, 510, 611, 612, 613, 614, 811, 812, 813, 824: Position recognition display
815: 홈 표시815: home sign
430, 530, 740, 741: 가상벽430, 530, 740, 741: virtual wall
450, 620, 820: 안전영역450, 620, 820: safe area
440, 520, 640, 840: 이동 로봇440, 520, 640, 840: mobile robot
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하의 상세한 설명에 의해 보다 명확하게 이해될 것이다. 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.Details of the object and technical configuration of the present invention and the resulting effects will be more clearly understood by the following detailed description based on the accompanying drawings. With reference to the accompanying drawings will be described in detail an embodiment according to the present invention.
이 분야의 통상의 기술자는 본 명세서의 실시예들을 통해서 본 발명의 다양한 응용을 구현 가능하므로, 본 발명의 상세한 설명에 기재된 임의의 실시예들은 본 발명을 보다 잘 설명하기 위한 예시적인 것으로서 본 발명의 범위가 실시예들로 한정되는 것을 의도하는 것은 아니다.As those skilled in the art can implement various applications of the present invention through the embodiments of the present disclosure, any embodiments described in the detailed description of the present invention are illustrative for better understanding of the present invention. It is not intended that the scope be limited to the embodiments.
본 명세서에서 표현되는 각 기능부는 본 발명 구현에 대한 예일 뿐이다. 따라서, 본 발명의 다른 구현에서는 본 발명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능부가 사용될 수 있다. 또한, 각 기능부는 순전히 하드웨어 또는 소프트웨어의 구성으로만 구현될 수도 있지만, 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성들의 조합으로 구현될 수도 있다.Each functional unit represented herein is merely an example of an implementation of the present invention. Accordingly, other implementations may be used in other implementations of the invention without departing from the spirit and scope of the invention. In addition, each functional unit may be implemented in purely hardware or software configurations, but may be implemented in a combination of various hardware and software configurations that perform the same functions.
도 1을 참조하여 본 발명에 따른 로봇의 이동 방법의 실시예를 설명한다. An embodiment of a robot moving method according to the present invention will be described with reference to FIG. 1.
본 발명의 일 측면에 따른 로봇의 이동 방법은 (a) 위치인식 표시 관측 단계(S110), (b) 이동방향 및 좌표 계산 단계(S120), (c) 가상벽 충돌 판단 단계(S130)를 포함한다.The robot movement method according to an aspect of the present invention includes (a) position recognition display observation step (S110), (b) moving direction and coordinate calculation step (S120), (c) virtual wall collision determination step (S130). do.
가상벽(Virtual Fence)은 로봇이 넘지 말아야 하는 경계로서, 위치인식 표시를 이용하여 구현 가능하고 가상적인 벽처럼 작용하는 것을 의미한다. 안전영역은 가상벽들로 구성된 내부의 영역을 의미하고, 다각형으로 구현될 수 있다.A virtual fence is a boundary that the robot must not pass over, which means that it can be realized using a position display and act like a virtual wall. The safety zone means an interior zone composed of virtual walls, and may be implemented as a polygon.
예를 들어, 도 4를 참조하면 위치인식 표시(411, 412, 413, 414)를 중심으로 각각 양쪽으로 연장된 가상의 선들(430)이 가상벽으로 동작할 수 있다. For example, referring to FIG. 4, virtual lines 430 extending from both sides of the position recognition marks 411, 412, 413, and 414 may operate as virtual walls.
도 4에서는 위치인식 표시가 가상벽의 중심에 있는 것을 예로 들었으나, 위치인식 표시를 직각의 꼭지점으로 작용하여 안전영역을 구성할 수도 있다.In FIG. 4, the position recognition mark is located at the center of the virtual wall. However, the position recognition mark may act as a vertex at a right angle to configure a safe area.
또한, 도 4에서는 4개의 위치인식 표시를 이용한 4각형의 안전영역을 예로 들었으나, 적어도 3개 이상의 위치인식 표시를 이용하여 다양한 형태의 안전영역을 구성할 수 있다.In addition, in FIG. 4, a four-sided safety region using four position recognition marks is taken as an example, but various types of safety regions may be configured by using at least three position recognition marks.
위치인식 표시는 외부에 설치되고, 위치인식 표시로부터의 좌우 방향에 대한 가상 연장선이 가상벽으로 작용하도록 해야 한다. The position recognition mark should be provided externally, and the virtual extension line in the left and right directions from the position indication mark should act as a virtual wall.
즉, 위치인식 표시를 인식하였을 경우 현재 로봇이 안전영역의 내부에 있는지 판단할 수 있어야 한다. That is, when the position recognition mark is recognized, it should be possible to determine whether the robot is currently inside the safety area.
따라서, 가상벽을 구현하기 위한 위치인식 표시는 시각적으로 구현될 경우 위치인식 표시의 상하좌우가 서로 구별될 수 있으면 충분하고, 각 위치인식 표시마다 고유하게(Uniquely) 구별될 필요는 없으므로 도 3 또는 도 9의 경우 모두 가상벽을 구현하기 위한 위치인식 표시로서 사용 가능하다.Therefore, the position recognition display for implementing the virtual wall is sufficient if the upper, lower, left, and right of the position recognition display can be distinguished from each other when visually implemented, it is not necessary to uniquely distinguish each position recognition display (Fig. 3 or In FIG. 9, all of them may be used as a position recognition display for implementing a virtual wall.
가상벽을 구현하기 위해서, 위치인식 표시가 시각적으로 구현될 경우 도 3 또는 도 9와 같은 표시를 도 4와 같이 상기 위치인식 표시로부터 양쪽으로 연장된 가상의 선이 원하는 안전영역의 둘레가 되도록 로봇의 외부에 설치할 수 있다. In order to realize the virtual wall, when the position recognition display is visually implemented, the robot as shown in FIG. 3 or FIG. 9 may have a virtual line extending to both sides from the position recognition display as shown in FIG. Can be installed outside of
도 3의 시각적으로 구현된 위치인식 표시의 예를 참조하면, 위치인식 표시는 아래쪽에서 인식되는 경우와 윗쪽, 오른쪽, 왼쪽에서 인식되는 경우 모두 서로 다르게 구별 가능하다. 이와 같이 상하좌우가 서로 구별 가능한 위치인식 표시로부터의 좌우 방향에 대한 가상 연장선이 가상벽으로서 원하는 안전영역의 변이 되도록, 위치인식 표시를 외부에 설치하여 가상벽 및 안전영역을 구현할 수 있다.Referring to the visually implemented example of the position recognition display of FIG. 3, the position recognition display may be distinguished from both the case recognized from the bottom side and the case recognized from the top side, the right side, and the left side. As described above, the position recognition display may be installed on the outside so that the virtual extension line in the left and right directions from the position recognition display in which the top, bottom, left and right are distinguishable from each other may be the side of the desired safety region, thereby realizing the virtual wall and the safety region.
도 3의 시각적으로 구현된 위치인식 표시 및 도 6의 설치 예를 참조하면, 도 3의 시각적으로 구현된 위치인식 표시의 아랫 방향을 항상 도 6과 같이 안전영역의 내부를 향하도록 외부에 설치하여 가상벽 및 안전영역을 구현할 수 있다.Referring to the visually implemented position recognition display of FIG. 3 and the installation example of FIG. 6, the lower direction of the visually implemented position recognition display of FIG. 3 is always installed to face the inside of the safety area as shown in FIG. 6. Virtual walls and safe areas can be implemented.
위치인식 표시가 시각적으로 관측될 수 있도록 표시되는 경우 적외선과 같은 특정 광(光)에 의해 관측될 수 있도록 특정 재료에 의해 표시될 수 있고, 적외선 카메라, 가시광선 카메라, 적외선 수광부 중 어느 하나에 의해 관측될 수 있다.Where the location indication is displayed so that it can be visually observed, it can be displayed by a specific material so that it can be observed by a specific light such as infrared light, and by any one of an infrared camera, a visible light camera, and an infrared light receiving unit. Can be observed.
또는, 이동하는 로봇이 안전영역을 위한 가상벽을 판단할 수 있으면 상기 위치인식 표시가 될 수 있으므로, 시각적인 표시가 아니더라도 무선 통신 수단, 초음파 수신 수단으로 관측될 수 있다. Alternatively, if the moving robot can determine the virtual wall for the safe area, the position recognition display can be performed. Therefore, the moving robot can be observed as the wireless communication means or the ultrasonic receiving means even if the visual indication is not performed.
예를 들어, 로봇으로부터 위치인식 표시의 거리 및 상기 위치인식 표시를 중심으로 한 가상벽의 수직 벡터와 로봇의 각도를 알면 로봇의 상대적인 이동방향 및 상대적 좌표를 알 수 있으므로, 위치인식 표시는 무선 통신 수단 또는 초음파 수신 수단으로도 관측될 수 있다.For example, if the distance of the position recognition mark from the robot and the vertical vector of the virtual wall and the angle of the robot with respect to the position indication mark are known, the relative movement direction and the relative coordinates of the robot can be known. It can also be observed by means or by means of ultrasonic reception.
위치인식 표시가 무선 통신 수단으로 관측되는 경우, 상기 위치인식 표시는 비콘(Beacon)으로 구현 가능하며, 미리 로봇과 시간 동기화를 거친 후 미리 설정된 전파를 송신할 수 있다. 이 경우, 로봇은 비콘에서 수신된 전파를 이용하여 상기 비콘에 대한 로봇의 상대적인 이동방향 및 상대적 좌표를 알 수 있다. 이 방법은 종래 기술에 관한 것이므로 본 명세서에서는 자세히 서술하지 않는다.When the location recognition display is observed by the wireless communication means, the location recognition display may be implemented as a beacon, and after preset time synchronization with the robot, may transmit a preset radio wave. In this case, the robot may know the relative movement direction and relative coordinates of the robot with respect to the beacon by using the radio wave received from the beacon. This method is related to the prior art and is not described in detail herein.
도 4를 참조하면, 로봇은 가상벽(430)으로 둘러싸인 안전영역(450)내를 자유로이 이동하다가, 가상벽(430) 쪽으로 이동(421)하는 경우 외부에 설치된 위치인식 표시(411, 412, 413, 414)를 관측할 수 있다.Referring to FIG. 4, when the robot moves freely in the safety area 450 surrounded by the virtual wall 430, and moves 421 toward the virtual wall 430, position recognition marks 411, 412, and 413 installed outside are provided. , 414).
로봇의 이동 중에 위치인식 관측부로부터 외부에 설치된 위치인식 표시가 관측되면 로봇은 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산한다. When the position recognition display installed outside from the position recognition observation unit is observed during the movement of the robot, the robot calculates the relative movement direction and relative coordinates of the robot with respect to the position recognition display.
도 5를 참조하면, 로봇의 현재 위치와 위치인식 관측부에 관측된 위치 인식 표시의 위치를 이용하여 상대적인 좌표를 계산한다.Referring to FIG. 5, relative coordinates are calculated using the current position of the robot and the position of the position recognition mark observed in the position recognition observation unit.
도 5를 참조하면 로봇(520)은 도 5 (a)의 위치에서 도 5 (b)로 위치인식 표시(510)에 의해 형성되는 가상벽(530)에 가까워지는 방향으로 이동할 수 있다.Referring to FIG. 5, the robot 520 may move from a position of FIG. 5 (a) to a direction closer to the virtual wall 530 formed by the position recognition display 510 from FIG. 5 (b).
로봇은 현재 이동부에 의한 속도를 계산하여 위치인식 표시(510)에 의해 형성되는 가상벽(530)에 부딪히는 시간을 계산할 수 있다.The robot may calculate the time to hit the virtual wall 530 formed by the position recognition display 510 by calculating the speed by the current moving unit.
도 5 (a)의 경우, 가상벽(530)에 부딪히는 시간이 미리 설정된 제 1 시간을 넘는다면 로봇(520)은 현재 가상벽(530)을 충돌하지 않을 것으로 판단하여, 이동 방향을 변환하지 않는다.In the case of FIG. 5A, if the time to hit the virtual wall 530 exceeds the preset first time, the robot 520 determines that the current virtual wall 530 is not colliding, and does not change the moving direction. .
로봇(520)이 같은 방향으로 계속 이동하여 도 5 (b)와 같은 경우, 가상벽(530)에 부딪히는 시간이 미리 설정된 제 1 시간 이내가 되어 로봇(520)은 현재 가상벽(530)을 충돌할 것으로 판단한다. When the robot 520 continues to move in the same direction as shown in FIG. 5B, the time that the robot 520 hits the virtual wall 530 is within a preset first time, and the robot 520 collides with the current virtual wall 530. I think I will.
로봇(520)이 가상벽(530) 충돌을 판단하면, 가상벽(530)을 충돌하지 않고 계속 안전영역으로 이동할 수 있도록 이동방향을 변환할 수 있다.When the robot 520 determines that the virtual wall 530 collides, the robot 520 may change the moving direction so that the virtual wall 530 may continue to move to the safe area without colliding with the virtual wall 530.
이 경우, 로봇(520)은 가상벽(530)으로부터 멀어지는 방향으로 이동방향을 결정할 수 있다.In this case, the robot 520 may determine the moving direction in a direction away from the virtual wall 530.
예를 들어, 가상벽에 충돌할 경우 변환되는 이동방향은 변환 전의 이동 방향에서 일정 각도 좌회전 또는 우회전하는 방향으로 일정하게 미리 설정할 수 있다.For example, the moving direction to be converted when colliding with the virtual wall may be set in advance in a direction to rotate left or right by a certain angle from the moving direction before the conversion.
이 경우, 회전 방향은 가상벽과 로봇의 이동방향이 이루는 각도를 이용하여 결정할 수 있다.In this case, the rotation direction may be determined using an angle formed between the virtual wall and the moving direction of the robot.
예를 들어, 도 5 (c)와 같이 가상벽(530)이 로봇(520) 이동방향의 왼쪽에 있고 로봇(520)이 상기 가상벽(530)에 충돌할 것으로 판단되면 로봇(520)은 우회전하고, 도 5 (d)와 같이 가상벽(530)이 로봇(520) 이동방향의 오른쪽에 있고 로봇(520)이 상기 가상벽(530)에 충돌할 것으로 판단되면 로봇(520)은 좌회전하도록 결정할 수 있다.For example, as shown in FIG. 5C, when the virtual wall 530 is on the left side of the moving direction of the robot 520 and the robot 520 is determined to collide with the virtual wall 530, the robot 520 turns right. If the virtual wall 530 is to the right of the robot 520 moving direction and the robot 520 collides with the virtual wall 530 as shown in FIG. 5D, the robot 520 determines to turn left. Can be.
회전 각도는 일정 각도를 미리 설정하거나, 일정 각도 범위에서 랜덤하게 결정되로록 설정할 수 있고, 이 경우 가상벽과 로봇의 상대적 이동 방향과의 각도를 이용하여 결정할 수 있다.The rotation angle may be set in advance, or set to be randomly determined in a predetermined angle range, and in this case, the rotation angle may be determined using an angle between the virtual wall and the relative moving direction of the robot.
도 7을 참조하면, 로봇은 가상벽 A(741) 쪽으로 이동(710)하다가 가상벽 A(741)와의 충돌이 판단되고 이동방향을 변환하여 다시 이동(720)함에 따라 다른 가상벽 B(742)와의 충돌이 다시 판단될 수 있다.Referring to FIG. 7, while the robot moves 710 toward the virtual wall A 741, a collision with the virtual wall A 741 is determined, the robot moves to another virtual wall B 742 as the moving direction is changed again. Collision with can be determined again.
이 때, 이동방향이 다시 가상벽 A(741) 쪽으로 결정되는 경우(731) 로봇은 가상벽 A(741)와 가상벽 B(742)를 반복할 수 있다. 따라서, 변환되는 이동방향은 로봇의 우회전시 이동 방향이 가상벽의 수직 면벡터(Surface Vector)를 넘지 않도록 변환되는 이동 방향의 회전 각도를 결정할 수 있다.In this case, when the moving direction is determined again toward the virtual wall A 741 (731), the robot may repeat the virtual wall A 741 and the virtual wall B 742. Accordingly, the converted movement direction may determine the rotation angle of the converted movement direction such that the movement direction does not exceed the vertical surface vector of the virtual wall when the robot rotates to the right.
도 2를 참조하여 본 발명에 따른 이동형 로봇을 설명한다.A mobile robot according to the present invention will be described with reference to FIG. 2.
본 발명에 따른 이동형 로봇은 위치인식 관측부(210), 가상벽 판단부(220), 이동부(230)를 포함한다.The mobile robot according to the present invention includes a position recognition observer 210, a virtual wall determiner 220, and a mover 230.
위치인식 관측부(210)는 외부에 설치된 위치인식 표시를 관측하여 전기적 신호로 변환한 결과를 가상벽 판단부(220)로 전달한다.The position recognition observer 210 observes the position recognition display installed outside and transmits the result of the conversion to the virtual wall determination unit 220.
위치인식 표시는 시각적으로 관측될 수 있도록 표시되거나 적외선과 같은 특정 광(光)에 의해 관측될 수 있도록 특정 재료에 의해 표시될 수 있고, 적외선 카메라, 가시광선 카메라, 적외선 수광부 중 어느 하나에 의해 관측될 수 있다. 위치인식 표시는 로봇이 안전영역의 구분 및 가상벽의 방향을 구분할 수 있도록 상하좌우가 구별되도록 표시될 수 있다.The location indication may be displayed to be visually observed or may be displayed by a specific material such that it may be observed by a specific light such as infrared light, and may be viewed by any one of an infrared camera, a visible light camera, and an infrared light receiving unit. Can be. Position recognition display may be displayed so that the top, bottom, left and right are distinguished so that the robot can distinguish the safe zone and the direction of the virtual wall.
가상벽 판단부(220)는 관측된 위치인식 표시가 변환된 전기적 신호를 통해 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하여 로봇이 안전영역 내에 있는지 또는 로봇의 이동속도를 계산하여 가상벽에 충돌할지 여부를 판단한다.The virtual wall determination unit 220 calculates the relative movement direction and the relative coordinates of the robot with respect to the position recognition display through the converted electrical signal, and calculates whether the robot is in a safe area or the movement speed of the robot. Determine whether to collide with the virtual wall.
가상벽 판단부(220)는 가상벽 충돌 여부를 판단할 때 로봇의 이동속도를 고려하여 제 1시간 이내에 가상벽에 충돌할지를 판단하고, 가상벽 충돌로 판단될 경우 이동방향을 변환시키는 이동 제어부(240)를 더 포함할 수 있다.The virtual wall determination unit 220 determines whether to collide with the virtual wall within the first time in consideration of the moving speed of the robot when determining whether the virtual wall collides, and if it is determined that the virtual wall collision, the moving control unit ( 240 may be further included.
가상벽 판단부(220)는 가상벽 충돌로 판단될 경우 이동 제어부(240)에 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 전달하고, 이동 제어부(240)는 로봇의 상대적 이동 방향 및 상대적 좌표를 이용하여 가상벽에 충돌하지 않도록 로봇의 이동방향을 변환시킬 수 있다.The virtual wall determination unit 220 transmits the relative movement direction and relative coordinates of the robot to the position recognition display to the movement control unit 240 when it is determined that the virtual wall collision, the movement control unit 240 and the relative movement direction of the robot The relative coordinates can be used to change the direction of movement of the robot so that it does not collide with the virtual wall.
또한, 가상벽 판단부(220)는 관측된 상기 위치인식 표시를 미리 설정된 홈 표시로 판단하는 경우, 미리 설정된 행위를 하도록 로봇을 제어할 수 있다.In addition, when the virtual wall determination unit 220 determines the observed position recognition display as a preset home display, the virtual wall determination unit 220 may control the robot to perform a preset action.
도 8을 참조하여 설명하면, 로봇(840)은 시각적으로 구현된 위치인식 표시들(811~814)로 형성된 안전영역(820)을 자유로이 이동하다가, 미리 설정된 홈 표시(815)를 관측하는 경우 상기 홈 표시(815)가 위치한 곳으로 이동하여 충전을 하도록 설정되거나, 일정 시간 머무르며 특정 컨텐츠를 플레이 하는 등의 미리 설정된 행위를 할 수 있다. Referring to FIG. 8, when the robot 840 freely moves the safety area 820 formed of the position recognition marks 811 to 814 visually embodied, the robot 840 observes the preset home mark 815. The home display 815 may be set to move to a location where the home display 815 is located or to perform a predetermined action such as playing a specific content while staying for a predetermined time.
홈 표시는 위치인식 표시와 구별 가능하면 그 종류를 한정하지 않는다. 또한, 홈 표시를 관측한 경우에 수행하는 행위 또한 다양한 응용을 가질 수 있고 그 종류를 한정하지 않는다.The home display is not limited in kind as long as it can be distinguished from the location recognition display. In addition, the acts performed when the home display is observed may also have various applications and do not limit the kind thereof.
상기 홈 표시는 사용자의 응용에 의하여 서로 구별 가능한 제1 홈 표시 및 제2 홈 표시의 복수의 홈 표시로도 구현 가능하며, 각 홈 표시에 따라 미리 설정된 제1 행위 또는 제 2 행위를 하도록 로봇을 설정할 수 있는 것은 당연하다.The home display may be implemented as a plurality of home displays of the first home display and the second home display, which can be distinguished from each other by the application of the user, and the robot may be configured to perform the first or second action preset according to each home display. Naturally, you can set it.
이동 제어부(240)는 로봇이 이동방향을 변환시킬 때, 가상벽 충돌 예정에 따른 로봇의 이동방향 변환은 가상벽으로부터 멀어지는 방향일 수 있고, 가상벽과 로봇의 상대적 이동 방향과의 각도 또는 가상벽의 로봇의 상대적 이동 방향에 대한 위치 중 적어도 어느 하나를 이용하여 이동방향을 변환시킬 수 있다.When the robot converts the movement direction, the movement control unit 240 may change the movement direction of the robot according to the virtual wall collision schedule, and may be a direction away from the virtual wall, and the angle or the virtual wall between the virtual wall and the relative movement direction of the robot. The movement direction may be converted by using at least one of positions with respect to the relative movement direction of the robot.
이동부(230)는 바퀴, 이족 보행 다리, 무한궤도 등 로봇을 이동시키는 수단을 의미하며 특별히 그 종류를 한정하지 않는다.The moving unit 230 means a means for moving the robot, such as a wheel, biped walking leg, a caterpillar, and the like.
본 발명의 이해를 돕기 위해 설명된 실시예들에서 사용된 특정 용어들이 본 발명을 한정하는 것은 아니다. 본 발명은 통상의 기술자들에게 당연한 모든 구성 요소 및 동등한 가치를 갖는 모든 구성 요소를 포함할 수 있다.Certain terms used in the embodiments described in order to facilitate understanding of the present invention do not limit the present invention. The present invention may include all components that are natural to those skilled in the art and all components having equivalent values.
Claims (14)
- (a) 외부에 설치된 위치인식 표시를 적어도 하나 이상 관측하는 단계;(a) observing at least one or more position indications installed outside;(b) 상기 위치인식 표시를 이용하여 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하는 단계; (b) calculating a relative movement direction and relative coordinates of the robot with respect to the position indication display using the position indication display;(c) 이동속도를 계산하여 제 1 시간 이내에 상기 상대적 이동 방향 및 상기 상대적 좌표에 따라 가상벽 충돌 여부를 판단하는 단계;(c) determining a virtual wall collision based on the relative direction of movement and the relative coordinates within a first time by calculating a movement speed;를 포함하는 로봇의 이동 방법Robot movement method including
- 제 1항에 있어서, The method of claim 1,(d) 상기 (c) 단계에서 상기 가상벽 충돌로 판단되는 경우, 상기 이동방향을 변환하는 단계(d) converting the moving direction when it is determined that the virtual wall collides in the step (c);를 더 포함하는 로봇의 이동 방법Moving method of the robot further including
- 제 2항에 있어서,The method of claim 2,상기 (d) 단계에서, In step (d),변환되는 이동방향은 상기 가상벽으로부터 멀어지는 방향인 것을 특징으로 하는 로봇의 이동 방법The moving direction which is converted is a direction away from the virtual wall
- 제 3항에 있어서, The method of claim 3, wherein상기 (d) 단계에서, In step (d),변환되는 이동방향은, 상기 가상벽과 상기 상대적 이동 방향과의 각도 또는 상기가상벽의 상기 상대적 이동 방향에 대한 위치 중 적어도 어느 하나를 이용하여 변환되는 이동방향인 것을 특징으로 하는 로봇의 이동 방법The moving direction to be converted is a moving direction which is converted using at least one of an angle between the virtual wall and the relative moving direction or a position with respect to the relative moving direction of the virtual wall.
- 제 1항에 있어서,The method of claim 1,상기 위치인식 표시는 시각적으로 상하좌우가 구별되는 것을 특징으로 하는 로봇의 이동 방법The position recognition display method of moving the robot, characterized in that visually distinguished up, down, left and right
- 제 1항에 있어서,The method of claim 1,상기 (b) 단계는, In step (b),로봇으로부터 상기 위치인식 표시의 거리 및 상기 위치인식 표시를 중심으로 한 상기 가상벽의 수직 벡터와 상기 로봇의 각도를 이용하여 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하는 것을 특징으로 하는 로봇의 이동 방법The relative movement direction and relative coordinates of the robot with respect to the position recognition display are calculated using the distance of the position recognition display from the robot and the vertical vector of the virtual wall centered on the position recognition display and the angle of the robot. Robot movement method
- 제 1항에 있어서, The method of claim 1,상기 (b) 단계는, In step (b),적외선 카메라, 가시광선 카메라, 적외선 수광 수단, 무선 통신 수단, 초음파 수신 수단 중 어느 하나에 의해 관측되는 것을 특징으로 하는 로봇의 이동 방법Method of moving the robot, characterized in that observed by any one of an infrared camera, visible light camera, infrared light receiving means, wireless communication means, ultrasonic receiving means
- 외부에 설치된 위치인식 표시를 적어도 하나 이상 관측하는 위치인식 관측부; A position recognition observation unit for observing at least one or more position recognition marks installed outside;상기 위치인식 표시를 이용하여 상기 위치인식 표시에 대한 로봇의 상대적 이동 방향 및 상대적 좌표를 계산하고, 이동속도를 계산하여 제 1 시간 이내에 가상벽 충돌 여부를 판단하는 가상벽 판단부; 및A virtual wall determination unit configured to calculate a relative movement direction and relative coordinates of the robot with respect to the position recognition display by using the position recognition display, calculate a moving speed, and determine whether a virtual wall collides within a first time; And로봇을 이동시키는 이동부;A moving unit for moving the robot;를 포함하는 이동형 로봇Mobile robot including
- 제 8항에 있어서,The method of claim 8,가상벽 충돌로 판단되는 경우 상기 이동방향을 변환하는 이동 제어부를 더 포함하는 이동형 로봇If it is determined that the virtual wall collision mobile robot further comprises a movement control unit for changing the movement direction
- 제 9항에 있어서, The method of claim 9,상기 이동 제어부는 상기 가상벽으로부터 멀어지는 방향으로 변환되는 이동방향을 결정하는 것을 특징으로 하는 이동형 로봇The movement controller determines a movement direction converted into a direction away from the virtual wall.
- 제 10항에 있어서, The method of claim 10,상기 이동 제어부는, The movement control unit,상기 가상벽과 상기 상대적 이동 방향과의 각도 또는 상기 가상벽의 상기 상대적 이동 방향에 대한 위치 중 적어도 어느 하나를 이용하여 변환되는 이동방향을 결정하는 것을 특징으로 하는 이동형 로봇A moving robot which determines a moving direction to be converted using at least one of an angle between the virtual wall and the relative moving direction or a position with respect to the relative moving direction of the virtual wall.
- 제 8항에 있어서,The method of claim 8,상기 위치인식 표시는 시각적으로 상하좌우가 구별되는 것을 특징으로 하는 이동형 로봇The position recognition display is a mobile robot, characterized in that visually distinguished up, down, left and right
- 제 8항에 있어서, The method of claim 8,상기 위치인식 관측부는, The position recognition observation unit,적외선 카메라, 가시광선 카메라, 적외선 수광 수단 무선 통신 수단, 초음파 수신 수단 중 어느 하나를 포함하는 이동형 로봇A mobile robot comprising any one of an infrared camera, a visible light camera, an infrared light receiving means, a wireless communication means, and an ultrasonic wave receiving means.
- 제 8항에 있어서, The method of claim 8,상기 가상벽 판단부가,The virtual wall determination unit,관측된 상기 위치인식 표시를 미리 설정된 홈 표시로 판단하는 경우, 미리 설정된 행위를 하도록 로봇을 제어하는 것을 특징으로 하는 이동형 로봇In the case of determining the observed position recognition display as a preset home display, the robot may be controlled to perform a preset action.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120111041A KR20140045025A (en) | 2012-10-08 | 2012-10-08 | Mobile robot and mthod for moving of mobile robot using virtual fence |
KR10-2012-0111041 | 2012-10-08 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014058161A1 true WO2014058161A1 (en) | 2014-04-17 |
Family
ID=50477591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2013/008432 WO2014058161A1 (en) | 2012-10-08 | 2013-09-17 | Mobile robot and movement method for mobile robot using virtual wall |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20140045025A (en) |
WO (1) | WO2014058161A1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108177162A (en) * | 2016-12-08 | 2018-06-19 | 发那科株式会社 | The interference region setting device of mobile robot |
CN108803589A (en) * | 2017-04-28 | 2018-11-13 | 深圳乐动机器人有限公司 | Robot virtual wall system |
WO2019117497A1 (en) * | 2017-12-14 | 2019-06-20 | 한국원자력연구원 | Water surface robot for spent fuel inspection and inspection method |
CN110347152A (en) * | 2019-06-11 | 2019-10-18 | 深圳拓邦股份有限公司 | Virtual wall setting method, system and device |
CN111750873A (en) * | 2019-03-26 | 2020-10-09 | 东元电机股份有限公司 | Mobile platform picture data correction system |
WO2021012501A1 (en) * | 2019-07-23 | 2021-01-28 | 珠海市一微半导体有限公司 | Method for robot to determine whether same collides with virtual wall, and chip and intelligent robot |
WO2022257809A1 (en) * | 2021-06-09 | 2022-12-15 | 丰疆智能科技股份有限公司 | Automatic generation method and apparatus for navigation virtual wall, and electronic device and storage medium |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106182044B (en) * | 2015-05-07 | 2021-04-13 | 张周新 | Electronic fence |
CN107992060B (en) * | 2018-01-19 | 2021-08-06 | 广东美的智能机器人有限公司 | Path planning method and system for multiple mobile robots |
CN110450157A (en) * | 2019-08-07 | 2019-11-15 | 安徽延达智能科技有限公司 | A kind of robot automatic obstacle-avoiding system |
KR20230011698A (en) * | 2021-07-14 | 2023-01-25 | 엘지전자 주식회사 | Moving Robot |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000031836A (en) * | 1998-11-10 | 2000-06-05 | 윤종용 | Device and method for preventing collision by using camera |
JP2004524981A (en) * | 2001-02-16 | 2004-08-19 | ザ プロクター アンド ギャンブル カンパニー | Obstacle handling system for robots |
KR20090025822A (en) * | 2007-09-07 | 2009-03-11 | (주)로봇에버 | Method and position data generator for self-localization of robot by using landmark and wireless lan, and robot by using same |
-
2012
- 2012-10-08 KR KR1020120111041A patent/KR20140045025A/en not_active Application Discontinuation
-
2013
- 2013-09-17 WO PCT/KR2013/008432 patent/WO2014058161A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000031836A (en) * | 1998-11-10 | 2000-06-05 | 윤종용 | Device and method for preventing collision by using camera |
JP2004524981A (en) * | 2001-02-16 | 2004-08-19 | ザ プロクター アンド ギャンブル カンパニー | Obstacle handling system for robots |
KR20090025822A (en) * | 2007-09-07 | 2009-03-11 | (주)로봇에버 | Method and position data generator for self-localization of robot by using landmark and wireless lan, and robot by using same |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108177162A (en) * | 2016-12-08 | 2018-06-19 | 发那科株式会社 | The interference region setting device of mobile robot |
US10675759B2 (en) | 2016-12-08 | 2020-06-09 | Fanuc Corporation | Interference region setting apparatus for mobile robot |
DE102017128543B4 (en) | 2016-12-08 | 2022-02-03 | Fanuc Corporation | NOISE ZONE ADJUSTMENT DEVICE FOR A MOBILE ROBOT |
CN108803589A (en) * | 2017-04-28 | 2018-11-13 | 深圳乐动机器人有限公司 | Robot virtual wall system |
WO2019117497A1 (en) * | 2017-12-14 | 2019-06-20 | 한국원자력연구원 | Water surface robot for spent fuel inspection and inspection method |
CN111750873A (en) * | 2019-03-26 | 2020-10-09 | 东元电机股份有限公司 | Mobile platform picture data correction system |
CN110347152A (en) * | 2019-06-11 | 2019-10-18 | 深圳拓邦股份有限公司 | Virtual wall setting method, system and device |
CN110347152B (en) * | 2019-06-11 | 2022-08-16 | 深圳拓邦股份有限公司 | Virtual wall setting method, system and device |
WO2021012501A1 (en) * | 2019-07-23 | 2021-01-28 | 珠海市一微半导体有限公司 | Method for robot to determine whether same collides with virtual wall, and chip and intelligent robot |
US12042108B2 (en) | 2019-07-23 | 2024-07-23 | Amicro Semiconductor Co., Ltd. | Method for robot to judging whether the robot collides with virtual wall, chip and intelligent robot |
WO2022257809A1 (en) * | 2021-06-09 | 2022-12-15 | 丰疆智能科技股份有限公司 | Automatic generation method and apparatus for navigation virtual wall, and electronic device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR20140045025A (en) | 2014-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2014058161A1 (en) | Mobile robot and movement method for mobile robot using virtual wall | |
WO2021118013A1 (en) | Crane collision prevention apparatus and method | |
WO2011059296A2 (en) | Robot cleaner and method for controlling same | |
WO2012157951A2 (en) | Method for controlling component for network device | |
WO2016208838A1 (en) | Method and system for providing indoor positioning service | |
WO2012008703A2 (en) | Robot cleaner and controlling method of the same | |
JP5946428B2 (en) | Mobile robot system | |
CN107340768A (en) | A kind of paths planning method of intelligent robot | |
JP2012137909A (en) | Movable body remote control system and control program for the same | |
WO2017099479A1 (en) | Internet-of-things system for recognizing user behavior and controlling things | |
CN110146090A (en) | Robot keeps right air navigation aid and the robot of walking | |
WO2022014851A1 (en) | Lidar system capable of setting detection area | |
KR20160120841A (en) | Smart cleaning system and method using a cleaning robot | |
WO2016076467A1 (en) | System and method for moving robot by using pointer | |
EP4377760A1 (en) | System and method for rf based robot localization | |
WO2019194415A1 (en) | Mover robot system and controlling method for the same | |
WO2017171155A1 (en) | Disaster site robot | |
WO2020184776A1 (en) | Location recognition and movement path setting method using code recognition, unmanned mobility, and operation system | |
WO2019216673A1 (en) | Object guidance system and method for unmanned moving body | |
WO2011096620A1 (en) | Emergency rescue system and location detecting method | |
WO2024143740A1 (en) | Mobile robot device moving to destination and method for operating same | |
WO2015108401A1 (en) | Portable device and control method using plurality of cameras | |
WO2022004950A1 (en) | Machine learning-based automatic indoor map generation system for combining 3d slam point cloud using 3d lidar, data, and hybrid position information | |
KR20080050278A (en) | Automatic charging system for moving robot using infrared sensor and camera and method thereof | |
KR20220064127A (en) | Robots for high-altitude operation and operation methods using them |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13845182 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 13845182 Country of ref document: EP Kind code of ref document: A1 |