KR101235525B1 - Homing navigation method of mobile robot based on vision information - Google Patents
Homing navigation method of mobile robot based on vision information Download PDFInfo
- Publication number
- KR101235525B1 KR101235525B1 KR1020100118115A KR20100118115A KR101235525B1 KR 101235525 B1 KR101235525 B1 KR 101235525B1 KR 1020100118115 A KR1020100118115 A KR 1020100118115A KR 20100118115 A KR20100118115 A KR 20100118115A KR 101235525 B1 KR101235525 B1 KR 101235525B1
- Authority
- KR
- South Korea
- Prior art keywords
- landmark
- traveling robot
- homing
- robot
- target map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3626—Details of the output of route guidance instructions
- G01C21/3644—Landmark guidance, e.g. using POIs or conspicuous other objects
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
본 발명은 시각 정보를 이용한 주행 로봇의 귀소 내비게이션 방법에 관한 것으로, 주행 로봇이 목표 지점에서 단위 움직임을 수행하여 획득한 랜드마크 정보를 이용하여 목표 지도를 생성하는 목표 지도 생성 과정; 및 상기 주행 로봇이 임의의 위치에서 상기 목표 지점으로 돌아가기 위한 방향을 판단하는 귀소 방향 결정 과정을 포함하여 구성된다.The present invention relates to a homing navigation method of a traveling robot using visual information, comprising: a target map generation process of generating a target map using landmark information acquired by the traveling robot performing unit movement at a target point; And a homing direction determination process of determining a direction for the traveling robot to return to the target point at an arbitrary position.
Description
본 발명은 시각 정보를 이용한 주행 로봇의 귀소 내비게이션 방법에 관한 것으로, 보다 상세하게는 시각 정보만을 이용하여 주행 로봇에서 랜드마크까지의 거리 추정이 가능하고, 임의의 위치에서 주행 로봇이 방향 센서를 구비하지 않는 경우에도 랜드마크들의 배열을 이용하여 위치를 정확하게 파악하여 귀소 방향을 결정할 수 있도록 하는 기술에 관한 것이다.The present invention relates to a homing navigation method of a traveling robot using visual information. More specifically, the distance from the traveling robot to a landmark can be estimated using only visual information, and the traveling robot is provided with a direction sensor at an arbitrary position. Even if not, the present invention relates to a technique for determining a return direction by accurately identifying a location using an arrangement of landmarks.
수 많은 곤충과 동물들은 그들만의 고유한 방식을 이용하여 길을 찾고 집으로 돌아간다. 이들은 시각, 후각, 촉각 및 청각 등의 다양한 감각을 사용하는데, 그 중 가장 많이 사용되는 감각 정보는 시각 정보로서, 사막 개미나 꿀벌 등의 곤충, 그리고 쥐 등의 포유류가 시각 정보를 활용한 내비게이션 방법을 보이는 것으로 알려져 있다.Many insects and animals find their way and go home in their own way. They use a variety of senses such as sight, smell, touch, and hearing. The most popular sensory information is visual information, which includes insects such as desert ants, bees, and mammals such as mice. It is known to look.
곤충들이 실제로 어떤 종류의 시각 정보에 초점을 맞추어 어떤 알고리즘을 이용하는지 정확히 알려진 바는 없지만, 다양한 방법이 제안되고 연구되어 왔다. 특히, 스냅샷 모델(snapshot model)을 활용한 이미지 매칭 방법이 널리 연구되어 왔다.It is not known exactly what kind of algorithms insects actually use to focus on what kind of visual information, but various methods have been proposed and studied. In particular, an image matching method using a snapshot model has been widely studied.
그러나 종래의 시각 정보를 활용한 방법은 복잡한 계산을 필요로 하거나, 방향을 판단하기 위해 GPS 등과 같은 별도의 장비를 필요로 한다는 단점이 있다.However, the conventional method using the visual information has the disadvantage of requiring a complicated calculation, or a separate device such as GPS to determine the direction.
따라서 본 발명은 상기와 같은 종래 기술의 문제점을 해결하기 위한 것으로, 시각 정보만을 이용하여 주행 로봇에서 랜드마크까지의 거리 추정이 가능하고, 임의의 위치에서 주행 로봇이 방향 센서를 구비하지 않는 경우에도 랜드마크들의 배열을 이용하여 위치를 정확하게 파악하여 귀소 방향을 결정할 수 있도록 하는 시각 정보를 이용한 주행 로봇의 귀소 내비게이션 방법을 제공하기 위한 것이다. Therefore, the present invention is to solve the above problems of the prior art, it is possible to estimate the distance from the traveling robot to the landmark using only the visual information, even if the traveling robot at any position does not have a direction sensor It is an object of the present invention to provide a homing navigation method for a traveling robot using visual information to accurately determine a location by using an array of landmarks to determine a homing direction.
상기한 목적을 달성하기 위한 본 발명의 일 실시예에 의한 시각 정보를 이용한 주행 로봇의 귀소 내비게이션 방법은, 주행 로봇이 목표 지점에서 단위 움직임을 수행하여 획득한 랜드마크 정보를 이용하여 목표 지도를 생성하는 목표 지도 생성 과정; 및 상기 주행 로봇이 임의의 위치에서 상기 목표 지점으로 돌아가기 위한 방향을 판단하는 귀소 방향 결정 과정을 포함하여 구성된다.In the homing navigation method of a traveling robot using visual information according to an embodiment of the present invention for achieving the above object, a target map is generated using landmark information acquired by a traveling robot performing unit movement at a target point. Goal map generation process; And a homing direction determination process of determining a direction for the traveling robot to return to the target point at an arbitrary position.
여기서, 상기 주행 로봇의 단위 움직임은, 상기 주행 로봇이 단위 거리만큼 이동하기 전후에 주변 환경의 스냅샷을 찍는 것을 의미한다.Here, the unit motion of the traveling robot means to take a snapshot of the surrounding environment before and after the traveling robot moves by a unit distance.
상기 주행 로봇은 상기 단위 움직임을 통해 찍은 두 장의 스냅샷에 찍힌 랜드마크 정보를 이용하여 랜드마크까지의 거리를 추정하며, 특히, 상기 주행 로봇은 상기 두 장의 스냅샷 간의 랜드마크 이동량 측정을 통해 상기 랜드마크까지의 거리를 추정할 수 있다.The driving robot estimates the distance to the landmark by using the landmark information taken on the two snapshots taken through the unit movement, and in particular, the driving robot measures the landmark movement amount between the two snapshots. The distance to the landmark can be estimated.
또한, 상기 목표 지도는 목표 지점에서 랜드마크까지의 거리 및 각도 정보를 포함하는 것이 바람직하다.In addition, the target map preferably includes distance and angle information from the target point to the landmark.
한편, 상기 귀소 방향 결정 과정은, 상기 주행 로봇이 상기 임의의 위치에서 단위 움직임을 수행하여 상기 랜드마크 정보를 획득하는 단계; 및 상기 임의의 위치에서 획득한 랜드마크 정보를 상기 목표 지도 상에 투영하여 상기 주행 로봇의 위치를 추정하는 단계를 포함하여 구성된다.The homing direction determining process may include: obtaining, by the traveling robot, the landmark information by performing unit movement at the arbitrary position; And estimating the position of the traveling robot by projecting landmark information acquired at the arbitrary position on the target map.
여기서, 상기 주행 로봇의 위치를 추정하는 단계는, 상기 임의의 위치에서 획득한 랜드마크 정보를 상기 목표 지도 상에 투영함에 있어서, 랜드마크의 개수만큼 투영 순서를 회전하며 상기 목표 지도 상의 랜드마크에 매치시켜서 투영된 랜드마크 벡터들의 수렴 정도를 판단하고, 가장 유사하게 수렴하는 배열을 선택하여 상기 목표 지점으로의 방향을 결정하는 것이 바람직하다.Here, in the estimating the position of the driving robot, in projecting the landmark information obtained at the arbitrary position on the target map, the projection order is rotated by the number of the landmarks and the landmark on the target map is rotated. It is desirable to determine the degree of convergence of the projected landmark vectors by matching, and select the arrangement that most similarly converges to determine the direction to the target point.
또한, 상기 주행 로봇의 위치를 추정하는 단계는, 상기 랜드마크 벡터들 중 분산이 가장 큰 하나를 제외하고 수렴 정도를 판단하는 것이 바람직하다.In the estimating the position of the robot, it is preferable to determine the degree of convergence except for the one with the largest dispersion among the landmark vectors.
한편, 상기 추정된 랜드마크까지의 거리를 기 설정된 단계로 이산화하여 귀소 방향 결정에 활용할 수도 있다.Meanwhile, the distance to the estimated landmark may be discretized in a predetermined step and used to determine the return direction.
본 발명에 의하면, 복잡한 계산이나 추가적인 장비 없이도 시각 센서 하나만을 이용하여 내비게이션을 구현할 수 있게 되며, 이에 따라 주행 로봇을 보다 저렴하고 효율적으로 구현할 수 있게 된다.According to the present invention, it is possible to implement navigation using only one visual sensor without complicated calculations or additional equipment, and thus it is possible to implement the driving robot cheaper and more efficiently.
또한, 본 발명에 의하면, 많은 양의 시각 정보를 저장할 필요 없이 목표 지점에서의 정보만을 저장하고 이를 현재의 시각 정보와 비교하여 원하는 결과를 얻을 수 있으므로 메모리 측면에서도 큰 이점이 있다.In addition, according to the present invention, it is possible to store only the information at the target point without having to store a large amount of visual information and compare the present information with the current visual information to obtain a desired result, which is a great advantage in terms of memory.
다시 말해, 본 발명은 센서와 메모리, 그리고 정보 처리 측면에서 종래의 내비게이션 기술에 비해 경제적이며, 이를 주행 로봇에 적용할 경우 보다 낮은 비용으로 홈 내비게이션을 구현할 수 있게 된다.In other words, the present invention is economical compared to the conventional navigation technology in terms of sensors, memory, and information processing, and when applied to a traveling robot, home navigation can be realized at a lower cost.
도 1은 본 발명에 의한 시각 정보를 이용한 주행 로봇의 귀소 내비게이션 방법의 흐름도,
도 2는 주행 로봇이 단위 움직임을 수행하여 랜드마크 정보를 획득하는 과정을 설명하기 위한 개념도,
도 3은 본 발명에 의해 생성된 목표 지도의 일 예를 도시하는 도면, 그리고
도 4는 랜드마크 투영 순서의 회전을 통해 귀소 방향을 결정하는 과정을 설명하기 위한 개념도이다.1 is a flowchart of a homing navigation method of a traveling robot using visual information according to the present invention;
2 is a conceptual diagram illustrating a process of obtaining landmark information by a traveling robot performing unit movement;
3 is a diagram illustrating an example of a target map generated by the present invention, and
4 is a conceptual diagram illustrating a process of determining a return direction through rotation of a landmark projection order.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. In the following detailed description of the preferred embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In the drawings, like reference numerals are used throughout the drawings.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 '연결'되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 '간접적으로 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 '포함'한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, in the entire specification, when a part is referred to as being 'connected' to another part, it may be referred to as 'indirectly connected' not only with 'directly connected' . Also, to "include" an element means that it may include other elements, rather than excluding other elements, unless specifically stated otherwise.
본 발명은 사막 개미나 꿀벌 등의 곤충에서 나타나는 이미지 매칭을 통한 내비게이션 방법을 기초로 하며, 특히 랜드마크를 이용한 이미지 매칭 방법에 거리 개념을 도입함으로써 보다 효과적이고 응용력이 높은 귀소 내비게이션 방법을 제안하고자 한다.
The present invention is based on a navigation method through image matching that appears in insects such as desert ants and bees, and in particular, by introducing a distance concept to an image matching method using landmarks, a more effective and highly applicable homing navigation method is proposed. .
본 발명에 의하면, 주행 로봇은 우선 목표 지점에서 랜드마크까지의 거리와 각도를 획득하여 저장해 두고, 이후 임의의 위치에서 목표 지점으로 돌아가고자 하는 경우 임의의 위치에서 동일한 방식으로 랜드마크까지의 거리와 각도를 획득하여 저장한다. 주행 로봇은 임의의 위치에서 획득한 정보를 목표 지점에서 획득한 정보에 투영함으로써 목표 지점으로의 방향을 판단하게 된다.According to the present invention, the traveling robot first obtains and stores the distance and angle from the target point to the landmark, and then, if the user wants to return to the target point from any position, the distance from the arbitrary position to the landmark in the same manner. Obtain and save the angle. The traveling robot determines the direction to the target point by projecting the information acquired at an arbitrary position onto the information obtained at the target point.
이를 위해서는, 시각 정보만을 이용하여 주행 로봇에서 랜드마크까지의 거리를 추정할 수 있어야 하고, 방향 센서를 구비하지 않는 경우에도 랜드마크들의 배열을 이용하여 위치를 추정할 수 있어야 한다.To this end, the distance from the traveling robot to the landmark must be estimated using only visual information, and even if the direction sensor is not provided, the position can be estimated using the arrangement of the landmarks.
본 발명에서는, 시각 정보만을 이용하여 주행 로봇에서 랜드마크까지의 거리를 추정하기 위해 주행 로봇이 단위 움직임을 수행하도록 한다. 여기서, 주행 로봇의 단위 움직임이란, 주행 로봇이 임의의 위치에서 주변 환경의 스냅샷을 찍고 단위 거리만큼 이동한 후 다시 주변 환경의 스냅샷을 찍는 것을 의미한다. 주행 로봇은 단위 움직임을 통해 획득한 두 장의 스냅샷에 찍힌 랜드마크의 정보를 이용하여 주행 로봇으로부터 해당 랜드마크까지의 거리를 추정하게 된다.
In the present invention, the traveling robot performs unit movement to estimate the distance from the traveling robot to the landmark using only visual information. Here, the unit motion of the traveling robot means that the traveling robot takes a snapshot of the surrounding environment at an arbitrary position, moves by a unit distance, and then takes a snapshot of the surrounding environment again. The traveling robot estimates the distance from the traveling robot to the landmark by using the landmark information captured in two snapshots acquired through unit movement.
또한, 주행 로봇은 방향 센서를 사용하지 않고도 위치를 추정하여 목표 지점으로의 방향을 파악하기 위해 랜드마크들의 배열을 이용한다. 구체적으로, 주행 로봇이 임의의 위치에서 획득한 정보를 목표 지점에서 획득한 정보에 투영하는 과정에서 랜드마크 투영 순서를 회전함으로써 추정 위치가 가장 유사하게 수렴하는 배열을 선택하여 목표 지점으로의 방향을 결정하게 된다.
In addition, the traveling robot uses an array of landmarks to estimate the position and determine the direction to the target point without using a direction sensor. Specifically, in the process of projecting the information acquired at an arbitrary position to the information obtained at the target point, the traveling robot selects an arrangement in which the estimated positions converge most similarly by rotating the landmark projection order, and then directs the direction to the target point. Will be decided.
이하, 도 1 내지 도 4를 참조하여, 본 발명에 의한 주행 로봇의 귀소 내비게이션 방법을 보다 상세히 설명한다.
Hereinafter, the homing navigation method of the traveling robot according to the present invention will be described in more detail with reference to FIGS. 1 to 4.
도 1은 본 발명에 의한 시각 정보를 이용한 주행 로봇의 귀소 내비게이션 방법의 흐름도이다.1 is a flowchart of a homing navigation method of a traveling robot using visual information according to the present invention.
도 1에 도시된 바와 같이, 본 발명에 의한 귀소 내비게이션 방법은 크게 목표 지도 생성 과정(S10)과 귀소 방향 결정 과정(S20)을 포함하며, 두 과정은 모두 주행 로봇의 단위 움직임을 무한히 반복하도록 구성된다.As shown in FIG. 1, the homing navigation method according to the present invention includes a target map generation process (S10) and a homing direction determination process (S20), both of which are configured to infinitely repeat the unit motion of the traveling robot. do.
여기서, 주행 로봇의 단위 움직임은 상술한 바와 같이 주행 로봇이 단위 거리만큼 이동하기 전후에 주변 환경의 스냅샷을 찍는 것을 말하는 것으로, 주행 로봇은 두 장의 스냅샷에 찍힌 랜드마크의 정보를 이용하여 해당 랜드마크까지의 거리를 추정한다. 구체적으로, 주행 로봇은 두 장의 스냅샷 간의 랜드마크 이동량을 측정함으로써 주행 로봇으로부터 랜드마크까지의 거리를 측정할 수 있다.
Here, the unit motion of the traveling robot refers to taking a snapshot of the surrounding environment before and after the traveling robot moves by a unit distance as described above, and the traveling robot uses the information of the landmarks captured in the two snapshots. Estimate the distance to the landmark. Specifically, the traveling robot may measure the distance from the traveling robot to the landmark by measuring the amount of landmark movement between two snapshots.
먼저, 목표 지도 생성 과정(S10)에서는 주행 로봇이 목표 지점에서 단위 움직임을 수행하여 랜드마크 정보를 획득하고 획득한 랜드마크 정보를 이용하여 목표 지도를 생성한다. 이때, 목표 지도는 랜드마크까지의 거리 및 각도 정보를 포함한다.
First, in the target map generation process (S10), the driving robot performs unit movement at the target point to obtain landmark information and generates a target map using the acquired landmark information. In this case, the target map includes distance and angle information to the landmark.
도 2는 주행 로봇이 단위 움직임을 수행하여 랜드마크 정보를 획득하는 과정을 설명하기 위한 개념도이다. 2 is a conceptual diagram illustrating a process of obtaining landmark information by a traveling robot performing unit movement.
도 2를 참조하면, C는 주행 로봇이 단위 움직임을 수행하기 이전의 위치를 나타내고, T는 주행 로봇이 단위 움직임을 수행한 후의 위치를 나타낸다. 그리고, 스냅샷으로부터 C에서 랜드마크까지의 각도는 이고, T에서 랜드마크까지의 각도는 임을 알 수 있다. 이 경우, 주행 로봇이 단위 움직임 시 이동하는 단위 거리 d를 알면, C 및 T에서 랜드마크까지의 각도를 사인 법칙에 적용하여 수학식 1에 따라 랜드마크까지의 거리를 추정할 수 있다.
Referring to FIG. 2, C represents a position before the traveling robot performs unit movement, and T represents a position after the traveling robot performs unit movement. And from the snapshot, the angle from C to the landmark is Where the angle from T to the landmark is . In this case, if the traveling robot knows the unit distance d moving during the unit movement, the distance to the landmark can be estimated by applying the angles from C and T to the landmark to the sine law.
위와 같은 방법에 따라, 주행 로봇은 거리 센서나 적외선 센서, 혹은 추가적인 카메라를 이용한 스테레오 비전을 구성하지 않고도 랜드마크까지의 거리를 획득할 수 있게 된다. 다시 말해, 주행 로봇은 전방향 카메라 하나만을 사용하여 랜드마크 정보를 획득하고 이를 이용하여 목표 지도를 생성할 수 있다.
According to the above method, the traveling robot can obtain the distance to the landmark without configuring stereo vision using a distance sensor, an infrared sensor, or an additional camera. In other words, the driving robot may acquire landmark information using only one omnidirectional camera and generate a target map using the same.
도 3은 본 발명에 의해 생성된 목표 지도의 일 예를 도시하는 도면이다.3 is a diagram illustrating an example of a target map generated by the present invention.
도 3을 참조하면, 붉은색 랜드마크는 목표 지도에 저장된 랜드마크의 위치를 나타낸다. 또한, 도 3에 도시된 랜드마크 벡터들은 주행 로봇이 임의의 위치에서 해당 랜드마크들을 보았을 때 만들어진 벡터를 표현한 것이다.
Referring to FIG. 3, a red landmark represents a location of a landmark stored in a target map. In addition, the landmark vectors illustrated in FIG. 3 represent vectors created when the traveling robot views the landmarks at an arbitrary position.
한편, 귀소 방향 결정 과정(S20)은 주행 로봇이 환경 탐색을 마친 후 임의의 위치에서 목표 지점으로 돌아가기 위한 방향을 판단하는 과정이다. On the other hand, the homing direction determination process (S20) is a process of determining the direction for returning to the target point from any position after the running robot has completed the environmental search.
이를 위해, 주행 로봇은 임의의 위치에서 단위 움직임을 수행하여 랜드마크 정보를 획득하고, 획득한 랜드마크 정보를 목표 지도 상에 투영하여 자신의 위치를 추정하고 귀소 방향을 결정하게 된다. 이 때, 주행 로봇은 랜드마크 투영 순서 회전을 통해 별도의 장비 없이도 목표 지점으로의 방향을 정확하게 파악할 수 있다.To this end, the traveling robot obtains landmark information by performing unit movement at an arbitrary location, and projects the acquired landmark information on a target map to estimate its location and determine a return direction. At this time, the traveling robot can accurately grasp the direction to the target point without any equipment through the landmark projection sequence rotation.
주행 로봇이 임의의 위치에서 단위 움직임을 수행하여 랜드마크 정보를 획득하는 방법은 목표 지도 생성 과정(S10)에서 상술한 바와 동일한 바, 이에 대한 상세한 설명은 생략한다.The method of obtaining landmark information by performing the unit movement at an arbitrary position by the traveling robot is the same as described above in the target map generation process S10, and a detailed description thereof will be omitted.
또한, 주행 로봇은 별도의 방향 센서 없이 시각 정보만을 이용하여 랜드마크에 대한 위치를 추정하기 위해, 임의의 위치에서 획득한 랜드마크 정보를 목표 지도 상에 투영함에 있어서 랜드마크의 개수만큼 투영 순서를 회전하며 목표 지도 상의 랜드마크에 매치시켜서 투영된 랜드마크 벡터들의 수렴 정도를 판단하여 가장 유사하게 수렴하는 배열을 선택하여 목표 지점으로의 방향을 결정하게 된다. 또한, 노이즈의 영향과 잘못 추출된 랜드마크로부터 생기는 오류를 줄이기 위해 랜드마크 벡터 중 분산이 가장 큰 하나를 제외하고 수렴점을 계산하는 것이 바람직하다.
Also, in order to estimate the position of the landmark using only visual information without using a direction sensor, the traveling robot may perform the projection order as many as the number of landmarks in projecting the landmark information acquired at an arbitrary position on the target map. By rotating and matching the landmarks on the target map to determine the degree of convergence of the projected landmark vectors, the most similarly convergent array is selected to determine the direction to the target point. In addition, it is desirable to calculate the convergence point except for the one with the largest variance among the landmark vectors, in order to reduce the influence of noise and errors resulting from the incorrectly extracted landmark.
도 4는 랜드마크 투영 순서의 회전을 통해 귀소 방향을 결정하는 과정을 설명하기 위한 개념도이다.4 is a conceptual diagram illustrating a process of determining a return direction through rotation of a landmark projection order.
도 4의 (a)의 경우, (b) 및 (c)에 비해 랜드마크 벡터를 이용한 위치 추정이 도 3에 도시된 랜드마크 벡터와 가장 유사하게 수렴하는 것을 알 수 있다. 이처럼, 랜드마크 투영 순서 회전을 통한 위치 추정은 방향 센서가 없는 경우에도 정확하게 위치를 추정하여 귀소 방향을 판단할 수 있도록 한다. 뿐만 아니라, 스냅샷의 랜드마크 정보에 노이즈가 있거나 랜드마크의 추출에 오류가 있는 경우에도 랜드마크 투영 순서의 회전을 통해 그 영향을 크게 줄일 수 있다는 점에서 효율적이다.
In the case of (a) of FIG. 4, it can be seen that the position estimation using the landmark vector converges most similarly to the landmark vector shown in FIG. 3 as compared with (b) and (c). As such, the position estimation through the rotation of the landmark projection order enables the estimation of the return direction by accurately estimating the position even when there is no direction sensor. In addition, even if there is noise in the landmark information of the snapshot or there is an error in the extraction of the landmark, the effect can be greatly reduced by rotating the landmark projection order.
추가적으로, 단위 움직임을 수행하여 주행 로봇에서 랜드마크까지의 거리를 추정하는 경우, 추정된 거리를 이산화하는 것도 가능하다. 실제 곤충들은 랜드마크까지의 거리를 정확하게 측정하기보다는 자신만의 기준을 가지고 상대적인 멀고 가까운 정도를 판단한다는 점을 감안하여, 본 발명에서도 추정된 거리를 기 설정된 몇 단계로 이산화하여 사용할 수도 있다. 예를 들어, 추정된 거리를 3단계로 이산화하는 경우, 주행 로봇에서 랜드마크까지의 거리를 '멀다/중간/가깝다'로 구분하여 이를 거리 정보로 활용하도록 할 수 있다.
In addition, when estimating the distance from the traveling robot to the landmark by performing unit motion, it is also possible to discretize the estimated distance. In fact, the insects can be used by discretizing the estimated distance in several predetermined steps in the present invention in consideration of determining that the relative distance is close and close with their own criteria rather than accurately measuring the distance to the landmark. For example, in the case of discretizing the estimated distance in three steps, the distance from the running robot to the landmark may be divided into 'far / middle / near' and used as distance information.
본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 본 발명에 따른 구성요소를 치환, 변형 및 변경할 수 있다는 것이 명백할 것이다.The present invention is not limited to the above-described embodiments and the accompanying drawings. It will be apparent to those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
S10: 목표 지도 생성 과정
S20: 귀소 방향 결정 과정S10: Goal Map Generation Process
S20: Return Direction Determination Process
Claims (9)
상기 주행 로봇이 임의의 위치에서 상기 목표 지점으로 돌아가기 위한 방향을 판단하는 귀소 방향 결정 과정을 포함하되,
상기 귀소 방향 결정 과정은,
상기 주행 로봇이 상기 임의의 위치에서 단위 움직임을 수행하여 상기 랜드마크 정보를 획득하는 단계; 및
상기 임의의 위치에서 획득한 랜드마크 정보를 상기 목표 지도 상에 투영하여 상기 주행 로봇의 위치를 추정하는 단계를 포함하며,
상기 주행 로봇의 위치를 추정하는 단계는,
상기 임의의 위치에서 획득한 랜드마크 정보를 상기 목표 지도 상에 투영함에 있어서, 랜드마크의 개수만큼 투영 순서를 회전하며 상기 목표 지도 상의 랜드마크에 매치시켜서 투영된 랜드마크 벡터들의 수렴 정도를 판단하고, 가장 유사하게 수렴하는 배열을 선택하여 상기 목표 지점으로의 방향을 결정하는 것을 특징으로 하는 주행 로봇의 귀소 내비게이션 방법.
A target map generation process of generating a target map by using the landmark information acquired by the driving robot performing unit movement at a target point; And
A homing direction determining process of determining a direction for the traveling robot to return to the target point at an arbitrary position;
The homing direction determination process,
Obtaining, by the traveling robot, the landmark information by performing unit movement at the arbitrary position; And
Estimating the position of the traveling robot by projecting landmark information acquired at the arbitrary position on the target map;
Estimating the position of the traveling robot,
In projecting the landmark information acquired at the arbitrary position on the target map, the projection order is rotated by the number of landmarks and matched to the landmark on the target map to determine the degree of convergence of the projected landmark vectors. And selecting an array that most similarly converges to determine a direction to the target point.
상기 주행 로봇의 위치를 추정하는 단계는,
상기 랜드마크 벡터들 중 분산이 가장 큰 하나를 제외하고 수렴 정도를 판단하는 것을 특징으로 하는 주행 로봇의 귀소 내비게이션 방법.
The method of claim 7, wherein
Estimating the position of the traveling robot,
A homing navigation method for a traveling robot, characterized in that the convergence degree is determined except for the one with the largest dispersion among the landmark vectors.
상기 주행 로봇이 임의의 위치에서 상기 목표 지점으로 돌아가기 위한 방향을 판단하는 귀소 방향 결정 과정을 포함하되,
상기 주행 로봇의 단위 움직임은, 상기 주행 로봇이 단위 거리만큼 이동하기 전후에 주변 환경의 스냅샷을 찍는 것을 의미하고, 상기 주행 로봇은 상기 단위 움직임을 통해 찍은 두 장의 스냅샷에 찍힌 랜드마크 정보를 이용하여 랜드마크까지의 거리를 추정하며,
상기 추정된 랜드마크까지의 거리를 기 설정된 단계로 이산화하여 귀소 방향 결정에 활용하는 것을 특징으로 하는 주행 로봇의 귀소 내비게이션 방법.
A target map generation process of generating a target map by using the landmark information acquired by the driving robot performing unit movement at a target point; And
A homing direction determining process of determining a direction for the traveling robot to return to the target point at an arbitrary position;
The unit motion of the traveling robot means to take a snapshot of the surrounding environment before and after the traveling robot moves by a unit distance, and the driving robot takes landmark information recorded on two snapshots taken through the unit movement. To estimate the distance to the landmark,
Homing navigation method according to claim 1, wherein the distance to the estimated landmark is discretized in a predetermined step and used to determine the homing direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100118115A KR101235525B1 (en) | 2010-11-25 | 2010-11-25 | Homing navigation method of mobile robot based on vision information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100118115A KR101235525B1 (en) | 2010-11-25 | 2010-11-25 | Homing navigation method of mobile robot based on vision information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120056536A KR20120056536A (en) | 2012-06-04 |
KR101235525B1 true KR101235525B1 (en) | 2013-02-20 |
Family
ID=46608655
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100118115A Expired - Fee Related KR101235525B1 (en) | 2010-11-25 | 2010-11-25 | Homing navigation method of mobile robot based on vision information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101235525B1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101439619B1 (en) * | 2012-08-29 | 2014-09-11 | 연세대학교 산학협력단 | Apparatus and method for navigation, and computer readable recording medium storing program for performing the method |
CN102853830A (en) * | 2012-09-03 | 2013-01-02 | 东南大学 | Robot vision navigation method based on general object recognition |
CN103576686B (en) * | 2013-11-21 | 2017-01-18 | 中国科学技术大学 | Automatic guide and obstacle avoidance method for robot |
KR101518752B1 (en) * | 2013-12-10 | 2015-05-11 | 연세대학교 산학협력단 | Visual navigation method and apparatus |
CN105116885B (en) * | 2015-07-16 | 2017-12-05 | 江苏大学 | A kind of Autoamtic bait putting operation ship vision navigation method based on manual identification |
CN116578068A (en) * | 2018-06-15 | 2023-08-11 | 科沃斯机器人股份有限公司 | Robot positioning method, robot, and storage medium |
CN114705205A (en) * | 2022-01-13 | 2022-07-05 | 中通服创立信息科技有限责任公司 | Robot vision line patrol navigation method and vision line patrol robot |
-
2010
- 2010-11-25 KR KR1020100118115A patent/KR101235525B1/en not_active Expired - Fee Related
Non-Patent Citations (2)
Title |
---|
2010 IEEE/RSJ International Conference on Intelligent Robots and Systems 수록 논문(2010.10.22.) * |
2010 IEEE/RSJ International Conference on Intelligent Robots and Systems 수록 논문(2010.10.22.)* |
Also Published As
Publication number | Publication date |
---|---|
KR20120056536A (en) | 2012-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101235525B1 (en) | Homing navigation method of mobile robot based on vision information | |
CN108955718B (en) | Visual odometer and positioning method thereof, robot and storage medium | |
JP6445995B2 (en) | Adaptive mapping using spatial aggregation of sensor data | |
JP6896077B2 (en) | Vehicle automatic parking system and method | |
JP2020502627A5 (en) | ||
JP6288060B2 (en) | Autonomous mobile device, autonomous mobile method and program | |
US8600603B2 (en) | Apparatus and method of localization of mobile robot | |
KR101538775B1 (en) | Apparatus and method for localization using forward images | |
JP5803367B2 (en) | Self-position estimation apparatus, self-position estimation method and program | |
KR101423139B1 (en) | Method for localization and mapping using 3D line, and mobile body thereof | |
WO2016077703A1 (en) | Gyroscope assisted scalable visual simultaneous localization and mapping | |
US20200309534A1 (en) | Systems and methods for robust self-relocalization in a pre-built visual map | |
JP6311695B2 (en) | Autonomous mobile device, autonomous mobile method and program | |
US10296002B2 (en) | Autonomous movement device, autonomous movement method, and non-transitory recording medium | |
JP2011258204A5 (en) | ||
JP2008506953A5 (en) | ||
Yu et al. | Image-based homing navigation with landmark arrangement matching | |
JP7679208B2 (en) | Information processing device, information processing method, and program | |
Gouda et al. | Vision based slam for humanoid robots: A survey | |
US9245343B1 (en) | Real-time image geo-registration processing | |
Vandrish et al. | Towards auv route following using qualitative navigation | |
CN111971149A (en) | Recording medium, information processing apparatus, and information processing method | |
KR102121458B1 (en) | Method for path finding of robot cleaner for automatic charging and robot cleaner using the same | |
KR102091180B1 (en) | A global map synthesis system and method using multiple maps and synthetic reference device thereof | |
JP2022011821A (en) | Information processing device, information processing method and mobile robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20101125 |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20120814 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20130208 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20130214 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20130214 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration | ||
FPAY | Annual fee payment |
Payment date: 20160202 Year of fee payment: 4 |
|
PR1001 | Payment of annual fee |
Payment date: 20160202 Start annual number: 4 End annual number: 4 |
|
LAPS | Lapse due to unpaid annual fee | ||
PC1903 | Unpaid annual fee |
Termination category: Default of registration fee Termination date: 20191125 |