KR100757937B1 - Simultaneous localization and map building method for robot - Google Patents
Simultaneous localization and map building method for robot Download PDFInfo
- Publication number
- KR100757937B1 KR100757937B1 KR1020060060994A KR20060060994A KR100757937B1 KR 100757937 B1 KR100757937 B1 KR 100757937B1 KR 1020060060994 A KR1020060060994 A KR 1020060060994A KR 20060060994 A KR20060060994 A KR 20060060994A KR 100757937 B1 KR100757937 B1 KR 100757937B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- feature point
- mark
- stereo image
- space
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1671—Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
도 1은 일반적인 SLAM의 개념도이다.1 is a conceptual diagram of a general SLAM.
도 2는 일반적인 CEKF SLAM의 개념도이다.2 is a conceptual diagram of a general CEKF SLAM.
도 3은 본 발명에 따른 로봇의 위치추적 및 지도 작성 방법에 대한 제어흐름도이다.3 is a control flowchart of a method for tracking and mapping a robot according to the present invention.
도 4는 도 3의 주행 로봇에서의 스테레오 영상 촬영을 설명하기 위한 도이다.FIG. 4 is a diagram for describing stereo image photographing by the traveling robot of FIG. 3.
도 5는 도 3의 스테레오 영상에 대한 3차원 복원영상을 보인 도이다.FIG. 5 is a diagram illustrating a 3D reconstructed image of the stereo image of FIG. 3.
도 6은 도 4의 3차원 복원영상의 공간 상의 표식의 위치(XB)를 설명하기 위한 도이다.FIG. 6 is a diagram for describing a position X B of a mark in space of the 3D reconstructed image of FIG. 4.
도 7은 도 5의 공간 상의 표식 XB 들을 도시한 도이다.FIG. 7 shows the markers X B on the space of FIG. 5.
도 8은 도 3의 스테레오 영상에서의 특징점 xA , 공간 상의 표식 XB를 설명하기 위한 도이다.FIG. 8 is a diagram for describing a feature point x A and a mark X B in space in the stereo image of FIG. 3.
*도면의 주요 기능에 대한 부호의 설명** Description of the symbols for the main functions of the drawings *
10 : 장애물 20 : 주행 로봇10: obstacle 20: driving robot
21 : 스테레오 카메라21: stereo camera
본 발명은 로봇의 위치 추적(localization) 및 지도 작성(map building) 방법에 관한 것으로, 로봇의 위치 추적과 지도 작성을 동시에 수행하는 방법(Simultaneous Localization And Map building, SLAM)에 관한 것이다.The present invention relates to a method of localization and map building of a robot, and more particularly, to a method of simultaneously performing location tracking and mapping of a robot (SAM).
장애물이 있는 환경에서 움직이는 로봇의 네비게이션(navigation)을 위해서는 자신의 위치를 추적하고, 주위환경에 대한 지도를 작성하는 것이 필수적이다. For navigation of robots moving in an obstacle environment, it is essential to track their location and map the environment.
이는 작성된 지도를 이용하여 로봇의 경로 계획, 객체의 조작 또는 사람과의 통신 등의 작업을 수행할 수 있기 때문이다.This is because the created map can be used to perform tasks such as planning the route of the robot, manipulating objects, or communicating with people.
잘 알려지지 않은 환경에서 네비게이션하기 위해서, 로봇은 자신의 위치를 추적하면서 지도를 작성해야 한다. 그러나, 기본적으로 잡음이 있는 적외선 센서 데이터를 사용하여 위치를 추적하고 지도를 작성하게 되므로 계산에 어려움이 있다.In order to navigate in an unknown environment, a robot must map while tracking its location. However, it is difficult to calculate since the location and map are made using the noisy infrared sensor data.
위치 추적은 여러 센서 정보와 자연 표식(natural landmark) 등을 이용하여 작업환경 내에서 로봇의 절대위치를 파악하는 것을 말한다. 로봇이 주행하는 동안 여러 원인(바퀴와 지면과의 미끄러짐 현상, 바퀴 직경의 변경 등)에 의해 오차가 발생하므로 주행이 진행될수록 로봇의 위치에 오차가 발생하게 되고, 이에 따른 보정이 필요하게 된다.Position tracking refers to identifying the absolute position of the robot in the working environment using various sensor information and natural landmarks. Since the error occurs due to various causes (wheel and ground slip, change of wheel diameter, etc.) while the robot is running, an error occurs at the position of the robot as the driving progresses, and correction is necessary accordingly.
지도 작성은 센서 데이터를 기반으로 하여 자연 또는 인공 표식들을 관측함으로써 환경을 모델링하는 것이며, 이러한 모델링을 통해 로봇은 자신의 경로를 설정하게 된다. 복잡한 환경에 대한 모델링을 수행하기 위해서는 위치추적이 보장되어야만 신뢰할만한 지도를 작성할 수 있게 된다. 따라서, 빠른 시간 내에 지도 작성과 위치추적의 문제를 동시에 수행할 수 있는 방법이 필요하다.Mapping is modeling the environment by observing natural or artificial markers based on sensor data, through which the robot sets its own path. In order to model a complex environment, location tracking must be guaranteed to create a reliable map. Therefore, there is a need for a method that can simultaneously perform the problem of mapping and location tracking in a short time.
본 발명은 전술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 스테레오 영상에 압축 확장 칼만필터(CEKF)를 적용하여 로봇의 위치 추적 및 지도 작성을 보다 효율적으로 동시에 수행할 수 있는 로봇의 위치 추적 및 지도 작성방법을 제공하는 것이다.The present invention is to solve the above-described problems, an object of the present invention is to apply a compression extended Kalman filter (CEKF) to the stereo image to track the location of the robot can be performed more efficiently at the same time to map the robot location tracking And to provide a mapping method.
전술한 목적을 달성하기 위한 본 발명의 로봇의 위치 추적 및 지도 작성 방법은 주행 로봇 전방의 스테레오 영상을 캡쳐하는 단계와, 캡쳐된 스테레오 영상으로부터 특징점을 추출하는 단계와, 캡쳐된 스테레오 영상을 3차원 복원하여 상기 추출된 특징점의 위치 및 공간 상의 표식의 위치를 추출하는 단계와, 추출된 상기 특징점의 위치를 확장칼만필터를 이용하여 매주기 계산하여 상기 특징점의 위치 및 로봇의 위치를 갱신하는 단계와, 추출된 공간 상의 표식을 일정주기마다 확장칼만필터를 이용하여 갱신하여 지도를 작성하는 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a method of tracking and mapping a robot according to an embodiment of the present invention includes capturing a stereo image in front of a traveling robot, extracting feature points from the captured stereo image, and three-dimensionally capturing the captured stereo image. Restoring and extracting the position of the extracted feature point and the position of the marker on the space, and calculating the position of the extracted feature point every week using an extended Kalman filter to update the position of the feature point and the position of the robot; And updating the extracted mark on the extracted space using the Extended Kalman Filter at regular intervals to create a map.
상기 공간 상의 표식의 위치는 상기 특징점의 위치 및 로봇의 위치 갱신시 계산된 부가행렬을 이용하여 갱신되는 것을 특징으로 한다. The position of the mark on the space is updated by using the additional matrix calculated at the time of updating the position of the feature point and the position of the robot.
상기 공간 상의 표식은 3차원 복원 영상에서의 일정 높이 이상의 물체를 대상으로 하며, 위치값은 그 높이에서의 단면이 타원 피팅된 중심점의 2차원 좌표값인 것을 특징으로 한다. The mark on the space is an object of a certain height or more in the three-dimensional reconstructed image, the position value is characterized in that the cross-section at that height is the two-dimensional coordinate value of the elliptical fitting center point.
상기 특징점의 위치값은 3차원 복원영상의 특징점의 3차원 좌표값인 것을 특징으로 한다. The position value of the feature point may be a 3D coordinate value of the feature point of the 3D reconstructed image.
이하에서는 본 발명의 바람직한 실시예를 본 도면을 참조하여 상세하게 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
도 1은 일반적인 SLAM의 개념도이다. 도 1에 도시된 바와 같이, 주행 로봇(2)이 XK -1 위치에서 측정한 표식(1)의 위치 값 ZK -1 은 측정 오차를 가진다. 그리고 XK - 1 에서 주행 입력 UK 에 의해서 주행 로봇(2)이 XK 위치로 주행 시 오차를 가지며, 이 위치에서 주변 표식의 측정값 ZK 또한 오차를 가지게 된다. 이러한 오차는 점점 누적이 되어 결국은 주행 로봇(2)의 위치와 표식(1)의 위치를 정확히 추정을 할 수가 없다. 이러한 것을 막기 위하여 제안된 SLAM(Simultaneous Localization And Map-building ; SLAM)은 사전 지식이 없는 경우 주행 로봇(2)과 표식(1)의 위치를 확률적 방법을 이용하여 동시에 보정을 하는 기술이다.1 is a conceptual diagram of a general SLAM. As shown in FIG. 1, the position value Z K -1 of the
SLAM은 주행 로봇(2)의 주행 입력을 이용하여 주행 로봇(2)의 위치를 추정하는 단계와 센서 측정값을 이용하여 주행 로봇(2)과 표식(1)의 위치를 보정하는 단계로 이루어진다. 주행 로봇(2)의 속도 입력과 센서의 측정값은 오차를 가지기 때문에 확률적 접근을 이용하여 위치를 추정하게 된다. 가장 많이 사용되는 방법은 EKF이다. 하지만, EKF의 경우 상태 벡터의 크기가 커지면, 계산량이 급격히 늘어나 실시간 계산이 불가능한 단점이 있다.The SLAM consists of estimating the position of the traveling
이러한 단점을 보완하기 위해 압축 확장 칼만필터(Compressed Extended Kalman Filter ; 이하 CEKF)가 제안되었다. 이 CEKF는 상태 벡터(X)를 두 그룹으로 분리하여 중요한 그룹(XA)과 중요도가 낮은 그룹(XB)에 대하여 차등적으로 EKF(Extended Kalman Filter ; 이하 EKF)를 적용하여 EKF의 정확도를 유지하면서, 계산량을 줄이는 방법이다.To compensate for this disadvantage, the Compressed Extended Kalman Filter (CEKF) has been proposed. The CEKF separates the state vector (X) into two groups, and differentially applies the Extended Kalman Filter (EKF) to the critical group (X A ) and the less important group (X B ) to improve the accuracy of the EKF. It is a way to reduce the amount of computation while maintaining.
CEKF SLAM은 주행 로봇이 일정 영역에서 오랜 시간 작업을 할 때 표식을 두 그룹(XA, XB)을 분리하여 계산량을 줄이는 방법이다.The CEKF SLAM is a way to reduce the computation by separating the two groups (X A and X B ) from the markers when the robot moves for a long time in a certain area.
CEKF는 상태 벡터(X)를 두 그룹으로 분리하여 중요한 그룹(XA)에 대하여 매주기 EKF를 적용하여 XA와 오차 공분산 행렬(PAA)(XA의 오차)를 갱신하고, 부가 행렬(Auxiliary Matrix)을 계산한다. 그리고 중요도가 낮은 그룹(XB)과 XB의 오차 공분산 행렬(PAB, PBB)(XB의 오차)대해서는 일정 주기 마다 부가 행렬을 이용하여 계산하고, 전체적으로 EKF를 적용하여 상태벡터(X), 오차 공분산 행렬(P)을 갱신하여 준다.CEKF separates the state vector (X) into two groups, updates the X A and the error covariance matrix (P AA ) (error of X A ) by applying the EKF every week to the important group (X A ), and adds the additional matrix ( Calculate Auxiliary Matrix. And the low priority group (X B) and the error covariance matrix of X B (P AB, P BB) (error of X B) for the state a predetermined period calculated by the addition matrix for each, and the whole application the EKF vector (X ), The error covariance matrix (P) is updated.
도 2에 도시된 바와 같이, CEKF SLAM은 주행 로봇(2)이 일정 영역에서 오랜 시간을 작업할 때, 그 영역에 존재하는 표식을 중요 그룹(XA)으로 간주하고 매주기 EKF를 적용하고, 그 외의 지역의 표식은 중요도가 낮은 그룹(XB)으로 간주하여 주행 로봇(2)이 일정 영역을 벗어 날 때 EKF를 적용하여 전체적인 표식에 대하여 갱신을 한다.As shown in FIG. 2, the CEKF SLAM regards the mark existing in the area as an important group (X A ) when the traveling
앞서 언급한 것과 같이 EKF SLAM은 상태 벡터의 크기가 커지면 실시간 계산이 불가능한 단점이 있다. 이러한 단점을 보완하기 위해여 제안된 CEKF SLAM은 일정 영역에서 오랜 시간을 작업을 할 때, 주변의 표식들이 반복적으로 측정이 되기는 표식을 XA 로 분류하고 영역 밖에 존재하는 표식은 측정의 빈도수가 적은 표식을 XB 로 분류한다. 이렇게 분류된 상태 벡터의 XA 에 대해서는 매주기 갱신을 수행하고, XB 에 대해서는 그 영역을 벗어날 때 갱신을 해주어 계산량을 줄인다. 그러므로 주행 로봇이 일정 영역에서 오랜 시간 작업을 하지 않을 때는 CEKF SLAM은 계산 시간 단축 효과가 없고 계산만 복잡해지는 단점을 가진다.As mentioned above, EKF SLAM has a disadvantage in that real-time calculation is impossible when the size of the state vector increases. In order to make up for this shortcoming, the proposed CEKF SLAM categorizes X A as a marker that the surrounding markers are repeatedly measured when working for a long time in a certain area. Classify the marker as X B. The periodic update is performed for X A of the classified state vectors, and the update amount is reduced when X B is out of the range, thereby reducing the amount of computation. Therefore, the CEKF SLAM has no disadvantage in reducing the computation time and complicates the calculation when the traveling robot does not work for a long time in a certain area.
기존에 제안된 CEKF SLAM은 레이저 거리 센서를 사용하였기 때문에, 주변의 표식을 2차원으로 인식하게 된다, 그러므로 평면에서 이동하는 로봇에만 적용이 가능하며, CEKF SLAM을 적용할 때, 위와 같은 일정 영역에서 오랜 시간 작업을 해야 하는 단점이 발생된다.Since the proposed CEKF SLAM uses a laser distance sensor, the surrounding markers are recognized in two dimensions. Therefore, the CEKF SLAM can be applied only to robots moving in a plane. This has the disadvantage of having to work for a long time.
또한, 기존에 제안된 영상 기반 SLAM은 특징점에 대한 구별이 어려워 주행 로봇이 회전하는 경우, SLAM에 사용된 특징점을 다시 관찰하기 힘든 단점이 발생된다.In addition, the conventionally proposed image-based SLAM is difficult to distinguish feature points, so when the driving robot rotates, it is difficult to observe the feature points used in the SLAM again.
따라서, 본 발명에서는 기존의 CEKF SLAM이 가지는 일정 영역에서 오랜 시간 작업해야 되는 단점과 영상만을 사용하였을 경우 특징점에 대한 구별이 어려워 SLAM에 사용된 특징점을 다시 관찰하기 힘든 단점을 해결하고자 한다.Therefore, in the present invention, it is difficult to distinguish the feature points when using only the image and the disadvantage of having to work for a long time in a certain area of the existing CEKF SLAM, and to solve the disadvantages of difficult to observe the feature points used in the SLAM.
본 발명에 따른 스테레오 비전 기반 CEKF SLAM은 기존의 CEKF SLAM과 영상 기반 SLAM의 단점을 보완한 실시간 SLAM 알고리즘으로, 야외의 환경 탐사 로봇, 사무실 써비스 로봇, 미술관 관광 도우미 로봇에 응용이 가능하다.CEKF SLAM based on stereo vision according to the present invention is a real-time SLAM algorithm that supplements the disadvantages of existing CEKF SLAM and image-based SLAM, and can be applied to outdoor environment exploration robots, office service robots, and art gallery tour assistant robots.
본 발명은 다음의 구성요소를 포함한다. The present invention includes the following components.
첫째, 스테레오 영상을 이용하여 CEKF SLAM을 적용하는 데 있어서, 스테레오 영상을 캡쳐한 후 3차원 지형 인식을 하여 일정 높이 이상의 물체를 공간 상의 표식 XB 로 구분하고, 스테레오 영상의 특징점 xA 로 구분하여 CEKF SLAM을 적용한다.First, the method of applying a CEKF SLAM using a stereo image, and then capturing a stereo image by the three-dimensional topography to recognize and distinguish between more than a certain height object to the landmark X B in space, separated by a feature point x A stereo image Apply CEKF SLAM.
둘째, 스테레오 영상 자체의 특징점을 구하여 그 점의 3차원 위치값으로부터 xA 의 위치값을 규정한다.Second, the feature point of the stereo image itself is obtained and the position value of x A is defined from the three-dimensional position value of the point.
셋째, 스테레오 영상으로부터 3차원 복원을 하여 일정 높이 이상의 물체를 공간 상의 표식 XB 로 구분하고, XB 의 위치값은 그 높이에서의 단면을 타원 피팅하여 그 중심점(x,y)로 정의한다.Third, three-dimensional reconstruction from a stereo image is performed to classify objects having a predetermined height or more by the marker X B in space, and the position value of X B is defined as its center point (x, y) by elliptical fitting a cross section at the height.
넷째, 스테레오 영상에서 구한 특징점의 3차원 좌표값을 xA 로 규정하고, xA 를 추적한다.Fourth, the three-dimensional coordinates of the feature points obtained from the stereo images and defined by A x, A x tracks.
다섯째, 전체적인 지도를 작성시, 공간 상의 표식 XB 만을 이용하여 작성한다.Fifth, the overall map is created using only the marker X B in space.
본 발명의 동작을 도 3을 참조하여 살펴보면, 먼저, 단계 S100에서, 스테레 오 카메라로부터 두 개의 영상 즉, 스테레오 영상을 입력받아 캡쳐한다. 이때, 도 4에 도시된 바와 같이, 전방 양측에 각각 설치된 두 대의 스테레오 카메라(21)를 장착한 주행 로봇(20)이 전방 주행로 상의 스테레오 영상을 촬영하여 캡쳐한다.Referring to FIG. 3, the operation of the present invention will be described. First, in operation S100, two images, that is, stereo images are received from a stereo camera and captured. In this case, as shown in FIG. 4, the traveling
그리고, 단계 S101에서 캡쳐된 스테레오 영상으로부터 특징점(xA)를 추출한다. 특징점(xA) 추출 후 단계 S102에서, 캡쳐된 스테레오 영상을 3차원 복원한다. The feature point x A is extracted from the stereo image captured in step S101. In step S102 after the feature point x A extraction, the captured stereo image is three-dimensionally reconstructed.
이때, 도 5에 도시된 바와 같이, 캡쳐된 스테레오 영상을 지형 인식 모델링하여 3차원 복원한다.In this case, as shown in FIG. 5, the captured stereo image is 3D reconstructed by terrain recognition modeling.
그런 후 단계 S103에서, 3차원 복원된 영상으로부터 상기 추출된 특징점(xA)의 위치 및 공간 내의 표식의 위치(XB)를 추출한다. 이때, 도 6 내지 도 8에 도시된 바와 같이, 추출된 공간 내의 표식의 위치(XB)는 3차원 복원 영상에서 일정 높이 이상의 물체(10)를 일정 높이에서의 단면을 타원 피팅하여 그 중심점인 2차원 좌표값(x,y)로 정의된다. 도 7은 상기한 공간 내의 표식(XB)들의 영상을 도시한 것이다. 또 특징점 (xA)의 위치는 공간 내의 표식(XB)의 모서리 등의 특징위치에 대한 좌표값으로 3차원 좌표값으로 정의된다.Then, in step S103, the position of the extracted feature point x A and the position X B of the mark in space are extracted from the 3D reconstructed image. 6 to 8, the position X B of the marker in the extracted space is an elliptical fitting of a cross section at a certain height to an
단계 S104에서, 특징점(xA)의 개수가 2개를 초과하는지를 판단한다. 만약, 단계 S104에서의 판단결과 특징점(xA)의 개수가 2개 이하이면, 단계 S105과 단계 S106에서, EKF를 이용하여 로봇의 이동명령으로부터 로봇의 위치 및 공간 내의 표식의 위치(XB)를 예측하고, 예측된 로봇의 위치 및 공간 내의 표식의 위치(XB)를, 단계 S103에서 추출된 XB를 이용하여 갱신한 후 단계 S100으로 리턴한다.In step S104, it is determined whether the number of feature points x A exceeds two. If, when the determination result the number of feature points (x A) in the step S104 up to two, in step S105 and step S106, the position of the marker in the position and space of the robot by using the EKF from the movement command of the robot (X B) Is predicted, the position of the predicted robot and the position X B of the mark in space are updated using X B extracted in step S103, and then returned to step S100.
한편, 단계 S104에서의 판단결과 특징점(xA)의 개수가 2개를 초과하면, 단계 S107에서, n의 회수 즉, EKF 적용회수를 0회로 설정하고, 단계 S108과 단계 S109에서, EKF를 이용하여 로봇의 이동명령으로부터 로봇의 위치 및 특징점 xA의 위치를 포함하는 XA 및 오차 공분산 행렬 PAA 를 예측하고, 예측된 XA 및 오차 공분산 행렬 PAA 를, 단계 S103에서 추출된 특징점 xA의 위치를 이용하여 갱신한다. 그리고, 단계 S110에서, 갱신된 XA 및 오차 공분산 행렬 PAA를 이용하여 부가행렬을 계산한다.On the other hand, if the number of feature points x A in the determination result in step S104 exceeds two, in step S107, the number of n times, that is, the number of times of EKF application is set to 0, and in steps S108 and S109, the EKF is used. the predicted to x a and the error covariance matrix P AA including the location of the position and the feature point x a of the robot from the movement command of the robot, and the predicted x a and the error covariance matrix P AA, extracted in step S103, a feature point x a Update using the position of. In operation S110, an additional matrix is calculated using the updated X A and the error covariance matrix P AA .
그리고, 단계 S111에서, n의 회수가 20회를 초과하거나, 특징점 xA의 개수가 3개 미만인지를 판단한다. 만약, 단계 S111에서의 판단결과 n의 회수가 20회 이하이거나, 특징점 xA의 개수가 3개 이상이면, 단계 S112에서, 스테레오 영상을 캡쳐하고, 단계 S113에서 n의 회수를 n+1 회로 설정하고, S114에서, 캡쳐된 영상에서 Kanade-Lucas 추적 방법에 의해서 특징점 xA 를 추적한 후 단계 S108 이하의 단계를 수행한다.In step S111, it is determined whether the number of n exceeds 20 times or the number of feature points x A is less than three. If, as a result of the determination in step S111, the number of times n is 20 or less, or the number of feature points x A is three or more, in step S112, a stereo image is captured, and in step S113, the number of n sets n + 1 circuits. In step S114, the feature point x A is tracked by the Kanade-Lucas tracking method in the captured image, and then steps S108 and below are performed.
한편, 단계 S111에서의 판단결과 n의 회수가 20회를 초과하거나, 특징점 xA의 개수가 3회 미만이면, 단계 S115에서, 단계 S118에서 계산된 부가 행렬을 이용하여 공간 상의 표식의 위치(XB), 오차 공분산 행렬 PAB, PBB를 갱신한다. 그런 후 단계 S116에서, 단계 S115에서 갱신된 공간 상의 표식의 위치(XB)를 이용하여 지도를 작성한 후 단계 S100으로 리턴한다.On the other hand, if the number of times n is greater than 20 times or the number of feature points x A is less than 3 times as a result of the determination in step S111, the position (X) of the mark in space using the additional matrix calculated in step S118 in step S115. B ), the error covariance matrices P AB and P BB are updated. Then, in step S116, a map is created using the position X B of the mark on the space updated in step S115, and then the process returns to step S100.
즉, 입력된 스테레오 영상의 3차원 복원 결과를 이용하여 특징점 xA 의 3차원 좌표값을 추출한 후 xA의 개수가 2개 이하이면, EKF를 적용하여 로봇의 이동명령으로부터 로봇의 위치와 공간 상의 표식의 위치(XB)를 예측 및 추출된 공간 상의 표식의 위치를 이용하여 갱신한다. 특징점(xA)의 개수가 3개 이상일 경우, 매주기 얻어지는 스테레오 영상의 특징점 xA 에 EKF를 적용하여 로봇의 이동명령으로부터 로봇의 위치 및 특징점 xA의 위치를 포함하는 XA 및 오차 공분산 행렬 PAA 를 예측 및 추출된 특징점 xA의 위치를 이용하여 갱신하고, 부가 행렬을 계산한다. 스테레오 영상을 재캡쳐하고, 재캡쳐된 스테레오 영상에서 Kanade-Lucas 추적 방법에 의해서 특징점 xA의 위치를 추적한다. xA 의 개수가 2개 이하이거나, EKF회수가 20회 이상일 경우, 부가 행렬을 이용하여 공간 상의 표식의 위치(XB)와 공분산 행렬(PAB, PBB)를 갱신하고, 갱신된 공간 상의 표식의 위치(XB)를 이용하여 지도를 작성한다.That is, after extracting the three-dimensional coordinate values of the feature point x A using the three-dimensional reconstruction result of the input stereo image, if the number of x A is two or less, the EKF is applied to the position and space of the robot from the movement command of the robot. The position X B of the marker is updated using the position of the marker in the predicted and extracted space. A feature point (x A), if the number is three or more, X A, including the position of the point and the characteristic point x A of the robot by applying the EKF the feature point x A of the stereo image is obtained every period from the movement command of the robot and an error covariance matrix of the P AA is updated by using the positions of the predicted and extracted feature points x A , and an additional matrix is calculated. The stereo image is recaptured and the position of the feature point x A is tracked by the Kanade-Lucas tracking method in the recaptured stereo image. If the number of x A is 2 or less, or the number of EKFs is 20 or more, update the position (X B ) and covariance matrix (P AB , P BB ) of the marker in space by using an additional matrix, Create a map using the location of the marker (X B ).
따라서, 본 발명에 따른 스테레오 비전 기반 CEKF SLAM은 스테레오 비전이 특징점의 3차원의 좌표를 측정할 수 있기 때문에, 평면상에서 움직이는 주행 로봇 뿐만 아니라 굴곡이 있는 면에서 주행하는 로봇의 위치 및 지도를 얻을 수 있다. Therefore, since the stereo vision-based CEKF SLAM according to the present invention can measure the three-dimensional coordinates of the feature point of the stereo vision, it is possible to obtain not only the traveling robot moving on the plane but also the position and the map of the robot running on the curved surface. have.
또한, SLAM을 수행하는데 있어서 가장 문제가 되는 계산 시간은 CEKF를 적용하여 해결할 수 있다. 또한, CEKF에 사용되는 표식을 스테레오 영상의 특징점과, 공간 내의 표식 두 가지로 나누어 실시간 계산이 가능할 뿐만 아니라, 스테레오 영상의 3차원 복원 영상으로부터 특징점의 3차원 위치와 공간 상의 표식의 위치를 이용하여 오차에 강인한 특성을 가진다. 또한, CEKF를 적용하였을 경우 발생되는 작업 영역의 제한점은 로봇이 움직이면서 반복적으로 측정되는 영상을 이용하여 해결할 수 있다.In addition, the calculation time that is most problematic in performing SLAM can be solved by applying CEKF. In addition, the markers used in CEKF can be divided into two types of markers in the stereo image and two markers in the space, and can be calculated in real time. Robust to error. In addition, the limitation of the work area generated when the CEKF is applied can be solved by using the image repeatedly measured as the robot moves.
이상에서 상세히 설명한 바와 같이, 본 발명은 로봇의 위치추적 및 지도 작성과 관련된 계산량은 CEKF를 이용하여 줄이고, 스테레오 영상의 특징점과 3차원 복원된 영상 내의 표식을 이용하여 로봇이 회전하더라도 특징점에 대한 구별능력을 향상시켜 로봇의 위치 추적 및 지도 작성을 보다 효율적으로 동시에 수행할 수 있는 효과가 있다.As described in detail above, the present invention reduces the calculation amount related to the location tracking and mapping of the robot using CEKF, and distinguishes the feature points even if the robot rotates using the feature points of the stereo image and the markers in the 3D reconstructed image. By improving the ability, the robot can track the location and map the map more efficiently.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060060994A KR100757937B1 (en) | 2006-06-30 | 2006-06-30 | Simultaneous localization and map building method for robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060060994A KR100757937B1 (en) | 2006-06-30 | 2006-06-30 | Simultaneous localization and map building method for robot |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100757937B1 true KR100757937B1 (en) | 2007-09-12 |
Family
ID=38737495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060060994A KR100757937B1 (en) | 2006-06-30 | 2006-06-30 | Simultaneous localization and map building method for robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100757937B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100910203B1 (en) | 2009-04-07 | 2009-07-31 | 국방과학연구소 | Output device of geomorphic image for autonomous mobile platform, autonomous mobile platform having the same and output method of geomorphic image for autonomous mobile platform |
KR100955483B1 (en) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | Method of building 3d grid map and method of controlling auto travelling apparatus using the same |
WO2011052826A1 (en) * | 2009-10-30 | 2011-05-05 | 주식회사 유진로봇 | Map generating and updating method for mobile robot position recognition |
KR101140558B1 (en) | 2011-10-17 | 2012-05-02 | 국방과학연구소 | Autonomous mobile robot and control method for the same |
US8787614B2 (en) | 2010-05-03 | 2014-07-22 | Samsung Electronics Co., Ltd. | System and method building a map |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010057768A (en) * | 1999-12-23 | 2001-07-05 | 오길록 | Method and device for tracking robust object from video images using template and kalman filter |
KR20040064930A (en) * | 2003-01-11 | 2004-07-21 | 삼성전자주식회사 | Mobile robot and autonomic traveling system and method thereof |
KR20050011054A (en) * | 2003-07-21 | 2005-01-29 | 주식회사 한울로보틱스 | Locomotion methode of mobile robot using floor image informations |
KR20060085751A (en) * | 2005-01-25 | 2006-07-28 | 삼성전자주식회사 | Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus |
-
2006
- 2006-06-30 KR KR1020060060994A patent/KR100757937B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010057768A (en) * | 1999-12-23 | 2001-07-05 | 오길록 | Method and device for tracking robust object from video images using template and kalman filter |
KR20040064930A (en) * | 2003-01-11 | 2004-07-21 | 삼성전자주식회사 | Mobile robot and autonomic traveling system and method thereof |
KR20050011054A (en) * | 2003-07-21 | 2005-01-29 | 주식회사 한울로보틱스 | Locomotion methode of mobile robot using floor image informations |
KR20060085751A (en) * | 2005-01-25 | 2006-07-28 | 삼성전자주식회사 | Apparatus and method for estimating location and generating map of mobile body, using upper image, computer-readable recording media storing computer program controlling the apparatus |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100955483B1 (en) * | 2008-08-12 | 2010-04-30 | 삼성전자주식회사 | Method of building 3d grid map and method of controlling auto travelling apparatus using the same |
KR100910203B1 (en) | 2009-04-07 | 2009-07-31 | 국방과학연구소 | Output device of geomorphic image for autonomous mobile platform, autonomous mobile platform having the same and output method of geomorphic image for autonomous mobile platform |
WO2011052826A1 (en) * | 2009-10-30 | 2011-05-05 | 주식회사 유진로봇 | Map generating and updating method for mobile robot position recognition |
CN102656532A (en) * | 2009-10-30 | 2012-09-05 | 悠进机器人股份公司 | Map generating and updating method for mobile robot position recognition |
US8849036B2 (en) | 2009-10-30 | 2014-09-30 | Yujin Robot Co., Ltd. | Map generating and updating method for mobile robot position recognition |
CN102656532B (en) * | 2009-10-30 | 2015-11-25 | 悠进机器人股份公司 | For ground map generalization and the update method of position of mobile robot identification |
US8787614B2 (en) | 2010-05-03 | 2014-07-22 | Samsung Electronics Co., Ltd. | System and method building a map |
KR101140558B1 (en) | 2011-10-17 | 2012-05-02 | 국방과학연구소 | Autonomous mobile robot and control method for the same |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101739996B1 (en) | Moving robot and simultaneous localization and map-buliding method thereof | |
Wang et al. | Map-based localization method for autonomous vehicles using 3D-LIDAR | |
KR100757937B1 (en) | Simultaneous localization and map building method for robot | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
CN111006655B (en) | Multi-scene autonomous navigation positioning method for airport inspection robot | |
Lacroix et al. | Rover self localization in planetary-like environments | |
JP6492469B2 (en) | Own vehicle travel lane estimation device and program | |
CN112097768A (en) | Robot posture determining method and device, robot and storage medium | |
KR20170118040A (en) | Method and device for the estimation of car egomotion from surround view images | |
KR20170088228A (en) | Map building system and its method based on multi-robot localization | |
Sujiwo et al. | Monocular vision-based localization using ORB-SLAM with LIDAR-aided mapping in real-world robot challenge | |
KR20210026795A (en) | System for Positioning Hybrid Indoor Localization Using Inertia Measurement Unit Sensor and Camera | |
JP2023021098A (en) | Map construction method, apparatus, and storage medium | |
KR101100827B1 (en) | A method of recognizing self-localization for a road-driving robot | |
CN115371665B (en) | Mobile robot positioning method based on depth camera and inertial fusion | |
CN113804184A (en) | Ground robot positioning method based on multiple sensors | |
Sehestedt et al. | Efficient lane detection and tracking in urban environments | |
Randeniya et al. | Vision–IMU integration using a slow-frame-rate monocular vision system in an actual roadway setting | |
Berrabah et al. | Visual-based simultaneous localization and mapping and global positioning system correction for geo-localization of a mobile robot | |
Le et al. | Vehicle localization using omnidirectional camera with GPS supporting in wide urban area | |
CN116380079A (en) | Underwater SLAM method for fusing front-view sonar and ORB-SLAM3 | |
Liu et al. | Implementation and analysis of tightly integrated INS/stereo VO for land vehicle navigation | |
CN114509079A (en) | Method and system for ground projection for autonomous driving | |
CN112487234A (en) | Track analysis method, equipment and storage medium based on split type hierarchical clustering | |
Davidson et al. | Depth estimation from motion parallax: Experimental evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120814 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20130822 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140822 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20150818 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160817 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20170818 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20190820 Year of fee payment: 13 |