[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101493075B1 - 이동 로봇의 위치 인식 장치 및 방법 - Google Patents

이동 로봇의 위치 인식 장치 및 방법 Download PDF

Info

Publication number
KR101493075B1
KR101493075B1 KR20080128530A KR20080128530A KR101493075B1 KR 101493075 B1 KR101493075 B1 KR 101493075B1 KR 20080128530 A KR20080128530 A KR 20080128530A KR 20080128530 A KR20080128530 A KR 20080128530A KR 101493075 B1 KR101493075 B1 KR 101493075B1
Authority
KR
South Korea
Prior art keywords
feature information
robot
information
reference feature
charging station
Prior art date
Application number
KR20080128530A
Other languages
English (en)
Other versions
KR20100069965A (ko
Inventor
박지영
이형기
최기완
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR20080128530A priority Critical patent/KR101493075B1/ko
Priority to US12/588,956 priority patent/US8600603B2/en
Publication of KR20100069965A publication Critical patent/KR20100069965A/ko
Application granted granted Critical
Publication of KR101493075B1 publication Critical patent/KR101493075B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • G06V20/36Indoor scenes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

이동 로봇의 위치 인식 장치 및 방법이 개시된다. 본 발명의 일 양상에 따르면, 사전 인지 물체에 관한 특징 정보를 위치 인식을 위해 사용되는 표식(landmark)으로 미리 저장해 놓고 저장된 특징 정보와 초기 위치에서 취득된 특징 정보를 취합하여 기준 특징 정보로 사용함으로써 별도의 인공적인 표식 없이도 위치 인식의 정확도를 향상시키는 것이 가능하다.
SLAM, 이동 로봇, 위치 인식, 표식, 특징 정보

Description

이동 로봇의 위치 인식 장치 및 방법{apparatus and method for recognizing a situation of mobile robot}
이동 로봇이 자신의 위치를 파악하기 위해 주변 정보를 습득하고 얻어진 정보를 처리하는 로컬라이제이션 기술과 관련된다.
로봇이란 사람의 모습을 한 인형 내부에 기계장치를 조립해 넣고, 손발과 그 밖의 부분을 본래의 사람과 마찬가지로 동작하는 자동인형을 말한다. 그러나 최근에는 사람의 모습 여부를 떠나서 자율적으로 어떠한 임무를 수행하는 자동 장치를 통칭하게 되었다. 특히 이동 로봇의 경우 극한 환경 또는 위험 지역에서 사람을 대신하여 작업을 수행할 수 있기 때문에 많은 각광을 받고 있다. 또한 청소 로봇과 같이 자율적으로 집안을 돌아다니면서 가사 업무를 도와주는 가정용 이동 로봇도 다수 보급되었다.
이동 로봇이 자율적으로 이동하면서 임무를 수행하기 위해서는 자기 위치 인식을 위한 로컬라이제이션(localization)이 필수적이다. 이러한 로컬라이제이션 기술 중 대표적인 것이 SLAM(simultaneous localization and mapping)이다. SLAM은 로봇이 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응 되는 지도를 작성함과 동시에 자신의 절대 위치를 추정하는 방법을 말한다.
로봇이 SLAM을 수행하기 위해서는 주변 정보를 취득하여야 하는데 센싱 정보에는 오차가 존재하기 마련이다. 따라서, 자체 발광 장치 또는 패턴 등과 같은 표식(Landmark)을 인위적으로 특정 장소 또는 특정 물건에 설치하고 이것을 이용하여 위치 인식의 정확도를 높이는 것이 일반적이다.
그러나 청소 로봇과 같은 가정용 이동 로봇의 주 행동 공간이 집안인 것을 고려하면, 이러한 인위적인 표식의 추가는 사용자에게 매우 큰 불편함을 초래하게 되는 문제점이 있다.
본 명세서에서는, 별도의 표식을 추가하지 않고도 이동 로봇의 위치 인식 정확도를 향상시킬 수 있는 로컬라이제이션 기술이 개시된다.
본 발명의 일 양상에 따른 이동 로봇의 위치 인식 장치는 사전 인지 물체의 특징 정보가 저장되는 저장부; 로봇의 초기 위치에서 획득된 특징 정보와 저장부에 저장된 사전 인지 물체의 특징 정보를 매칭하여 기준 특징 정보를 등록하는 등록부; 및 기준 특징 정보를 이용하여 로봇의 위치를 추정하는 위치 추정부; 를 포함할 수 있다.
또한, 본 발명의 다른 양상에 따른 이동 로봇의 위치 인식 장치는 로봇의 위치가 부정확해 졌을 때 로봇을 사전 인지 물체 부근으로 이동시키는 리로케이션부; 를 더 포함할 수도 있다.
또한, 본 발명의 일 양상에 따른 이동 로봇의 위치 인식 방법은 사전 인지 물체의 특징 정보를 저장하는 단계; 로봇의 초기 위치에서 주변의 특징 정보를 획득하는 단계; 획득된 주변의 특징 정보와 저장된 사전 인지 물체의 특징 정보를 매칭하여 기준 특징 정보를 등록하는 단계; 및 기준 특징 정보를 이용하여 로봇의 위치를 추정하는 단계; 를 포함할 수 있다.
또한, 본 발명의 다른 양상에 따른 이동 로봇의 위치 인식 방법은 로봇의 위치가 부정확해 졌을 때 로봇을 사전 인지 물체 부근으로 이동시키는 단계; 를 더 포함할 수도 있다.
본 발명의 일 양상에 따라, 사전 인지 물체는 로봇의 충전을 위한 충전 스테이션이 될 수 있으며, 사전 인지 물체의 특징 정보는 사전 인지 물체에 관한 형상 정보, 색 정보, 또는 코너 정보 등이 될 수 있다. 그리고, 기준 특징 정보는 사전 인지 물체의 코너 및 코너 주변의 관한 평면 패치의 특징정보들로 구성되는 것이 가능하다.
개시된 내용에 따르면, 사전 인지 물체에 관한 특징 정보와 함께 초기 위치에서의 특징 정보가 기준 특징 정보로 등록되기 때문에 로봇이 로컬라이제이션을 수행할 때 오차를 줄이기 위한 정보 처리 과정을 줄일 수 있으며 위치 인식의 정확도를 높일 수 있다. 또한 추가적인 인공 표식이 필요 없기 때문에 가정용 이동 로봇에 보다 효율적으로 이용할 수가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시를 위한 구체적인 예를 상세히 설명한다. 후술되는 실시 예들은 본 발명을 예시적으로 설명하기 위한 것으로 본 발명의 권리범위가 특정 실시 예에 한정되지 아니한다.
도 1은 본 발명의 일 실시예에 따른 로봇 시스템(100)을 도시한다.
도 1을 참조하면, 본 실시예에 따른 로봇 시스템은 로봇(101)과 사전 인지 물체(102)로 구성된다.
로봇(101)은 일정한 구역을 이동하면서 특정한 임무를 수행하는 이동형 로봇 이 될 수 있다. 그리고 사전 인지 물체(102)는 이동 로봇(101)이 임무를 수행하는 공간 내에 고정되어 있는 어떠한 물체가 될 수 있다. 예컨대, 도시된 바와 같이, 로봇(101)은 청소 로봇이 될 수 있고, 사전 인지 물체(102)는 청소 로봇의 충전을 위한 충전 스테이션이 될 수 있다.
사전 인지 물체(102)에 관한 정보는 미리 로봇(101)에 저장되어 있으며, 로봇(101)이 위치 인식을 할 때 이것을 위치 인식을 위한 표식으로 사용하는 것이 가능하다. 따라서, 사전 인지 물체(102)는 충전 스테이션에 한정되는 것이 아니며, 로봇(101)의 임무 수행 공간 내에 고정적으로 위치한 텔레비전, 냉장고, 침대, 탁자 등이 될 수 있음은 물론이다. 이하에서는 설명의 편의를 위해 로봇(101)은 청소 로봇으로, 사전 인지 물체(102)는 충전 스테이션인 것으로 가정한다.
예를 들어, 로봇(101)이 평상시에는 충전 스테이션(102)에 도킹되어 있다가 청소 명령을 받게 되면 충전 스테이션(102)으로부터 분리되어 일정한 공간을 이동하면서 청소를 하는 것이 가능하다. 그리고 청소 도중 전원이 부족해진 경우 또는 청소를 완료한 경우 충전 스테이션(102)으로 다가와서 도킹하는 것이 가능하다.
이러한 이동 및 임무 수행은 자동으로 수행되는데, 이를 위해서는 로봇(101)이 자신의 위치를 정확하게 인식할 수 있어야 한다.
본 발명의 실시예에 따라 로봇(101)은 사전 인지 물체(102)의 특징 정보를 미리 가지고 있으며, 위치 인식 초기화 과정 또는 리로케이션(relocation) 과정에서 사전 인지 물체(102)의 특징 정보를 기준 특징 정보로 이용하는 것이 가능하다.
도 2를 참조하여 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 장 치(200)를 구체적으로 설명한다.
위치 인식 장치(200)는 저장부(201), 등록부(202), 위치 추정부(203)를 포함할 수 있다. 그리고 주행부(204), 엔코더(205), 카메라(206), 특징정보 추출부(207), 메모리(208)를 더 포함할 수도 있다.
주행부(204)는 로봇의 동력을 제공하는 부분으로 바퀴, 방향 제어 장치, 구동모터 등으로 구성될 수 있다.
엔코더(205)는 주행부(204)의 출력 신호를 수신하여 로봇(101)의 이전 위치와 현재 위치 사이의 위치 변화 및 방향 변화를 측정할 수 있다. 예컨대, 엔코더(205)는 주행부(204)의 바퀴 회전을 감지하여 로봇이 움직인 거리를 측정하고 이것을 적분하여 현재 이동 로봇의 위치를 감지하는 것이 가능하다. 만약, 주행부(204)의 출력 신호에 전혀 오차가 없다면 엔코더(205)만으로 로봇(101)의 위치를 계산하는 것이 가능하나, 주행부(204)의 출력 신호에는 필연적으로 오차가 개입되므로 추가적인 정보를 통해 보다 정확한 위치를 계산하는 것이 필요하다.
카메라(206)는 피사체로부터 반사되는 빛을 검출하고 이를 디지털 신호로 변환하는 것이 가능하다. 예컨대, 카메라(206)는 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서와, 이미지 센서로 빛을 전달하는 렌즈 등으로 구성될 수 있으며, 로봇(101)이 이동하면서 카메라(206)를 통해 주변의 영상을 획득하는 것이 가능하다.
특징정보 추출부(207)는 카메라(206)로부터 획득된 영상에서 특징 정보를 추출하는 것이 가능하다. 예컨대, 특징정보 추출부(207)는 해리스 코너 검출 기법을 사용하여 영상의 코너를 검출하고 코너 주위의 이미지를 일정 사이즈로 잘라낸 패치 정보를 추출하는 것이 가능하다.
위치 추정부(203)는 센싱 정보(예컨대, 엔코더(205)의 출력 및 특징정보 추출부(207)의 출력)를 이용하여 로봇의 위치를 추정하는 것이 가능하다.
위치 추정부(203)의 정보 처리 과정은 여러 가지 알고리즘이 사용될 수 있는데, 대표적으로 동시적 위치 추적 및 지도 작성(simultaneous localization and mapping, SLAM) 기법이 사용될 수 있다. SLAM이란 로봇(101)이 상대 위치 값과 주변 환경을 이용하여 자신의 공간상 절대 위치를 예측하는 방법을 말한다. 예컨대, 카메라(206) 및 특징정보 추출부(207)를 통해 얻어진 주변 정보와 주행부(204) 및 엔코더(205)를 통해 얻은 거리 정보를 이용하여 맵(map) 데이터를 구성하고, 이 맵 데이터를 통해 자신의 위치를 알아내는 것이 가능하다. 그런데, 전술하였듯이, 센싱되는 정보들에는 오차 성분이 포함되어 있으므로 관측 및 계산을 반복하면서 오차 성분을 줄이는 과정이 SLAM 과정에 수반되게 된다. 만약 이때 로봇(101)이 확실히 알고 있는 정보가 있다면 오차 성분을 줄이기 위한 반복 과정을 간소화할 수 있으며, 보다 정확한 위치를 구하는 것이 가능할 것이다.
저장부(201)에는 이와 같이 확실히 알고 있는 정보가 미리 저장되는 것이 가능하다. 여기서 확실히 알고 있는 정보는 사전 인지 물체(202)의 특징 정보가 될 수 있다.
예를 들어, 저장부(201)에는 충전 스테이션의 3차원 이미지, 각 코너의 좌표와 같은 특징 정보가 미리 저장될 수 있다. 이때, 사전 인지 물체를 어떠한 물체로 할 것인지는 로봇의 임무에 따라 적절하게 선택될 수 있으며, 저장되는 특징 정보 역시 로봇의 주변 센싱 기능 및 정보 저장 용량 등이 고려될 수 있다.
사전 인지 물체(102)의 특징 정보 및 위치 추정부(103)의 위치 추정 기법 간의 관계를 더욱 구체적으로 설명하면 다음과 같다.
대표적인 SLAM 기법인 확장 칼만 필터(extended Kalman filter)나 파티클 필터(particle filter) 기법을 예로 들면, 위치 추정부(103)는 현재 위치에서 관측된 영상과 이전 영상에서 추출된 특징정보를 매칭한다. 여기서 매칭이라 함은 현재 위치에서 새로이 얻어진 영상에서 과거에 저장된 후보 특징점이 있는지 비교하는 과정을 포함할 수 있다. 매칭이 성공하면 해당 특징점은 위치 인식을 위한 기준 특징점으로 등록된다. 이러한 특징점으로는 물체의 코너를 사용할 수 있는데, 처음 로봇이 코너점을 관측했을 때는 그 패치의 위치에 대한 에러가 너무 크기 때문에 바로 기준 특징점으로 쓸 수가 없으므로 특정한 위치에서 여러 번 관측하여 그 점에 대한 에러가 충분히 줄어 위치 정보 인식에 사용할 수 있을 때에 기준 특징점으로 등록하여 사용하게 되는 것이다.
이와 같이 후보 특징점을 선정하고 오차 범위를 줄여가며 기준 특징점을 등록하는 위치 인식 초기화 과정에 있어서, 보통 로봇은 엔코더에서 나온 정보를 믿고 그 위치를 저장된다. 그러나 만약 초기 특징점들이 등록 안된 상태에서 로봇에 슬립(slip)이 생기게 되면 처음부터 잘못된 위치로 계산되므로 위치 인식의 확실성을 보장할 수가 없다. 따라서 확실히 알고 있는 사전 인지 물체의 특징 정보를 미리 등록해 놓으면 초기에 후보 특징점을 선정하고 여러 번 관측으로 후보 특징점의 에러를 수렴시키는 과정을 생략할 수가 있는 것이다.
등록부(202)는 로봇의 초기 위치에서 획득된 특징 정보와 저장부(201)에 저장된 사전 인지 물체의 특징 정보를 매칭하여 기준 특징 정보(210)를 등록하는 것이 가능하다.
여기서 로봇(101)의 초기 위치란 로봇(101)이 청소 임무를 개시하기 위해 충전 스테이션을 빠져 나온 순간의 위치가 될 수 있으며, 획득된 특징 정보는 충전 스테이션을 빠져 나와서 최초로 얻은 충전 스테이션 및 그 주변의 특징 정보가 될 수 있다. 이때, 사전에 저장되어 있는 특징 정보들은 로봇(101)이 확실히 알고 있는 정확한 정보이므로 이것을 획득된 특징 정보와 매칭하여 계산된 로봇(101)의 위치 및 맵 데이터는 오차 성분이 매우 적은 것으로 보아도 무방하다. 따라서 이때의 특징 정보를 별도로 등록하여 이후 SLAM이 수행될 때 기준 특징 정보로 사용할 수 있다.
예를 들어, 로봇이 충전 스테이션을 빠져 나오면, 카메라(206)는 충전 스테이션을 포함하는 주변 영상을 촬영하게 되며, 특징정보 추출부(207)는 이 영상으로부터 특징정보를 추출한다. 등록부(202)는 엔코더(205) 정보로부터 로봇의 이동을 감지하여 초기 위치에서 획득된 특징 정보와 기 저장된 특징 정보를 매칭하여 배경 정보를 포함한 충전 스테이션의 특징 정보 및 그때의 위치 등을 추출하고 이것을 기준 특징 정보(210)로 메모리(208)에 등록하는 것이 가능하다. 이때, 기준 특징 정보(210)는 맵 데이터가 저장되는 메모리(208)와 별도로 또는 그 안에 같이 저장되는 것이 가능하다.
도 3은 본 발명의 다른 실시예에 따른 이동 로봇의 위치 인식 장치(300)를 도시한다.
이동 로봇의 위치 인식 장치(300)는 전술한 구성 외에 리로케이션부(209)를 더 포함하는 것을 알 수 있다.
리로케이션부(209)는 로봇이 자율 이동을 하며 위치 인식을 수행하는 과정에서 위치 인식이 부족해지면, 로봇을 사전 인지 물체(102) 부근으로 이동하도록 제어하는 것이 가능하다.
예컨대, 영상에서 관측되는 특징 정보가 부족하거나 슬립(slip)이 발생하는 경우, 로봇의 위치가 부정확한 것으로 판단하고 로봇을 사전 인지 물체(102) 부근으로 이동시켜서 기준 특징 정보(210)와 이동 후 획득된 영상을 매칭하여 로봇의 위치를 보정하는 것이 가능하다.
도 4는 본 발명의 일 실시예에 따른 기준 특징 정보를 도시한다.
도 4에서, 401은 사전 인지 물체로 충전 스테이션이 될 수 있다. 402는 사전 인지 물체의 코너 정보를, 403은 코너 주변의 배경 정보를, 404는 저장부(201)에 저장되어 있는 사전 인지 물체(401)의 특징 정보가 될 수 있다.
예를 들어, 특징정보 추출부(207)는 로봇(101)이 충전 스테이션(401)을 빠져 나와 최초로 촬영한 영상으로부터 충전 스테이션(401)에 관한 코너 정보(402)와 주변의 배경 정보(403)를 추출한다. 이때 추출되는 정보는 충전 스테이션(401)의 코너를 중심점으로 갖는 패치 정보들로 구성될 수 있다.
그리고, 등록부(202)는 추출된 충전 스테이션(401)의 코너 정보(402)와 미리 저장되어 있는 특징 정보(404)를 매칭하여 초기 위치를 셋팅하고 그때의 특징 정보들을 합성하여 기준 특징 정보(405)를 생성하는 것이 가능하다.
기준 특징 정보(405)는 별도로 저장되어 위치 추정부(203)가 SLAM 과정을 수행할 때 기준으로 사용하는 것이 가능하다.
그 밖에도 등록부(202)가 충전 스테이션(401)의 기준 특징 정보를 등록할 때, 충전 스테이션(401) 내부의 코너나 색깔 등도 등록하는 것이 가능하다. 예컨대, 로봇(101)과 충전 스테이션(401)의 거리가 가까울 때는 충전 스테이션(401)의 내부의 코너점을 특징 정보로써 활용하여 위치 인식을 하는 것이 가능하다. 여기서 충전 스테이션(401)의 내부란 충전 스테이션(401)의 외곽선 부분을 제외한 안쪽 부분을 의미할 수 있다.
그리고, 로봇(101)과 충전 스테이션(401)의 거리가 멀 경우에는 충전 스테이션(401)의 외곽선 정보(예컨대, 402)와 주변 배경 정보(예컨대, 403)를 추가적으로 조합한 특징 정보를 활용하여 거리에 관계없이 충전 스테이션(401)의 기준 특징 정보를 인식하는 것이 가능하다.
도 5는 본 발명의 일 실시예에 따른 이동 로봇의 위치 인식 방법을 도시한다.
도 5를 참조하면, 본 실시예에 따른 위치 인식 방법은 사전 인지 물체의 특징 정보를 미리 저장하는 과정(S501), 로봇의 초기 위치에서 기준 특징 정보를 등록하는 과정(S502~S503), 로봇이 임무를 수행하면서 기준 특징 정보를 이용하여 위치를 추정하는 과정(S504), 및 위치가 부정확해졌을 때 리로케이션을 수행하는 과 정(S505~S506) 등으로 구성될 수 있다.
이를 구체적으로 설명하면 다음과 같다.
먼저, S501과 같이, 사전 인지 물체의 특징 정보를 미리 저장한다. 사전 인지 물체는 로봇의 임무 수행 공간 내에 고정적으로 위치한 임의의 물건이 될 수 있으며, 전술한 충전 스테이션이 사용될 수 있다. 그리고 사전 인지 물체의 특징 정보는 충전 스테이션에 관한 형상, 색, 코너 정보 등이 될 수 있다.
이어서, S502와 같이, 로봇의 초기 위치에서 주변의 특징 정보를 획득한다. 로봇의 초기 위치는 로봇이 충전 스테이션을 빠져 나온 직후의 위치가 될 수 있으며, 주변의 특징 정보는 초기 위치에서 충전 스테이션 및 그 주변에 관한 특징 정보들로 구성될 수 있다.
이어서, S503과 같이, S502에서 얻어진 특징 정보와 S501에서 저장된 특징 정보를 매칭하고 기준 특징 정보를 등록한다. 예컨대, 도 4에서 도시된 것과 같이, 충전 스테이션에 관한 코너점을 매칭하여 정확한 초기 위치를 계산하고 이때의 주변 영상을 합성하여 패치 정보로써 기준 특징 정보를 등록하는 것이 가능하다.
이어서, S504와 같이, 기준 특징 정보를 이용하여 로봇의 위치를 추정한다. 로봇의 위치를 추정하는 알고리즘은 확장 칼만 필터 SLAM 기법 또는 파티클 필터 SLAM 기법 등 다양한 기법이 사용될 수 있음은 물론이다. 그리고 이때 위치 추정을 위해 특징 정보들을 매칭하는 과정에 있어서 S503 과정을 통해 등록된 기준 특징 정보를 이용할 수 있다. 예컨대, 기준 특징 정보와 현재 얻어진 특징 정보를 비교하여 충전 스테이션까지의 절대 거리를 계산하는 것이 가능하다.
이어서, S505와 같이, 로봇의 위치가 부정확해졌는지 여부를 판단한다. 판단 기준은 얻어지는 특징 정보의 개수가 설정된 임계치 이하로 떨어지는지 여부 또는 로봇에 슬립이 발생했는지 여부 등이 될 수 있다.
만약, 로봇의 위치가 부정확해지면, S506과 같이, 로봇을 충전 스테이션 부근으로 이동시키는 리로케이션 과정이 수행될 수 있다.
이상에서 상세히 설명한 것과 같이, 개시된 실시예에 의하면 로봇이 SLAM 기법을 통해 자신의 위치를 추정할 때에 확실히 알고 있는 정확한 정보를 기준 특징 정보로 이용할 수 있기 때문에 위치 인식의 정확도를 높이고 계산 로드를 줄일 수 있다.
도 1은 본 발명의 일 실시예에 따른 이동 로봇 시스템을 도시한다.
도 2는 본 발명의 일 실시예에 따른 위치 인식 장치를 도시한다.
도 3은 본 발명의 다른 실시예에 따른 위치 인식 장치를 도시한다.
도 4는 본 발명의 일 실시예에 따른 기준 특징 정보를 도시한다.
도 5는 본 발명의 일 실시예에 따른 위치 인식 방법을 도시한다.

Claims (15)

  1. 이동 로봇의 위치 인식 장치에 있어서,
    사전 인지 물체의 특징 정보가 저장되는 저장부;
    상기 로봇의 초기 위치에서 상기 로봇이 감지한 데이터로부터 상기 사전 인지 물체의 특징 정보 및 상기 사전 인지 물체 주변의 특징 정보를 추출하는 특징 정보 추출부;
    상기 로봇의 초기 위치에서 감지된 상기 사전 인지 물체의 특징 정보 및 사전 인지 물체 주변의 특징 정보를 상기 저장부에 저장된 사전 인지 물체의 특징 정보와 매칭하여, 사전 인지 물체의 기준 특징 정보 및 사전 인지 물체 주변의 기준 특징 정보를 포함하는 기준 특징 정보를 추출하고, 추출된 기준 특징 정보를 등록하는 등록부; 및
    상기 기준 특징 정보를 이용하여 상기 로봇의 위치를 추정하는 위치 추정부; 를 포함하고,
    상기 사전 인지 물체 주변의 특징 정보는 상기 사전 인지 물체 주변의 배경 정보를 포함하는 이동 로봇의 위치 인식 장치.
  2. 제 1 항에 있어서,
    상기 사전 인지 물체는 상기 로봇의 충전을 위한 충전 스테이션인 이동 로봇의 위치 인식 장치.
  3. 제 1 항에 있어서,
    상기 사전 인지 물체의 특징 정보는 상기 사전 인지 물체에 관한 형상 정보, 색 정보, 또는 코너 정보 중 적어도 어느 하나 이상인 이동 로봇의 위치 인식 장치.
  4. 삭제
  5. 제 1 항에 있어서,
    상기 기준 특징 정보는 상기 사전 인지 물체의 코너 및 코너 주변의 관한 평면 패치의 특징정보들로 구성되는 이동 로봇의 위치 인식 장치.
  6. 제 1 항에 있어서,
    상기 위치 추정부는 상기 기준 특징 정보를 이용하여 상기 로봇과 상기 사전 인지 물체 간의 절대 거리를 측정하는 이동 로봇의 위치 인식 장치.
  7. 제 1 항에 있어서,
    상기 로봇의 위치가 부정확해지면, 상기 로봇이 상기 사전 인지 물체 부근으로 이동하도록 제어하는 리로케이션부; 를 더 포함하는 이동 로봇의 위치 인식 장치.
  8. 이동 로봇의 위치 인식 장치에 있어서,
    상기 로봇의 충전을 위한 충전 스테이션에 관한 특징 정보가 사전에 저장되는 저장부;
    상기 로봇의 초기 위치에서 상기 로봇이 감지한 데이터로부터 상기 충전 스테이션의 특징 정보 및 충전 스테이션 주변의 특징 정보를 추출하는 특징 정보 추출부;
    상기 로봇이 상기 충전 스테이션에 도킹된 상태에서 빠져 나온 초기 위치에서 감지된 상기 충전 스테이션의 특징 정보 및 상기 충전 스테이션 주변의 특징 정보를 상기 저장부에 저장된 상기 충전 스테이션의 특징 정보와 매칭하여 충전 스테이션의 기준 특징 정보 및 충전 스테이션 주변의 기준 특징 정보를 포함하는 기준 특징 정보를 추출하고, 추출된 기준 특징 정보를 등록하는 등록부;
    상기 기준 특징 정보를 이용하여 상기 로봇의 위치를 추정하는 위치 추정부; 및
    상기 로봇이 이동 중 슬립이 발생한 경우, 상기 로봇을 상기 충전 스테이션 부근으로 이동시키는 리로케이션부; 를 포함하고,
    상기 충전 스테이션 주변의 기준 특징 정보는 상기 충전 스테이션 주변의 배경 정보를 포함하는 이동 로봇의 위치 인식 장치.
  9. 이동 로봇의 위치 인식 방법에 있어서,
    사전 인지 물체의 특징 정보를 저장하는 단계;
    상기 로봇의 초기 위치에서 상기 로봇이 감지한 데이터로부터 상기 사전 인지 물체의 특징 정보 및 사전 인지 물체 주변의 특징 정보를 추출하는 단계;
    상기 로봇의 초기 위치에서 감지된 사전 인지 물체의 특징 정보 및 사전 인지 물체 주변의 특징 정보를 상기 저장된 사전 인지 물체의 특징 정보와 매칭하여 사전 인지 물체의 기준 특징 정보 및 사전 인지 물체 주변의 기준 특징 정보를 포함하는 기준 특징 정보를 추출하고, 추출된 기준 특징 정보를 등록하는 단계; 및
    상기 기준 특징 정보를 이용하여 상기 로봇의 위치를 추정하는 단계; 를 포함하고,
    상기 사전 인지 물체 주변의 특징 정보는 상기 사전 인지 물체 주변의 배경 정보를 포함하는 이동 로봇의 위치 인식 방법.
  10. 제 9 항에 있어서,
    상기 사전 인지 물체는 상기 로봇의 충전을 위한 충전 스테이션인 이동 로봇의 위치 인식 방법.
  11. 제 9 항에 있어서,
    상기 사전 인지 물체의 특징 정보는 상기 사전 인지 물체에 관한 형상 정보, 색 정보, 또는 코너 정보 중 적어도 어느 하나 이상인 이동 로봇의 위치 인식 방법.
  12. 삭제
  13. 제 9 항에 있어서,
    상기 기준 특징 정보는 상기 사전 인지 물체의 코너 및 코너 주변의 관한 평면 패치의 특징정보들로 구성되는 이동 로봇의 위치 인식 방법.
  14. 제 9 항에 있어서,
    상기 로봇의 위치를 추정하는 단계는 상기 기준 특징 정보를 이용하여 상기 로봇과 상기 사전 인지 물체 간의 절대 거리를 측정하는 과정을 포함하는 이동 로봇의 위치 인식 방법.
  15. 제 9 항에 있어서,
    상기 로봇의 위치가 부정확해지면, 상기 로봇을 상기 사전 인지 물체 부근으로 이동시키는 단계; 를 더 포함하는 이동 로봇의 위치 인식 방법.
KR20080128530A 2008-12-17 2008-12-17 이동 로봇의 위치 인식 장치 및 방법 KR101493075B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20080128530A KR101493075B1 (ko) 2008-12-17 2008-12-17 이동 로봇의 위치 인식 장치 및 방법
US12/588,956 US8600603B2 (en) 2008-12-17 2009-11-03 Apparatus and method of localization of mobile robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20080128530A KR101493075B1 (ko) 2008-12-17 2008-12-17 이동 로봇의 위치 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20100069965A KR20100069965A (ko) 2010-06-25
KR101493075B1 true KR101493075B1 (ko) 2015-02-12

Family

ID=42241521

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080128530A KR101493075B1 (ko) 2008-12-17 2008-12-17 이동 로봇의 위치 인식 장치 및 방법

Country Status (2)

Country Link
US (1) US8600603B2 (ko)
KR (1) KR101493075B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017213373A1 (ko) * 2016-06-08 2017-12-14 삼성전자 주식회사 전자 장치, 외부 서버 및 그 제어 방법
KR20180090565A (ko) * 2017-02-03 2018-08-13 엘지전자 주식회사 이동 로봇 및 그 제어방법

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
CN102960037B (zh) * 2010-05-19 2016-08-10 诺基亚技术有限公司 物理上约束的无线电地图
DE102012201870A1 (de) 2012-02-08 2013-08-08 RobArt GmbH Verfahren zum automatischen Auslösen einer Selbstlokalisierung
KR101483549B1 (ko) * 2013-12-03 2015-01-16 전자부품연구원 입자 생성 및 선별을 통한 카메라 위치 추정 방법 및 이동 시스템
US9501059B2 (en) * 2014-09-12 2016-11-22 Qualcomm Incorporated Pocket robot
KR102431996B1 (ko) 2015-10-12 2022-08-16 삼성전자주식회사 로봇 청소기 및 그 제어 방법
JP6745111B2 (ja) * 2016-01-27 2020-08-26 株式会社ダイヘン 移動体
WO2018012446A1 (ja) 2016-07-11 2018-01-18 Groove X株式会社 活動量をコントロールされる自律行動型ロボット
WO2018148877A1 (zh) * 2017-02-15 2018-08-23 深圳市前海中康汇融信息技术有限公司 双摄像头智能机器人及其控制方法
KR102329674B1 (ko) * 2017-04-04 2021-11-19 엘지전자 주식회사 고정객체와 이동객체의 식별에 기반하여 위치를 설정하는 방법 및 이를 구현하는 로봇
KR101961171B1 (ko) * 2017-10-13 2019-03-22 한국과학기술연구원 실내 환경에서 이동하는 로봇의 전역적 자기 위치 추정 시스템 및 이를 이용한 전역적 자기 위치 추정 방법
CN107680135B (zh) * 2017-11-16 2019-07-23 珊口(上海)智能科技有限公司 定位方法、系统及所适用的机器人
CN112004645B (zh) * 2017-12-19 2024-10-15 卡内基梅隆大学 智能清洁机器人
US11320828B1 (en) 2018-03-08 2022-05-03 AI Incorporated Robotic cleaner
US11254002B1 (en) 2018-03-19 2022-02-22 AI Incorporated Autonomous robotic device
US11454981B1 (en) 2018-04-20 2022-09-27 AI Incorporated Versatile mobile robotic device
US11340079B1 (en) 2018-05-21 2022-05-24 AI Incorporated Simultaneous collaboration, localization, and mapping
US11548159B1 (en) 2018-05-31 2023-01-10 AI Incorporated Modular robot
US11199853B1 (en) 2018-07-11 2021-12-14 AI Incorporated Versatile mobile platform
CN112684728B (zh) * 2019-10-17 2021-09-28 广东原点智能技术有限公司 一种基于激光slam的机器人码垛控制方法
KR20220073036A (ko) * 2020-11-26 2022-06-03 삼성전자주식회사 로봇 및 그 제어 방법
CN114859878A (zh) * 2021-01-20 2022-08-05 科沃斯机器人股份有限公司 自移动机器人定位方法、基站、移动路标设备及机器人
CN116965745A (zh) * 2022-04-22 2023-10-31 追觅创新科技(苏州)有限公司 坐标重定位方法、系统及清洁机器人
CN119063739A (zh) * 2024-10-30 2024-12-03 深圳市奇航疆域技术有限公司 一种机器人重定位方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050182518A1 (en) * 2004-02-13 2005-08-18 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
US6957712B2 (en) * 2001-04-18 2005-10-25 Samsung Gwangju Electronics Co., Ltd. Robot cleaner, system employing the same and method for re-connecting to external recharging device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2839281B2 (ja) 1989-03-31 1998-12-16 グローリー工業株式会社 移動体の自己定位方法
JP2839282B2 (ja) 1989-03-31 1998-12-16 グローリー工業株式会社 移動体の自己定位方法
JP2873157B2 (ja) 1993-12-25 1999-03-24 日立造船株式会社 移動ロボットの充電器への接続方法
WO2004059900A2 (en) * 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US7720554B2 (en) * 2004-03-29 2010-05-18 Evolution Robotics, Inc. Methods and apparatus for position estimation using reflected light sources
US7706917B1 (en) * 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US7650013B2 (en) * 2004-11-15 2010-01-19 Mobilerobots Inc. System and method for map and position-determination enhancement
JP4300199B2 (ja) 2005-06-13 2009-07-22 株式会社東芝 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム
JP4369439B2 (ja) 2006-03-17 2009-11-18 富士通株式会社 ロボット位置制御装置およびロボット自己位置回復方法
KR100866380B1 (ko) 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6957712B2 (en) * 2001-04-18 2005-10-25 Samsung Gwangju Electronics Co., Ltd. Robot cleaner, system employing the same and method for re-connecting to external recharging device
US20050182518A1 (en) * 2004-02-13 2005-08-18 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017213373A1 (ko) * 2016-06-08 2017-12-14 삼성전자 주식회사 전자 장치, 외부 서버 및 그 제어 방법
US10948925B2 (en) 2016-06-08 2021-03-16 Samsung Electronics Co., Ltd. Electronic device, external server, and method for controlling same
KR20180090565A (ko) * 2017-02-03 2018-08-13 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102669126B1 (ko) * 2017-02-03 2024-05-23 엘지전자 주식회사 이동 로봇 및 그 제어방법

Also Published As

Publication number Publication date
US20100152945A1 (en) 2010-06-17
KR20100069965A (ko) 2010-06-25
US8600603B2 (en) 2013-12-03

Similar Documents

Publication Publication Date Title
KR101493075B1 (ko) 이동 로봇의 위치 인식 장치 및 방법
KR101553653B1 (ko) 로봇의 슬립 감지 장치 및 방법
US8855819B2 (en) Method and apparatus for simultaneous localization and mapping of robot
JP7087290B2 (ja) 自律移動装置、自律移動方法及びプログラム
KR101618030B1 (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
KR100877072B1 (ko) 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
KR101782057B1 (ko) 지도 생성 장치 및 방법
KR101686171B1 (ko) 영상 및 거리 데이터를 이용한 위치 인식 장치 및 방법
US8849036B2 (en) Map generating and updating method for mobile robot position recognition
CN108007451B (zh) 货物承载装置位姿的检测方法、装置、计算机设备和存储介质
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
JP4978099B2 (ja) 自己位置推定装置
CN108038139B (zh) 地图构建方法、装置和机器人定位方法、装置、计算机设备和存储介质
CN107053166B (zh) 自主移动装置、自主移动方法以及存储介质
KR20110020961A (ko) 모바일 플랫폼의 동적 물체 검출 및 추적 방법
KR101658578B1 (ko) 복합 센서의 캘리브레이션 장치 및 방법
CN112740274A (zh) 在机器人设备上使用光流传感器进行vslam比例估计的系统和方法
CN106054872B (zh) 移动机器人及其位置识别方法
KR101167627B1 (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
Iocchi et al. Self-localization in the RoboCup environment
JP5819257B2 (ja) 移動体位置推定方法及び移動体
KR20100040234A (ko) 로봇의 slam 장치 및 방법
KR101141601B1 (ko) 영상기반 자연표식물 지도 작성 장치
KR101553656B1 (ko) 로봇의 리로케이션 장치 및 방법
CN115700507A (zh) 地图更新方法及其装置

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20081217

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20131107

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20081217

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20141103

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20150116

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20150205

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20150205

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20180117

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20180117

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20200120

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20210120

Start annual number: 7

End annual number: 7