[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR101570377B1 - 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법 - Google Patents

단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법 Download PDF

Info

Publication number
KR101570377B1
KR101570377B1 KR1020090027786A KR20090027786A KR101570377B1 KR 101570377 B1 KR101570377 B1 KR 101570377B1 KR 1020090027786 A KR1020090027786 A KR 1020090027786A KR 20090027786 A KR20090027786 A KR 20090027786A KR 101570377 B1 KR101570377 B1 KR 101570377B1
Authority
KR
South Korea
Prior art keywords
image
robot cleaner
minutiae
camera
images
Prior art date
Application number
KR1020090027786A
Other languages
English (en)
Other versions
KR20100109257A (ko
Inventor
최유진
김영기
윤정석
이성수
김예빈
백승민
나상익
최수욱
이동훈
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090027786A priority Critical patent/KR101570377B1/ko
Priority to US13/262,192 priority patent/US9060658B2/en
Priority to AU2010232114A priority patent/AU2010232114B2/en
Priority to PCT/KR2010/001556 priority patent/WO2010114235A1/en
Priority to EP10758960.8A priority patent/EP2413772B1/en
Publication of KR20100109257A publication Critical patent/KR20100109257A/ko
Application granted granted Critical
Publication of KR101570377B1 publication Critical patent/KR101570377B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/009Carrying-vehicles; Arrangements of trollies or wheels; Means for avoiding mechanical obstacles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 단일 카메라를 장착한 로봇 청소기가 미지의 청소 대상영역에서 청소를 수행함과 동시에 주변 영역을 촬영하고, 순차적으로 촬영된 두 영상으로부터 추출된 특징점의 매칭정보를 이용하여 제1영상의 특징점에 대한 유한개의 파티클을 제2영상으로 투영시켜 주변환경의 3차원 정보를 추출함으로써, 다수의 특징점을 포함하는 주변환경에 대한 3차원 지도를 더욱더 정확하게 작성할 수 있다.
파티클, 리프로젝션(reprojection), 3차원 지도, 특징점

Description

단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법{Method for builing 3D map by mobile robot with a single camera}
본 발명은 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법에 관한 것으로써, 보다 상세하게는 순차적으로 인접한 두 영상 프레임의 특징점 매칭 정보를 이용하여 앞선 영상 프레임에서 설정한 파티클을 뒤의 영상 프레임에 리프로젝션(particle reprojection)함으로써, 정확한 주변환경의 3차원 정보를 추출하는 로봇 청소기의 3차원 환경 인식 방법에 관한에 관한 것이다.
로봇청소기는 충전된 배터리를 동력원으로, 입력된 프로그램에 따라 바닥면을 이동하면서 스스로 청소를 수행하는 자동청소기이다.
이러한 로봇청소기에 의하면, 사용자가 직접 청소기를 끌고 다니면서 청소를 수행하는 기존의 청소 방법과는 달리, 리모콘의 조작 또는 간단한 운전 버튼의 조작에 의하여 자동으로 청소를 수행시킬 수 있어서 청소 수행에 따른 수고를 덜어주며, 청소 시간을 절약할 수 있게 된다.
로봇 청소기에는 그 진행 경로인 전방에 위치한 장애물을 감지하는 장애물 감지 센서가 설치된다. 이러한 장애물 감지 센서를 통해 전방의 장애물이 감지되 면, 로봇 청소기는 그 장애물을 회피하는 주행을 한다.
이와 같은 종래의 로봇 청소기는 1차원 센서를 사용하거나 2차원 센서를 사용하여 막힌 벽이나 개방된 공간을 인식하거나, 로봇 청소기의 근처에 있는 장애물을 인식하는 등의 단순히 주변환경을 수동적으로 인식하여 청소 작업을 수행하였다.
본 발명의 목적은 순차적으로 인접한 두 영상 프레임의 특징점 매칭 정보를 이용하여 앞선 영상 프레임에서 설정한 파티클을 뒤의 영상 프레임에 리프로젝션(particle reprojection)함으로써, 정확한 주변환경의 3차원 정보를 추출하는 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법을 제공하는 것이다.
상기 목적을 달성하기 위한 본 발명의 일실시예에 따른 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법은 로봇 청소기에 설치된 단일 카메라를 이용하여 주행환경으로부터 순차적으로 획득한 각각의 영상에서 다수의 특징점을 추출하여 순차적으로 인접한 두 영상의 동일 특징점에 대한 매칭 정보를 산출하는 특징점 처리단계와; 상기 매칭 정보를 이용하여 상기 인접한 두 영상 가운데 앞선 영상의 특징점과 상기 카메라의 센터를 통과하는 가상선 상에서 유한개의 파티클을 샘플링하는 단계와; 상기 유한개의 파티클을 상기 인접한 두 영상 가운데 뒤의 영상으로 투영(projection)시켜 주변환경의 실제 특징점의 3차원 정보를 추출하는 단계와; 상기 각 단계를 대상 영역에서 반복 수행하여 상기 주변환경에서 자기 위치를 추정하고 3차원 지도를 작성하는 단계를 포함한다.
본 발명의 일실시예에 따른 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법은 순차적으로 인접한 두 영상 프레임의 특징점 매칭 정보를 이용하여 앞선 영 상 프레임에서 설정한 파티클을 뒤의 영상 프레임에 리프로젝션(particle reprojection)함으로써, 주변환경의 3차원 정보를 더욱더 정확하게 추출할 수 있다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.
도 1은 도 1은 본 발명의 일실시예에 따른 단일 카메라를 장착한 로봇 청소기의 개략적인 사시도이고, 도 2는 본 발명의 일실시예에 따른 단일 카메라를 장착한 로봇 청소기의 제어 장치의 블록도이다.
도 1과 도 2를 참조하여, 본 발명의 실시예들이 적용되는 로봇 청소기를 설명하겠다.
도 1에 도시된 바와 같이, 로봇 청소기(100)는 외관을 형성하는 케이스(140)와, 케이스(140)의 외측면에 대응되도록 배치되어, 각각 적어도 두개 이상의 발신부와 수신부를 구비하는 전방센서유닛(120)을 포함한다. 이때, 케이스(140)는 소정 높이를 갖는 원형의 디스크 형상으로 형성된다. 상기 전방센서유닛(120)은 실내의 벽이나 장애물과 상기 이동로봇과의 거리를 감지하는 센서로서, 본 발명의 실시예에서는 상기 전방 세선서 유닛은 초음파 센서로 구성된다. 상기 케이스(140)에는 충돌 시 충격을 완충하는 범퍼(130)가 구비된다.
또한, 상기 로봇 청소기(100)는 청소 대상 영역이나 주행 영역의 영상을 촬영할 수 있도록 상측 전방부에 카메라(110)를 구비하고 있다. 상기 카메라(110)는 로봇 청소기가 이동하는 전방 및 상방의 영상을 촬영 가능하도록 설치되어 있고, 본 실시예에서는 상기 카메라가 고정적으로 설치되어 있으나, 일정한 각도로 좌우 및 상하 움직이도록 형성되는 것도 가능하다.
보다 상세하게, 로봇 청소기(100)는 케이스(130)와, 에지테이터와 구동 바퀴와 구동 바퀴에 동력을 전달하는 제1,2모터(231,232)를 포함하여 구성되는 구동부(230)와, 흡입 모듈(240)과, 조작부(150)와, 배터리(미도시)와, 감지유닛(220)과, 제어부(210)를 포함한다.
상기 제어부(210)는 카메라(222)에서 촬영된 천장 영상으로부터 특징점을 출하는 특징점 추출부(211)과, 순차적으로 인접 촬영된 두개의 천장 영상으로부터 특징점이 추출하여 먼저 촬영된 영상으로부터 특징점 파티클을 생성하는 파티클 생성부(212)와, 상기 파티클을 뒤에 촬영된 영상에 투영하여 특징점의 3차원 정보를 추출하여 3차원 지도를 작성하는 3D 정보 처리부를 포함한다.
상기 에지테이터는 로봇 청소기(100)에 회전 가능하게 설치되어 바닥의 먼지, 오물 등의 이물질이 상기 흡입 모듈(240)에 원활하게 흡입될 수 있도록 상기 이물질을 쓸어낸다.
상기 구동부(230)는 상기 제어부(210)에서 전달되는 신호에 따라 로봇 청소기의 좌측 바퀴와 우측바퀴에 구동력을 전달하고, 상기 좌우측 바퀴의 구동에 따라 상기 로봇 청소기(100)가 전방으로 주행할 수 있다. 상기 좌측 바퀴는 제1모터(231)에 의해서 동력을 전달받고, 상기 우측 바퀴는 제2모터(232)에 의해서 동력을 전달받는다.
상기 흡입 모듈(240)은 먼지통(241)과 흡입팬(242) 및 미도시된 흡입 덕트와 필터부와 흡입구로 구성되어, 바닥의 이물질을 흡입, 수용한다.
상기 조작부(150)는 상기 로봇 청소기(100)를 제어하기 위해 명령을 입력할 수 있는 버튼 또는 키 타입의 설정부(280)를 포함할 수 있다. 이러한 조작부(150)의 근방에는 상기 로봇 청소기(100)의 각종 정보를 디스플레이할 수 있는 표시부(270)가 설치될 수 있다. 상기 표시부(270)는 조작부(150) 상에 형성되는 것도 가능하다.
상기 배터리는 상기 구동부(230) 등에 동력을 공급한다. 이러한 배터리는 충전대(미도시) 등에서 충전될 수 있다. 상기 제1센서유닛(120)는 상기 로봇 청소기(100)의 주행 경로의 전방에 배치된 장애물을 감지할 수 있다.
상기 감지유닛(220)은 장애물 감지를 위한 신호를 발신하고, 상기 장애물에서 반사된 신호를 수신하여 장애물을 감지하거나 진행 경로를 파악하는 센서 유닛(221)과, 로봇 청소기(100)의 진행 방향의 영상을 촬영하는 카메라 유닛(222)을 포함한다.
상기 센서유닛(221)에는 전방의 물체를 감지하는 전방센서(120)와, 로봇 청소기의 측면에 배치되어 벽면을 감지하는 측면센서(미도시)와, 상기 배터리를 충전하기 위하여 상기 충전대를 감지하는 IR 센서(미도시) 등이 포함될 수 있다.
상기 카메라 유닛(222)은 제어부(210)의 제어신호에 따라 상기 로봇 청소기가 청소 대상 영역에서 이동 중이거나 정지한 상태에서 천장을 포함하는 영상을 촬영한다. 본 실시예에서는 상기 카메라 유닛(222)은 단일의 카메라(110)를 포하여 상방의 영상 즉, 천장의 영상을 촬영하도록 상기 로봇 청소기에 고정 설치되어 있으나, 상하 또는 좌후로 회전 가능한 경우에는 상기 천장뿐만 아니라 주변 영역의 전후 및 상하의 영상을 촬영할 수 있다.
본 실시예에서는 카메라 유닛(222)은 상기 제어신호에 따라 이동하면서 일정한 시간 간격으로 천장의 영상을 촬영한다. 이 경우에 순차적으로 인접한 두 영상에는 동일한 특징점이 다수 가 포함되도록 시간 간격을 조절하는 것이 바람직하다.
상기 특징점 추출부(211)는 카메라(222)에서 촬영된 천장 영상을 입력받아 영상을 이미지 프로세싱하여 천장의 영상으로부터 특징점을 추출한다. 상기 특징점 추출부(211)는 상기 촬영된 영상을 입력받아 이를 주파수 영역으로 변환하여 이미지 프로세싱하는 것이 일반적인데, 이 경우에 주파수의 변화폭이 큰 물체나 영역을 특징점으로 결정하며 천장 모서리나, 코너, 전등 등이 될 수 있다. 상기 추출된 특징점은 각 영상 프레임 별로 상기 저장부(26)에 저장된다.
상기 파티클 생성부(212)는 카메라(222)로부터 순차적으로 촬영된 두개의 천장 영상으로부터 특징점이 추출되면, 두 영상의 동일 특징점을 매칭시킨 후에 먼저 촬영된 영상으로부터 특징점 파티클을 생성한다.
상기 3D 정보 처리부(213)는 상기 생성된 파티클을 상기 특징점 매칭이 이루어진 뒤의 영상으로 투영하여 상기 투영된 파티클의 확률이 가장 높은 파티클을 실제 주변환경의 특징점으로 결정하여 실제 특징점의 3차원 정보를 추출하고 주변환경의 3차원 지도를 작성한다.
상기 구동부(230)는 제어부(210)으로부터 출력되는 제어신호에 따라 제1,2모터(231, 232)를 구동시켜 로봇 청소기(100)을 주행시킨다. 구동부(230)의 제1,2모터(231, 232)는 로봇 청소기(100)를 주행시키는 좌/우바퀴와 연결되어 있다. 따라서, 제1,2모터(231, 232)의 회전속도와 회전 방향에 따라 로봇 청소기(100)는 전후좌우로 주행한다.
상기 위치 검출부(250)는 로봇 청소기의 이동에 따른 위치 변동을 감지하며, 특히 바퀴의 일측에 부착되어 바퀴의 회전수를 검출한다. 주행 제어부(212)는 상기 바퀴의 회전수에 기초하여 상기 로봇 청소기가 초기 위치에서 멀어진 정도를 감지할 수 있다. 이 경우에는 상기 위치 검출부(250)가 인코더를 포함하는 것이 바람직하다.
상기 저장부(260)는 예를 들면, EEPROM 또는 플래시 메모리와 같은 비휘발성 메모리 소자로 구성되며, 로봇 청소기(100)의 구동을 위한 운영 프로그램이 저장되어 있다. 아울러, 상기 감지 유닛(220)에 의하여 감지된 영상 정보와 그 영상 정보에서 추출된 특징점, 상기 위치 검출부(250)에 검출한 로봇 청소기의 위치 정보 등의 각종 정보가 저장된다.
도 3은 도 3은 본 발명에 따른 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법의 순서도이고, 도 4는 본 발명에 따른 로봇 청소기가 청소를 수행할 청소 대상 영역을 도시한 것이다. 도 5는 시간 t에서 촬영한 영상에서 추출된 특징점 가운데 임의의 특징점에 대하여 파티클을 생성하고, 순차적으로 인접한 시간 t+1에 촬영된 그 영상에 상기 생성된 파티클을 투영하는 파티클 리프로젝 션(particle reprojection)의 개념을 도시한 것이고, 도 6에서는 본 발명에 따른 로봇 청소기가 실제 순차적으로 인접한 두 영상을 획득하여 앞선 영상의 임의의 특징점에 대한 파티클을 뒤의 영상에 투영할 경우에 동일 특징점에 투영된 파티클의 확률이 가장 높음을 보이고 있다. 도 7은 최종적으로 작성된 전체 영역의 지도를 도시한 것이다.
도 3을 참조하면, 본 발명의 일실시예에 따른 단일카메라를 장착한 로봇 청소기의 3차원 환경 인식방법은 로봇 청소기에 설치된 단일 카메라를 이용하여 주행환경으로부터 순차적으로 획득한 각각의 영상에서 다수의 특징점을 추출하여 순차적으로 인접한 두 영상의 동일 특징점에 대한 매칭 정보를 산출하는 특징점 처리단계(S20)와; 상기 매칭 정보를 이용하여 상기 인접한 두 영상 가운데 앞선 영상의 특징점과 상기 카메라의 센터를 통과하는 가상선 상에서 유한개의 파티클을 생성하는 단계(S30)와; 상기 유한개의 파티클을 상기 인접한 두 영상 가운데 뒤의 영상으로 투영(projection)시켜 주변환경의 실제 특징점의 3차원 정보를 추출하는 단계(S40)와; 상기 각 단계를 대상 영역에서 반복 수행하여 상기 주변환경에서 자기 위치를 추정하고 3차원 지도를 작성하는 단계(S50)를 포함한다.
이하에서는, 도 3 및 도 4 내지 도 7을 참조하여, 본 발명의 일실시예에 따른 단일카메라를 장착한 로봇 청소기의 3차원 환경 인식방법을 상세히 설명하겠다.
상기 특징점 처리 단계(S20)에서는 먼저 로봇 청소기(100)는 시간 t에서 상부에 고정 장착된 카메라(110)를 이용하여 천장의 사진을 촬영하고 청소를 수행을 위하여 소정 시간 동안 이동한다.(S21) 이와 동시에, 상기 로봇의 청소기의 특징점 처리부(211)는 상기 촬영된 영상을 입력받아 천장의 모서리, 경계선, 전등 등으로부터 특징점을 추출하여, 상기 저장부(260)에 프레임 별로 저장한다.
그 후 상기 로봇 청소기(100)는 상기 소정 시간 청소 후 시간 t+1에서 카메라(110)를 이용하여 두번째 천장 영상을 촬영하고, 청소를 수행을 위하여 소정 시간 동안 이동한다.(S22) 이와 동시에, 상기 로봇의 청소기의 특징점 처리부(211)는 상기 촬영된 두번째 영상을 입력받아 천장의 모서리, 경계선, 전등 등으로부터 특징점을 추출하여, 상기 저장부(260)에 프레임 별로 저장한다.
이 경우 두번째 천장 영상은 첫번째 영상의 특징점과 동일한 특징점을 다수 포함하는 것이 바람직하다.
상기와 같이, 적어도 순차적으로 인접한 두개의 천장 영상으로부터 특징점을 추출하게 되면, 각각의 영상에서 추출된 특징점들 가운데 서로 동일한 특징점을 매칭시킨다.(S23)
상기 두 영상의 특징점을 매칭하는 경우에는 상기 카메라의 위치 정보가 필요하다. 본 실시예에서는 상기 카메라가 로봇 청소기의 상측에 고정적으로 설치된 단일의 카메라이므로, 상기 카메라의 이동 정보는 상기 이동 로봇의 이동 정보로부터 산출되는 것이 가능하다. 즉, 로봇 청소기의 이동 정보가 카메라의 이동 정보가 된다.
이 경우 서로 매칭되는 특징점의 수가 부족한 경우에는 새로운 영상을 촬여하거나 상기 촬영된 영상에서 특징점 추출과정을 다시 수행하는 것이 가능하다.
즉, 상기 로봇 청소기는 미지의 주변영역을 청소를 하면서 주변영역의 제1영 상을 획득하여 제1영상의 특징점을 추출하고, 상기 추출된 제1영상의 특징점의 수가 기준값 이상이면 상기 로봇 청소기가 상기 주변영역을 소정시간 동안 이동한 후에 제2영상을 획득하여 제2영상의 특징점을 추출한다. 상기 두 영상의 특징점을 매칭시키기 위해서는, 상기 카메라의 이동 정보가 필요하므로, 로봇 청소기의 이동 정보를 산출한다. 따라서, 상기 기준값 이상의 특징점이 추출된 영상이 적어도 두개 이상이면 상기 제1,2영상에서 추출된 특징점과 상기 로봇 청소기의 이동 정보를 이용하여 상기 제1,2영상의 특징점을 매칭한다.
상기 파티클 생성부(212)는 상기 특징점 매칭 결과에 따라, 상기 순차적으로 촬영된 두 영상 가운데 먼저 촬영된 영상에서 추출된 다수의 특징점에 대하여 파티클을 생성한다.(S30)
도 5 및 6을 참조하여 보다 상세히 설명하면, 상기 파티클 생성 과정은 상기 먼저 촬영된 영상(Image_t)에 존재하는 특징점(h'i )과 상기 카메라의 센터를 포함하는 가상선(ypi)을 가정하고, 상기 가상선 상에서 유한개(n)의 입자 즉, 파티클(particle)을 생성한다.
즉, 카메라가 시간 t에서 실제 주변환경의 특징점(X)을 촬영하면, 이 실제 특징점(X)은 촬영된 영상(Image_t) 위의 특징점(h'i )로 나타나므로, 상기 카메라의 센터와 상기 영상의 특징점을 연결하게 되면 실제 특징점(X)이 상기 가상선 상에 존재하게 된다. 한다. 따라서, 상기 파티클은 실제 특징점(X)을 포함하고 있으며, 계산상의 편의를 위하여 파티클의 수를 제한한 것이다.
상기 가상선(ypi)은 수식(1) 같이 벡터로 표시될 수 있다.
Figure 112009019527614-pat00001
-----------------------------------------(1)
여기서,
Figure 112009019527614-pat00002
는 카메라 센터의 위치를 표시하는 벡터이고,
Figure 112009019527614-pat00003
는 카메라 센터로부터 특징점을 향하는 방향을 표시하는 단위 벡터이다.
상기 3D 정보 처리부(213)는 상기 생성된 파티클을 상기 두번째 촬영된 영상(Image_t+1)으로 투영하며, 이와 같이 상기 두번째 촬영된 영상에서 실제 특징점을 나타내는 특징점(hi)을 포함하여 투영된다.
본 실시예에서는 상기 설정된 유한개의 파티클은 초기에 상기 가상 선상에서 균등한 간격과 균등한 웨이트(weight)로 설정되는 것을 가정하여, 첫번째 영상에서 생성된 유한개의 파티클에 실제 특징점이 존재할 수 있도록 하였다.
상기 3차원 정보를 추출하는 단계(S40)는, 상기 뒤의 영상으로 투영된 상기 유한개의 파티클의 각각이 상기 실제 특징점일 확률을 산출하고, 상기 산출된 확률 가운데 가장 높은 확률값을 가진 파티클을 선택하여 상기 실제 특징점의 높이를 구한다.
상기 3차원 지도를 작성하는 단계(S50)에서는, 상기 작성된 3차원 지도의 바닥면 지도가 폐곡선인지를 판단하고, 상기 바닥면 지도가 폐곡선이 아닌 경우에는 상기 바닥면 지도의 출발점과 최종점을 연결함으로써, 작성된 지도를 보정하는 것이 가능하다.
도 6을 참고하면, 도 6(A)는 시간 t에서 촬영된 영상의 두 특징점(a,b)의 파티클을 도(B)에서 보여지는 바와 같이 시간 t+1에 촬영된 영상으로 투영하면, 두 특징점(a,b)와 동일한 특징점(a',b')로 투영되는 확률이 가장 높은 것을 알 수 있다.
상기와 같이 일영역(A)에 대한 지도가 작성되면, 최종적으로 일영역(A)에서 로봇 청소기가 출발한 위치와 최종적으로 도착한 위치가 동일한지 여부를 판단하게 된다.
상기 판단결과에 따라, 출발 위치와 최종 도착 위치가 다른 경우에는 작성된 지도가 폐곡선을 이루도록 작성된 지도를 보정하게된다. 이와 같이 작성된 지도가 폐곡선을 이루지 못하는 것은 지역 지도를 작성과정 중에도 부분적으로 작성된 지도를 보정하여 점진적으로 지도를 완성하더라도 여전히 위치 판단에 에러가 존재하기 때문이다. 그러므로, 지역 영역의 지도가 폐곡선을 이루도록 보정하여 최종적으로 작성된 지도에 오류를 제거할 수 있다.
상기와 같은 일영역(A)에서 수행된 지역 영역의 지도 작성 과정을 다른 영역(B, C, D)에서도 수행하게 되면, 다수의 분할 영역으로 나누어 진 각각의 지역 영역에 대한 지도가 모두 완성되게 된다.
상기에서 본 발명은 특정한 실시예에 관하여 도시되고 설명되었지만, 당업계에서 통상의 지식을 가진 자라면 이하의 특허청구범위에 기재된 본 발명의 사상 및 영역을 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 알 수 있을 것이다. 그렇지만 이러한 수정 및 변형 구조들은 모두 본 발명의 권 리범위 내에 포함되는 것임을 분명하게 밝혀두고자 한다.
도 1은 본 발명의 일실시예에 따른 단일 카메라를 장착한 로봇 청소기의 개략적인 사시도이다.
도 2는 본 발명의 일실시예에 따른 단일 카메라를 장착한 로봇 청소기의 제어 장치의 블록도이다.
도 3은 본 발명에 따른 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법의 순서도이다.
도 4는 본 발명에 따른 로봇 청소기가 청소를 수행할 청소 대상 영역을 도시한 것이다.
도 5는 시간 t에서 촬영한 영상에서 추출된 특징점 가운데 임의의 특징점에 대하여 파티클을 생성하고, 순차적으로 인접한 시간 t+1에 촬영된 영상에 상기 생성된 파티클을 투영하는 파티클 리프로젝션(particle reprojection)의 개념을 도시한 것이다.
도 6에서는 본 발명에 따른 로봇 청소기가 실제 순차적으로 인접한 두 영상을 획득하여 앞선 영상의 임의의 특징점에 대한 파티클을 뒤의 영상에 투영할 경우에 동일 특징점에 투영된 파티클의 확률이 가장 높음을 보이고 있다.
도 7은 최종적으로 작성된 전체 영역의 지도를 도시한 것이다.

Claims (10)

  1. 순차적으로 획득된 제1 및 제2 영상에서 각각 적어도 하나의 특징점을 추출하고, 추출된 특징점에 대한 매칭을 수행하는 특징점 처리 단계;
    상기 매칭된 특징점에 근거하여, 상기 제1 영상의 특징점과 카메라의 센터를 통과하는 가상선을 설정하고, 상기 설정된 가상선 상에서 소정 개수의 파티클을 생성하는 파티클 생성 단계;
    상기 생성된 파티클을 상기 제2 영상으로 투영(projection)시키고, 투영된 파티클에 근거하여 상기 제1 영상의 특징점에 대응하는 실제 특징점의 3차원 정보를 추출하는 단계 및
    상기 각 단계를 대상 영역에서 반복 수행하여, 상기 대상 영역의 3차원 지도를 작성하는 단계를 포함하는 로봇 청소기의 제어방법.
  2. 제 1 항에 있어서,
    상기 로봇 청소기에는 카메라가 설치되고,
    상기 카메라는 상기 제1 및 제2 영상을 소정의 시간간격으로 획득하며,
    상기 카메라는 로봇 청소기의 상측에 고정적으로 설치되어 천장 영상을 획득하는 것을 특징으로 하는 로봇 청소기의 제어방법.
  3. 제 1 항에 있어서,
    상기 설정된 파티클은 초기에 상기 가상 선상에서 균등한 간격과 균등한 웨이트(weight)로 설정되는 것을 특징으로 하는 로봇 청소기의 제어방법.
  4. 제 3 항에 있어서,
    상기 파티클에는 상기 제1 영상의 특징점에 대응하는 상기 실제 특징점이 포함되는 것을 특징으로 하는 로봇 청소기의 제어방법.
  5. 제 1 항에 있어서,
    상기 3차원 지도를 작성하는 단계는, 상기 작성된 3차원 지도의 바닥면 지도가 폐곡선인지를 판단하는 단계와;
    상기 바닥면 지도가 폐곡선이 아닌 경우에는 상기 바닥면 지도의 출발점과 최종점을 연결하는 단계를 포함하는 것을 특징으로 하는 로봇 청소기의 제어방법.
  6. 제 1 항에 있어서,
    상기 3차원 정보를 추출하는 단계는, 상기 제2 영상으로 투영된 상기 파티클의 각각에 대해, 상기 실제 특징점일 확률을 산출하는 단계와;
    상기 산출된 확률 가운데 가장 높은 확률값을 가진 파티클을 선택하여 상기 실제 특징점의 높이를 구하는 단계를 포함하는 것을 특징으로 하는 로봇 청소기의 제어방법.
  7. 제 1 항에 있어서,
    상기 특징점 처리 단계는, 상기 로봇 청소기가 주변영역을 청소하는 중에 상기 주변영역과 관련된 상기 제1 영상을 획득하여 특징점을 추출하는 단계와;
    상기 추출된 특징점의 수가 기준값 이상이면 상기 로봇 청소기가 상기 주변영역에서 소정시간 동안 이동한 후에 상기 제2 영상을 획득하여 특징점을 추출하고, 상기 로봇 청소기의 이동 정보를 산출하는 단계와;
    상기 제1 및 제2 영상에서 추출된 특징점과 상기 카메라의 이동 정보를 이용하여 상기 제1 및 제2 영상의 특징점을 매칭하는 단계를 포함하는 것을 특징으로 하는 로봇 청소기의 제어방법.
  8. 제 7 항에 있어서,
    상기 카메라가 상기 이동 로봇에 고정 설치된 경우,
    상기 카메라의 이동 정보는 상기 이동 로봇의 이동 정보로부터 산출되는 것을 특징으로 하는 로봇 청소기의 제어방법.
  9. 제 1 항에 있어서,
    적어도 하나의 상기 제1 및 제2 영상, 상기 추출된 특징점, 상기 특징점 매칭 정보, 상기 추출된 특징점의 3차원 정보를 저장하는 단계를 더 포함하는 것을 특징으로 하는 로봇 청소기의 제어방법.
  10. 제 2 항에 있어서,
    상기 특징점은 적어도 상기 천장의 모서리, 코너점, 전등을 포함하는 것을 특징으로 하는 로봇 청소기의 제어방법.
KR1020090027786A 2009-03-31 2009-03-31 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법 KR101570377B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020090027786A KR101570377B1 (ko) 2009-03-31 2009-03-31 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
US13/262,192 US9060658B2 (en) 2009-03-31 2010-03-12 Mobile robot with single camera and method for recognizing 3D surroundings of the same
AU2010232114A AU2010232114B2 (en) 2009-03-31 2010-03-12 Mobile robot with single camera and method for recognizing 3D surroundings of the same
PCT/KR2010/001556 WO2010114235A1 (en) 2009-03-31 2010-03-12 Mobile robot with single camera and method for recognizing 3d surroundings of the same
EP10758960.8A EP2413772B1 (en) 2009-03-31 2010-03-12 Mobile robot with single camera and method for recognizing 3d surroundings of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090027786A KR101570377B1 (ko) 2009-03-31 2009-03-31 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법

Publications (2)

Publication Number Publication Date
KR20100109257A KR20100109257A (ko) 2010-10-08
KR101570377B1 true KR101570377B1 (ko) 2015-11-20

Family

ID=42828487

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090027786A KR101570377B1 (ko) 2009-03-31 2009-03-31 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법

Country Status (5)

Country Link
US (1) US9060658B2 (ko)
EP (1) EP2413772B1 (ko)
KR (1) KR101570377B1 (ko)
AU (1) AU2010232114B2 (ko)
WO (1) WO2010114235A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772084B1 (ko) * 2015-07-29 2017-08-28 엘지전자 주식회사 이동 로봇 및 그 제어방법

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101366860B1 (ko) * 2011-09-20 2014-02-21 엘지전자 주식회사 이동 로봇 및 이의 제어 방법
KR101874494B1 (ko) 2011-11-25 2018-07-06 삼성전자주식회사 특징점의 삼차원 위치 계산 장치 및 방법
KR101364047B1 (ko) * 2012-11-05 2014-02-27 재단법인대구경북과학기술원 물체인식을 바탕으로 한 칼만필터를 이용한 이동체의 자기위치 추정방법 및 장치
KR101932537B1 (ko) 2013-01-08 2019-03-15 한화테크윈 주식회사 3차원 전자지도상에 촬영영상을 표시하는 방법 및 장치
KR102071575B1 (ko) 2013-04-23 2020-01-30 삼성전자 주식회사 이동로봇, 사용자단말장치 및 그들의 제어방법
KR101505427B1 (ko) * 2013-08-23 2015-03-25 삼성중공업 주식회사 선체의 표면 청소 시스템
US10255548B1 (en) * 2013-10-02 2019-04-09 Hrl Laboratories, Llc Method and apparatus for modeling probability matching human subjects in n-arm bandit tasks
JP6599603B2 (ja) 2014-04-18 2019-10-30 東芝ライフスタイル株式会社 自律走行体
JP6003942B2 (ja) * 2014-04-24 2016-10-05 トヨタ自動車株式会社 動作制限装置及び動作制限方法
KR102332752B1 (ko) * 2014-11-24 2021-11-30 삼성전자주식회사 지도 서비스를 제공하는 전자 장치 및 방법
CN105739365B (zh) * 2014-12-10 2018-10-12 联想(北京)有限公司 信息处理方法及电子设备
US10091015B2 (en) * 2014-12-16 2018-10-02 Microsoft Technology Licensing, Llc 3D mapping of internet of things devices
KR102328252B1 (ko) * 2015-02-13 2021-11-19 삼성전자주식회사 청소 로봇 및 그 제어방법
DE102015105211A1 (de) 2015-04-07 2016-10-13 Vorwerk & Co. Interholding Gmbh Verfahren zur Bearbeitung eines Bodens
USD813761S1 (en) * 2015-07-29 2018-03-27 Lr Acquisition, Llc Controller of an unmanned aerial vehicle
EP3439522B1 (en) 2016-04-08 2023-06-07 A&K Robotics Inc. Autoscrubber convertible between manual and autonomous operation
CN107402569B (zh) * 2016-05-19 2020-01-21 科沃斯机器人股份有限公司 自移动机器人及地图构建方法、组合机器人地图调用方法
KR102388583B1 (ko) * 2016-10-25 2022-04-21 엘지전자 주식회사 청소기 및 그 제어방법
KR101952414B1 (ko) * 2016-10-25 2019-02-26 엘지전자 주식회사 청소기 및 그 제어방법
DE102016125358A1 (de) * 2016-12-22 2018-06-28 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Reinigungsgerätes sowie ein solches Reinigungsgerät
KR20180121244A (ko) * 2017-04-28 2018-11-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102314539B1 (ko) * 2017-06-09 2021-10-18 엘지전자 주식회사 인공지능 이동 로봇의 제어 방법
US10803291B2 (en) * 2017-11-17 2020-10-13 Pixart Imaging Inc. Encoding and decoding method and information recognition device using the same
KR102295824B1 (ko) 2019-12-06 2021-08-31 엘지전자 주식회사 잔디깎기 로봇의 지도 생성방법
CN114680732A (zh) * 2020-12-25 2022-07-01 苏州宝时得电动工具有限公司 一种清洁机器人及其清洁控制方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030212472A1 (en) 2002-05-10 2003-11-13 Royal Appliance Mfg. Co. Autonomous multi-platform robot system

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5525883A (en) 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
US6226395B1 (en) * 1996-04-22 2001-05-01 Malcolm T. Gilliland Method and apparatus for determining the configuration of a workpiece
US20030206652A1 (en) * 2000-06-28 2003-11-06 David Nister Depth map creation through hypothesis blending in a bayesian framework
KR100406636B1 (ko) * 2001-04-18 2003-11-21 삼성광주전자 주식회사 로봇 청소기와 그 시스템 및 제어방법
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
US7015831B2 (en) * 2002-12-17 2006-03-21 Evolution Robotics, Inc. Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques
US20040204792A1 (en) 2003-03-14 2004-10-14 Taylor Charles E. Robotic vacuum with localized cleaning algorithm
JP2006061220A (ja) * 2004-08-24 2006-03-09 Funai Electric Co Ltd 自走式掃除機
KR100560966B1 (ko) * 2004-10-12 2006-03-15 삼성광주전자 주식회사 로봇 청소기의 자이로 센서 보정방법
ATE523130T1 (de) * 2005-02-18 2011-09-15 Irobot Corp Selbstfahrender flächenreinigungsroboter für nass-und trockenreinigung
JP4300199B2 (ja) 2005-06-13 2009-07-22 株式会社東芝 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム
KR100702663B1 (ko) 2005-08-27 2007-04-02 한국과학기술원 입자 필터 프레임 워크에서 전방향 시각센서 기반 위치추정 및 매핑을 위한 방법
KR100792852B1 (ko) 2006-10-25 2008-01-14 전자부품연구원 단일 카메라를 이용한 이동 로봇의 랜드 마크 거리추출방법
KR100866380B1 (ko) * 2007-02-13 2008-11-03 한국과학기술연구원 물체인식을 바탕으로 한 로봇의 자기위치 추정 방법
KR101538775B1 (ko) * 2008-09-12 2015-07-30 삼성전자 주식회사 전방 영상을 이용한 위치 인식 장치 및 방법
US10650608B2 (en) * 2008-10-08 2020-05-12 Strider Labs, Inc. System and method for constructing a 3D scene model from an image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030212472A1 (en) 2002-05-10 2003-11-13 Royal Appliance Mfg. Co. Autonomous multi-platform robot system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772084B1 (ko) * 2015-07-29 2017-08-28 엘지전자 주식회사 이동 로봇 및 그 제어방법

Also Published As

Publication number Publication date
EP2413772A1 (en) 2012-02-08
AU2010232114B2 (en) 2013-02-07
US9060658B2 (en) 2015-06-23
WO2010114235A1 (en) 2010-10-07
AU2010232114A1 (en) 2011-10-20
EP2413772B1 (en) 2019-05-08
US20120019627A1 (en) 2012-01-26
EP2413772A4 (en) 2017-05-10
KR20100109257A (ko) 2010-10-08

Similar Documents

Publication Publication Date Title
KR101570377B1 (ko) 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
KR101524020B1 (ko) 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
CN110091326B (zh) 移动机器人以及移动机器人的控制方法
CN110313863B (zh) 自主移动清扫机、自主移动清扫机的清扫方法以及程序
CN110313867B (zh) 自主移动清扫机、自主移动清扫机的清扫方法及记录介质
KR101887055B1 (ko) 로봇 청소기 및 그 제어 방법
JP6831213B2 (ja) 電気掃除機
KR101677634B1 (ko) 로봇 청소기 및 이의 제어 방법
US11537135B2 (en) Moving robot and controlling method for the moving robot
TWI726031B (zh) 電動掃除機
KR101540666B1 (ko) 이동 로봇의 위치추정을 위한 회전변화에 불변하는 특징점 검출 장치 및 방법
CN110325938B (zh) 电动吸尘器
US20210138640A1 (en) Robot cleaner
JP6609463B2 (ja) 自走式電子機器
KR101842459B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101303161B1 (ko) 이동 로봇 및 이의 제어 방법
KR20190103511A (ko) 이동 로봇 및 그 제어방법
KR101965739B1 (ko) 이동 로봇 및 이의 제어 방법
WO2020059292A1 (ja) 自律走行掃除機
KR20200142865A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
CN111225592B (zh) 自主行走吸尘器和扩展区域识别方法
JP6850970B2 (ja) 自律走行型掃除機
US20230245465A1 (en) Robot cleaner and control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20191014

Year of fee payment: 5