KR102504729B1 - 웨이포인트 매칭을 이용한 자율적 맵 주행 - Google Patents
웨이포인트 매칭을 이용한 자율적 맵 주행 Download PDFInfo
- Publication number
- KR102504729B1 KR102504729B1 KR1020217014063A KR20217014063A KR102504729B1 KR 102504729 B1 KR102504729 B1 KR 102504729B1 KR 1020217014063 A KR1020217014063 A KR 1020217014063A KR 20217014063 A KR20217014063 A KR 20217014063A KR 102504729 B1 KR102504729 B1 KR 102504729B1
- Authority
- KR
- South Korea
- Prior art keywords
- waypoint
- robot
- data
- map
- sensor
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims abstract description 45
- 230000015654 memory Effects 0.000 claims abstract description 43
- 238000004891 communication Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 45
- 230000004807 localization Effects 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 21
- 238000005259 measurement Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 17
- 230000000007 visual effect Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 abstract description 6
- 230000009471 action Effects 0.000 abstract description 3
- 238000003860 storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 230000006399 behavior Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 235000019994 cava Nutrition 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/027—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40298—Manipulator on vehicle, wheels, mobile
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Theoretical Computer Science (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
[0019] 도 2a는 로봇에 대한 맵의 예의 개략도이다.
[0020] 도 2b는 베이슨을 갖는 맵의 예시적인 웨이포인트의 개략도이다.
[0021] 도 2c는 맵 제약들을 갖는 예시적인 맵의 개략도이다.
[0022] 도 2d는 로봇에 대한 예시적인 맵의 개략도이다.
[0023] 도 3 및 도 4는 로봇에 대한 로봇 환경 주행을 구현하기 위한 예시적인 어레인지먼트(arrangement)들의 흐름도들이다.
[0024] 도 5은 본원에 설명된 시스템들 및 방법들을 구현하기 위해 사용될 수 있는 예시적인 컴퓨팅 디바이스의 개략도이다.
[0025] 다양한 도면들에서 유사한 참조 부호들은 유사한 요소들을 표시한다.
Claims (30)
- 방법(300)으로서,
데이터 프로세싱 하드웨어(112)에서, 환경(10)에서 조작되는 로봇(100)의 센서 데이터(124)를 수신하는 단계;
상기 데이터 프로세싱 하드웨어(112)에 의해, 상기 센서 데이터(124)에 기초하여 적어도 하나의 웨이포인트 휴리스틱(waypoint heuristic)(212)을 실행하는 단계 ― 상기 적어도 하나의 웨이포인트 휴리스틱(212)은 웨이포인트 맵(200) 상의 웨이포인트(210)의 배치를 트리거하도록 구성됨 ―;
상기 적어도 하나의 웨이포인트 휴리스틱(212)의 실행에 기초하여, 상기 데이터 프로세싱 하드웨어(112)에 의해:
상기 웨이포인트 맵(200) 상의 상기 웨이포인트(210) ― 상기 웨이포인트(210)는 적어도 하나의 웨이포인트 에지(220)와 연관되고 상기 센서 데이터(124) 중 적어도 일부와 연관됨 ―, 및
상기 웨이포인트의 베이슨(basin) 구역 ― 상기 베이슨 구역은 상기 웨이포인트에 관한 영역을 정의함 ―
을 기록하는 단계;
상기 로봇의 위치가 상기 베이슨 구역 내에 있는지 여부를 결정하는 단계;
상기 로봇의 위치가 상기 베이슨 구역 내에 있는지 여부를 결정하는 것에 기초하여, 상기 로봇의 움직임을 결정하기 위한 복수의 알고리즘들로부터 알고리즘을 결정하는 단계
를 포함하는,
방법(300). - 제1 항에 있어서,
상기 센서 데이터(124)는 3차원 체적 이미지 센서(122)에 의해 캡처된 3차원 포인트 클라우드 데이터를 포함하는, 방법(300). - 제2 항에 있어서,
상기 3차원 체적 이미지 센서(122)는 스테레오 카메라, 스캐닝 LIDAR(light-detection and ranging) 센서, 또는 스캐닝 LADAR(laser-detection and ranging) 센서 중 하나 이상을 포함하는, 방법(300). - 제1 항 또는 제2 항에 있어서,
상기 적어도 하나의 웨이포인트 휴리스틱(212)은 상기 로봇(100)의 현재 위치에서 상기 센서 데이터(124) 내의 임계 특징부을 검출하도록 구성되는, 방법(300). - 제1 항 또는 제2 항에 있어서,
상기 웨이포인트(210)의 상기 센서 데이터(124)는,
3차원 체적 이미지 센서(122)에 의해 캡처된 3차원 포인트 클라우드 데이터; 및
상기 로봇(100)의 IMU(inertial measurement unit)에 의해 측정된 관성 측정 데이터(124)를 포함하는 포즈 데이터(124)를 포함하는, 방법(300). - 제5 항에 있어서,
주어진 웨이포인트(210)에 대해,
상기 주어진 웨이포인트(210)에 대한 이웃 웨이포인트들(210)을 식별하는 단계;
상기 주어진 웨이포인트(210) 및 상기 이웃 웨이포인트들(210)의 상기 3차원 포인트 클라우드 데이터의 3차원 포인트들을 3차원 포인트들의 집합으로서 식별하는 단계;
상기 3차원 포인트들의 집합의 상기 3차원 포인트들이 상기 3차원 포인트 클라우드 데이터에 의해 표현된 이미지의 시각적 에지에 대응하는지 여부를 결정하는 단계; 및
상기 3차원 포인트 클라우드 데이터에 의해 표현된 상기 이미지의 상기 시각적 에지에 대응하는 상기 3차원 포인트들의 집합의 상기 3차원 포인트들을 상기 주어진 웨이포인트(210)와 연관시키는 단계를 더 포함하는, 방법(300). - 제1 항 또는 제2 항에 있어서,
상기 웨이포인트(210)는 상기 로봇(100)이 상기 웨이포인트(210)에서 배향된 포즈를 달성하게 하도록 구성된 로봇 포즈 제약(240)을 포함하는, 방법(300). - 제1 항 또는 제2 항에 있어서,
상기 웨이포인트 맵(200)은 이웃 웨이포인트들(210)과 로컬로 일치하는, 방법(300). - 제1 항에 있어서,
상기 웨이포인트 에지(220)는 상기 환경(10)의 공간적 특징부를 표시하는 어노테이션(annotation)을 포함하는, 방법(300). - 제1 항 또는 제2 항에 있어서,
상기 베이슨 구역(230)은 상기 로봇(100)이 ICP(iterative closest points) 알고리즘을 사용하도록 구성되는 상기 웨이포인트(210)에 인접한 영역을 정의하는, 방법(300). - 로봇(100)으로서,
환경(10) 주위에서 상기 로봇(100)을 조작하도록 구성된 드라이브 시스템;
상기 드라이브 시스템과 통신하는 데이터 프로세싱 하드웨어(112); 및
상기 데이터 프로세싱 하드웨어(112)와 통신하는 메모리 하드웨어(114)를 포함하고, 상기 메모리 하드웨어(114)는, 상기 데이터 프로세싱 하드웨어(112) 상에서 실행될 때 상기 데이터 프로세싱 하드웨어(112)로 하여금 동작들을 수행하게 하는 명령들을 저장하고, 상기 동작들은,
상기 환경(10)에서 조작되는 상기 로봇(100)의 센서 데이터(124)를 수신하는 것;
상기 센서 데이터(124)에 기초하여 적어도 하나의 웨이포인트 휴리스틱(212)을 실행하는 것 ― 상기 적어도 하나의 웨이포인트 휴리스틱(212)은 웨이포인트 맵(200) 상에 웨이포인트의 배치를 트리거하도록 구성됨 ―;
상기 적어도 하나의 웨이포인트 휴리스틱(212)의 실행에 기초하여:
상기 웨이포인트 맵(200) 상의 상기 웨이포인트(210) ― 상기 웨이포인트(210)는 적어도 하나의 웨이포인트 에지(220)와 연관되고 상기 센서 데이터(124) 중 적어도 일부와 연관됨 ―, 및
상기 웨이포인트의 베이슨 구역 ― 상기 베이슨 구역은 상기 웨이포인트에 관한 영역을 정의함 ―
를 기록하는 것;
상기 로봇의 위치가 상기 베이슨 구역 내에 있는지 여부를 결정하는 것; 및
상기 로봇의 위치가 상기 베이슨 구역 내에 있는지 여부를 결정하는 것에 기초하여, 상기 로봇의 움직임을 결정하기 위한 복수의 알고리즘들로부터 알고리즘을 결정하는 것
을 포함하는,
로봇(100). - 제11 항에 있어서,
상기 센서 데이터(124)는 3차원 체적 이미지 센서(122)에 의해 캡처된 3차원 포인트 클라우드 데이터를 포함하는, 로봇(100). - 제12 항에 있어서,
상기 이미지 센서는 스테레오 카메라, 스캐닝 LIDAR(light-detection and ranging) 센서, 또는 스캐닝 LADAR(laser-detection and ranging) 센서 중 하나 이상을 포함하는, 로봇(100). - 제11 항 또는 제12 항에 있어서,
상기 적어도 하나의 웨이포인트 휴리스틱(212)은 상기 로봇(100)의 현재 위치에서 상기 센서 데이터(124) 내의 임계 특징부를 검출하도록 구성되는, 로봇(100). - 제11 항 또는 제12 항에 있어서,
상기 웨이포인트(210)의 상기 센서 데이터(124)는,
3차원 체적 이미지 센서(122)에 의해 캡처된 3차원 포인트 클라우드 데이터; 및
상기 로봇(100)의 IMU(inertial measurement unit)에 의해 측정된 관성 측정 데이터(124)를 포함하는 포즈 데이터(124)를 포함하는, 로봇(100). - 제15 항에 있어서,
상기 동작들은, 주어진 웨이포인트(210)에 대해,
상기 주어진 웨이포인트(210)에 대한 이웃 웨이포인트들(210)을 식별하는 것;
상기 주어진 웨이포인트(210) 및 상기 이웃 웨이포인트들(210)의 상기 3차원 포인트 클라우드 데이터의 3차원 포인트들을 3차원 포인트들의 집합으로서 식별하는 것;
상기 3차원 포인트들의 집합의 상기 3차원 포인트들이 상기 3차원 포인트 클라우드 데이터에 의해 표현된 이미지의 시각적 에지에 대응하는지 여부를 결정하는 것; 및
상기 3차원 포인트 클라우드 데이터에 의해 표현된 상기 이미지의 상기 시각적 에지에 대응하는 상기 3차원 포인트들의 집합의 상기 3차원 포인트들을 상기 주어진 웨이포인트(210)와 연관시키는 것을 더 포함하는, 로봇(100). - 제11 항 또는 제12 항에 있어서,
상기 웨이포인트(210)는 상기 로봇(100)이 상기 웨이포인트(210)에서 배향된 포즈를 달성하게 하도록 구성된 로봇 포즈 제약(240)을 포함하는, 로봇(100). - 제11 항 또는 제12 항에 있어서,
상기 웨이포인트 맵(200)은 이웃 웨이포인트들(210)과 로컬로 일치하는, 로봇(100). - 제11 항 또는 제12 항에 있어서,
상기 웨이포인트 에지는 상기 환경(10)의 공간적 특징부를 표시하는 어노테이션을 포함하는, 로봇(100). - 제11 항 또는 제12 항에 있어서,
상기 베이슨 구역(230)은 상기 로봇(100)이 ICP(iterative closest points) 알고리즘을 사용하도록 구성되는 상기 웨이포인트(210)에 인접한 영역을 정의하는, 로봇(100). - 방법(400)으로서,
데이터 프로세싱 하드웨어(112)에서, 환경(10)에서 조작되는 로봇(100)의 상기 환경(10)의 이미지 센서 데이터(124)를 수신하는 단계;
상기 로봇의 위치가 웨이포인트 맵(200)의 제1 웨이포인트의 베이슨 구역 내에 있는지 여부를 결정하는 단계;
상기 로봇의 위치가 상기 베이슨 구역 내에 있는지 여부를 결정하는 것에 기초하여, 상기 로봇의 로컬화를 결정하기 위한 복수의 알고리즘들로부터 알고리즘을 결정하는 단계;
상기 알고리즘을 결정하는 것에 기초하여, 상기 데이터 프로세싱 하드웨어(112)에 의해, 상기 수신된 이미지 데이터(124)에 기초하여 제1 웨이포인트(210a)에 로컬화하도록 구성된 ICP(iterative closest points) 알고리즘을 실행하는 단계;
상기 데이터 프로세싱 하드웨어(112)에 의해, 상기 웨이포인트 맵(200)의 제1 웨이포인트(210a)로부터 상기 웨이포인트 맵(200)의 제2 웨이포인트(210b)로의 주행 경로(250)를 실행하는 단계; 및
상기 데이터 프로세싱 하드웨어(112)에 의해, 상기 수신된 이미지 데이터(124)에 기초하여 상기 ICP 알고리즘에 의해 상기 웨이포인트 맵(200)의 상기 제2 웨이포인트(210b)에 대한 상기 로컬화를 업데이트하는 단계를 포함하는, 방법(400). - 제21 항에 있어서,
상기 이미지 데이터(124)는 3차원 체적 이미지 센서(122)에 의해 캡처된 3차원 포인트 클라우드 데이터를 포함하는, 방법(400). - 제22 항에 있어서,
상기 이미지 센서(122)는 스테레오 카메라, 스캐닝 LIDAR(light-detection and ranging) 센서, 또는 스캐닝 LADAR(laser-detection and ranging) 센서 중 하나 이상을 포함하는, 방법(400). - 제21 항 또는 제22 항에 있어서,
상기 제2 웨이포인트(210b)에 대한 로컬화를 업데이트하는 단계는 상기 수신된 이미지 데이터(124)를 상기 웨이포인트 맵(200)의 저장된 이미지 데이터(124)와 비교하는 단계를 더 포함하고, 상기 저장된 이미지 데이터(124)는 상기 제2 웨이포인트(210b)와 연관되는, 방법(400). - 제21 항 또는 제22 항에 있어서,
상기 제2 웨이포인트(210b)에 대한 상기 로컬화를 업데이트하는 단계는:
상기 로봇의 위치가 상기 제2 웨이포인트의 제2 베이슨 구역 내에 있는지 여부를 결정하는 단계;
상기 로봇의 위치가 상기 제2 베이슨 구역 내에 있는지 여부를 결정하는 것에 기초하여, 상기 로봇의 로컬화를 결정하기 위한 복수의 알고리즘들로부터 제2 알고리즘을 결정하는 단계; 및
상기 제2 알고리즘을 결정하는 것에 기초하여, 상기 데이터 프로세싱 하드웨어(112)에 의해, 운동학적 데이터(124) 및 관성 측정 데이터(124)에 따라 상기 위치에서 로컬화를 실행하는 단계를 더 포함하는, 방법(400). - 로봇(100)으로서,
본체(150);
상기 본체(150)에 커플링되고 환경(10) 주위에서 상기 로봇(100)을 조작하도록 구성된 다리들(103, 104, 106, 108);
상기 다리들(103, 104, 106, 108))과 통신하는 데이터 프로세싱 하드웨어(112); 및
상기 데이터 프로세싱 하드웨어(112)와 통신하는 메모리 하드웨어(114)를 포함하고, 상기 메모리 하드웨어(114)는, 상기 데이터 프로세싱 하드웨어(112) 상에서 실행될 때 상기 데이터 프로세싱 하드웨어(112)로 하여금 동작들을 수행하게 하는 명령들을 저장하고, 상기 동작들은,
환경(10)에서 조작되는 로봇(100)의 상기 환경(10)의 이미지 데이터(124)를 수신하는 것;
상기 로봇의 위치가 웨이포인트 맵(200)의 제1 웨이포인트(210a)의 베이슨 구역 내에 있는지 여부를 결정하는 것;
상기 로봇의 위치가 상기 베이슨 구역 내에 있는지 여부를 결정하는 것에 기초하여, 상기 로봇의 로컬화를 결정하기 위한 복수의 알고리즘들로부터 알고리즘을 결정하는 것;
상기 알고리즘을 결정하는 것에 기초하여, 상기 수신된 이미지 데이터(124)에 기초하여 상기 제1 웨이포인트(210a)에 로컬화하도록 구성된 ICP(iterative closest points) 알고리즘을 실행하는 것;
상기 웨이포인트 맵(200)의 제1 웨이포인트(210a)로부터 상기 웨이포인트 맵(200)의 제2 웨이포인트(210b)로의 주행 경로(250)를 실행하는 것; 및
상기 수신된 이미지 데이터(124)에 기초하여 상기 ICP 알고리즘에 의해 상기 웨이포인트 맵(200)의 상기 제2 웨이포인트(210b)에 대한 상기 로컬화를 업데이트하는 것을 포함하는, 로봇(100). - 제26 항에 있어서,
상기 이미지 데이터(124)는 3차원 체적 이미지 센서(122)에 의해 캡처된 3차원 포인트 클라우드 데이터를 포함하는, 로봇(100). - 제27 항에 있어서,
상기 이미지 센서는 스테레오 카메라, 스캐닝 LIDAR(light-detection and ranging) 센서, 또는 스캐닝 LADAR(laser-detection and ranging) 센서 중 하나 이상을 포함하는, 로봇(100). - 제26 항 또는 제27 항에 있어서,
상기 제2 웨이포인트(210b)에 대한 로컬화를 업데이트하는 것은 상기 수신된 이미지 데이터(124)를 상기 웨이포인트 맵(200)의 저장된 이미지 데이터(124)와 비교하는 것을 더 포함하고, 상기 저장된 이미지 데이터(124)는 상기 제2 웨이포인트(210b)와 연관되는, 로봇(100). - 제26 항 또는 제27 항에 있어서,
상기 제2 웨이포인트(210b)에 대한 상기 로컬화를 업데이트하는 것은:
상기 로봇의 위치가 상기 제2 웨이포인트의 제2 베이슨 구역 내에 있는지 여부를 결정하는 것;
상기 로봇의 위치가 상기 제2 베이슨 구역 내에 있는지 여부를 결정하는 것에 기초하여, 상기 로봇의 로컬화를 결정하기 위한 복수의 알고리즘들로부터 제2 알고리즘을 결정하는 것; 및
상기 제2 알고리즘을 결정하는 것에 기초하여, 상기 데이터 프로세싱 하드웨어(112)에 의해, 운동학적 데이터(124) 및 관성 측정 데이터(124)에 따라 상기 위치에서 로컬화를 실행하는 것을 더 포함하는, 로봇(100).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020237006525A KR102648771B1 (ko) | 2018-10-12 | 2019-08-23 | 웨이포인트 매칭을 이용한 자율적 맵 주행 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862745013P | 2018-10-12 | 2018-10-12 | |
US62/745,013 | 2018-10-12 | ||
US16/295,592 | 2019-03-07 | ||
US16/295,592 US11747825B2 (en) | 2018-10-12 | 2019-03-07 | Autonomous map traversal with waypoint matching |
PCT/US2019/047804 WO2020076422A2 (en) | 2018-10-12 | 2019-08-23 | Autonomous map traversal with waypoint matching |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237006525A Division KR102648771B1 (ko) | 2018-10-12 | 2019-08-23 | 웨이포인트 매칭을 이용한 자율적 맵 주행 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210058998A KR20210058998A (ko) | 2021-05-24 |
KR102504729B1 true KR102504729B1 (ko) | 2023-03-02 |
Family
ID=70161286
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237006525A KR102648771B1 (ko) | 2018-10-12 | 2019-08-23 | 웨이포인트 매칭을 이용한 자율적 맵 주행 |
KR1020217014063A KR102504729B1 (ko) | 2018-10-12 | 2019-08-23 | 웨이포인트 매칭을 이용한 자율적 맵 주행 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020237006525A KR102648771B1 (ko) | 2018-10-12 | 2019-08-23 | 웨이포인트 매칭을 이용한 자율적 맵 주행 |
Country Status (6)
Country | Link |
---|---|
US (3) | US11747825B2 (ko) |
EP (1) | EP3864484A2 (ko) |
JP (1) | JP7259020B2 (ko) |
KR (2) | KR102648771B1 (ko) |
CN (1) | CN112840285A (ko) |
WO (1) | WO2020076422A2 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12222723B2 (en) | 2021-06-04 | 2025-02-11 | Boston Dynamics, Inc. | Directed exploration for navigation in dynamic environments |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11747825B2 (en) | 2018-10-12 | 2023-09-05 | Boston Dynamics, Inc. | Autonomous map traversal with waypoint matching |
WO2021025707A1 (en) | 2019-08-06 | 2021-02-11 | Boston Dynamics, Inc. | Intermediate waypoint generator |
JP2021146491A (ja) * | 2020-03-23 | 2021-09-27 | ソニーグループ株式会社 | 制御装置及び制御方法、並びにコンピュータプログラム |
US11712802B2 (en) * | 2020-04-20 | 2023-08-01 | Boston Dynamics, Inc. | Construction constrained motion primitives from robot maps |
US11927961B2 (en) * | 2020-04-20 | 2024-03-12 | Boston Dynamics, Inc. | Constrained robot autonomy language |
US11681304B2 (en) * | 2020-09-01 | 2023-06-20 | International Business Machines Corporation | Emergency response system |
CN112097744B (zh) * | 2020-09-16 | 2022-08-30 | 上海遥程信息科技有限公司 | 一种竖立面的图像扫描方法、装置、设备和存储介质 |
US20220390952A1 (en) * | 2021-06-04 | 2022-12-08 | Boston Dynamics, Inc. | Detecting negative obstacles |
CN113741457B (zh) * | 2021-09-03 | 2024-08-20 | 上海擎朗智能科技有限公司 | 地图构建和使用方法、机器人及存储介质 |
US12137856B2 (en) * | 2021-11-22 | 2024-11-12 | Irobot Corporation | Trajectory-based localization and mapping |
US20230211842A1 (en) * | 2021-12-31 | 2023-07-06 | Hyundai Motor Company | Autonomous walking vehicle |
US20240210177A1 (en) * | 2022-12-23 | 2024-06-27 | Brookhurst Garage, Inc. | Topometric map based autonomous navigation for inventory drone |
CN116188702B (zh) * | 2023-04-28 | 2023-07-25 | 北京德塔精要信息技术有限公司 | 一种相机漫游路线的搭建方法、系统、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007051972A1 (en) * | 2005-10-31 | 2007-05-10 | Qinetiq Limited | Navigation system |
US20090125225A1 (en) * | 2004-03-24 | 2009-05-14 | Bbn Technologies Corp | Vehicle routing and path planning |
JP2016081404A (ja) | 2014-10-21 | 2016-05-16 | 株式会社日立製作所 | 自律移動装置 |
CN108052103A (zh) * | 2017-12-13 | 2018-05-18 | 中国矿业大学 | 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法 |
Family Cites Families (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3467136B2 (ja) | 1995-11-07 | 2003-11-17 | 富士重工業株式会社 | 自律走行車の走行制御装置 |
JP3994950B2 (ja) | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
JP4479372B2 (ja) | 2004-06-25 | 2010-06-09 | ソニー株式会社 | 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 |
US7444237B2 (en) | 2005-01-26 | 2008-10-28 | Fujitsu Limited | Planning a journey that includes waypoints |
US20100066587A1 (en) | 2006-07-14 | 2010-03-18 | Brian Masao Yamauchi | Method and System for Controlling a Remote Vehicle |
US8843244B2 (en) | 2006-10-06 | 2014-09-23 | Irobot Corporation | Autonomous behaviors for a remove vehicle |
CA2602879A1 (en) | 2006-09-14 | 2008-03-14 | University Of South Florida | System and method for real-time travel path prediction and automatic incident alerts |
JP2008072963A (ja) | 2006-09-21 | 2008-04-03 | Yanmar Co Ltd | 農用作業車 |
CN102037317A (zh) * | 2008-10-08 | 2011-04-27 | 通腾科技股份有限公司 | 与交通工具内使用的导航设备相关的改进 |
US8930058B1 (en) | 2008-10-20 | 2015-01-06 | The United States Of America As Represented By The Secretary Of The Navy | System and method for controlling a vehicle traveling along a path |
KR101581197B1 (ko) * | 2009-01-06 | 2015-12-30 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US9014848B2 (en) * | 2010-05-20 | 2015-04-21 | Irobot Corporation | Mobile robot system |
US8918209B2 (en) | 2010-05-20 | 2014-12-23 | Irobot Corporation | Mobile human interface robot |
KR101772977B1 (ko) * | 2010-10-07 | 2017-08-31 | 삼성전자주식회사 | 이동 로봇 및 그 지도 작성 방법 |
US9146558B2 (en) * | 2010-11-30 | 2015-09-29 | Irobot Corporation | Mobile robot and method of operating thereof |
US9323250B2 (en) * | 2011-01-28 | 2016-04-26 | Intouch Technologies, Inc. | Time-dependent navigation of telepresence robots |
KR20130020107A (ko) * | 2011-08-19 | 2013-02-27 | 박재형 | 차륜구동과 4족보행을 동시에 취할 수 있는 하이브리드형 구동 로봇의 주행 알고리듬과 그 로봇. |
DE112012004773T5 (de) | 2011-11-16 | 2014-08-07 | Flextronics Ap, Llc | Konfigurierbare Armaturenanzeige |
US9463574B2 (en) | 2012-03-01 | 2016-10-11 | Irobot Corporation | Mobile inspection robot |
JP2013250795A (ja) | 2012-05-31 | 2013-12-12 | Aisin Seiki Co Ltd | 移動体誘導装置及び移動体誘導方法 |
JP5886502B2 (ja) | 2012-12-20 | 2016-03-16 | トヨタ自動車株式会社 | 移動体制御装置、移動体制御方法及び制御プログラム |
US9483055B2 (en) | 2012-12-28 | 2016-11-01 | Irobot Corporation | Autonomous coverage robot |
CN109965778B (zh) * | 2013-01-18 | 2022-08-16 | 艾罗伯特公司 | 包括移动机器人的环境管理系统以及其使用方法 |
US8849494B1 (en) | 2013-03-15 | 2014-09-30 | Google Inc. | Data selection by an autonomous vehicle for trajectory modification |
CN203371557U (zh) | 2013-07-19 | 2014-01-01 | 上海化学工业区公共管廊有限公司 | 机器人视频系统 |
EP2933604B1 (en) * | 2014-04-14 | 2016-11-30 | Softbank Robotics Europe | A method for localizing a robot in a localization plane |
CN104075715B (zh) * | 2014-07-07 | 2017-09-01 | 东南大学 | 一种结合地形和环境特征的水下导航定位方法 |
US9352470B1 (en) | 2014-11-11 | 2016-05-31 | Google Inc. | Yaw slip handling in a robotic device |
JP6481347B2 (ja) | 2014-11-28 | 2019-03-13 | 村田機械株式会社 | 移動量推定装置、自律移動体、及び移動量の推定方法 |
CN104536445B (zh) * | 2014-12-19 | 2018-07-03 | 深圳先进技术研究院 | 移动导航方法和系统 |
US9717387B1 (en) * | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
US9630319B2 (en) * | 2015-03-18 | 2017-04-25 | Irobot Corporation | Localization and mapping using physical features |
US9586316B1 (en) | 2015-09-15 | 2017-03-07 | Google Inc. | Determination of robotic step path |
WO2017090108A1 (ja) | 2015-11-25 | 2017-06-01 | 株式会社日立製作所 | 棚配置システム、搬送ロボット及び棚配置方法 |
US9868210B1 (en) | 2015-12-30 | 2018-01-16 | Google Inc. | Methods and systems for planning a body position of a robotic device |
US10471611B2 (en) * | 2016-01-15 | 2019-11-12 | Irobot Corporation | Autonomous monitoring robot systems |
CN106371445B (zh) * | 2016-11-17 | 2019-05-14 | 浙江大学 | 一种基于拓扑地图的无人车规划控制方法 |
US9933781B1 (en) | 2016-11-23 | 2018-04-03 | Denso International America, Inc. | Data-driven planning for automated driving |
US10296012B2 (en) | 2016-12-21 | 2019-05-21 | X Development Llc | Pre-computation of kinematically feasible roadmaps |
CN107301654B (zh) * | 2017-06-12 | 2020-04-03 | 西北工业大学 | 一种多传感器的高精度即时定位与建图方法 |
DE102017214746A1 (de) | 2017-08-23 | 2019-02-28 | Neusoft Technology Solutions Gmbh | Verfahren zur Erzeugung alternativer Routenvorschläge |
US10754339B2 (en) | 2017-09-11 | 2020-08-25 | Baidu Usa Llc | Dynamic programming and quadratic programming based decision and planning for autonomous driving vehicles |
CN107943038A (zh) * | 2017-11-28 | 2018-04-20 | 广东工业大学 | 一种移动机器人嵌入式激光slam方法及系统 |
US10606269B2 (en) | 2017-12-19 | 2020-03-31 | X Development Llc | Semantic obstacle recognition for path planning |
CN112004645B (zh) | 2017-12-19 | 2024-10-15 | 卡内基梅隆大学 | 智能清洁机器人 |
WO2019200053A1 (en) | 2018-04-12 | 2019-10-17 | Uber Technologies, Inc. | Autonomous vehicle control using service pools across different service entities |
US11747825B2 (en) | 2018-10-12 | 2023-09-05 | Boston Dynamics, Inc. | Autonomous map traversal with waypoint matching |
WO2021025707A1 (en) | 2019-08-06 | 2021-02-11 | Boston Dynamics, Inc. | Intermediate waypoint generator |
CN111604916B (zh) | 2020-04-30 | 2024-04-02 | 杭州优云科技有限公司 | 一种机房it设备故障机柜u位定位系统及方法 |
CN211956515U (zh) | 2020-04-30 | 2020-11-17 | 上海允登信息科技有限公司 | 一种数据中心it设备智能资产盘点系统 |
CN112034861A (zh) | 2020-09-15 | 2020-12-04 | 航天科工智能机器人有限责任公司 | 一种仿生自主机器人自主避障系统及其避障方法 |
US20220390954A1 (en) | 2021-06-04 | 2022-12-08 | Boston Dynamics, Inc. | Topology Processing for Waypoint-based Navigation Maps |
EP4348380A1 (en) | 2021-06-04 | 2024-04-10 | Boston Dynamics, Inc. | Directed exploration for navigation in dynamic environments |
US20220388170A1 (en) | 2021-06-04 | 2022-12-08 | Boston Dynamics, Inc. | Alternate Route Finding for Waypoint-based Navigation Maps |
CN113633219B (zh) * | 2021-07-23 | 2022-12-20 | 美智纵横科技有限责任公司 | 回充路径确定方法、装置、设备及计算机可读存储介质 |
-
2019
- 2019-03-07 US US16/295,592 patent/US11747825B2/en active Active
- 2019-08-23 EP EP19765841.2A patent/EP3864484A2/en active Pending
- 2019-08-23 KR KR1020237006525A patent/KR102648771B1/ko active IP Right Grant
- 2019-08-23 CN CN201980067282.8A patent/CN112840285A/zh active Pending
- 2019-08-23 WO PCT/US2019/047804 patent/WO2020076422A2/en unknown
- 2019-08-23 JP JP2021517187A patent/JP7259020B2/ja active Active
- 2019-08-23 KR KR1020217014063A patent/KR102504729B1/ko active IP Right Grant
-
2021
- 2021-01-25 US US17/157,405 patent/US11656630B2/en active Active
-
2023
- 2023-07-18 US US18/354,500 patent/US20230359220A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090125225A1 (en) * | 2004-03-24 | 2009-05-14 | Bbn Technologies Corp | Vehicle routing and path planning |
WO2007051972A1 (en) * | 2005-10-31 | 2007-05-10 | Qinetiq Limited | Navigation system |
JP2016081404A (ja) | 2014-10-21 | 2016-05-16 | 株式会社日立製作所 | 自律移動装置 |
CN108052103A (zh) * | 2017-12-13 | 2018-05-18 | 中国矿业大学 | 基于深度惯性里程计的巡检机器人地下空间同时定位和地图构建方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12222723B2 (en) | 2021-06-04 | 2025-02-11 | Boston Dynamics, Inc. | Directed exploration for navigation in dynamic environments |
Also Published As
Publication number | Publication date |
---|---|
JP2022511359A (ja) | 2022-01-31 |
US11656630B2 (en) | 2023-05-23 |
KR20210058998A (ko) | 2021-05-24 |
KR102648771B1 (ko) | 2024-03-18 |
KR20230035139A (ko) | 2023-03-10 |
US20210141389A1 (en) | 2021-05-13 |
CN112840285A (zh) | 2021-05-25 |
EP3864484A2 (en) | 2021-08-18 |
WO2020076422A3 (en) | 2020-05-14 |
JP7259020B2 (ja) | 2023-04-17 |
US11747825B2 (en) | 2023-09-05 |
US20200117214A1 (en) | 2020-04-16 |
US20230359220A1 (en) | 2023-11-09 |
WO2020076422A2 (en) | 2020-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102504729B1 (ko) | 웨이포인트 매칭을 이용한 자율적 맵 주행 | |
US8271132B2 (en) | System and method for seamless task-directed autonomy for robots | |
EP1504277B1 (en) | Real-time target tracking of an unpredictable target amid unknown obstacles | |
US20160271795A1 (en) | Localization and Mapping Using Physical Features | |
US12222723B2 (en) | Directed exploration for navigation in dynamic environments | |
CN112652001B (zh) | 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统 | |
Montella et al. | To the bookstore! autonomous wheelchair navigation in an urban environment | |
US20230321830A1 (en) | Construction constrained motion primitives from robot maps | |
Al-Mutib et al. | Stereo vision SLAM based indoor autonomous mobile robot navigation | |
Pang et al. | A Low-Cost 3D SLAM System Integration of Autonomous Exploration Based on Fast-ICP Enhanced LiDAR-Inertial Odometry | |
US20220196410A1 (en) | Vehicle navigation | |
Do et al. | Autonomous flights through image-defined paths | |
Roggeman et al. | Embedded vision-based localization and model predictive control for autonomous exploration | |
Chestnutt et al. | Interactive control of humanoid navigation | |
Charabaruk et al. | Design and development of an autonomous omnidirectional hazardous materials handling robot | |
Ortega-Palacios et al. | A Review of Indoor Navigation Systems for a Bipedal Robot: Preliminary Results. | |
Li et al. | Design and Implementation of Autonomous Navigation System Based on Tracked Mobile Robot | |
Priyandoko et al. | Mapping and Navigation for Indoor Robot Using Multiple Sensor Under ROS Framework | |
Ferrin | Autonomous Goal-Based Mapping and Navigation Using a Ground Robot | |
Mattar et al. | A survey: Intelligent based mobile robots stereo vision maps synthesis and learning methodologies | |
Teh et al. | Vision Based Indoor Surveillance Patrol Robot Using Extended Dijkstra Algorithm in Path Planning: Manuscript Received: 18 October 2021, Accepted: 4 November 2021, Published: 15 December 2021 | |
Liu | Mobile Robot Manipulator System Design for Localization and Mapping in Cluttered Environments | |
Gowtham et al. | Autonomous Robotic Exploration and Navigation System using Tri-layered Mapping and Geometrical Path Planning Techniques | |
Yadav et al. | Navigation, Guidance & Control Program for GPS based Autonomous Ground Vehicle | |
UWAOMA | ON PARTICLE FILTER LOCALIZATION AND MAPPING FOR NAO ROBOT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0105 | International application |
Patent event date: 20210510 Patent event code: PA01051R01D Comment text: International Patent Application |
|
PA0201 | Request for examination | ||
PG1501 | Laying open of application | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20220527 Patent event code: PE09021S01D |
|
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20221123 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20230223 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20230223 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |