[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

KR102206512B1 - 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템 - Google Patents

이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템 Download PDF

Info

Publication number
KR102206512B1
KR102206512B1 KR1020190055159A KR20190055159A KR102206512B1 KR 102206512 B1 KR102206512 B1 KR 102206512B1 KR 1020190055159 A KR1020190055159 A KR 1020190055159A KR 20190055159 A KR20190055159 A KR 20190055159A KR 102206512 B1 KR102206512 B1 KR 102206512B1
Authority
KR
South Korea
Prior art keywords
mobile robot
intersection
pattern recognition
recognition model
map
Prior art date
Application number
KR1020190055159A
Other languages
English (en)
Other versions
KR20200129958A (ko
Inventor
강태훈
위성길
홍대한
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020190055159A priority Critical patent/KR102206512B1/ko
Priority to US17/607,941 priority patent/US11768499B2/en
Priority to PCT/KR2020/006019 priority patent/WO2020231080A1/ko
Publication of KR20200129958A publication Critical patent/KR20200129958A/ko
Application granted granted Critical
Publication of KR102206512B1 publication Critical patent/KR102206512B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • G05D1/0263Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means using magnetic strips
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • G05D1/0282Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal generated in a local control room
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명의 일 실시 예는, 센서부로부터 수신된 센서 데이터와 관리서버로부터 제공되는 교차점 패턴 인식 모델을 이용하여 자율주행으로 이동하는 이동로봇 및 상기 이동로봇의 사용환경정보를 제공받고, 상기 이동로봇의 교차점 패턴 인식 모델을 생성하여 상기 이동로봇으로 제공하는 관리서버를 포함하고, 상기 관리서버는, 상기 이동로봇의 상기 사용환경정보를 제공받고, 상기 사용환경정보를 기초로 상기 이동로봇의 경로지도를 생성하는 지도 생성부, 상기 경로지도를 사전에 설정된 규칙에 따라 정규화시켜 가상지도를 생성하는 정규화부 및 상기 가상지도 및 상기 이동로봇의 센서 데이터를 학습데이터로 하여 상기 교차점 패턴 인식 모델을 생성하는 학습부를 포함하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템을 제공한다.

Description

이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템{Intersection recognition model generation method and intersection recognition system using sensor data of mobile robot}
본 발명은 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템에 관한 것으로서, 더 상세하게는 별도의 랜드마크를 설치하지 않아도 이동로봇의 이동제어가 가능한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템에 관한 것이다.
물류란 생산물류가 생산공정에 투입될 때부터 완제품의 생산에 이르기까지 물류활동을 의미한다. 물류를 다루는 산업현장에서는 조달된 원자재를 일시에 한꺼번에 처리할 수 없기 때문에 제품 생산과정에서 발생하는 원자재, 반제품, 재공품, 제품 등의 다양한 형태를 관리해야 하는데, 그 복잡성과 난이도가 매우 높다. 최근에는, 물류시스템의 자동화를 위해 무인 운반차(Automated Guided Vehicle;AGV)는 생산시스템의 중요한 요소가 되고 있다.
그러나, 종래의 무인 운반차는 이동로봇의 공간상의 절대위치에 대한 정보를 수집하기 위하여 랜드마크(landmark) 센서가 추가적으로 필요하다. 이러한 랜드마크 센서를 산업현장에 추가하는 것은 비용적 문제뿐만 아니라 현장의 조건에 따라 그 사용 가능성이 결정되기 때문에 스마트공장에서 요구하는 유연한 생산공정 대응이 불가능하게 된다. 또한, 물류를 담당하는 무인 운반차의 숫자가 많아질 경우 전송 데이터의 크기로 인하여 빠른 생산과정을 추종할 만큼의 실시간성 확보가 불가능하다는 문제점이 있다.
KR 10-2004-0018908 A(2004.03.04)
본 발명은, 기 구축된 사용환경을 이용하여 이동로봇의 절대위치를 파악할 수 있는 자율주행기반 이동로봇 제어시스템 및 이동경로 예측모델 생성방법을 제공하는 것을 목적으로 한다.
그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.
본 발명의 일 실시 예는, 센서부로부터 수신된 센서 데이터와 관리서버로부터 제공되는 교차점 패턴 인식 모델을 이용하여 자율주행으로 이동하는 이동로봇 및 상기 이동로봇의 사용환경정보를 제공받고, 상기 이동로봇의 교차점 패턴 인식 모델을 생성하여 상기 이동로봇으로 제공하는 관리서버를 포함하고, 상기 관리서버는, 상기 이동로봇의 상기 사용환경정보를 제공받고, 상기 사용환경정보를 기초로 상기 이동로봇의 경로지도를 생성하는 지도 생성부, 상기 경로지도를 사전에 설정된 규칙에 따라 정규화시켜 가상지도를 생성하는 정규화부 및 상기 가상지도 및 상기 이동로봇의 센서 데이터를 학습데이터로 하여 상기 교차점 패턴 인식 모델을 생성하는 학습부를 포함하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템을 제공한다.
본 발명의 일 실시 예에 있어서, 상기 이동로봇은 상기 관리서버와 통신하여 상기 교차점 패턴 인식 모델을 제공받는 입력부 및 상기 센서 데이터와 상기 교차점 패턴 인식 모델을 이용하여 상기 이동로봇의 구동을 제어하는 제어부를 포함할 수 있다.
본 발명의 일 실시 예에 있어서, 상기 사용환경정보는 기 구축된 유도선 또는 구조물들에 대한 정보일 수 있다.
본 발명의 일 실시 예에 있어서, 상기 경로지도는 격자형태의 지도로 이루어질 수 있다.
본 발명의 일 실시 예에 있어서, 상기 정규화부는 상기 교차점 사이의 거리가 단위 길이의 정수배를 갖도록 상기 경로지도를 정규화시켜 가상지도를 생성할 수 있다.
본 발명의 일 실시 예에 있어서, 상기 학습부는 상기 가상지도의 교차점에서의 교차점 패턴을 추출할 수 있다.
본 발명의 일 실시 예에 있어서, 상기 학습부는 상기 교차점 패턴을 'ㄱ'(Elbow)형태, 'T' (three-way) 형태 및 '+' (cross) 형태로 분류하여 추출할 수 있다.
본 발명의 일 실시 예는, 센서부를 포함하는 이동로봇의 교차점 패턴 인식 모델을 생성하여 상기 이동로봇으로 제공하는 관리서버에서의 교차점 패턴 인식 모델 생성방법에 있어서, 상기 이동로봇의 사용환경정보 및 상기 센서부의 센서 데이터를 제공받는 단계, 상기 사용환경정보를 기초로 경로지도를 생성하는 단계, 상기 경로지도를 사전에 설정된 규칙에 따라 정규화시켜 가상지도를 생성하는 단계 및 상기 가상지도 및 상기 센서 데이터를 학습데이터로 하여 상기 교차점 패턴 인식 모델을 생성하는 단계를 포함하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법을 제공한다.
본 발명의 일 실시 예에 있어서, 상기 사용환경정보는 기 구축된 유도선 또는 구조물들에 대한 정보일 수 있다.
본 발명의 일 실시 예에 있어서, 상기 교차점 패턴 인식 모델을 생성하는 단계는, 상기 가상지도의 교차점에서의 교차점 패턴을 추출할 수 있다.
본 발명의 일 실시 예에 있어서, 상기 교차점 패턴 인식 모델을 생성하는 단계는, 상기 교차점 패턴을 'ㄱ'(Elbow)형태, 'T' (three-way) 형태 및 '+' (cross) 형태로 분류하여 추출할 수 있다.
본 발명의 일 실시 예에 있어서, 상기 경로지도는 격자형태의 지도로 이루어질 수 있다.
본 발명의 일 실시 예에 있어서, 상기 가상지도를 생성하는 단계는, 상기 교차점 사이의 거리가 단위 길이의 정수배를 갖도록 상기 경로지도를 정규화시켜 가상지도를 생성하는 단계일 수 있다.
본 발명의 일 실시 예는, 컴퓨터를 이용하여 전술한 방법 중 어느 하나의 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램을 제공한다.
전술한 것 외의 다른 측면, 특징, 이점은 이하의 발명을 실시하기 위한 구체적인 내용, 청구범위 및 도면으로부터 명확해질 것이다.
상기한 바와 같이 이루어진 본 발명의 일 실시 예에 따르면, 본 발명의 실시예들에 따른 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템 기 구축된 유도선 검출만으로 경로지도의 패턴을 파악함으로써, 별도의 랜드마크 센서 없이도 이동로봇의 공간상 절대위치를 인식할 수 있다.
물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.
도 1은 본 발명의 일 실시 예에 따른 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템을 개략적으로 도시한 도면이다.
도 2는 도 1의 이동로봇 및 관리서버의 구성을 설명하기 위한 블록도이다.
도 3은 도 1의 이동로봇과 관리서버와의 통신 프로토콜을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 관리서버에서 교차점 패턴 인식 모델을 생성하는 방법을 순차적으로 도시한 도면이다.
도 5 및 도 6은 사용환경정보를 이용하여 격자지도를 생성하는 과정을 설명하기 위한 도면이다.
도 7 및 도 8은 교차점에서의 교차점 패턴을 추출하는 방법을 설명하기 위한 도면이다.
도 9는 학습부에서 교차점 패턴 인식모델을 생성하는 과정을 개략적으로 도시한 도면이다.
도 10은 이동로봇에서 교차점 패턴 인식을 통해 이동하는 과정을 순차적으로 도시한 도면이다.
도 11은 교차점에서의 특징패턴을 분류하는 방법을 설명하기 위한 도면이다.
이하, 본 개시의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. 본 개시의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시의 다양한 실시 예에서 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 다양한 실시 예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 개시의 다양한 실시 예에서 사용된 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시의 다양한 실시 예에서 사용한 용어는 단지 특정일 실시 예를 설명하기 위해 사용된 것으로, 본 개시의 다양한 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시의 다양한 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시의 다양한 실시 예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
도 1은 본 발명의 일 실시 예에 따른 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템(10)을 개략적으로 도시한 도면이고, 도 2는 도 1의 이동로봇(100) 및 관리서버(200)의 구성을 설명하기 위한 블록도이다.
자율주행 기반으로 물류가 이루어지는 시스템에서는, 이동로봇의 정밀한 제어를 위해서 각 이동로봇의 정확한 위치를 파악하는 것이 중요하다. 종래에는 산업현장(1)에 이동로봇이 감지할 수 있는 유도선을 구축할 뿐만 아니라, 이동로봇이 진행방향을 변경해야하는 교차점과 같은 특정 위치에는 별도의 랜드마크를 구비함으로써, 이동로봇의 절대 위치를 파악했었다. 그러나, 별도의 랜드마크를 각 교차점마다 구비하는 것은 비용을 증가시킬 뿐만 아니라, 이동로봇의 사용환경이 변화되는 경우 랜드마크를 재설치해야 하는 등의 문제점이 있다.
본 발명의 일 실시예에 따른 교차점 패턴 인식 시스템(10)은 별도의 랜드마크 설치 없이도 기 구축된 유도선 또는 구조물을 감지하여 획득된 이동로봇(100)의 센서 데이터만을 이용하여 교차점 패턴을 인식하고 절대 위치를 파악할 수 있게 하는 것을 특징으로 한다. 이러한 교차점 패턴 인식 시스템(10)은 네트워크 환경 내에서 이루어질 수 있다. 일례로, 이동로봇(100)은 무선 또는 유선 통신 방식을 이용하여 네트워크를 통해 관리서버(200)와 통신할 수 있다. 또한, 도면과 같이 복수의 이동로봇(100)이 관리서버(200)와 통신할 수 있으며, 상기한 시스템을 사용자가 관리하기 위한 사용자 단말(미도시) 등을 더 포함할 수 있다.
통신방식은 제한되지 않으며, 네트워크가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크는 PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
도 1 및 도 2를 참조하면, 본 발명의 일 실시 예에 따른 교차점 패턴 인식 시스템(10)은 이동로봇(100) 및 관리서버(200)를 포함할 수 있다.
이동로봇(100)은 물류 자동화를 위해 사용되는 무인 운반차(AGV, Automated Guide Vehicle)로서의 기능을 수행할 수 있다. 본 시스템(10)은 하나 이상의 이동로봇(100)을 구비할 수 있으며, 각각 고유식별자(AGV1, AGV2)를 부여받을 수 있다. 이동로봇(100)은 센서부(111)로부터 획득된 센서 데이터 및 관리서버(200)로부터 제공받은 교차점 패턴 인식모델을 이용하여 교차점 패턴을 인식한 후 다음 교차점 패턴으로 진행방향을 결정하는 것에 의해, 자율주행으로 이동할 수 있다. 이동로봇(100)은 센서부(111), 구동부(112), 제어부(113) 및 입력부(114)를 포함할 수 있다.
센서부(111)는 이동로봇(100)의 일측에 구비되어, 기 구축된 유도선 또는 구조물을 감지하고, 센서데이터를 생성할 수 있다. 일 실시 예로서, 센서부(111)는 유도선을 감지하는 자기 센서(magnet sensor)일 수 있다. 자기 센서는 자기장 또는 자력선의 크기 또는 방향을 측정할 수 있으며, 유도선으로부터의 자기 신호의 세기 또는 자기 센서의 종류 등을 고려하여 유도선으로부터 사전에 설정된 거리를 두고 이격되도록 이동로봇(100)에 배치될 수 있다.
여기서, 유도선(MP, 도 3 참조)은 이동 로봇(100)이 이동하게 될 주행 경로의 바닥면에 자기 테이프 등의 자성물질로써 형성될 수 있다. 또한, 유도선(MP)은 주행 경로의 시점으로부터 종점까지 연속적인 자기 띠 형태로 이루어질 수 있으며, 이때, 유도선(MP)의 라인 수, 형태, 폭 등은 이동 로봇(100)의 설계 조건에 따라 적절하게 선정될 수 있다. 그러나, 본 발명은 이에 제한되지 않으며, 필요에 따라 유도선(MP)이 바닥면이 아닌 천장면에 설치될 수도 있고, 이를 감지하기 위해 센서부(111)는 이동로봇(100)의 상면에 배치될 수도 있음은 물론이다.
선택적 실시예로서, 센서부(111)는 포토 다이오드(Photo Diode) 또는 포토 트랜지스터(Photo Transistor)를 포함하는 발광 센서 및 수광 센서, 적외선(IR) 센서 등을 더 포함할 수 있다. 또한, 센서부(111)는 기 구축된 구조물을 감지하기 위한 카메라를 포함할 수도 있다.
구동부(112)는 이동로봇(100)을 구동시키기 위한 구성요소들을 포함할 수 있다. 구동부(112)는 제어부(113)의 구동신호를 인가받아 작동되는 개별 바퀴를 회동시키는 구동모터, 이동로봇(100)의 각 바퀴를 제어부(113)를 통해 제어하여 진행방향을 결정할 수 있으며, 이 밖에 이동로봇(100)을 구동시키기 위한 공지의 구성요소들을 더 포함할 수 있음은 물론이다. 도시하지 않았지만, 이동로봇(100)은 다른 구성요소에 전원을 공급하는 배터리부(미도시)를 더 포함할 수도 있다.
입력부(114)는 관리서버(200)와 통신하는 기능을 수행할 수 있다. 일 실시 예로서, 입력부(114)는 관리서버(200)로부터 교차점 패턴 인식 모델을 제공받을 수 있다. 또한, 입력부(114)는 관리서버(200)로부터 작업지점 또는 목적지점까지의 이동경로, 목표 교차점 패턴 정보, 충돌 회피 정보 등을 제공받을 수 있다. 한편, 입력부(114)는 관리서버(200)와 양방향 통신 기능을 수행할 수 있어, 이동로봇(100)의 주행정보를 관리서버(200)로 제공할 수도 있다. 이때, 이동로봇(100)의 주행정보는 이동로봇(100)의 고유식별자(AGV1, AGV2), 주행방향 정보, 주행속도 정보, 교차점 패턴 정보, 공간상 좌표 정보(x,y), 충돌 감지 정보 등을 포함할 수 있다. 상기한 정보들은 통신 프로토콜에 의해 관리서버(200)와 이동로봇(100) 양방향으로 제공될 수 있으며, 이에 대한 자세한 설명은 후술하기로 한다.
제어부(113)는 센서 데이터와 교차점 패턴 인식 모델을 이용하여 이동로봇(100)의 구동을 제어할 수 있다. 제어부(113)는 일종의 중앙처리장치로서 물류의 자동화를 위해 이동로봇(100)을 동작시키는 전체 과정을 제어한다. 즉, 제어부(113)는 관리서버(200)로부터 목적지점 또는 작업지점까지의 최단경로가 제공되면, 교차점 패턴 인식 모델을 이용하여 실시간 또는 주기적으로 측정되는 센세 데이터로부터 교차점 패턴을 인식할 수 있다. 또한, 제어부(113)는 인식된 교차점과 이동로봇(100)의 주행방향을 이용하여 교차점에서의 다음 진행방향을 결정하고 이동할 수 있다.
한편, 관리서버(200)는 이동로봇(100)의 사용환경정보를 제공받고, 이동로봇(100)의 교차점 패턴 인식 모델을 생성하여 이동로봇(100)으로 제공한다. 이때, 사용환경정보는, 기 구축된 유도선 또는 구조물들에 대한 정보일 수 있다. 다시 말해, 사용환경정보는 이동로봇(100)을 통해 물류 작업이 이루어지는 작업 환경에 대한 정보이며, 이동로봇(100)이 이동하는 경로 상에 배치되는 기 구축된 유도선 또는 구조물에 대한 정보일 수 있다. 관리서버(200)는 프로세서(202) 및 통신모듈(203)을 포함할 수 있다. 이 밖에 관리서버(200)는 컴퓨터 프로그램 처리를 위한 공지의 구성들, 예를 들면, 메모리, 입출력 인터페이스 등을 더 포함할 수도 있다.
프로세서(202)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(Microprocessor), 중앙처리장치(Central Processing Unit: CPU), 프로세서 코어(Processor Core), 멀티프로세서(Multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 명령은 메모리(미도시) 또는 통신모듈(203)에 의해 프로세서(202)로 제공될 수 있다. 예를 들어, 프로세서(202)는 메모리(미도시)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다. 프로세서(202)는 지도 생성부(211), 정규화부(212) 및 학습부(213)를 포함할 수 있다.
통신모듈(203)은 네트워크를 통해 이동로봇(100)과 관리서버(200)가 서로 통신하기 위한 기능을 제공할 수 있다. 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 이동로봇(100)의 제어부(113)가 메모리와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈의 제어에 따라 네트워크를 통해 관리서버(200)로 전달될 수 있다. 역으로, 관리서버(200)의 프로세서(202)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신모듈(203)과 네트워크를 거쳐 이동로봇(100)의 통신 모듈인 입력부(114)를 통해 이동로봇(100)으로 수신될 수 있다. 예를 들어 통신 모듈(203)을 통해 수신된 관리서버(200)의 제어 신호나 명령 등은 프로세서나 메모리로 전달될 수 있다.
이하에서는 도 3을 참조하여 본 발명의 일 실시 예에 따른 교차점 패턴 인식 시스템(10)의 통신 프로토콜에 대해 설명하기로 한다.
도 3은 도 1의 이동로봇(100)과 관리서버(200)와의 통신 프로토콜을 설명하기 위한 도면이고, 표 1은 통신 프로토콜 정보를 나타내는 표이다.
시작정보 식별자 명령 끝 정보
통신 프로토콜
시작
고유정보 교차점
패턴
주행방향 주행속도 교차점
식별자
좌표 충돌
회피방향
충돌
감지신호
통신 프로토콜
X Y
표 1 및 도 3을 참조하면, 본 발명의 일 실시 예에 따른 교차점 패턴 인식 시스템(10)은 물류가 이루어지는 사용환경 내에 복수의 이동로봇(100)들을 구비할 수 있다. 이때, 각각의 이동로봇(100)들은 고유식별자(AGV1, AGV2)가 부여된다. 좀 더 구체적으로, 교차점 패턴 인식 시스템(10)은 통신의 시작을 알리는 시작정보(protocaol header)가 제공되면, 고유식별자(AGV1, AGV2)로 구분되는 이동로봇(100)과 통신을 시작하게 된다. 예를 들면, 관리서버(200)는 제1 이동로봇(AGV1) 또는 제2 이동로봇(AGV2)에 목적지점 또는 작업지점까지의 최단경로를 생성하여 이동경로를 제공할 수 있다.
이때, 이동경로는 교차점과 교차점 사이를 연결하는 것으로 생성될 수 있으며, 제1 이동로봇(AGV1) 또는 제2 이동로봇(AGV2)은 관리서버(200)로부터 제공받은 이동경로를 따라 이동하면서 다음으로 진행될 목표 교차점 패턴 정보를 제공받을 수 있다. 또한, 관리서버(200)는 교차점 패턴 인식 모델을 이동로봇(100)에 제공하며, 이동로봇(100)은 센서데이터와 교차점 패턴 인식 모델을 이용하여 이동 중의 교차점 패턴을 인식할 수 있다. 예를 들면, 도면에서 제1 이동로봇(AGV1)은 제1 방향(y방향)으로 이동하면서 센서부(111)를 이용해 유도선을 감지하게 되고, 제1 교차점(P1)에서의 센서 데이터가 획득되면 교차점 패턴 인식 모델을 이용하여 제1 교차점(P1)이 'T'자 형태의 패턴임을 인식할 수 있다.
한편, 제1 이동로봇(AGV1) 또는 제2 이동로봇(AGV2)은 상술한 바와 같이, 이동로봇(100)의 고유식별자(AGV1, AGV2), 주행방향 정보, 주행속도 정보, 교차점 패턴 정보, 공간상 좌표 정보(x,y), 충돌 감지 정보 등을 포함하는 제1 정보(I1) 또는 제2 정보(I2)에 대해 관리서버(200)와 통신할 수 있다. 여기서, 주행방향정보는 이동로봇(100)의 주행방향, 즉 현재 교차점에서 다음 교차점으로 이동하기 위한 방향 결정에 필요한 정보이고, 주행속도정보는 이동로봇(100)의 주행속도, 즉 교차점과 교차점 사이에 필요한 목표 주행속도일 수 있다. 교차점 식별자는 각각의 교차점을 구분할 수 있는 고유의 값으로서, 예를 들면, 도면에서의 제1 교차점(P1)과 제2 교차점(P2)은 서로 다른 고유값으로 구분될 수 있다. 공간상 좌표정보는 이동로봇(100)의 지도상의 위치를 나타내는 정보일 수 있다. 충돌 회피방향정보는 충돌 감지 시 우선순위가 낮은 이동로봇의 회피방향을 결정하는 정보일 수 있고, 충돌 감지신호 정보는 다수 이동로봇의 경로 주행 시 교차점 선점 과정에서 충돌경보를 위한 감지신호일 수 있다.
이동로봇(100)은 상기한 통신 프로토콜에 의해 정보를 전달하거나 제공받으면서 사용환경 내에서 목적지점 또는 작업지점으로 이동할 수 있고, 교차점 패턴 인식 시스템(10)은 통신의 끝을 알리는 끝 정보(protocaol end)를 생성하게 된다.
이하에서는 도면을 참조하여 본 발명의 일 실시 예에 따른 교차점 패턴 인식 모델 생성방법에 대하여 구체적으로 설명하기로 한다.
도 4는 본 발명의 일 실시 예에 따른 관리서버(200)에서 교차점 패턴 인식 모델을 생성하는 방법을 순차적으로 도시한 도면이고, 도 5 및 도 6은 사용환경정보를 이용하여 격자지도를 생성하는 과정을 설명하기 위한 도면이다. 도 7 및 도 8은 교차점에서의 교차점 패턴을 추출하는 방법을 설명하기 위한 도면이며, 도 9는 학습부(213)에서 교차점 패턴 인식모델을 생성하는 과정을 개략적으로 도시한 도면이다.
다시 도 2와 도 4 내지 도 9를 참조하면, 관리서버(200)는 사용환경정보로부터 가상지도를 생성하고, 이동로봇(100)의 센서데이터를 이용하여 교차점 패턴 인식 모델을 생성하며, 지도생성부(211), 정규화부(212) 및 학습부(213)를 포함하여 하기와 같은 과정을 수행할 수 있다.
먼저, 지도 생성부(211)는 이동로봇(100)의 사용환경정보를 제공받고, 사용환경정보를 기초로 경로지도를 생성한다(S11). 이때, 사용환경정보는, 기 구축된 유도선 또는 구조물들에 대한 정보일 수 있다. 다시 말해, 사용환경정보는 이동로봇(100)을 통해 물류 작업이 이루어지는 작업 환경에 대한 정보이며, 이동로봇(100)이 이동하는 경로 상에 배치되는 기 구축된 유도선 또는 구조물에 대한 정보일 수 있다. 지도 생성부(211)는 상기한 사용환경정보를 제공받아서, 이동로봇(100)이 이동 가능한 경로를 경로지도로 생성할 수 있다. 이때, 경로는 도 8의 (a)와 같이 직선형태로 나타날 수 있고, 도 8의 (b)와 같이 곡선형태로 나타날 수도 있다. 경로지도는 어떠한 형태로 이루어질 수 있으나, 이하에서는 설명의 편의를 위해서 경로지도가 격자형태 지도로 이루어지는 경우를 중심으로 설명하기로 한다.
여기서, 격자형태 지도는 실제 사용환경을 반영하고 있기 때문에, 도 5의 (a)에 도시된 바와 같이, 실제 길이 정보를 포함할 수 있다. 다만, 본 발명의 기술적 사상은 격자형태 지도 상의 교차점에서의 교차점 패턴을 이용하여 이동로봇(100)의 교차점 패턴 인식 모델을 생성하는 것이기 때문에, 교차점의 특징을 부각시킬 수 있도록 도 5의 (b)와 같이 격자형태 지도를 변환할 수 있다. 한편, 도 8을 참조하면, 사용환경정보는 최소 2개의 유도선이 교차하여 형성하는 교차점을 가질 수 있는데, 도 8의 (a)와 같이 직선형태로 이루어지는 경우와 도 8의 (b)와 같이 곡선으로 이루어지는 경우 모두 포함될 수 있다.
좀 더 구체적으로, 도 6을 참조하면, 정규화부(212)는 격자형태 지도를 사전에 설정된 규칙에 따라 정규화(normalization)시켜 가상지도를 생성한다(S12). 상술한 바와 같이, 본 발명은 가상지도로부터 교차점의 특징 패턴을 추출해야 하므로, 교차점의 특징패턴을 부각시킬 수 있도록 사전에 설정된 규칙에 따라 실제 지도를 변환하여야 하는데, 이때, 도 6의 (a)와 같이, 가상지도가 생성되는 기초는 가로세로 동일한 길이를 갖는 단위영역들로 이루어질 수 있다.
도 6의 (b)와 같이, 실제 지도는 실제 작업 환경에 따라 교차점들 간의 거리가 다를 수 있으나, 가상지도는 상기한 단위영역들 상에 사전에 설정된 규칙으로 배치될 수 있다. 일 실시 예로서, 정규화부(212)는 교차점 사이의 거리가 단위 길이의 정수배를 갖도록 격자형태 지도를 정규화시켜 가상지도를 생성할 수 있다(도 6의 (c) 참조). 예를 들면, 실제 지도에서 제1 교차점(n01)과 제2 교차점(n02) 사이의 거리는 제7 교차점(n07)과 제8 교차점(n08) 사이의 거리보다 가깝지만, 가상지도에서는 제1 교차점(n01)과 제2 교차점(n02) 사이의 거리와 제7 교차점(n07)과 제8 교차점(n08) 사이의 거리가 동일할 수 있다. 또 다른 예를 들면, 실제 지도에서의 제4 교차점(n04)의 위치는 제5 교차점(n05)보다 제3 교차점(n03)에 더 가까우나, 가상지도에서는 제4 교차점(n04)의 위치는 제3 교차점(n03)과 제5 교차점(n05)의 가운데에 배치될 수 있다.
이후, 학습부(213)는 가상지도 및 이동로봇(100)의 센서 데이터를 학습데이터로 하여 교차점 패턴 인식 모델을 생성한다. 먼저, 학습부(213)는 가상지도의 교차점에서의 교차점 패턴을 추출할 수 있다(S13). 일 실시 예로서, 학습부(213)는 교차점 패턴을 'ㄱ'(Elbow)형태(도 7의 (c)), 'T' (three-way) 형태(도 7의 (b)) 및 '+' (cross) 형태(도 7의 (a))로 분류하여 추출할 수 있다. 좀 더 구체적으로, 가상지도의 교차점은 먼저 도 11을 참조하면, 총 6가지 종류의 교차패턴으로 분류될 수 있다. 6가지 종류의 교차패턴은 해당 교차점으로 이동로봇(100)이 진입하는 경우 진행방향에 따라 동일한 형태로 할지라도 6가지로 분류될 수 있으며, 6가지 종류의 교차패턴의 형태별 구분을 통해 3가지의 유형인 특징패턴으로 추출할 수 있다.
교차점 패턴은 최소 2개의 유도선이 교차하여 형성되는 교차영역(A1, A2)으로부터 추출될 수 있다. 이때, 유도선은 상술한 바와 같이 직선형태 또는 곡선형태 모두 가능하므로, 도 8의 (a) 또는 도 8의 (b)와 같이 나타날 수 있으나, 교차영역(A1, A2)에서는 그 영역 크기에 따라 직선형태로 교차하는 교차점 패턴을 추출할 수 있다. 이때 학습부(213)는 교차점으로부터 수직 패턴을 추출할 수 있으나, 반드시 이에 제한되지는 않으며, 수직이 아닌 다른 각도인 경우에도 교차점 패턴을 추출할 수 있다. 한편, 학습부(213)는 교차점 패턴 및 좌표 정보를 이용하여 가상지도의 각 교차점에 고유의 교차점 식별자를 부여할 수 도 있다(S14).
이후, 학습부(213)는 상기 추출된 교차점 패턴을 포함하는 가상지도 및 이동로봇(100)의 센서 데이터를 학습 데이터로 하여 이동로봇(100)의 교차점 패턴 인식모델을 생성한다(S15). 학습부(213)는 교차점 패턴을 기초로 교차점 패턴 분류기준을 생성하고, 상기한 분류기준과 센서 데이터를 기초로 교차점 패턴 인식모델을 생성할 수 있다. 학습부(213)는 기계학습을 기반으로 교차점 패턴 인식 모델을 학습하며, 기계학습은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화(abstractions, 다량의 데이터나 복잡한 자료들 속에서 핵심적인 내용 또는 기능을 요약하는 작업)을 시도하는 알고리즘의 집합으로 정의된다.
도 9를 참조하면, 학습부(123)는 입력층, 은닉층, 출력층으로 구성된 신경망 학습법인 다층 퍼셉트론으로 패턴의 가중치를 선정하여 이동경로 예측모델을 생성할 수 있다. 그러나, 본 발명은 이에 제한되지 않으며, 기계학습 모델 중 예컨대 심층 신경망(Deep Neural Networks, DNN), 컨볼루션 신경망(Convolutional Neural Networks, CNN), 순환 신경망(Reccurent Neural Network, RNN) 및 심층 신뢰 신경 망(Deep Belief Networks, DBN) 등을 이용할 수 있음은 물론이다.
관리서버(200)는 상기한 과정을 통해 생성된 교차점 패턴 인식모델을 이동로봇(100)으로 제공할 수 있다. 이동로봇(100)은 목적지점이나 작업지점에 따른 최단경로가 제공되면, 교차점 패턴 인식모델 및 센서 데이터를 이용하여 교차점 패턴을 인식하고, 이후 진행방향을 결정하여 목적지점 또는 작업지점까지 이동할 수 있다.
도 10은 이동로봇(100)에서 교차점 패턴 인식을 통해 이동하는 과정을 순차적으로 도시한 도면이고, 도 11은 교차점에서의 특징패턴을 분류하는 방법을 설명하기 위한 도면이다.
이동로봇(100)은 관리서버(200)에서 생성된 가상지도 및 교차점 패턴 인식 모델을 제공받고 저장할 수 있다(S21). 상기한 교차점 패턴 인식 모델은 관리서버(200)에 의해 주기적으로 학습되어, 이동로봇(100)으로 다시 제공될 수 있다.
이후, 이동로봇(100)은 목적지점 또는 작업지점까지의 이동경로가 결정되면, 이동하면서 센서부(111)를 이용하여 센서 데이터를 획득한다(S22). 이때, 이동로봇(100)은 이벤트 발생 시 또는 주기적으로 상기 획득된 센서 데이터를 관리서버(200)로 통신을 통해 제공할 수 있다. 센서부(111)로부터 획득된 센서 데이터는 예를 들면, 16 비트와 같이 작은 크기를 갖는 데이터로서, 다수의 이동로봇(100)들이 실시간으로 데이터 처리가 가능할 수 있다.
이후, 이동로봇(100)은 센서 데이터와 교차점 패턴 인식 모델을 이용하여 이동 중의 교차점 패턴을 인식한다(S23). 도 11과 같이, 교차점 패턴은 3가지 유형, 즉 'ㄱ'(Elbow)형태, 'T' (three-way) 형태 및 '+' (cross) 형태 중 어느 하나일 수 있고, 이동로봇(100)은 학습된 교차점 패턴 인식 모델을 통해 센싱되는 정보가 어떤 패턴인지를 실시간으로 인식할 수 있다. 이때, 만약 관리서버(200)에서 가상지도 상의 교차점 각각에 식별자를 부여한 경우, 이동로봇(100)은 이를 포함하는 교차점 패턴 인식 모델로부터 센싱된 교차점 패턴의 식별자를 추출할 수 있다.
이후, 이동로봇(100)은 교차점 패턴 또는 추출된 교차점 식별자와, 이동로봇(100)의 주행방향 및 목적지점까지의 이동경로를 이용하여 해당 교차점에서의 이후 진행방향을 결정하게 된다(S25). 좀 더 구체적으로 설명하기 위해, 도 3의 제1 이동로봇(AGV1)의 목적지점이 제2 교차점(P2)까지 인 경우를 예로 들면, 제1 이동로봇(AGV1)은 제1 방향(y방향)으로 이동하면서 센서 데이터 및 교차점 패턴 인식 모델을 이용하여 제1 교차점(P1)을 'T'자 형태의 교차점 패턴으로 인식할 수 있다. 'T'자 형태의 교차점 패턴에서는 제1 방향(y방향)으로 진입하였으므로, 제2 교차점(P2)으로 이동하기 위해서는 제1 방향(y방향)으로 그대로 직진하거나, 제2 방향(x방향)으로 방향을 전환하여 제1 교차점(P1)으로부터 진출할 수 있는데, 이때, 제1 이동로봇(AGV1)은 관리서버(200)로부터 제공되는 최단경로인 이동경로에 따라 상기 2가지 진행방향 중 어느 하나를 결정하여 이동하게 된다.
전술한 바와 같이, 본 발명의 실시 예들에 따른 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템 및 교차점 패턴 인식모델 생성방법은 기 구축된 유도선 검출만으로 경로지도의 패턴을 파악함으로써, 별도의 랜드마크 센서 설치 없이도 이동로봇의 공간상 절대위치를 인식할 수 있다. 본 발명의 실시 예들에 따른 이동경로 예측모델 생성방법은 유도선 검출뿐만 아니라 천장, 벽면, 작업물 등 다양한 영역에 부착된 랜드마크 인식으로 확장이 가능하며, 이동로봇의 실시간 지도 생성으로 완전 자율주행에 적용이 가능할 수 있다.
또한, 본 발명의 실시 예들에 따른 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템은 다수 이동로봇의 실시간 데이터 처리를 가능하게 함으로써 복잡한 환경에서의 인간-로봇 또는 로봇-로봇 협업 및 서버를 통한 관제시스템에 활용이 가능하며, 물류 산업현장의 이동로봇 시스템 구조 및 사용환경 설정의 단순화로 고효율, 저비용 기대와 더불어 다양한 형태의 체계적인 스마트 물류 시스템 구축에 활용될 수 있다.
이상 설명된 본 발명에 따른 실시 예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 저장하는 것일 수 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다.
한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.
본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.
이와 같이 본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의하여 정해져야 할 것이다.
10 : 교차점 패턴 인식 시스템
100 : 이동로봇
111 : 센서부
112 : 구동부
113 : 제어부
114 : 입력부
200 : 관리서버
211 : 지도 생성부
212 : 정규화부
213 : 학습부

Claims (14)

  1. 센서부로부터 수신된 센서 데이터와 관리서버로부터 제공되는 교차점 패턴 인식 모델을 이용하여 자율주행으로 이동하는 이동로봇; 및
    상기 이동로봇의 사용환경정보를 제공받고, 상기 이동로봇의 교차점 패턴 인식 모델을 생성하여 상기 이동로봇으로 제공하는 관리서버;를 포함하고,
    상기 관리서버는,
    상기 이동로봇의 상기 사용환경정보를 제공받고, 상기 사용환경정보를 기초로 상기 이동로봇의 경로지도를 생성하는 지도 생성부;
    상기 경로지도를 사전에 설정된 규칙에 따라 정규화시켜 가상지도를 생성하는 정규화부; 및
    상기 가상지도 및 상기 이동로봇의 센서 데이터를 학습데이터로 하여 상기 교차점 패턴 인식 모델을 생성하는 학습부;를 포함하고,
    상기 경로지도는 격자형태의 지도로 이루어지고,
    상기 정규화부는 상기 교차점 사이의 거리가 단위 길이의 정수배를 갖도록 상기 경로지도를 정규화시켜 가상지도를 생성하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템.
  2. 제1 항에 있어서,
    상기 이동로봇은
    상기 관리서버와 통신하여 상기 교차점 패턴 인식 모델을 제공받는 입력부; 및
    상기 센서 데이터와 상기 교차점 패턴 인식 모델을 이용하여 상기 이동로봇의 구동을 제어하는 제어부;를 포함하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템.
  3. 제1 항에 있어서,
    상기 사용환경정보는 기 구축된 유도선 또는 구조물들에 대한 정보인, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템.
  4. 삭제
  5. 삭제
  6. 제1 항에 있어서,
    상기 학습부는 상기 가상지도의 교차점에서의 교차점 패턴을 추출하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템.
  7. 제6 항에 있어서,
    상기 학습부는 상기 교차점 패턴을 'ㄱ'(Elbow)형태, 'T' (three-way) 형태 및 '+' (cross) 형태로 분류하여 추출하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식 시스템.
  8. 센서부를 포함하는 이동로봇의 교차점 패턴 인식 모델을 생성하여 상기 이동로봇으로 제공하는 관리서버에서의 교차점 패턴 인식 모델 생성방법에 있어서,
    상기 이동로봇의 사용환경정보 및 상기 센서부의 센서 데이터를 제공받는 단계;
    상기 사용환경정보를 기초로 경로지도를 생성하는 단계;
    상기 경로지도를 사전에 설정된 규칙에 따라 정규화시켜 가상지도를 생성하는 단계; 및
    상기 가상지도 및 상기 센서 데이터를 학습데이터로 하여 상기 교차점 패턴 인식 모델을 생성하는 단계;를 포함하고,
    상기 경로지도는 격자형태의 지도로 이루어지고,
    상기 가상지도를 생성하는 단계는,
    상기 교차점 사이의 거리가 단위 길이의 정수배를 갖도록 상기 경로지도를 정규화시켜 가상지도를 생성하는 단계인, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법.
  9. 제8 항에 있어서,
    상기 사용환경정보는 기 구축된 유도선 또는 구조물들에 대한 정보인, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법.
  10. 제8 항에 있어서,
    상기 교차점 패턴 인식 모델을 생성하는 단계는,
    상기 가상지도의 교차점에서의 교차점 패턴을 추출하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법.
  11. 제10 항에 있어서,
    상기 교차점 패턴 인식 모델을 생성하는 단계는, 상기 교차점 패턴을 'ㄱ'(Elbow)형태, 'T' (three-way) 형태 및 '+' (cross) 형태로 분류하여 추출하는, 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법.
  12. 삭제
  13. 삭제
  14. 컴퓨터를 이용하여 제8 항 내지 제11 항 중 어느 한 항의 방법을 실행하기 위하여 매체에 저장된 컴퓨터 프로그램.
KR1020190055159A 2019-05-10 2019-05-10 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템 KR102206512B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190055159A KR102206512B1 (ko) 2019-05-10 2019-05-10 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템
US17/607,941 US11768499B2 (en) 2019-05-10 2020-05-07 Method for generating intersection point pattern recognition model using sensor data of mobile robot and intersection point pattern recognition system
PCT/KR2020/006019 WO2020231080A1 (ko) 2019-05-10 2020-05-07 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190055159A KR102206512B1 (ko) 2019-05-10 2019-05-10 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템

Publications (2)

Publication Number Publication Date
KR20200129958A KR20200129958A (ko) 2020-11-18
KR102206512B1 true KR102206512B1 (ko) 2021-01-22

Family

ID=73289487

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190055159A KR102206512B1 (ko) 2019-05-10 2019-05-10 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템

Country Status (3)

Country Link
US (1) US11768499B2 (ko)
KR (1) KR102206512B1 (ko)
WO (1) WO2020231080A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563916B1 (ko) 2023-05-08 2023-08-04 주자식회사 코텍전자 물류 분배용 주행 로봇 시스템

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115421474A (zh) * 2021-05-13 2022-12-02 北京京东乾石科技有限公司 机器人的控制方法、装置和机器人
KR20240048209A (ko) * 2022-10-06 2024-04-15 엘지전자 주식회사 로봇, 서버 및 그 제어 방법
KR20240149611A (ko) * 2023-04-06 2024-10-15 현대자동차주식회사 물류 로봇을 제어하는 방법 및 관제 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190897A (ja) * 2009-02-18 2010-09-02 Samsung Electronics Co Ltd グリッドマップを利用した経路生成装置及び方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000506294A (ja) * 1996-03-06 2000-05-23 ゲーエムデー―フォルシュングスチェントルム インフォマーションズテクニク ゲーエムベーハー センサ及び地図に基づいて導管ネットワーク内を進路案内するための自律的可動ロボットシステム
JP2004086453A (ja) 2002-08-26 2004-03-18 Tsubakimoto Chain Co 無人搬送車用誘導装置
JP2004340930A (ja) 2003-04-21 2004-12-02 Matsushita Electric Ind Co Ltd 経路案内提示装置
KR102113816B1 (ko) * 2016-01-05 2020-06-03 한국전자통신연구원 차량 자율주행 서비스 시스템 및 이를 위한 클라우드 서버 및 그 동작 방법
KR20180068511A (ko) * 2016-12-14 2018-06-22 삼성전자주식회사 영상에 포함된 도로와 관련된 정보를 결정하는 뉴럴 네트워크를 학습시키는 학습 데이터를 생성하는 장치 및 방법
CN109429518B (zh) 2017-06-22 2022-10-28 百度时代网络技术(北京)有限公司 基于地图图像的自动驾驶交通预测
US10414395B1 (en) * 2018-04-06 2019-09-17 Zoox, Inc. Feature-based prediction

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010190897A (ja) * 2009-02-18 2010-09-02 Samsung Electronics Co Ltd グリッドマップを利用した経路生成装置及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102563916B1 (ko) 2023-05-08 2023-08-04 주자식회사 코텍전자 물류 분배용 주행 로봇 시스템

Also Published As

Publication number Publication date
KR20200129958A (ko) 2020-11-18
US11768499B2 (en) 2023-09-26
WO2020231080A1 (ko) 2020-11-19
US20220326715A1 (en) 2022-10-13

Similar Documents

Publication Publication Date Title
KR102206512B1 (ko) 이동로봇의 센서 데이터를 활용한 교차점 패턴 인식모델 생성 방법 및 교차점 패턴 인식 시스템
CN106022274B (zh) 一种避障方法、避障装置及无人驾驶机器
US9796378B2 (en) Vehicle travel path generating apparatus
WO2022083292A1 (zh) 一种智能移动机器人全局路径规划方法和系统
US11604469B2 (en) Route determining device, robot, and route determining method
JP7328923B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
Liaqat et al. Autonomous mobile robots in manufacturing: Highway Code development, simulation, and testing
US11287799B2 (en) Method for coordinating and monitoring objects
Digani et al. Obstacle avoidance for industrial AGVs
CN106483958A (zh) 一种基于障碍图和势场法的人机协同编队跟随及避障方法
US11468770B2 (en) Travel control apparatus, travel control method, and computer program
KR102657884B1 (ko) 서비스 로봇의 동작 제어 방법 및 장치
JP2008134744A (ja) 自律移動装置群制御システム
Garrote et al. An RRT-based navigation approach for mobile robots and automated vehicles
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
JP7577689B2 (ja) 無人輸送手段の経路制御方法、装置、およびシステム
Chinag et al. Robot navigation in dynamic environments using fuzzy logic and trajectory prediction table
Patle et al. Topological drone navigation in uncertain environment
Thai et al. Obstacle Avoidance Algorithm for Autonomous Mobile Robots in the Indoor Environment
KR102707390B1 (ko) 강화 학습 기반의 알고리즘과 경로 계획 기반의 알고리즘을 사용하여 로봇을 제어하는 방법 및 시스템과, 로봇이 배치되는 건물
CN114764245A (zh) 无人巡检机器人及其控制方法
JP7517340B2 (ja) 情報処理装置、および情報処理方法、並びにプログラム
Hassani et al. Control points searching algorithm for autonomous mobile robot navigation with obstacle avoidance
Jiang et al. Design of a universal self-driving system for urban scenarios—BIT-III in the 2011 Intelligent Vehicle Future Challenge
Bhargava et al. Design and Development of a Visual-SLAM based Automated Guided Vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant