[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2018120482A - ロボットおよびその制御方法 - Google Patents

ロボットおよびその制御方法 Download PDF

Info

Publication number
JP2018120482A
JP2018120482A JP2017012439A JP2017012439A JP2018120482A JP 2018120482 A JP2018120482 A JP 2018120482A JP 2017012439 A JP2017012439 A JP 2017012439A JP 2017012439 A JP2017012439 A JP 2017012439A JP 2018120482 A JP2018120482 A JP 2018120482A
Authority
JP
Japan
Prior art keywords
robot
measurement data
laser range
measurement
range sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017012439A
Other languages
English (en)
Other versions
JP6809913B2 (ja
Inventor
ジュイヒン グエン
Duyhinh Nguyen
ジュイヒン グエン
健 安藤
Takeshi Ando
健 安藤
笹井 裕之
Hiroyuki Sasai
裕之 笹井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2017012439A priority Critical patent/JP6809913B2/ja
Priority to US15/878,968 priority patent/US10976749B2/en
Priority to CN201810075295.7A priority patent/CN108363391B/zh
Publication of JP2018120482A publication Critical patent/JP2018120482A/ja
Application granted granted Critical
Publication of JP6809913B2 publication Critical patent/JP6809913B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0234Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
    • G05D1/0236Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/49Protective device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】OSSを用いてロボットの自律移動を制御する場合に、ロボットの障害物への衝突を防止すること。
【解決手段】複数の測域センサ(4R、4L)を備え、複数の測域センサの計測データを用いて作成された地図に基づいて自律移動するロボット100の制御方法であって、複数の測域センサの計測データの一部を削除し、削除後に残った計測データを統合し、統合された計測データを、複数の測域センサの数よりも少ない数の仮想測域センサの計測データに決定する。
【選択図】図1

Description

本発明は、自律移動するロボットおよびその制御方法に関する。
屋内で用いられる自律移動ロボットの自己位置認識技術として、事前に作成された地図と、測域センサから得られたデータとを照合する方法が一般的になりつつある。この方法で用いられる地図は、予め自律移動ロボットを手動または自動で走行させ、Simultaneous Localization and Maping(SLAM)という手法を用いて作成されることが一般的である。
一方で、昨今、様々な分野において、オープンソースソフトウェア(以下、OSSという)の普及が急激に進んでいる。ロボットの分野においても、例えばRobot Operating System(ROS)またはRTミドルウェア(RTM)といったOSSが世界中で急速に普及し始めている。
これらのOSSの中には、ロボットの自律移動に関する技術も含まれている。自社で開発したロボットをそれぞれのOSSに対応させることで、簡単に、そのロボットを屋内において自律移動させることができる。これらのOSSは、1つの測域センサのみがロボットの正面に備えられた汎用的なロボットを前提として製作されている。
しかし、実際にロボットを開発する際には、広範囲にわたる周囲の環境を計測するために測域センサを複数設置しなければならないことが多い。例えば、自律移動ロボットに人が搭乗する場合、そのロボットの正面には人が乗るため、ロボットの左右に測域センサを取り付けることが多い。この場合において、OSSを利用して地図を作成する際には、左右の測域センサで得られた各データを、ロボットの正面に備えられた1つの仮想の測域センサ(以下、仮想センサという)から得られたデータのように統合する必要がある。
左右の測域センサで得られた各データを統合する方法としては、従来、各測域センサで得られた各データを1つの仮想センサの座標を基準としたデータに変換し、各測域センサで得られた各データをそのまま統合するといった手法が提案されている(例えば、特許文献1参照)。
ここで、図12を用いて、特許文献1に係る地図の作成方法について説明する。図12は、特許文献1の移動ロボットが、複数の測域センサを備えており、各測位センサで得られたデータを基に地図の生成を行う場合の概要を示す図である。
図12に示すように、移動ロボット20には、測域センサとして、超音波センサ21a、21b、21cが異なる高さに備えられている。
図12に示す周辺地図22a、22b、22cは、それぞれ、超音波センサ21a、21b、21cで得られたデータに基づいて作成された地図である。周辺地図22a〜22cの世界座標は、融合される融合地図23の世界座標と同一である。そのため、融合地図23は、周辺地図22a、22b、22cをそのまま座標を合わせながら重ねることにより作成できる。
特許第4256812号公報
しかしながら、上記特許文献1では、OSSを用いる場合を想定していない。そのため、OSSを用いてロボットの自律移動を制御する場合、誤った地図の生成が行われ、その地図に基づいて移動するロボットが障害物に衝突してしまうといった問題がある。
本発明の目的は、OSSを用いてロボットの自律移動を制御する場合に、ロボットが障害物に衝突することを防止できるようにすることである。
本発明に係るロボットの制御方法は、複数の測域センサを備え、該複数の測域センサの計測データを用いて作成された地図に基づいて自律移動するロボットの制御方法であって、前記複数の測域センサの計測データの一部を削除し、削除後に残った計測データを統合し、統合された計測データを、前記複数の測域センサの数よりも少ない数の仮想測域センサの計測データに決定する。
本発明に係るロボットは、上記本発明のロボットの制御方法を用いて制御を行う制御部を備えている。
本発明によれば、OSSを用いてロボットの自律移動を制御する場合に、ロボットが障害物に衝突することを防止できる。
本発明の実施の形態に係る移動ロボットの外観、および、その移動ロボットが備える制御部の構成を示す図 自律移動ソフトウェアに用いられる占有格子地図の概要図 占有格子地図の作成方法を示した概要図 移動ロボットの移動時の動作の流れを示すフローチャート 各レーザ測域センサの原点、障害物、および移動ロボット本体の位置関係を示した概要図 複数の計測データの統合方法の流れを示すフローチャート 仮想のレーザ測域センサの測定範囲の分割例を示す概要図 測定エリアに含まれるレーザ測域センサの計測点の一例を示す概要図 複数の計測データを統合せずに占有格子地図を作成した場合を示す概要図 複数の計測データを従来の手法で統合し占有格子地図を作成した場合を示す概要図 矛盾を生じさせる計測点を削除した後に占有格子地図を作成した場合を示す概要図 特許文献1の地図作成方法を示す概要図
以下、本発明の実施の形態について、図面を参照して説明する。
まず、本発明の実施の形態に係る移動ロボット100の構成について、図1を用いて説明する。図1は、本実施の形態に係る移動ロボット100の外観、および、その移動ロボット100が備える制御部17の構成を示す図である。
図1に示すように、移動ロボット100は、移動ロボット本体3と、移動ロボット本体3に設けられた一対の駆動輪1(図1では片側の駆動輪1のみ図示している)と、移動ロボット本体3に設けられた1つの準輪2と、移動ロボット本体3に設けられたレーザ測域センサ4R、4Lと、制御部17と、を有する。
また、図1に示すように、制御部17は、センサ統合部11と、地図部12と、目的地設定部13と、自己位置推定部14と、知能部15と、駆動輪制御部16と、を有する。
センサ統合部11は、レーザ測域センサ4Rで計測された計測データと、レーザ測域センサ4Lで計測された計測データとを統合する。統合された計測データを、以下「統合計測データ」という。
地図部12は、移動ロボット100が移動する領域(空間)の地図を作成し、記憶(以下、管理ともいう)する。
目的地設定部13は、地図における特定の位置の座標を、移動ロボット100の移動先(目的地)として設定する。設定された移動先の座標を、以下「目標座標」という。
自己位置推定部14は、統合計測データと、地図とに基づいて、移動ロボット100の現在位置(自己位置)を推定する。推定された位置の座標を、以下「現在位置座標」という。
知能部15は、統合計測データと、目標座標と、現在位置座標とに基づいて、移動ロボットが移動する経路の生成、および、経路上における障害物の認識を行う。
駆動輪制御部16は、移動ロボット100が知能部15で生成された経路を移動(走行)するように、駆動輪1を制御する。
移動ロボット100は、一対の駆動輪1を図1の矢印aの方向に回転させることによって、図1の矢印bの方向に走行(前進)する。この矢印bが示す方向を、移動ロボット100の進行方向(前進方向)とする。
また、移動ロボット100は、一対の駆動輪1を矢印aとは逆方向に回転させることによって、矢印bの方向とは逆方向にも走行可能(後進可能)である。
また、一対の駆動輪1は、個別に回転可能に構成されている。よって、一対の駆動輪1を互いに逆回転させることで、移動ロボット100は超信地旋回を行うことができる。
レーザ測域センサ4Rは、移動ロボット100の進行方向に対して右側に設けられており、レーザ測域センサ4Lは、移動ロボット100の進行方向に対して左側に設けられている。レーザ測域センサ4R、4Lはともに、図1に示すように、移動ロボット本体3の最前方に設けられることが望ましい。
以上、移動ロボット100の構成について説明した。
次に、地図部12が作成し、記憶する地図の一例について、図2を用いて説明する。図2は、ROSまたはRTM等のOSS(自律移動ソフトウェア)に用いられる占有格子地図200の概要図である。図2の(a)は、占有格子地図200の一部を拡大した図である。
占有格子地図200は、図2の(a)に示すように、移動ロボット100が移動する領域が格子状に区切られている。占有格子地図200に含まれる各格子は、レーザ側域センサ4R、4Lによって検出されていない未知領域6、障害物が含まれている障害物領域7、または、移動ロボット100が移動することができる移動可能領域8のいずれかに属する。
次に、図2に示した占有格子地図200の作成方法について、図3を用いて説明する。図3は、所定の時刻tにおける占有格子地図の作成方法を示した概要図である。
図3(a)は、所定の時刻tのときに、障害物9をレーザ測域センサ(図示略)が計測した計測データを、レーザ測域センサの原点10aを中心に描写した図である。
図3(a)において、レーザ測域センサから発光されたレーザ光が障害物9と交わった点を、レーザ測域センサの計測点10bとする。
また、図3(a)において、各レーザ測域センサの計測点10bと原点10aとを結ぶ線分(図中の点線)を、線分データ10cとする。
なお、レーザ測域センサ10から発光されたレーザ光がある一定の距離まで障害物9と交わらなかった場合は、レーザ測域センサ計測点10bおよび線分データ10cは存在しないものとする。
図3(b)は、レーザ測域センサが計測した計測データから作成された占有格子地図200を示した図である。
占有格子地図200に含まれる全ての格子は、最初、未知領域6に属している。そして、地図部12は、線分データ10cが通過する格子を移動可能領域8に変更し、レーザ測域センサ計測点10bが含まれる格子を障害物領域7に変更する。地図部12は、この処理を、t、t+Δt、t+Δt+1というように連続時間的に行う。これによって、占有格子地図200が作成されていく。
次に、移動ロボット100の移動時の動作の流れについて、図4を用いて説明する。図4は、移動ロボット100の移動時の動作の流れを示すフローチャートである。
ステップS1において、目的地設定部13は、地図部12が管理している占有格子地図200において、移動ロボット100の目的地(目標座標)を設定する。
具体的には、目的地設定部13は、占有格子地図200を構成する格子のうちのいずれかを、目的地に設定する。このときに設定される格子は、移動可能領域8に属する格子でなくてはならない。
ステップS2において、知能部15は、自己位置推定部14で推定された移動ロボット100の現在位置(現在位置座標)を、地図部12が管理している占有格子地図200において特定し、移動ロボット100の現在位置からステップS1で設定された移動ロボット100の目的地までの経路を算出する。
具体的には、知能部15は、占有格子地図200を構成する格子の中から現在位置に該当する格子を検索し、検索された格子を現在位置に設定する。そして、知能部15は、占有格子地図200上において、現在位置に設定された格子から、目的地に設定された格子までの経路を計算する。この経路の計算(生成)では、例えば、公知のA*(A-star,エースター)アルゴリズムが用いられるが、これに限定されず、その他の公知技術が用いられてもよい。
ステップS3において、駆動輪制御部16は、生成された経路に沿って移動ロボット100が移動(走行)するように、駆動輪1を制御する。これにより、移動ロボット100は、目的地へ向けて移動する。
この移動中において、自己位置推定部14は、随時、移動ロボット100の現在位置を推定し、知能部15は、随時、その現在位置と、設定された目的地との間の距離を算出し、その距離が予め設定された一定距離以下になったか否かの判定を行う。
ステップS4において、知能部15は、現在位置と目的地との間の距離が一定距離以下になった場合、目的地に到着したと判断する。そして、駆動輪制御部16は、駆動輪1の駆動を停止し、移動ロボット100の移動を停止させる。
次に、センサ統合部11が、レーザ測域センサ4Rで得られた計測データとレーザ側域センサ4Lで得られた計測データとを、実際に設置されているレーザ測域センサの数(例えば、2つ)よりも少ない数(例えば、1つ)の仮想センサで得られたように統合する方法について、図5を用いて説明する。
図5は、各レーザ測域センサの原点、障害物9、および移動ロボット本体3の位置関係を示した概要図である。
図5において、4Raは、図1に示したレーザ測域センサ4Rの原点であり、4Laは、図1に示したレーザ測域センサ4Lの原点である。また、5aは、仮想のレーザ測域センサ(図示略)の原点である。この場合において、仮想のレーザ測域センサの原点5aは、レーザ測域センサ4Rの原点4Raとレーザ測域センサ4Lの原点4Laとを結ぶ線分上にあるものとする。なお、その線分上であれば、仮想のレーザ測域センサの原点5aは、どの位置にあってもよい。
次に、計測データの統合方法の流れについて、図6を用いて説明する。図6は、計測データの統合方法の流れを示すフローチャートである。
ステップS11において、センサ統合部11は、レーザ測域センサ4R、4Lのそれぞれから得られるレーザ測域センサの計測点4Rb、4Lbを全て2次元座標にプロットする。この2次元座標は、仮想のレーザ測域センサの2次元座標である。
ステップS12において、センサ統合部11は、2次元座標上の仮想のレーザ測域センサの測域範囲を、複数の扇形に分割する。この具体例について、図7、図8を用いて説明する。
図7において、仮想のレーザ測域センサの測域範囲300は、原点5aを中心とし、半径Lの円である。センサ統合部11は、この側域範囲300を、同形の扇形に分割する。図7の(a)は、分割された1つの扇形の拡大図である。図7の(a)に示すように、1つの扇形は、原点5aを中心とし、中心角がΔθであり、半径Lの扇形である。この1つの扇形を測定エリア5dとする。
測定エリア5dには、図8に示すように、レーザ測域センサの計測点4Rb、4Lbが含まれることがある。
ステップS13において、センサ統合部11は、1つの扇形(測定エリア5d)に複数のレーザ側域センサの計測点が含まれている場合、複数の計測点の中から、1つの計測点を選定する。
例えば、図8の(a)に示すように、1つの測定エリア5dに複数のレーザ測域センサの計測点4Rbまたは4Lbが含まれている場合、センサ統合部11は、原点5aから各計測点4Rb、4Lbまでの距離をそれぞれ算出する。
そして、センサ統合部11は、原点5aからの距離が最も短い計測点を統合用処理データ(統合の対象となる計測データ)に選定する。このとき、選定された計測点以外の計測点は、削除される。その理由は、1つの測定エリアに計測点が複数存在したまま計測データの統合が行われると、選定される計測点以外は、本来仮想のレーザ側域センサの位置からでは計測することができない計測点であるにもかかわらず、計測データの統合後に存在するといった矛盾を生じさせるためである。
上述したステップS13の処理は、1つの測定エリア5dに複数のレーザ側域センサの計測点が含まれている場合のみ行われる。
ステップS14において、センサ統合部11は、測定エリア5dのそれぞれに含まれているレーザ側域センサの計測点(ステップS13で選定された計測点)を、仮想のレーザ測域センサの計測点に変更(決定)する。
その後、変更された仮想のレーザ側域センサの計測点に基づいて、占有格子地図が作成され、その占有格子地図に基づいて移動ロボット100の自律移動の制御が行われる。
次に、図9および図10を用いて比較例を説明し、その後、本実施の形態の作用効果について図11を用いて説明する。
図9は、所定の時刻tのときに、レーザ測域センサ4R、4Lの計測データを統合せずに占有格子地図200を作成した場合を示す概要図である。
図9(a)は、所定の時刻tのときに、障害物9を計測したレーザ測域センサ4R、4Lの計測データを、レーザ測域センサの原点4Ra、4Laを中心に描写した図である。図9(a)において、4Rb、4Lbは、それぞれ、レーザ測域センサ4R、4Lの計測点を示している。また、図9(a)において、4Rc、4Lcは、それぞれ、原点4Raと計測点4Rbとを結ぶ線分データ、原点4Laと計測点4Lbとを結ぶ線分データを示している。
図9(b)は、レーザ測域センサ4R、4Lが計測したレーザ測域センサの計測点4Rb、4Lbと、線分データ4Rc、4Lcとに基づいて作成された占有格子地図200を示した図である。レーザ測域センサ4R、4Lと障害物9とが、例えば図5で説明した位置関係である場合、正しい占有格子地図は、図9(b)に示す占有格子地図200となる。
一方、図10は、所定の時刻tのときに、レーザ測域センサ4R、4Lの計測データを特段の処理を行わずにそのまま統合し、占有格子地図200を作成した場合を示す概要図である。
図10(a)は、所定の時刻tのときに、障害物9を計測したレーザ測域センサ4R、4Lのレーザ測域センサの計測点4Rb、4Lb全てが、仮想のレーザ測域センサの原点5aから得られたレーザ測域センサの計測点5bと同一であると仮定した場合の概要を示した図である。
図10(a)において、各レーザ測域センサの計測点5bの座標は、図9(a)に示した全てのレーザ測域センサの計測点4Rb、4Lbの座標と同一である。線分データ5cは、レーザ測域センサの計測点5bと仮想のレーザ測域センサの原点5aとを結んだ線分である。
図10(a)に示すように、一部の線分データ5cが障害物9と交差してしまっている。このことから、レーザ測域センサの計測点5bの中には、矛盾を生じさせるレーザ測域センサの計測点5bがいくつか存在していることがわかる。
図10(b)は、上述した矛盾を含んだまま作成された占有格子地図200を示す図である。図10(b)において、枠線aで囲まれている領域が、図9(b)に示した占有格子地図200と異なっていることがわかる。
本来、移動ロボットは、障害物9の内側に進入することはできないが、図10(b)に示した占有格子地図200では、枠線a内(障害物9内に相当)に移動可能領域8があるため、移動ロボットが障害物9内に進入できるようになっている。よって、この図10(b)に示した占有格子地図を用いて実際に移動ロボットの自律移動を行った場合は、移動ロボットが障害物9に衝突するといった問題が発生する。
図11は、図6のステップS13で説明したとおり、1つの計測点5bを選定した(他の計測点5bを削除した)後に、占有格子地図200を作成した場合を示す概要図である。上述したとおり、1つの測定エリアに計測点が複数存在したまま計測データの統合が行われると、選定される計測点以外は、本来仮想のレーザ側域センサの位置からでは計測することができない計測点であるにもかかわらず、計測データの統合後に存在するといった矛盾を生じさせるため、削除される。
図11(a)は、上記矛盾を生じさせるレーザ測域センサの計測点5bを削除した後の、仮想のレーザ測域センサが計測したレーザ測域センサの計測点5bと、線分データ5cとの概要を示した図である。
図11(b)は、レーザ測域センサの計測点5bと線分データ5cとに基づいて作成された占有格子地図200を示す図である。
図11(b)に示した占有格子地図200では、図10(b)に示した占有格子地図200のように、障害物9の内部に移動可能領域8が存在していない(すなわち、上記矛盾が生じていない)。図11(b)に示した占有格子地図200は、図9(b)に示した占有格子地図200よりも未知領域6が多いが、移動ロボット100が移動するほど、計測データが取得されて地図が更新されていくので、最終的には、矛盾なく、かつ、精度の高い地図となる。
なお、上述した実施の形態では、測域センサとして、レーザ測域センサ(レーザレンジファインダ)を用いる場合を例に挙げて説明したが、測域センサは、超音波センサ、光学式センサ、またはカメラセンサであってもよい。これにより、移動ロボットの自律移動の性能が向上する。
また、上述した図6の統合方法は、自律移動ロボット用の地図の生成を行う場合だけではなく、自己位置推定部14が移動ロボット100の現在位置を推定する際にも活用することができる。
以上、詳述したように、本実施の形態では、移動ロボットに備えられた複数のレーザ測域センサの計測データを用いて地図を作成し、その地図に基づいて自律移動する場合において、複数の測域センサの計測データの一部を削除し、削除後に残った計測データを統合し、統合された計測データを、複数の測域センサの数よりも少ない数の仮想測域センサの計測データに決定(変更)することを特徴とする。
これにより、OSSを用いて移動ロボットの自律移動を制御する場合でも、正確な地図を生成できるため、移動ロボットが誤って障害物に衝突することを防止できる。
本発明は、上記実施の形態の説明に限定されず、その趣旨を逸脱しない範囲において種々の変形が可能である。
本発明は、移動体の自律移動または自動運転の分野で活用することができる。
1 駆動輪
2 準輪
3 移動ロボット本体
4R、4L レーザ測域センサ
4Ra、4La、10a レーザ測域センサの原点
4Rb、4Lb、10b レーザ測域センサの計測点
4Rc、4Lc、10c 線分データ
5a 仮想のレーザ測域センサの原点
5b 仮想のレーザ測域センサの計測点
5c 仮想の測域センサの線分データ
5d 測定エリア
6 未知領域
7 障害物領域
8 移動可能領域
9 障害物
11 センサ統合部
12 地図部
13 目的地設定部
14 自己位置推定部
15 知能部
16 駆動輪制御部
17 制御部
20、100 移動ロボット
21a、21b、21c 超音波センサ
22a、22b、22c 周辺地図
23 融合地図

Claims (8)

  1. 複数の測域センサを備え、該複数の測域センサの計測データを用いて作成された地図に基づいて自律移動するロボットの制御方法であって、
    前記複数の測域センサの計測データの一部を削除し、
    削除後に残った計測データを統合し、
    統合された計測データを、前記複数の測域センサの数よりも少ない数の仮想測域センサの計測データに決定する、
    ロボットの制御方法。
  2. 前記計測データの一部は、前記仮想測域センサの位置で計測できないデータである、
    請求項1に記載のロボットの制御方法。
  3. 前記仮想測域センサの測域範囲は、前記仮想測域センサの位置を基準として複数の測定エリアに分割され、
    前記計測データの一部は、分割された1つの測定エリアに含まれる複数の計測データのうち、前記仮想測域センサの位置からの距離が最短である計測データ以外の計測データである、
    請求項1または2に記載のロボットの制御方法。
  4. 前記仮想測域センサの測域範囲は、
    円形であり、
    前記仮想測域センサの位置を中心として、所定の角度毎に等分される、
    請求項3に記載のロボットの制御方法。
  5. 前記測定エリアの形状は、中心角度が前記所定の角度の扇形である、
    請求項4に記載のロボットの制御方法。
  6. 前記仮想測域センサの計測データを用いて、前記ロボットの移動に用いられる地図を生成する、
    請求項1から5いずれか記載のロボットの制御方法。
  7. 前記仮想測域センサの計測データを用いて、前記ロボットの現在位置を推定する、
    請求項1から5いずれか記載のロボットの制御方法。
  8. 請求項1から7のいずれか1項に記載のロボットの制御方法を用いて制御を行う制御部を備えたロボット。
JP2017012439A 2017-01-26 2017-01-26 ロボット、ロボットの制御方法、および地図の生成方法 Active JP6809913B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017012439A JP6809913B2 (ja) 2017-01-26 2017-01-26 ロボット、ロボットの制御方法、および地図の生成方法
US15/878,968 US10976749B2 (en) 2017-01-26 2018-01-24 Robot and method for controlling the same
CN201810075295.7A CN108363391B (zh) 2017-01-26 2018-01-25 机器人及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017012439A JP6809913B2 (ja) 2017-01-26 2017-01-26 ロボット、ロボットの制御方法、および地図の生成方法

Publications (2)

Publication Number Publication Date
JP2018120482A true JP2018120482A (ja) 2018-08-02
JP6809913B2 JP6809913B2 (ja) 2021-01-06

Family

ID=62905869

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017012439A Active JP6809913B2 (ja) 2017-01-26 2017-01-26 ロボット、ロボットの制御方法、および地図の生成方法

Country Status (3)

Country Link
US (1) US10976749B2 (ja)
JP (1) JP6809913B2 (ja)
CN (1) CN108363391B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132864A1 (ko) * 2019-12-26 2021-07-01 주식회사 트위니 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
JP7511504B2 (ja) 2021-02-16 2024-07-05 三菱重工業株式会社 移動体、移動制御システム、移動体の制御方法及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022069057A (ja) * 2020-10-23 2022-05-11 パナソニックホールディングス株式会社 位置推定システム
JP2023032246A (ja) * 2021-08-26 2023-03-09 キヤノン株式会社 物品検査システム、検査方法及び情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107475A (ja) * 2004-09-13 2006-04-20 Matsushita Electric Ind Co Ltd 移動ロボット
JP2011128899A (ja) * 2009-12-17 2011-06-30 Murata Machinery Ltd 自律移動装置
JP2014194729A (ja) * 2013-02-27 2014-10-09 Sharp Corp 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
JP2015055606A (ja) * 2013-09-13 2015-03-23 株式会社オートネットワーク技術研究所 距離計測システム及び3次元画像生成システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000234908A (ja) * 1999-02-16 2000-08-29 Toshiba Corp 距離計
US7398481B2 (en) * 2002-12-10 2008-07-08 Science Applications International Corporation (Saic) Virtual environment capture
JP4256812B2 (ja) 2004-04-26 2009-04-22 三菱重工業株式会社 移動体の障害物回避方法及び該移動体
CN100449444C (zh) * 2006-09-29 2009-01-07 浙江大学 移动机器人在未知环境中同时定位与地图构建的方法
US7826969B2 (en) * 2006-12-21 2010-11-02 Deere & Company Determining position of a vehicle with reference to a landmark
US20090018712A1 (en) * 2007-07-13 2009-01-15 Jerry Richard Duncan Method and system for remotely monitoring and controlling a vehicle via a virtual environment
JP2011503639A (ja) * 2007-11-06 2011-01-27 テレ アトラス ノース アメリカ インコーポレイテッド 地図の更新において使用される、実世界の変化を検出するために複数の車両からのプローブ・データを使用する方法及びシステム
DK2343615T3 (en) * 2008-10-01 2019-02-18 Murata Machinery Ltd Independent movement device
JP5216690B2 (ja) * 2009-06-01 2013-06-19 株式会社日立製作所 ロボット管理システム、ロボット管理端末、ロボット管理方法およびプログラム
WO2011097018A1 (en) * 2010-02-05 2011-08-11 Trimble Navigation Limited Systems and methods for processing mapping and modeling data
CN102062587B (zh) * 2010-12-13 2013-02-20 上海克来机电自动化工程有限公司 基于激光传感器的多移动机器人位姿测定方法
US8863256B1 (en) * 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
US9020637B2 (en) * 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
CN103198751B (zh) * 2013-03-06 2015-03-04 南京邮电大学 一种移动机器人基于激光测距仪的线特征地图创建方法
JP6450273B2 (ja) * 2015-07-08 2019-01-09 本田技研工業株式会社 移動ロボットの動作環境情報生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006107475A (ja) * 2004-09-13 2006-04-20 Matsushita Electric Ind Co Ltd 移動ロボット
JP2011128899A (ja) * 2009-12-17 2011-06-30 Murata Machinery Ltd 自律移動装置
JP2014194729A (ja) * 2013-02-27 2014-10-09 Sharp Corp 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法
JP2015055606A (ja) * 2013-09-13 2015-03-23 株式会社オートネットワーク技術研究所 距離計測システム及び3次元画像生成システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132864A1 (ko) * 2019-12-26 2021-07-01 주식회사 트위니 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
KR20210082983A (ko) * 2019-12-26 2021-07-06 주식회사 트위니 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
KR102324099B1 (ko) * 2019-12-26 2021-11-10 주식회사 트위니 실내 이동체의 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
JP7511504B2 (ja) 2021-02-16 2024-07-05 三菱重工業株式会社 移動体、移動制御システム、移動体の制御方法及びプログラム
US12038754B2 (en) 2021-02-16 2024-07-16 Mitsubishi Heavy Industries, Ltd. Movable body, movement control system, method for controlling movable body, and program

Also Published As

Publication number Publication date
JP6809913B2 (ja) 2021-01-06
US10976749B2 (en) 2021-04-13
CN108363391A (zh) 2018-08-03
CN108363391B (zh) 2022-04-15
US20180210455A1 (en) 2018-07-26

Similar Documents

Publication Publication Date Title
EP3843955B1 (en) Dynamic probabilistic motion planning
US10705528B2 (en) Autonomous visual navigation
CN110262518B (zh) 基于轨迹拓扑地图和避障的车辆导航方法、系统及介质
JP7502409B2 (ja) 中間ウェイポイント生成器
KR101372482B1 (ko) 이동 로봇의 경로 계획 방법 및 장치
US9207678B2 (en) Method and apparatus for constructing map for mobile robot
KR20220119519A (ko) 2d 및 3d 경로 계획을 이용한 로봇 내비게이션
CN113156956B (zh) 机器人的导航方法、芯片及机器人
CN107179082B (zh) 基于拓扑地图和度量地图融合的自主探索方法和导航方法
CN108363391B (zh) 机器人及其控制方法
KR20210058998A (ko) 웨이포인트 매칭을 이용한 자율적 맵 주행
WO2021135813A1 (zh) 机器人联合建图方法、设备及计算机可读存储介质
CN111708360B (zh) 信息采集方法、设备及存储介质
CN113110497B (zh) 基于导航路径的沿边绕障路径选择方法、芯片及机器人
CN112805647A (zh) 路径规划
WO2023130766A1 (zh) 机器人的路径规划方法、电子设备及计算机可读存储介质
US20160195875A1 (en) Autonomous mobile robot and method for operating the same
JPWO2019031168A1 (ja) 移動体および移動体の制御方法
Peng et al. Tracking control of human-following robot with sonar sensors
WO2021246169A1 (ja) 情報処理装置、情報処理システム、および方法、並びにプログラム
JP2013239035A (ja) 移動体の経路計画方法
US20230273621A1 (en) Information processing apparatus, information processing method, and program
CN116149314A (zh) 机器人全覆盖作业方法、装置及机器人
JP5347108B2 (ja) 自走式機器装置の走行ルート計画方法
CN114993311B (zh) 室内机器人行人避障的方法及系统

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190718

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190829

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201210

R151 Written notification of patent or utility model registration

Ref document number: 6809913

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151