[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016024598A - Control method of autonomous mobile apparatus - Google Patents

Control method of autonomous mobile apparatus Download PDF

Info

Publication number
JP2016024598A
JP2016024598A JP2014147930A JP2014147930A JP2016024598A JP 2016024598 A JP2016024598 A JP 2016024598A JP 2014147930 A JP2014147930 A JP 2014147930A JP 2014147930 A JP2014147930 A JP 2014147930A JP 2016024598 A JP2016024598 A JP 2016024598A
Authority
JP
Japan
Prior art keywords
information
estimation
autonomous mobile
self
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014147930A
Other languages
Japanese (ja)
Inventor
村井 亮介
Ryosuke Murai
亮介 村井
酒井 龍雄
Tatsuo Sakai
龍雄 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014147930A priority Critical patent/JP2016024598A/en
Publication of JP2016024598A publication Critical patent/JP2016024598A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a control method of an autonomous mobile apparatus having high reliability and capable of improving accuracy.SOLUTION: The control method is provided for an autonomous mobile apparatus 1 including movement means 3 for moving itself, a sensor 2 for acquiring environment information around itself, a control device 4 for moving the itself by controlling the movement means 3 and a storage unit 7 storing map information. In the control device 4, first estimation information indicating a self position estimated by a stochastic method by using a particle filter on the basis of the environment information and the map information is calculated by a first self position estimation section 51, second estimation information indicating a self position estimated by a matching method using line matching on the basis of the environment information and the map information is calculated by a second self position estimation section 52, and integrated information is calculated by an integration section 9 by using an integration function on the basis of the first estimation information and the second estimation information to control the movement means 3 on the basis of the integration information and move itself.SELECTED DRAWING: Figure 1

Description

本発明は、目的地までの自律移動を行う自律移動装置に関するものである。   The present invention relates to an autonomous mobile device that performs autonomous movement to a destination.

従来の自律移動装置としては、自己位置を推定するための推定手段を2つ備え、一方の推定手段の推定結果に基づき、もう一方の推定手段の推定結果を初期化することで、推定された自己位置の信頼性、つまり、推定された自己位置と実際の自己位置との一致度合いを向上させる方法が考案されていた(例えば、特許文献1参照)。   The conventional autonomous mobile device has two estimation means for estimating the self-location, and is estimated by initializing the estimation result of the other estimation means based on the estimation result of one estimation means. A method of improving the reliability of self-position, that is, the degree of coincidence between the estimated self-position and the actual self-position has been devised (for example, see Patent Document 1).

特開2003−166824号公報JP 2003-166824 A

しかしながら、上述した特許文献1に示す方法は、2つの推定手段の推定結果に大きな差異がある場合に、より信頼性の高い一方の手段の結果によって、もう一方の手段を初期化することで信頼性の向上を実現しているが、2つの推定手段の推定結果の差異が小さい場合、2つの推定手段の推定結果を用いた自己位置の推定精度の向上を実現することができない可能性がある。   However, in the method described in Patent Document 1 described above, when there is a large difference in the estimation results of the two estimation means, the reliability is obtained by initializing the other means with the result of one of the more reliable means. However, if the difference between the estimation results of the two estimation means is small, it may not be possible to improve the self-position estimation accuracy using the estimation results of the two estimation means. .

そこで本発明は、2つの推定手段の推定結果を用いた場合でも自己位置の推定精度を向上させることのできる自律移動装置の制御方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a control method for an autonomous mobile device that can improve the estimation accuracy of its own position even when the estimation results of two estimation means are used.

上記目的を達成するため、本発明の自律移動装置の制御方法は、自己を移動させる移動手段と、自己の周囲の環境情報を取得するセンサと、前記移動手段を制御して自己を移動させる制御装置と、地図情報を有する記憶部とを備えた自律移動装置の制御方法であって、前記制御装置は、前記環境情報および前記地図情報に基づきパーティクルフィルタを用いて確率的手法により推定された自己位置を示す第一推定情報を第一自己位置推定部で算出し、前記環境情報および前記地図情報に基づきラインマッチングを用いてマッチング手法により推定された自己位置を示す第二推定情報を第二自己位置推定部で算出し、前記第一推定情報と前記第二推定情報に基づき統合関数を用いて統合情報を統合部で算出し、前記統合情報に基づいて前記移動手段を制御して自己を移動させることを特徴とする。   In order to achieve the above object, a method for controlling an autonomous mobile device according to the present invention includes a moving unit that moves itself, a sensor that acquires environmental information around the device, and a control that moves the self by controlling the moving unit. A method for controlling an autonomous mobile device comprising a device and a storage unit having map information, wherein the control device is self-estimated by a probabilistic method using a particle filter based on the environment information and the map information First estimation information indicating a position is calculated by a first self-position estimation unit, and second estimation information indicating a self-position estimated by a matching method using line matching based on the environment information and the map information is obtained as a second self Calculated by the position estimation unit, calculated by the integration unit using the integration function based on the first estimation information and the second estimation information, and moved based on the integration information And wherein the moving the self-control the stage.

本発明によれば、2つの推定手段の推定結果を用いた場合でも自己位置の精度の高い位置推定が可能となる。   According to the present invention, it is possible to estimate the position of the self-position with high accuracy even when the estimation results of the two estimation means are used.

図1は、本発明の実施の形態1に係る自律移動装置の全体構成図である。FIG. 1 is an overall configuration diagram of an autonomous mobile device according to Embodiment 1 of the present invention. 図2は、本発明の実施の形態1に係る自律移動装置の斜視図である。FIG. 2 is a perspective view of the autonomous mobile device according to Embodiment 1 of the present invention. 図3は、本発明の実施の形態1において第一推定情報を用いて自己位置情報を更新する場合を示す説明図である。FIG. 3 is an explanatory diagram showing a case where self-location information is updated using the first estimation information in the first embodiment of the present invention. 図4は、本発明の実施の形態1において第二推定情報を算出する場合を示す説明図である。FIG. 4 is an explanatory diagram showing a case where the second estimation information is calculated in the first embodiment of the present invention. 図5は、本発明の実施の形態1における統合部による自己位置の推定情報の算出のフローチャートである。FIG. 5 is a flowchart of calculation of self-position estimation information by the integration unit according to Embodiment 1 of the present invention. 図6は、本発明の実施の形態1におけるニューラルネットワークの説明図である。FIG. 6 is an explanatory diagram of the neural network according to the first embodiment of the present invention. 図7は、本発明の実施の形態1におけるニューラルネットワークの学習のフローチャートである。FIG. 7 is a flowchart of learning of the neural network according to the first embodiment of the present invention. 図8は、本発明の実施の形態1における最急降下法の説明図である。FIG. 8 is an explanatory diagram of the steepest descent method according to Embodiment 1 of the present invention. 図9は、本発明の実施の形態1におけるシミュレータを用いた学習データ作成の説明図である。FIG. 9 is an explanatory diagram of learning data creation using the simulator according to Embodiment 1 of the present invention. 図10は、本発明の実施の形態4におけるパーティクルフィルタの精度向上方法に関する説明図である。FIG. 10 is an explanatory diagram relating to a method for improving the accuracy of a particle filter according to Embodiment 4 of the present invention. 図11は、本発明の実施の形態4におけるパーティクルフィルタとラインセグメントマッチングの推定位置の差分の説明図である。FIG. 11 is an explanatory diagram of the difference between the estimated position of the particle filter and the line segment matching in the fourth embodiment of the present invention. 図12は、本発明の実施の形態5におけるパーティクルフィルタにおけるクラスター形成の説明図である。FIG. 12 is an explanatory diagram of cluster formation in the particle filter according to the fifth embodiment of the present invention. 図13は、本発明の実施の形態6における走行経路中を一旦停止など繰り返しながら目的地へ向かう自律移動装置の軌跡の説明図である。FIG. 13 is an explanatory diagram of the trajectory of the autonomous mobile device that travels to the destination while repeating the travel route in the sixth embodiment of the present invention, such as temporarily stopping.

以下、本発明の実施の形態に係る自律移動装置について、図面を参照して説明する。   Hereinafter, an autonomous mobile device according to an embodiment of the present invention will be described with reference to the drawings.

(実施の形態1)
自律移動装置1は、図1に示すように、自己の周囲空間に存在する障害物の位置情報などを含む環境情報を取得するセンサ2と、自己を移動させる移動手段3と、センサ2によって取得した環境情報(センサ情報)を基に移動手段3を制御する制御装置4と、これらに電力を供給する電池8とを備える。
(Embodiment 1)
As shown in FIG. 1, the autonomous mobile device 1 is acquired by a sensor 2 that acquires environmental information including position information of obstacles that exist in its surrounding space, a moving means 3 that moves itself, and a sensor 2. The control apparatus 4 which controls the moving means 3 based on the environmental information (sensor information) which was performed, and the battery 8 which supplies electric power to these are provided.

本実施の形態の自律移動装置1の基本的な動作としては、走行情報に基づいて更新部が自己位置情報を更新し、逐次更新される自己位置情報に基づいて制御することで、目的地まで移動する。   As a basic operation of the autonomous mobile device 1 of the present embodiment, the update unit updates the self-position information based on the travel information, and controls based on the self-position information that is sequentially updated, to the destination. Moving.

制御装置4は、記憶部7と、自己位置を示す第一推定情報を推定により算出する第一自己位置推定部51と、自己位置を示す第二推定情報を推定により算出する第二自己位置推定部52と、第三自己位置推定部53と、第一推定情報と第二推定情報などの複数の推定情報を用いて自己位置を示す統合情報を算出する統合部9と、地図情報を用いて目的地までの経路を生成する経路生成部6と、学習データを基に学習する学習器10と、統合情報などを用いて記憶部7に記憶されている自己位置情報を更新する更新部11を備える。記憶部7は、制御パラメータや地図情報、自己位置情報、取得した環境情報(センサ情報)、走行情報等を記憶する。第一自己位置推定部51は、センサ2からの環境情報と地図情報を用いて、第一推定情報を算出する。自己位置を示す第三推定情報を算出する第三自己位置推定部53は、統合部9を学習する際に必要に応じて自己位置を推定する。   The control device 4 includes a storage unit 7, a first self-position estimating unit 51 that calculates first estimation information indicating the self-position by estimation, and a second self-position estimation that calculates second estimation information indicating the self-position by estimation. Unit 52, third self-position estimation unit 53, integration unit 9 that calculates integrated information indicating self-location using a plurality of pieces of estimation information such as first estimation information and second estimation information, and map information A route generation unit 6 that generates a route to the destination, a learning device 10 that learns based on learning data, and an update unit 11 that updates self-location information stored in the storage unit 7 using integrated information or the like. Prepare. The storage unit 7 stores control parameters, map information, self-location information, acquired environment information (sensor information), travel information, and the like. The first self-position estimation unit 51 calculates first estimation information using the environment information and map information from the sensor 2. The third self-position estimation unit 53 that calculates third estimation information indicating the self-position estimates the self-position as necessary when learning the integration unit 9.

ここで、自己位置を示す推定情報とは、自律移動装置1が記憶部7に記憶している自己の位置を示す自己位置情報を、更新部11が更新するための情報である。また、自己位置情報の更新とは、統合情報などに含まれる自己位置情報と対応する情報を用いて、記憶部7に記憶されていた自己位置情報を新しい情報に置き換えることである。   Here, the estimated information indicating the self position is information for the update unit 11 to update the self position information indicating the self position stored in the storage unit 7 by the autonomous mobile device 1. The update of the self-location information is to replace the self-location information stored in the storage unit 7 with new information using information corresponding to the self-location information included in the integrated information.

センサ2は、例えば、図2に示すように、自律移動装置1の走行面Pに平行な計測平面2P内に存在する障害物の情報を取得する。   For example, as shown in FIG. 2, the sensor 2 acquires information on an obstacle that exists in a measurement plane 2 </ b> P parallel to the traveling plane P of the autonomous mobile device 1.

センサ2としては、例えば、平面内をスキャンするレーザレーダを挙示することができる。センサ2(レーザレーダ)は、進行方向前方のスキャン平面である半円形の計測平面2Pにおいて、予め定められた一定角度範囲内でレーザビームを揺動させ、障害物までの距離や障害物までの方向(角度)を取得することができるセンサである。センサ2は、例えば、測定可能距離の上限が30mで、レーザビームを振る範囲が自律移動装置1の進行方向を中心に左右±90゜の角度範囲であり、当該角度範囲内において0.5゜毎に測距する。センサ2は、例えば、一定の制御周期のもとで間欠的にスキャンを行って、1回のスキャン毎に取得する距離データ、および、当該距離データを取得したときのスキャン角度の集合を、環境情報(センサ情報)として記憶部7に記憶させる。環境情報は、センサ2により所定の角度毎に検出された障害物の距離に基づき得られた障害物(本実施の形態においては廊下の壁)の情報である。なお、環境情報には、その他の情報、例えば各スキャンを区別する区別情報(例えば時刻情報)などが含まれていても良い。   As the sensor 2, for example, a laser radar that scans in a plane can be listed. The sensor 2 (laser radar) oscillates the laser beam within a predetermined fixed angle range on a semicircular measurement plane 2P that is a scan plane ahead of the traveling direction, and detects the distance to the obstacle and the distance to the obstacle. It is a sensor that can acquire a direction (angle). For example, the upper limit of the measurable distance of the sensor 2 is 30 m, and the range in which the laser beam is oscillated is an angle range of ± 90 ° to the left and right with respect to the traveling direction of the autonomous mobile device 1. Ranging every time. For example, the sensor 2 scans intermittently under a constant control cycle, and obtains a set of distance data acquired for each scan and a set of scan angles when the distance data is acquired. The information is stored in the storage unit 7 as information (sensor information). The environmental information is information on an obstacle (in the present embodiment, a corridor wall) obtained based on the distance of the obstacle detected by the sensor 2 at every predetermined angle. The environment information may include other information, for example, discrimination information (for example, time information) for distinguishing each scan.

なお、上記のセンサ構成、センサの例は、本実施の形態を実現する一つの例であって、これらに限定されるわけではなく、種々のセンサを用いることができる。   Note that the sensor configuration and sensor examples described above are examples for realizing the present embodiment, and the present invention is not limited to these, and various sensors can be used.

移動手段3は、例えば電池8で駆動するモータと駆動輪などで構成される。このモータには、モータの回転数や回転速度を計測するエンコーダが走行情報取得手段31として設けられている。制御装置4は、走行情報取得手段31としてのエンコーダの出力によって所定時間間隔毎に自律移動装置1の移動距離や移動方向などが含まれる走行情報を取得することができる。得られた走行情報は、記憶部7に記憶される。記憶された走行情報は、適宜、デッドレコニング(推定航法)などにおいて参照される。   The moving means 3 is composed of, for example, a motor driven by the battery 8 and driving wheels. This motor is provided with an encoder for measuring the rotation speed and rotation speed of the motor as the travel information acquisition means 31. The control device 4 can acquire travel information including the travel distance, the travel direction, and the like of the autonomous mobile device 1 at predetermined time intervals by the output of the encoder as the travel information acquisition means 31. The obtained travel information is stored in the storage unit 7. The stored travel information is appropriately referred to in dead reckoning (estimated navigation) or the like.

走行情報は、基準位置を基準とした座標系において相対位置や相対的な移動方向を含む情報である。基準位置は、例えば、自律移動装置1が移動を開始したときの位置である。相対位置は、基準位置に対する相対的な位置を示す。   The travel information is information including a relative position and a relative movement direction in a coordinate system based on the reference position. The reference position is, for example, a position when the autonomous mobile device 1 starts moving. The relative position indicates a position relative to the reference position.

自己位置情報は、記憶部7に記憶された走行情報を用いたデッドレコニングにより逐次更新される。さらに、自己位置情報は、後述の統合部9により算出された統合情報によっても更新される。デッドレコニングは、例えば、50msec程度の短いサンプリング周期で実施され、更新部11は、走行情報に基づき自己位置情報を例えば50msecの間隔で更新する。統合部9による統合情報による自己位置情報の更新は、例えば、1000msec程度の長いサンプリング周期で実施され、更新部11は、統合情報に基づき自己位置情報を例えば1000msecの間隔で更新する。つまり、更新部11において、統合情報に基づく自己位置情報の更新は、走行情報に基づく更新の間隔よりも長い間隔である。   The self-location information is sequentially updated by dead reckoning using travel information stored in the storage unit 7. Furthermore, the self-location information is also updated by integrated information calculated by the integration unit 9 described later. Dead reckoning is performed, for example, in a short sampling period of about 50 msec, and the updating unit 11 updates the self-location information at intervals of, for example, 50 msec based on the travel information. Update of the self-location information by the integration information by the integration unit 9 is performed with a long sampling period of, for example, about 1000 msec, and the update unit 11 updates the self-location information at intervals of, for example, 1000 msec based on the integration information. That is, in the update unit 11, the update of the self-location information based on the integrated information is an interval longer than the update interval based on the travel information.

第一自己位置推定部51は、環境情報(センサ情報)と地図情報を用いて、確率的手法に基づき自己位置を示す第一推定情報を、推定により算出する。ここで、確率的手法は、例えばベイズ理論を用いた手法である。本実施の形態では、第一自己位置推定部51での確率的手法として、パーティクル(粒子)フィルタを用いる。パーティクルフィルタを用いた第一推定情報の算出においては、第一推定情報は、パーティクルと呼ばれるサンプル集合が分布した状態で表現される。これらパーティクルの推定、更新、リサンプリング等により、第一推定情報の算出が所定の時間間隔で行われる。すなわち、第一自己位置推定部51は、パーティクルフィルタを用いて自律移動装置1の自己の位置を推定し、第一推定情報を算出する。   The first self-position estimating unit 51 uses the environmental information (sensor information) and the map information to calculate first estimation information indicating the self-position based on a probabilistic method. Here, the probabilistic method is a method using, for example, Bayesian theory. In the present embodiment, a particle filter is used as a probabilistic method in the first self-position estimation unit 51. In calculating the first estimation information using the particle filter, the first estimation information is expressed in a state in which sample sets called particles are distributed. The first estimation information is calculated at a predetermined time interval by estimating, updating, resampling, and the like of these particles. That is, the first self-position estimation unit 51 estimates the position of the autonomous mobile device 1 using a particle filter, and calculates first estimation information.

図3は、本発明の実施の形態において、第一自己位置推定部により算出された第一推定情報を用いて自己位置情報を更新する場合を示す説明図である。図3に示す更新前の自律移動装置1の自己位置情報101は、例えば走行情報に基づいて更新されたものであり、図3中において二点鎖線で示したものである。更新前の自己位置情報101における環境情報は、図3中において二点鎖線の直線で示した環境情報201として表されるものである。一方、図3中に示される実線の直線は、地図情報に含まれる廊下の壁を示す情報であり、対応地図情報301である。このように、第一推定情報による更新前の自己位置情報101に基づくセンサ2からの環境情報201と、対応地図情報301とが乖離している場合が発生する可能性がある。そこで、本実施の形態では、第一自己位置推定部51によりパーティクルフィルタを用いて複数のパーティクル102を算出し、このパーティクル102を用いた推定結果を用いることで、図3中において実線で示した第一推定情報111を算出して、自己位置の推定精度を向上させている。例えば、第一自己位置推定部51は、複数のパーティクル102の平均値を用いてX座標値、Y座標値、向きを示す値、共分散の値等を含む第一推定情報を算出する。   FIG. 3 is an explanatory diagram showing a case where self-position information is updated using the first estimation information calculated by the first self-position estimation unit in the embodiment of the present invention. The self-location information 101 of the autonomous mobile device 1 before update shown in FIG. 3 is updated based on, for example, travel information, and is indicated by a two-dot chain line in FIG. The environment information in the self-location information 101 before the update is represented as environment information 201 indicated by a two-dot chain line in FIG. On the other hand, the solid straight line shown in FIG. 3 is information indicating the wall of the corridor included in the map information, and is the corresponding map information 301. As described above, there is a possibility that the environment information 201 from the sensor 2 based on the self-location information 101 before the update based on the first estimation information and the corresponding map information 301 are deviated. Therefore, in the present embodiment, a plurality of particles 102 are calculated using the particle filter by the first self-position estimating unit 51, and the estimation result using the particles 102 is used, which is indicated by a solid line in FIG. The first estimation information 111 is calculated to improve the self-position estimation accuracy. For example, the first self-position estimation unit 51 calculates first estimation information including an X coordinate value, a Y coordinate value, a value indicating a direction, a covariance value, and the like using an average value of the plurality of particles 102.

なお、第一推定情報は、更新前の自己位置情報との差分などであってもよい。   The first estimation information may be a difference from the self-location information before update.

第二自己位置推定部52は、センサ2からの環境情報と地図情報を用いて、第一自己位置推定部51とは異なる手法に基づいて第二推定情報を算出する。本実施の形態の第二自己位置推定部52は、センサ2から得られる環境情報から抽出されたラインセグメントを用い、この抽出されたラインセグメントを地図情報に含まれるラインセグメントとラインマッチングを行うことで、第二推定情報を算出する。すなわち、本実施の形態におけるラインマッチングとは、センサ2からの環境情報から取得したラインと、地図情報に含まれるラインとを比較マッチングする、マッチング手法の一例である。   The second self-position estimation unit 52 calculates the second estimation information based on a method different from that of the first self-position estimation unit 51 using the environment information and the map information from the sensor 2. The second self-position estimation unit 52 of the present embodiment uses a line segment extracted from the environmental information obtained from the sensor 2 and performs line matching of the extracted line segment with the line segment included in the map information. Then, the second estimation information is calculated. That is, the line matching in the present embodiment is an example of a matching method for comparing and matching a line acquired from environmental information from the sensor 2 and a line included in the map information.

図4は、本発明の実施の形態において、第二自己位置推定部により第二推定情報を算出する場合を示す説明図である。図4に示す更新前の自律移動装置1の自己位置情報101は、例えば走行情報に基づいて更新されたものであり、図4中において二点鎖線で示したものである。図4中には、更新前の自己位置情報101において抽出されたラインセグメント401と、地図情報から抽出された対応ラインセグメント501とを表している。第二自己位置推定部52は、図4中に二点鎖線の線分で示された環境情報によるラインセグメント401と、地図情報から抽出された対応ラインセグメント501とを比較し、ラインセグメント401と対応ラインセグメント501とが一定の距離、一定の角度以内であればマッチングさせ、第二推定情報を算出する。第二推定情報は、X座標値、Y座標値、向きを示す値、マッチング率を含む情報である。マッチング率は、ラインセグメント401と対応ラインセグメント501とがどの程度一致しているかを示す値である。第二自己位置推定部52によるラインマッチングを用いることで、図4中において実線で示した第二推定情報151を算出して、自己位置の推定精度を向上させている。   FIG. 4 is an explanatory diagram showing a case where the second estimation information is calculated by the second self-position estimation unit in the embodiment of the present invention. The self-location information 101 of the autonomous mobile device 1 before update shown in FIG. 4 is updated based on, for example, travel information, and is indicated by a two-dot chain line in FIG. FIG. 4 shows a line segment 401 extracted from the self-position information 101 before update and a corresponding line segment 501 extracted from the map information. The second self-position estimation unit 52 compares the line segment 401 based on the environmental information indicated by the two-dot chain line segment in FIG. 4 with the corresponding line segment 501 extracted from the map information, If the corresponding line segment 501 is within a certain distance and within a certain angle, matching is performed, and second estimation information is calculated. The second estimation information is information including an X coordinate value, a Y coordinate value, a value indicating a direction, and a matching rate. The matching rate is a value indicating how much the line segment 401 and the corresponding line segment 501 match. By using the line matching by the second self-position estimation unit 52, the second estimation information 151 indicated by the solid line in FIG. 4 is calculated, and the self-position estimation accuracy is improved.

なお、第二推定情報は、更新前の自己位置情報との差分などであってもかまわない。   Note that the second estimation information may be a difference from the self-location information before update.

図5を用いて、本発明の実施の形態における第一推定情報と第二推定情報を用いた統合部9による統合情報の算出方法を説明する。統合部9による統合情報の算出は、前述のように、デッドレコニングに基づく自己位置情報の更新周期よりも長い周期で実施され、得られた統合情報により、自己位置情報は更新される。   With reference to FIG. 5, a calculation method of integrated information by the integration unit 9 using the first estimation information and the second estimation information in the embodiment of the present invention will be described. As described above, the calculation of the integrated information by the integration unit 9 is performed with a period longer than the update period of the self-position information based on dead reckoning, and the self-position information is updated with the obtained integrated information.

制御装置4は、自律移動装置1が移動中、比較的長いサンプリング周期ごとに以下の処理を実施する。   The control device 4 performs the following processing for each relatively long sampling period while the autonomous mobile device 1 is moving.

はじめに、第一自己位置推定部51により第一推定情報を算出する(A1)。次に、第二自己位置推定部52により第二推定情報を算出する(A2)。次に、統合部9は、第一推定情報と第二推定情報を入力値として、学習器10によって学習された学習データを用いて算出された統合関数を用いて推定される自己位置を示す統合情報を算出する(A3)。更新部11は、統合部9によって得られた統合情報によって、自律移動装置1の現在の自己位置を示す自己位置情報を更新する。   First, first estimation information is calculated by the first self-position estimation unit 51 (A1). Next, second estimation information is calculated by the second self-position estimation unit 52 (A2). Next, the integration unit 9 uses the first estimated information and the second estimated information as input values and integrates the self-position estimated using the integration function calculated using the learning data learned by the learning device 10. Information is calculated (A3). The update unit 11 updates the self-location information indicating the current self-location of the autonomous mobile device 1 with the integrated information obtained by the integration unit 9.

本実施の形態においては、統合関数として、ニューラルネットワークを用いている。ニューラルネットワークは、周知のように、学習能力を持ち、非線形関数で表現することができ、制御、予測、診断など、多くの分野で用いられている。   In this embodiment, a neural network is used as the integration function. As is well known, the neural network has learning ability and can be expressed by a non-linear function, and is used in many fields such as control, prediction and diagnosis.

図6を用いて、本実施の形態におけるニューラルネットワークの構造、入力値、出力値について説明する。ニューラルネットワークには多くの構造が考案されているが、本実施の形態においては、シグモイド関数を持つニューロン素子を2層(中間層、出力層)重ねた3層ニューラルネットワークを用いる。図6に示すように、入力値としては、第一推定情報と第二推定情報とに含まれる値を用いる。出力値は統合情報である。中間層のユニット数は、例えば10個としている。出力層のユニット数は、出力値と同じであり、出力値を、自律移動装置1のX座標値、Y座標値、向きを示す値とした場合、3つとなる。各層の間は重みによって結合されており、これらの重みは、後述の学習器10によるニューラルネットワークの学習によって求められる。第一推定情報における入力値としては、第一推定情報に含まれるX座標値、Y座標値、向きを示す値、共分散値を用い、第二推定情報における入力値としては、第二推定情報に含まれるX座標値、Y座標値、向きを示す値、マッチング率を用いる。   The structure, input value, and output value of the neural network in this embodiment will be described with reference to FIG. Many structures have been devised for the neural network, but in this embodiment, a three-layer neural network in which two layers of neuron elements having a sigmoid function (intermediate layer, output layer) are used is used. As shown in FIG. 6, values included in the first estimation information and the second estimation information are used as input values. The output value is integrated information. The number of units in the intermediate layer is, for example, 10. The number of units in the output layer is the same as the output value, and when the output value is an X coordinate value, a Y coordinate value, and a value indicating the direction of the autonomous mobile device 1, the number is three. The layers are connected by weights, and these weights are obtained by learning of a neural network by the learning device 10 described later. As an input value in the first estimation information, an X coordinate value, a Y coordinate value, a value indicating a direction, and a covariance value included in the first estimation information are used. As an input value in the second estimation information, the second estimation information is used. X coordinate value, Y coordinate value, orientation value, and matching rate are used.

なお、第一自己位置推定部51による第一推定情報の算出において、パーティクルフィルタによる計算結果が収束していない場合には、統合部9による統合情報の算出を実施せず、第二推定情報に基づき自己位置情報を更新することもできる。これは、パーティクルフィルタはパーティクルを分布させた後に、パーティクルが一箇所に集合する(収束する)までに時間を要し、この間は、パーティクルフィルタによる結果には大きな誤差が含まれている可能性があることを防ぐためである。パーティクルフィルタによる計算が収束しているかどうかの判断は、第一推定情報の分散が一定値以下である、あるいは、第一推定情報の最小値と最大値の差が一定値以下(例えば、X座標値の差分が2m以内かつ、Y座標値の差分が2m以内)であるかによって判断する。   In addition, in the calculation of the first estimation information by the first self-position estimation unit 51, when the calculation result by the particle filter has not converged, the integration information is not calculated by the integration unit 9, and the second estimation information is obtained. The self-location information can also be updated based on this. This means that after the particle filter distributes the particles, it takes time for the particles to gather (converge) in one place, and during this time, the results from the particle filter may contain large errors. This is to prevent being there. Whether the calculation by the particle filter has converged is determined by whether the variance of the first estimation information is less than a certain value, or the difference between the minimum value and the maximum value of the first estimation information is less than a certain value (for example, the X coordinate It is determined whether or not the difference between the values is within 2 m and the difference between the Y coordinate values is within 2 m.

次に、ニューラルネットワークを学習器10によって学習する方法について述べる。ニューラルネットワークを備えた統合部9により自己位置情報を更新するための精度の高い統合情報を算出するためには、ニューラルネットワークの学習が必要となる。学習は、各層間の重みを決定するための計算を意味する。重みとは、図6に示したように、各層の間の各ユニットを関連づけるパラメータのことである。学習には、入力値と出力値の組み合わせの学習データを用いる。本実施の形態においては、シミュレータにより取得したデータを用いてニューラルネットワークを一旦学習させ、その後、自律移動装置1を実際の環境で走行させて取得したデータを用いてニューラルネットワークを再度学習させる方法を用いている。   Next, a method for learning a neural network by the learning device 10 will be described. In order to calculate highly accurate integrated information for updating the self-location information by the integration unit 9 including the neural network, learning of the neural network is necessary. Learning means a calculation for determining the weight between each layer. As shown in FIG. 6, the weight is a parameter that associates each unit between the layers. For learning, learning data of a combination of an input value and an output value is used. In the present embodiment, a method of once learning a neural network using data acquired by a simulator, and then re-learning the neural network using data acquired by running the autonomous mobile device 1 in an actual environment. Used.

図7は、上記のニューラルネットワークの学習のフローチャートを示している。はじめに、後述のシミュレータを用いて、学習に必要なデータを取得し、そのデータを学習データとしてニューラルネットワークに学習させる(B1)。一般的に、ニューラルネットワークを学習させるときの、重みの初期値、学習係数、などに関して、最適なパラメータは存在せず、ニューラルネットワークを適用するモデルに対して試行錯誤的に設定する必要があるといわれている。本実施の形態においても、シミュレータを用いた学習においては、重みの初期値、学習係数などを試行錯誤的に設定し、学習の誤差(入力値と出力値の誤差)が一定の範囲内に入るまで、学習パラメータを変えつつ、学習を行うものとする。次に、自律移動装置1の動作により取得したデータを用いてニューラルネットワークを学習する(B2)。ここで、シミュレータを用いているのは、一般的に動作テストを実施することができる時間は短い場合が多いため、自律移動装置1を実際に走行させて学習データを取得して学習する時間が短くなり、取得されるデータ量が不足する場合があるための対策である。具体的には、本実施の形態では、実機である自律移動装置1の動作により取得したデータを用いたニューラルネットワークの学習において、シミュレータを用いて学習した際の結果であるニューラルネットワークの重みを初期値とし、学習パラメータもその際と同様の値を用いて、初期値にシミュレータを用いて学習した結果を用いる。これにより、学習の時間を短縮することが可能であり、実機動作により取得したデータを用いたニューラルネットワークの学習は、実際の走行現場に合わせて、重みを微調整することができ、自律移動装置1の導入時に、短時間で、かつ、精度の高い学習結果を生成することが可能となる。   FIG. 7 shows a flowchart of learning of the neural network. First, data necessary for learning is acquired using a simulator described later, and the neural network learns the data as learning data (B1). Generally, there are no optimal parameters for the initial values of weights, learning coefficients, etc. when learning a neural network, and it is necessary to set trial and error for the model to which the neural network is applied. It is said. Also in this embodiment, in learning using a simulator, initial values of weights, learning coefficients, etc. are set by trial and error, and learning errors (input value and output value errors) fall within a certain range. Until now, learning is performed while changing the learning parameters. Next, the neural network is learned using the data acquired by the operation of the autonomous mobile device 1 (B2). Here, the simulator is used because the time during which an operation test can generally be performed is often short, so the time for actually learning the autonomous mobile device 1 to acquire the learning data and learning This is a countermeasure for shortening the amount of data acquired. Specifically, in the present embodiment, in the neural network learning using the data acquired by the operation of the autonomous mobile device 1 that is a real machine, the weight of the neural network that is the result of learning using the simulator is initially set. As the learning parameter, the same learning value is used as the learning parameter, and the learning result using the simulator is used as the initial value. Thereby, it is possible to shorten the learning time, the learning of the neural network using the data acquired by the actual machine operation can finely adjust the weight according to the actual traveling site, and the autonomous mobile device When 1 is introduced, a highly accurate learning result can be generated in a short time.

学習データを用いたニューラルネットワークの学習方法について説明する。上記記載の階層型のニューラルネットワークでは、学習データを用いてバックプロパゲーション法(誤差逆伝播法)により学習し、内部の結合状態(重み)を調整して決定した重み係数を記憶部7に記憶する。バックプロパゲーション法による学習アルゴリズムの中核は、最急降下法による入力値と出力値の誤差最小化である。最急降下法による最小解の探索の問題点としては、大域的最小解を得ることができず、学習結果が局所最適解の取得に陥ってしまうことがあげられる。図8は、重みに対する入力値と出力値の誤差の関係を示す例である。重みの初期値設定や、学習係数の設定によっては、図8で示す、大局的な最適解が得られず、局所的な最適解を得る結果となり、入力値と出力値の誤差が大きく残ってしまう可能性がある。そこで、本実施の形態では、シミュレータにより取得したデータを用いてニューラルネットワークを試行錯誤的に学習させることで、局所的な最適解ではなく、大局的な最適解を取得することを可能としている。   A neural network learning method using learning data will be described. In the hierarchical neural network described above, learning is performed by using the backpropagation method (error back propagation method) using the learning data, and the weighting coefficient determined by adjusting the internal coupling state (weight) is stored in the storage unit 7. To do. The core of the learning algorithm based on the back-propagation method is to minimize the error between the input value and the output value based on the steepest descent method. The problem of searching for the minimum solution by the steepest descent method is that a global minimum solution cannot be obtained and the learning result falls into obtaining a local optimum solution. FIG. 8 is an example showing the relationship between the error between the input value and the output value with respect to the weight. Depending on the setting of the initial value of the weight and the setting of the learning coefficient, the global optimum solution shown in FIG. 8 cannot be obtained, resulting in obtaining the local optimum solution, and a large error between the input value and the output value remains. There is a possibility. Therefore, in this embodiment, it is possible to acquire a global optimum solution instead of a local optimum solution by learning the neural network by trial and error using data obtained by a simulator.

なお、本実施の形態では、シミュレータにより取得したデータを用いてニューラルネットワークを一旦学習させた後、自律移動装置1を実際の環境で走行させて取得したデータを用いてニューラルネットワークを再度学習させる方法について述べたが、自律移動装置1の走行環境に複雑な形状の障害物が少ない場合など、シミュレータにより取得したデータによる学習と、自律移動装置1を実際の環境で走行させて取得したデータを用いた学習との間に大きな差異がない場合などは、どちらか一方の学習のみとすることも可能である。   In the present embodiment, after the neural network is once learned using the data acquired by the simulator, the neural network is learned again using the data acquired by running the autonomous mobile device 1 in an actual environment. In the case where there are few obstacles of complicated shape in the traveling environment of the autonomous mobile device 1, learning by data acquired by the simulator and data acquired by traveling the autonomous mobile device 1 in the actual environment are used. If there is no significant difference between the learning and the learning, it is possible to use only one of the learnings.

シミュレータの動作概要を、図9を用いて説明する。シミュレータ600は、自律移動装置1の移動を計算機上の仮想環境でシミュレートするものである。シミュレータ600による動作は、自律移動シミュレータ601と仮想自律移動装置602から構成される。仮想自律移動装置602は、自律移動装置1における移動手段3とセンサ2を実際には保有せず、これらの機能を計算機上で自律移動シミュレータ601により実現するものである。自律移動シミュレータ601は、センサ2、移動手段3、記憶部7の動作をシミュレートする。より具体的には、自律移動シミュレータ601は、仮想自律移動装置602から取得した移動手段3への指令値と同様の制御値によって、制御パラメータに従って、仮想環境内で自己(仮想的な自律移動装置)を移動させ、仮想環境内での仮想的な自律移動装置1の位置や向きを示す仮想自己位置情報611を算出する。自律移動シミュレータ601は、この仮想自己位置情報611と地図情報612から、仮想自己位置情報611に対応する位置に自律移動装置1が存在した場合に取得されるセンサ2から得られるであろう仮想環境情報613を計算し、この結果を仮想自律移動装置602へ送信する。仮想自律移動装置602は自律移動シミュレータ601から取得した仮想環境情報613に基づいて、仮想自己位置情報611を算出する。仮想自律移動装置602は、上記シミュレートを、目的地へ到着するまで実施することで、仮想環境上で目的地までの移動を行う。この際、一定頻度で、第一自己位置推定部51によって取得した第一推定情報と、第二自己位置推定部52によって取得した第二推定情報と、仮想自律移動装置602が自律移動シミュレータ601から取得した仮想自己位置情報611を記憶部に記憶する。そして、これら第一推定情報と第二推定情報を学習データの入力値、仮想自己位置情報611を第三推定情報として学習データの出力値とする。これは、仮想自己位置情報611は、自律移動シミュレータ601の自己の位置に対応しており、自己位置の真値であるという考えに基づく。また、上記の学習データの取得においては、地図情報をさまざまに設定(例えば、仮想障害物622を配置)する、あるいは、自律移動シミュレータ601と仮想自律移動装置602の地図情報にズレを生じさせるなどして、実際の環境で起こりえる状況をさまざまに設定することで、多様な環境に対応できる学習データを取得することができる。   An outline of the operation of the simulator will be described with reference to FIG. The simulator 600 simulates the movement of the autonomous mobile device 1 in a virtual environment on a computer. The operation by the simulator 600 includes an autonomous mobile simulator 601 and a virtual autonomous mobile device 602. The virtual autonomous mobile device 602 does not actually have the moving means 3 and the sensor 2 in the autonomous mobile device 1 and realizes these functions by the autonomous mobile simulator 601 on a computer. The autonomous movement simulator 601 simulates the operations of the sensor 2, the moving unit 3, and the storage unit 7. More specifically, the autonomous mobile simulator 601 uses the same control value as the command value to the moving means 3 acquired from the virtual autonomous mobile device 602 according to the control parameter in the virtual environment. ) To calculate virtual self-position information 611 indicating the position and orientation of the virtual autonomous mobile device 1 in the virtual environment. The autonomous mobile simulator 601 uses the virtual self-position information 611 and the map information 612 to obtain a virtual environment that will be obtained from the sensor 2 acquired when the autonomous mobile device 1 exists at a position corresponding to the virtual self-position information 611. Information 613 is calculated and the result is transmitted to the virtual autonomous mobile device 602. The virtual autonomous mobile device 602 calculates virtual self position information 611 based on the virtual environment information 613 acquired from the autonomous movement simulator 601. The virtual autonomous mobile device 602 moves to the destination in the virtual environment by performing the simulation until it reaches the destination. At this time, the first estimation information acquired by the first self-position estimation unit 51, the second estimation information acquired by the second self-position estimation unit 52, and the virtual autonomous mobile device 602 from the autonomous movement simulator 601 at a constant frequency. The acquired virtual self-location information 611 is stored in the storage unit. The first estimated information and the second estimated information are used as input values for learning data, and the virtual self-position information 611 is used as third estimated information as output values for learning data. This is based on the idea that the virtual self position information 611 corresponds to the self position of the autonomous movement simulator 601 and is the true value of the self position. In the acquisition of the learning data, various map information is set (for example, a virtual obstacle 622 is arranged), or the map information of the autonomous mobile simulator 601 and the virtual autonomous mobile device 602 is shifted. Thus, by setting various situations that can occur in the actual environment, it is possible to acquire learning data that can be used in various environments.

上記のように、シミュレータ600を用いることで、自律移動装置1を実際に走行させることなく、計算機上で学習データを取得できる。   As described above, by using the simulator 600, it is possible to acquire learning data on a computer without actually running the autonomous mobile device 1.

次に、学習データを自律移動装置1の実環境内での移動動作により取得する方法について説明する。自律移動装置1を実環境で走行させ、目的地に到着するまでに一定頻度で記憶した第一自己位置推定部51によって算出した第一推定情報と、第二自己位置推定部52によって算出した第二推定情報を、学習データの入力値とする。学習データの出力値には、第一推定情報、および、第二推定情報よりも信頼性の高い推定情報を用いる。本実施の形態では、第一推定情報と第二推定情報よりも信頼性の高い第三推定情報を取得するために、例えば走行テストを実施している際に実環境内に配置したランドマークを用いて第三推定情報の算出を行っている。第三推定情報は、第三自己位置推定部53を用いて算出される。実環境に配置するランドマークとしては、例えば、反射板を挙示することができる。反射板を実環境に配置することで、例えば、センサ2としてレーザレーダを用いた場合、反射板の存在する方向および反射板までの距離を示す環境情報を精度よく取得するとともに、反射板に反射されたビームを受光した際のビームの強度などからそのビームが反射板からの反射であることを検知し、他の環境情報から区別することできる。反射板の位置を複数取得できた場合には、三角測量の原理により、自律移動装置1の第三推定情報を精度よく取得できる。そして、自己の位置を示す精度の高い情報として第三推定情報を学習データの出力データとして用い、ニューラルネットワークの学習を実施する。学習が完了した後は、ランドマークはとりはずし、以降、学習済みの統合部9を用いて統合情報を算出する。このようにすることで、自律移動装置1が、実際の環境を走行して取得した環境情報を基に学習を実施することができるため、実際の走行環境に適した学習を実施することができる。   Next, a method for acquiring learning data by a moving operation in the real environment of the autonomous mobile device 1 will be described. The first estimation information calculated by the first self-position estimation unit 51 and the second self-position estimation unit 52 calculated by the first self-position estimation unit 51 are stored in a certain frequency until the autonomous mobile device 1 travels in a real environment and arrives at the destination. The two estimation information is used as an input value of learning data. As the output value of the learning data, estimated information having higher reliability than the first estimated information and the second estimated information is used. In the present embodiment, in order to acquire the third estimation information that is more reliable than the first estimation information and the second estimation information, for example, landmarks arranged in the real environment when the driving test is performed. It is used to calculate the third estimation information. The third estimation information is calculated using the third self-position estimation unit 53. As a landmark to be arranged in the actual environment, for example, a reflector can be listed. By arranging the reflecting plate in the real environment, for example, when a laser radar is used as the sensor 2, environmental information indicating the direction in which the reflecting plate exists and the distance to the reflecting plate are accurately obtained and reflected on the reflecting plate. From the intensity of the beam when the received beam is received, it can be detected that the beam is reflected from the reflector, and can be distinguished from other environmental information. When a plurality of reflector positions can be acquired, the third estimation information of the autonomous mobile device 1 can be acquired with high accuracy by the principle of triangulation. Then, the neural network learning is performed using the third estimated information as the output data of the learning data as the highly accurate information indicating the position of itself. After the learning is completed, the landmark is removed, and thereafter, integrated information is calculated using the learned integration unit 9. By doing in this way, since the autonomous mobile device 1 can perform learning based on environmental information acquired by traveling in an actual environment, learning suitable for the actual traveling environment can be performed. .

なお、ランドマークの設置は、自己位置情報の更新をより精度よく実施したい場所で多く設置することが望ましい。自己位置情報の更新をより精度よく実施したい場所とは、例えば、自律移動装置1の移動開始地点、到着地点(目的地)、通路が交差するような交差点、ドアが設置されている付近、自律移動装置1が搭乗する可能性のあるエレベータ付近などである。多く設置することとは、例えば、2〜3m間隔で反射板を設置することである。こうすることで、自律移動装置1の到着精度向上、ドア部等の確実な通過が可能となる。また、新しいランドマークからの反射をセンサ2が取得する毎に学習器10による学習を行う。   It should be noted that it is desirable to install many landmarks at locations where self-location information is to be updated more accurately. The location where the self-location information is to be updated more accurately is, for example, the movement start point, the arrival point (destination) of the autonomous mobile device 1, the intersection where the passage intersects, the vicinity where the door is installed, the autonomous For example, in the vicinity of an elevator where the mobile device 1 may be boarded. For example, installing many reflectors means installing reflectors at intervals of 2 to 3 m. By doing so, the arrival accuracy of the autonomous mobile device 1 can be improved, and the door portion and the like can be reliably passed. Further, every time the sensor 2 acquires reflection from a new landmark, learning by the learning device 10 is performed.

以上の実施例では、第一自己位置推定部51としてパーティクルフィルタを用い、第二自己位置推定部52としてラインマッチングを用いた手法を説明しているが、条件に応じて、推定手段はこれらに限られず、カルマンフィルタ、ICPアルゴリズム (Iterative Closest Point Algorithm)など、多種の推定手段を用いることが可能であり、また、これらを3つ以上組み合わせることも可能である。   In the above embodiment, the method using the particle filter as the first self-position estimation unit 51 and the line matching as the second self-position estimation unit 52 has been described. Without limitation, various estimation means such as a Kalman filter and an ICP algorithm (Iterative Closest Point Algorithm) can be used, and three or more of them can be combined.

なお、本実施の形態では、ランドマークを用いた三角測量による方法を第三自己位置推定部53の第三推定情報の算出方法として説明しているが、第三自己位置推定部53の第三推定情報の算出方法はこの手段に限定されず、たとえば、環境情報から恒久的に配置される障害物のエッジなどの特徴部分を抽出して、それら特徴部分を用いた三角測量による第三推定情報の算出など、種々の方法を採用することが可能である。   In the present embodiment, the method based on the triangulation using the landmark is described as the third estimation information calculation method of the third self-position estimation unit 53. The estimation information calculation method is not limited to this means. For example, feature parts such as edges of obstacles that are permanently arranged are extracted from the environment information, and third estimation information is obtained by triangulation using these feature parts. Various methods such as the calculation of can be adopted.

(実施の形態2)
実施の形態2は、統合部9の学習結果の異なる統合関数を複数保有し、統合部9による統合情報の算出に用いる統合関数を自律移動装置1が走行するエリアによって変更できるようにすることが特徴である。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 2)
In the second embodiment, a plurality of integration functions having different learning results of the integration unit 9 are held, and the integration function used for calculation of integration information by the integration unit 9 can be changed depending on the area where the autonomous mobile device 1 travels. It is a feature. Other than this, since it is the same as that of the first embodiment described above, the description is omitted.

本実施の形態は、より具体的には、地図情報を複数のエリアに予め区切り、そのエリアごとで学習データを用意し、エリアごとで前述のニューラルネットワークなどの統合関数の学習を実施し、エリアごとで異なる学習結果の統合関数を作成している。   More specifically, in the present embodiment, map information is divided into a plurality of areas in advance, learning data is prepared for each area, learning of an integration function such as the above-described neural network is performed for each area, An integrated function with different learning results is created.

こうすることで、環境によって異なる学習結果となる可能性のある複数の統合関数を、エリアごとに設定できるため、より精度の高い自己位置情報に基づいた走行が可能となる。エリアの設定は、より簡単には、地図情報を格子状(例えば、5m四方のマス目)に区切り、各格子を一つのエリアとすることで実現できる。   In this way, since a plurality of integrated functions that may have different learning results depending on the environment can be set for each area, it is possible to travel based on more accurate self-position information. The setting of the area can be realized more simply by dividing the map information into a lattice shape (for example, a square of 5 m square) and making each lattice one area.

(実施の形態3)
実施の形態3は、シミュレータを用いて取得した学習データを用いたニューラルネットワークの学習と、実際の現場である実環境で自律移動装置1を走行させて取得した学習データを用いたニューラルネットワークの学習において、補正の範囲の制限に差を設けていることを特徴とする。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 3)
In the third embodiment, neural network learning using learning data acquired using a simulator and neural network learning using learning data acquired by running the autonomous mobile device 1 in an actual environment that is an actual site. However, the present invention is characterized in that a difference is provided in the limitation of the correction range. Other than this, since it is the same as that of the first embodiment described above, the description is omitted.

シミュレータを用いて取得した学習データを用いたニューラルネットワークの学習においては、重みの初期値はランダム生成した値などを用いるため、学習結果の重みと、初期値の重みには大きな差が発生する可能性があり、補正の範囲を大きく設定する必要がある。一方、実環境で自律移動装置1を走行させて取得した学習データを用いたニューラルネットワークの学習においては、すでにシミュレータを用いて取得した学習データを用いたニューラルネットワークの学習結果(重み)を初期値として学習を開始するため、重みの値が大きくことなることは望ましくない。そのため、重みの補正の範囲は小さく設定する必要がある。このように、実際の現場を走行させて取得した学習データを用いたニューラルネットワークの学習と、シミュレータを用いて取得した学習データを用いたニューラルネットワークの学習結果との補正の範囲を変えることで、位置精度がを悪化することを防止できる。   In neural network learning using learning data obtained using a simulator, the initial value of the weight is a randomly generated value, so there can be a large difference between the weight of the learning result and the initial value weight. It is necessary to set a large correction range. On the other hand, in the learning of the neural network using the learning data acquired by running the autonomous mobile device 1 in the real environment, the learning result (weight) of the neural network using the learning data already acquired using the simulator is an initial value. Since learning is started, it is not desirable that the weight value be large. Therefore, it is necessary to set the weight correction range to be small. In this way, by changing the range of correction between the learning of the neural network using the learning data acquired by running the actual site and the learning result of the neural network using the learning data acquired using the simulator, It is possible to prevent the position accuracy from deteriorating.

(実施の形態4)
実施の形態4は、パーティクルフィルタを用いて第一自己位置推定部51が算出した第一推定情報と、ラインセグメントマッチングを用いて第二自己位置推定部52が算出した第二推定情報を、ニューラルネットワークを用いて統合部9が統合して統合情報を算出する方法において、パーティクルフィルタの推定精度を高めることで、統合情報に基づき更新された自己位置情報の精度を高める方法である。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 4)
In the fourth embodiment, the first estimation information calculated by the first self-position estimation unit 51 using a particle filter and the second estimation information calculated by the second self-position estimation unit 52 using line segment matching are used as a neural network. In the method in which the integration unit 9 integrates and calculates integrated information using a network, the accuracy of the self-location information updated based on the integrated information is increased by increasing the estimation accuracy of the particle filter. Other than this, since it is the same as that of the first embodiment described above, the description is omitted.

パーティクルフィルタは、パーティクルの推定、更新、リサンプリングを実施する過程において、リサンプリング処理の後、得られたパーティクルの集合に対してノイズを付加して新たなパーティクルの集合を取得する処理を含む。そのため、ノイズを大きくするとパーティクルの分布は広がり、ノイズを小さくするとパーティクルの分布は小さくなる。したがって、ノイズを大きくすると、位置推定のロバスト性は上がるが精度が下がり、逆に、ノイズを小さくすると、位置推定のロバスト性は下がるが、精度は上がる。   The particle filter includes a process of adding a noise to the obtained set of particles to obtain a new set of particles after the resampling process in the process of estimating, updating, and resampling the particles. Therefore, when the noise is increased, the particle distribution is expanded, and when the noise is decreased, the particle distribution is decreased. Therefore, if the noise is increased, the robustness of the position estimation is increased but the accuracy is decreased. Conversely, if the noise is decreased, the robustness of the position estimation is decreased, but the accuracy is increased.

図10で(a)を付した側は、ノイズを大きく設定した場合のパーティクル102の広がり具合を示し、図10で(b)を付した側は、ノイズを小さく設定した場合のパーティクルの広がり具合を示している。このように、ノイズを小さくすることで、パーティクルの分散値は小さくなる。   The side marked with (a) in FIG. 10 shows how the particles 102 spread when the noise is set large, and the side marked with (b) in FIG. 10 shows how the particles spread when the noise is set small. Is shown. Thus, by reducing the noise, the dispersion value of the particles is reduced.

図11を用いて、ノイズを小さく設定する条件を説明する。本実施の形態では、パーティクルフィルタによって算出した第一推定情報701と、ラインセグメントマッチングによって算出した第二推定情報702の差分が小さいとき、パーティクルフィルタのノイズを小さくする。より具体的には、パーティクルの広がり703の中にラインセグメントマッチングの推定結果である第二推定情報702が含まれる場合(図11中(a)側の状態)、ノイズを小さくする。一方、パーティクルの広がり703の中にラインセグメントマッチングの推定結果である第二推定情報702が含まれない場合(図11中(b)側の状態)、ノイズは変化させないものとする。このように構成することで、パーティクルフィルタを用いた第一推定情報の精度が向上し、結果として、ニューラルネットワークを用いた統合情報の精度を向上させ、統合情報を用いて更新された自己位置情報の精度を向上させることができる。   The conditions for setting the noise small will be described with reference to FIG. In the present embodiment, when the difference between the first estimation information 701 calculated by the particle filter and the second estimation information 702 calculated by line segment matching is small, the noise of the particle filter is reduced. More specifically, when the second estimation information 702 that is an estimation result of line segment matching is included in the particle spread 703 (the state on the (a) side in FIG. 11), noise is reduced. On the other hand, when the second estimation information 702 that is the estimation result of the line segment matching is not included in the particle spread 703 (the state on the (b) side in FIG. 11), the noise is not changed. With this configuration, the accuracy of the first estimation information using the particle filter is improved, and as a result, the accuracy of the integrated information using the neural network is improved, and the self-location information updated using the integrated information Accuracy can be improved.

(実施の形態5)
実施の形態5は、パーティクルフィルタを用いて第一自己位置推定部51が算出した第一推定情報と、ラインセグメントマッチングを用いて第二自己位置推定部52が算出した第二推定情報を、ニューラルネットワークを用いて統合部9が統合する統合情報の算出方法において、パーティクルフィルタによるパーティクルの分布が収束していない状態においても、第一推定情報を算出して統合部9による統合情報の算出を実現する方法である。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 5)
In the fifth embodiment, the first estimation information calculated by the first self-position estimation unit 51 using a particle filter and the second estimation information calculated by the second self-position estimation unit 52 using line segment matching are used as a neural network. In the integrated information calculation method integrated by the integration unit 9 using the network, the first estimation information is calculated and the integration information is calculated by the integration unit 9 even when the particle distribution by the particle filter is not converged. It is a method to do. Other than this, since it is the same as that of the first embodiment described above, the description is omitted.

パーティクルフィルタは、前述のように、パーティクルが一箇所に集合する(パーティクルの分布が収束する)までに時間を要する。そして、収束に至っていないパーティクルの分布を用いて算出された第一推定情報には大きな誤差が含まれている可能性がある。一方で、パーティクルの分布が収束するまでの過程において、パーティクルがいくつかの場所に集合し、それぞれクラスターを形成することが見出されている。本実施の形態では、パーティクルの分布が収束していない状態でもクラスターを用いて精度の高い第一推定情報を算出している。パーティクルフィルタは、初期状態では、パーティクル102を環境中に分布させることが一般的であり(図12中(a)側に示す)、その後、計算過程で、クラスター800を形成することがある(図12中(b)側に示す)。クラスター800とは、パーティクル102が一定距離の中に存在しているパーティクル102の集合のことである。この状態において、複数のクラスター800から第二推定情報702に近い(例えば最も近い)クラスター800を抽出し、抽出されたクラスター800内のパーティクル102に基づいて第一推定情報711を算出する。そして得られた第一推定情報711と、第二推定情報702を用いて、統合部9により統合情報を算出する。   As described above, the particle filter requires time until the particles gather in one place (the particle distribution converges). The first estimation information calculated using the particle distribution that has not yet converged may include a large error. On the other hand, it has been found that in the process until the particle distribution converges, the particles gather in several places to form clusters. In the present embodiment, high-precision first estimation information is calculated using clusters even in a state where the particle distribution has not converged. In the initial state, the particle filter generally distributes the particles 102 in the environment (shown on the (a) side in FIG. 12), and then may form a cluster 800 in the calculation process (see FIG. 12). 12 (shown on the (b) side). The cluster 800 is a set of particles 102 in which the particles 102 exist within a certain distance. In this state, a cluster 800 that is close (for example, closest) to the second estimation information 702 is extracted from the plurality of clusters 800, and first estimation information 711 is calculated based on the particles 102 in the extracted cluster 800. Then, the integration information is calculated by the integration unit 9 using the obtained first estimation information 711 and second estimation information 702.

こうすることで、パーティクル102の分布が収束に至っていない状態であっても、第二推定情報とクラスターを用いて算出された第一推定情報を用いることで、統合部9による統合情報の算出が可能となり、パーティクルフィルタの結果である第一推定情報を統合部9が利用できない時間を削減することができる。   In this way, even if the distribution of the particles 102 has not yet converged, the integration information can be calculated by the integration unit 9 by using the second estimation information and the first estimation information calculated using the cluster. This makes it possible to reduce the time during which the integration unit 9 cannot use the first estimation information that is the result of the particle filter.

(実施の形態6)
実施の形態6は、所定の時間帯において、学習データを自律移動装置1の実環境内での移動動作により取得する方法である。これ以外は、前述の実施の形態1と同様のため、説明は省略する。一般的に、日々、自律移動装置1が通常に移動している場合、第一推定情報および第二推定情報より精度のよい第三推定情報を導出することは困難である。そこで、本実施の形態では、学習データ取得時間(例えば、人などが居ない深夜などの時間帯)を設定し、学習データ取得時間に自律移動装置1を移動させて第三推定情報を取得している。
(Embodiment 6)
The sixth embodiment is a method of acquiring learning data by a movement operation in the real environment of the autonomous mobile device 1 in a predetermined time zone. Since other than this is the same as in the first embodiment, the description is omitted. Generally, when the autonomous mobile device 1 is moving normally every day, it is difficult to derive the third estimation information with higher accuracy than the first estimation information and the second estimation information. Therefore, in the present embodiment, a learning data acquisition time (for example, a time zone such as midnight when there is no person) is set, and the autonomous mobile device 1 is moved during the learning data acquisition time to acquire third estimation information. ing.

本実施の形態では、第三推定情報を第一自己位置推定部51と第二自己位置推定部52とによって算出する。具体的には、学習データ取得時間(人などが居ない時間)において、自律移動装置1を低速で、あるいは、間欠的に一旦停止を繰り返しながら移動させる。そして、低速で連続的に自律移動装置1が移動する場合は、一定時間間隔(または、走行情報に基づく一定距離間隔)で、間欠的に自律移動装置1が移動する場合は、自律移動装置1が停止中にセンサ2により環境情報を取得しておき、当該環境情報に基づき第一自己位置推定部51により第一推定情報を、第二自己位置推定部52により第二推定情報を算出する。こうすることで、自律移動装置1が通常速度(例えば、設定される許容最高速度1m/s)で走行するときよりも、環境情報を正確に取得できるようになり、計算時間に余裕を持って第一推定情報や第二推定情報を算出でき、これらに基づいて第三推定情報を導出することができる。図13は、経路上を所定の間隔に定められた情報取得位置Sで環境情報を取得しながら目的地まで移動する様子を示している。一定間隔は、例えば、2mや10秒などである。   In the present embodiment, the third estimation information is calculated by the first self-position estimation unit 51 and the second self-position estimation unit 52. Specifically, in the learning data acquisition time (time when there is no person, etc.), the autonomous mobile device 1 is moved at a low speed or intermittently repeatedly stopped. If the autonomous mobile device 1 moves continuously at a low speed, the autonomous mobile device 1 moves intermittently at a constant time interval (or a constant distance interval based on travel information). While the vehicle is stopped, environmental information is acquired by the sensor 2, based on the environmental information, the first self-position estimation unit 51 calculates first estimation information, and the second self-position estimation unit 52 calculates second estimation information. By doing so, the environment information can be obtained more accurately than when the autonomous mobile device 1 travels at a normal speed (for example, a set allowable maximum speed of 1 m / s), and the calculation time has a margin. The first estimation information and the second estimation information can be calculated, and the third estimation information can be derived based on these. FIG. 13 shows a state where the vehicle travels to the destination while acquiring environmental information at the information acquisition position S set at predetermined intervals on the route. The constant interval is, for example, 2 m or 10 seconds.

なお、このとき、ラインセグメントマッチングのマッチング率が高い場合、ラインセグメントマッチングの結果である第二推定情報を第三推定情報としてもよい。また、ラインセグメントマッチングのマッチング率が低く、パーティクルフィルタの分散値が小さい場合、パーティクルフィルタの第一推定情報を第三推定情報としてもよい。   At this time, when the matching rate of line segment matching is high, the second estimation information that is the result of line segment matching may be used as the third estimation information. Further, when the matching rate of line segment matching is low and the dispersion value of the particle filter is small, the first estimation information of the particle filter may be used as the third estimation information.

また、上記実施と同時に、自律移動装置1の移動途中で取得した環境情報に加え、仮想的な障害物の位置情報が反映された仮想的な環境情報を用いて、第一自己位置推定部51によって第一推定情報を算出し、第二自己位置推定部52によって第二推定情報を算出し、このデータを学習データの入力値とする。学習データの出力値には、前述の、第三推定情報を用いる。こうすることで、実際には人などの障害物がない環境において、人などの障害物がある状態を模擬した状態での第一推定情報や第二推定情報を算出することができ、より現実の状況に近い学習データを得ることができる。   Simultaneously with the above implementation, the first self-position estimation unit 51 uses the virtual environment information reflecting the position information of the virtual obstacle in addition to the environment information acquired during the movement of the autonomous mobile device 1. The first estimation information is calculated by the second self-position estimation unit 52, the second estimation information is calculated by the second self-position estimation unit 52, and this data is used as the input value of the learning data. The above-described third estimation information is used as the output value of the learning data. By doing this, in the environment where there is no obstacle such as a person, the first estimation information and the second estimation information can be calculated in a state simulating the situation where there is an obstacle such as a person. Learning data close to the situation can be obtained.

なお、仮想的な障害物は、あらかじめ設定した障害物の位置の軌跡を用いることもでき、また、自律移動装置1が通常走行した場合に取得した、障害物の位置の軌跡の記録を用いてもよい。   It is to be noted that a virtual obstacle can use a preset locus of the obstacle position, and can also use a record of the obstacle position locus acquired when the autonomous mobile device 1 normally travels. Also good.

本発明に係る自律移動装置は、例えば、病院内などのように多種多様な障害物が存在する環境で走行する必要がある場合に利用できる。   The autonomous mobile device according to the present invention can be used when it is necessary to travel in an environment where various obstacles exist, such as in a hospital.

1 自律移動装置
2 センサ
3 移動手段
4 制御装置
6 経路生成部
7 記憶部
8 電池
9 統合部
10 学習器
11 更新部
31 走行情報取得手段
51 第一自己位置推定部
52 第二自己位置推定部
53 第三自己位置推定部
DESCRIPTION OF SYMBOLS 1 Autonomous mobile device 2 Sensor 3 Moving means 4 Control apparatus 6 Path | route production | generation part 7 Memory | storage part 8 Battery 9 Integration part 10 Learning device 11 Update part 31 Travel information acquisition means 51 1st self-position estimation part 52 2nd self-position estimation part 53 Third self-position estimation unit

Claims (13)

自己を移動させる移動手段と、自己の周囲の環境情報を取得するセンサと、前記移動手段を制御して自己を移動させる制御装置と、地図情報を有する記憶部とを備えた自律移動装置の制御方法であって、
前記制御装置は、前記環境情報および前記地図情報に基づきパーティクルフィルタを用いて確率的手法により推定された自己位置を示す第一推定情報を第一自己位置推定部で算出し、前記環境情報および前記地図情報に基づきラインマッチングを用いてマッチング手法により推定された自己位置を示す第二推定情報を第二自己位置推定部で算出し、前記第一推定情報と前記第二推定情報に基づき統合関数を用いて統合情報を統合部で算出し、前記統合情報に基づいて前記移動手段を制御して自己を移動させる、
自律移動装置の制御方法。
Control of an autonomous mobile device comprising a moving means for moving the self, a sensor for acquiring environmental information around the self, a control device for controlling the moving means to move the self, and a storage unit having map information A method,
The control device calculates first estimation information indicating a self-position estimated by a probabilistic method using a particle filter based on the environment information and the map information in a first self-position estimation unit, and the environment information and the Second estimation information indicating a self-position estimated by a matching method using line matching based on map information is calculated by a second self-position estimation unit, and an integrated function is calculated based on the first estimation information and the second estimation information. Using the integrated unit to calculate integrated information, and based on the integrated information to control the moving means to move itself,
Control method of autonomous mobile device.
前記統合関数として、ニューラルネットワークを用いた、
請求項1に記載の自律移動装置の制御方法。
As the integration function, using a neural network,
The method for controlling an autonomous mobile device according to claim 1.
前記ニューラルネットワークとして、シグモイド関数を持つニューロン素子を2層重ねた3層ニューラルネットワークを用いた、
請求項2に記載の自律移動装置の制御方法。
As the neural network, a three-layer neural network in which two layers of neuron elements having a sigmoid function are stacked is used.
The method for controlling an autonomous mobile device according to claim 2.
前記第一推定情報における前記ニューラルネットワークの入力値として、前記第一推定情報のX座標値、Y座標値、向きを示す値、共分散値を用い、前記第二推定情報における前記ニューラルネットワークの入力値として、前記第二推定情報のX座標値、Y座標値、向きを示す値、マッチング率を用いる、
請求項2または3に記載の自律移動装置の制御方法。
As an input value of the neural network in the first estimation information, an X coordinate value, a Y coordinate value, a value indicating a direction, and a covariance value of the first estimation information are used, and the input of the neural network in the second estimation information As the value, the X coordinate value, the Y coordinate value, the value indicating the direction, and the matching rate of the second estimation information are used.
The method for controlling an autonomous mobile device according to claim 2 or 3.
前記統合関数は、前記第一推定情報および前記第二推定情報を入力値として学習器による学習により算出される、
請求項1〜4いずれか1項に記載の自律移動装置の制御方法。
The integration function is calculated by learning by a learning device using the first estimation information and the second estimation information as input values.
The control method of the autonomous mobile apparatus of any one of Claims 1-4.
前記地図情報に設定された複数のエリア毎にニューラルネットワークによる学習を行う、
請求項5に記載の自律移動装置の制御方法。
Learning with a neural network for each of a plurality of areas set in the map information,
The method for controlling an autonomous mobile device according to claim 5.
前記学習器による学習は、シミュレータ環境内で仮想的な自律移動装置の移動動作により導出して行う、
請求項5または6に記載の自律移動装置の制御方法。
The learning by the learning device is derived by a movement operation of a virtual autonomous mobile device in the simulator environment,
The method for controlling an autonomous mobile device according to claim 5 or 6.
前記学習器による学習は、実環境内において実動作時よりも低速で自己を動作させながら目的地へ移動する移動動作を実行して行う、
請求項5または6に記載の自律移動装置の制御方法。
The learning by the learning device is performed by executing a moving operation that moves to the destination while operating itself at a lower speed than the actual operation in the real environment.
The method for controlling an autonomous mobile device according to claim 5 or 6.
前記学習器による学習は、実環境内に一時的に配置されたランドマークを用いて行う、
請求項5または6に記載の自律移動装置の制御方法。
Learning by the learning device is performed using landmarks temporarily arranged in the real environment.
The method for controlling an autonomous mobile device according to claim 5 or 6.
前記パーティクルフィルタを用いた確率的手法は、リサンプリング処理の後、得られたパーティクルの集合に対してノイズを付加して新たなパーティクルの集合を取得する処理を含み、前記第一推定情報と前記第二推定情報の差分が一定範囲以内である場合、前記ノイズの大きさを小さくする、
請求項1〜9のいずれか1項に記載の自律移動装置の制御方法。
The probabilistic method using the particle filter includes a process of adding noise to the obtained set of particles after the resampling process to obtain a new set of particles, and the first estimation information and the If the difference of the second estimation information is within a certain range, reduce the magnitude of the noise,
The control method of the autonomous mobile apparatus of any one of Claims 1-9.
前記学習器は、前記パーティクルフィルタを用いて算出されたパーティクルの分布が収束していない状態では、前記第二推定情報のみを入力値として用いる、
請求項5または6に記載の自律移動装置の制御方法。
The learning device uses only the second estimation information as an input value in a state where the particle distribution calculated using the particle filter has not converged,
The method for controlling an autonomous mobile device according to claim 5 or 6.
前記第一自己位置推定部は、前記パーティクルフィルタを用いて算出されたパーティクルの分布が収束していない状態において前記パーティクルが複数のクラスターを形成している場合、前記第二推定情報に最も近い前記クラスター内のパーティクルを用いて前記第一推定情報を算出する、
請求項5または6に記載の自律移動装置の制御方法。
The first self-position estimation unit is closest to the second estimation information when the particles form a plurality of clusters in a state where the particle distribution calculated using the particle filter has not converged. The first estimation information is calculated using particles in the cluster.
The method for controlling an autonomous mobile device according to claim 5 or 6.
前記学習器は、前記ラインセグメントマッチングにより算出したマッチング率が高い場合は前記第二推定情報を学習結果として用い、前記マッチング率が低いとともに前記パーティクルフィルタを用いて算出されたパーティクルの分散値が小さい場合は前記第一推定情報を学習結果として用いる、
請求項5または6に記載の自律移動装置の制御方法。
The learning device uses the second estimation information as a learning result when the matching rate calculated by the line segment matching is high, and the particle variance calculated using the particle filter is low while the matching rate is low. In this case, the first estimation information is used as a learning result.
The method for controlling an autonomous mobile device according to claim 5 or 6.
JP2014147930A 2014-07-18 2014-07-18 Control method of autonomous mobile apparatus Pending JP2016024598A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014147930A JP2016024598A (en) 2014-07-18 2014-07-18 Control method of autonomous mobile apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014147930A JP2016024598A (en) 2014-07-18 2014-07-18 Control method of autonomous mobile apparatus

Publications (1)

Publication Number Publication Date
JP2016024598A true JP2016024598A (en) 2016-02-08

Family

ID=55271315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014147930A Pending JP2016024598A (en) 2014-07-18 2014-07-18 Control method of autonomous mobile apparatus

Country Status (1)

Country Link
JP (1) JP2016024598A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017102559A1 (en) 2016-02-12 2017-08-17 Nidec Elesys Corporation Waveguide device and antenna device with the waveguide device
JP2017220197A (en) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Vehicle control method and apparatus, and method and apparatus for acquiring decision-making module
JP2018013860A (en) * 2016-07-19 2018-01-25 株式会社豊田自動織機 Autonomous movable object control device
WO2019026761A1 (en) * 2017-08-03 2019-02-07 日本電産シンポ株式会社 Moving body and computer program
US20190272446A1 (en) * 2018-03-02 2019-09-05 Zoox, Inc. Automatic creation and updating of maps
WO2019202806A1 (en) * 2018-04-20 2019-10-24 本田技研工業株式会社 Self-location estimation method
JP2020057271A (en) * 2018-10-03 2020-04-09 株式会社Ihi Travel control device
JP2020140490A (en) * 2019-02-28 2020-09-03 三菱ロジスネクスト株式会社 Transportation system, area determination device, and area determination method
JP2020161141A (en) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド Mobile robot and method of controlling the same
JP2021018639A (en) * 2019-07-22 2021-02-15 株式会社ダイヘン Self-position estimation device, self-position selector and learning tool
JP2021018638A (en) * 2019-07-22 2021-02-15 株式会社ダイヘン Self-position estimation device
JP2021163455A (en) * 2020-03-31 2021-10-11 株式会社豊田自動織機 Position estimation system
CN114080304A (en) * 2019-08-22 2022-02-22 欧姆龙株式会社 Control device, control method, and control program
WO2022038823A1 (en) * 2020-08-17 2022-02-24 村田機械株式会社 Autonomous travel route planning method, autonomous traveling method, and program
JP2022095273A (en) * 2020-12-16 2022-06-28 株式会社豊田自動織機 Self-position estimation device, moving object, self-position estimation method, and self-position estimation program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017102559A1 (en) 2016-02-12 2017-08-17 Nidec Elesys Corporation Waveguide device and antenna device with the waveguide device
JP2017220197A (en) * 2016-06-12 2017-12-14 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Vehicle control method and apparatus, and method and apparatus for acquiring decision-making module
US10429841B2 (en) 2016-06-12 2019-10-01 Baidu Online Network Technology (Beijing) Co., Ltd. Vehicle control method and apparatus and method and apparatus for acquiring decision-making model
JP2018013860A (en) * 2016-07-19 2018-01-25 株式会社豊田自動織機 Autonomous movable object control device
CN110998472A (en) * 2017-08-03 2020-04-10 日本电产新宝株式会社 Mobile object and computer program
WO2019026761A1 (en) * 2017-08-03 2019-02-07 日本電産シンポ株式会社 Moving body and computer program
US20190272446A1 (en) * 2018-03-02 2019-09-05 Zoox, Inc. Automatic creation and updating of maps
US11501105B2 (en) * 2018-03-02 2022-11-15 Zoox, Inc. Automatic creation and updating of maps
US20200401152A1 (en) * 2018-04-20 2020-12-24 Honda Motor Co., Ltd. Self-location estimation method
WO2019202806A1 (en) * 2018-04-20 2019-10-24 本田技研工業株式会社 Self-location estimation method
US11874666B2 (en) 2018-04-20 2024-01-16 Honda Motor Co., Ltd. Self-location estimation method
CN111989631A (en) * 2018-04-20 2020-11-24 本田技研工业株式会社 Self-position estimation method
JPWO2019202806A1 (en) * 2018-04-20 2021-02-12 本田技研工業株式会社 Self-position estimation method
JP2020057271A (en) * 2018-10-03 2020-04-09 株式会社Ihi Travel control device
JP2020140490A (en) * 2019-02-28 2020-09-03 三菱ロジスネクスト株式会社 Transportation system, area determination device, and area determination method
JP2020161141A (en) * 2019-03-27 2020-10-01 エルジー エレクトロニクス インコーポレイティド Mobile robot and method of controlling the same
JP7150773B2 (en) 2019-03-27 2022-10-11 エルジー エレクトロニクス インコーポレイティド Mobile robot and its control method
JP7385388B2 (en) 2019-07-22 2023-11-22 株式会社ダイヘン Self-position estimation device
JP2021018639A (en) * 2019-07-22 2021-02-15 株式会社ダイヘン Self-position estimation device, self-position selector and learning tool
JP2021018638A (en) * 2019-07-22 2021-02-15 株式会社ダイヘン Self-position estimation device
CN114080304A (en) * 2019-08-22 2022-02-22 欧姆龙株式会社 Control device, control method, and control program
CN114080304B (en) * 2019-08-22 2024-05-14 欧姆龙株式会社 Control device, control method, and control program
JP2021163455A (en) * 2020-03-31 2021-10-11 株式会社豊田自動織機 Position estimation system
JP7489014B2 (en) 2020-03-31 2024-05-23 株式会社豊田自動織機 Location Estimation System
WO2022038823A1 (en) * 2020-08-17 2022-02-24 村田機械株式会社 Autonomous travel route planning method, autonomous traveling method, and program
JP2022095273A (en) * 2020-12-16 2022-06-28 株式会社豊田自動織機 Self-position estimation device, moving object, self-position estimation method, and self-position estimation program

Similar Documents

Publication Publication Date Title
JP2016024598A (en) Control method of autonomous mobile apparatus
CN111656296B (en) System and method for autonomous movement planning and navigation of a robot
Stachniss et al. On actively closing loops in grid-based FastSLAM
EP3590016A1 (en) Method and system for simultaneous localization and sensor calibration
JP2018037064A (en) Online learning method and vehicle control method based on reinforcement learning without active search
US12093051B2 (en) Path determination method
CN108645413A (en) The dynamic correcting method of positioning and map building while a kind of mobile robot
US20200103915A1 (en) Determining Changes in Marker Setups for Robot Localization
CN113390411B (en) Foot type robot navigation and positioning method based on variable configuration sensing device
JP6240595B2 (en) Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus
JP2018017826A (en) Autonomous moving body and environment map update device
Trivun et al. Active SLAM-based algorithm for autonomous exploration with mobile robot
TW202036030A (en) Information processing device and mobile robot
JP2016149090A (en) Autonomous mobile device, autonomous mobile system, autonomous mobile method and program
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
JP2020149186A (en) Position / orientation estimation device, learning device, mobile robot, position / orientation estimation method, learning method
KR101799700B1 (en) Apparatus and the method for navigation using neuromorphic neural network model
Fabresse et al. Active perception for 3D range-only simultaneous localization and mapping with UAVs
US20220405573A1 (en) Calibration for a distributed system
Munoz-Gómez et al. Exploration and map-building under uncertainty with multiple heterogeneous robots
Sinha et al. A∗ WRBAS: Space Mobile Robotics Control Conceptual Model Using IoRT Reinforcement Learning and Tracking with Noise Estimation Using EKF
Lee et al. Localization method for mobile robots moving on stairs in multi-floor environments
Dien et al. Building Environmental Awareness System for Mobile Robot Operating in Indoor Environment on ROS Platform
Rui et al. Path planning for bathymetry-aided underwater navigation
Mohamad Yatim et al. Comparison of Sampling Methods for Rao-blackwellized Particle Filter with Neural Network