JP2016024598A - Control method of autonomous mobile apparatus - Google Patents
Control method of autonomous mobile apparatus Download PDFInfo
- Publication number
- JP2016024598A JP2016024598A JP2014147930A JP2014147930A JP2016024598A JP 2016024598 A JP2016024598 A JP 2016024598A JP 2014147930 A JP2014147930 A JP 2014147930A JP 2014147930 A JP2014147930 A JP 2014147930A JP 2016024598 A JP2016024598 A JP 2016024598A
- Authority
- JP
- Japan
- Prior art keywords
- information
- estimation
- autonomous mobile
- self
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 239000002245 particle Substances 0.000 claims abstract description 68
- 230000010354 integration Effects 0.000 claims abstract description 41
- 238000003860 storage Methods 0.000 claims abstract description 15
- 230000013016 learning Effects 0.000 claims description 108
- 238000013528 artificial neural network Methods 0.000 claims description 44
- 230000007613 environmental effect Effects 0.000 claims description 15
- 230000006870 function Effects 0.000 claims description 14
- 238000009826 distribution Methods 0.000 claims description 10
- 238000012952 Resampling Methods 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000003247 decreasing effect Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000002945 steepest descent method Methods 0.000 description 3
- 239000006185 dispersion Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、目的地までの自律移動を行う自律移動装置に関するものである。 The present invention relates to an autonomous mobile device that performs autonomous movement to a destination.
従来の自律移動装置としては、自己位置を推定するための推定手段を2つ備え、一方の推定手段の推定結果に基づき、もう一方の推定手段の推定結果を初期化することで、推定された自己位置の信頼性、つまり、推定された自己位置と実際の自己位置との一致度合いを向上させる方法が考案されていた(例えば、特許文献1参照)。 The conventional autonomous mobile device has two estimation means for estimating the self-location, and is estimated by initializing the estimation result of the other estimation means based on the estimation result of one estimation means. A method of improving the reliability of self-position, that is, the degree of coincidence between the estimated self-position and the actual self-position has been devised (for example, see Patent Document 1).
しかしながら、上述した特許文献1に示す方法は、2つの推定手段の推定結果に大きな差異がある場合に、より信頼性の高い一方の手段の結果によって、もう一方の手段を初期化することで信頼性の向上を実現しているが、2つの推定手段の推定結果の差異が小さい場合、2つの推定手段の推定結果を用いた自己位置の推定精度の向上を実現することができない可能性がある。
However, in the method described in
そこで本発明は、2つの推定手段の推定結果を用いた場合でも自己位置の推定精度を向上させることのできる自律移動装置の制御方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a control method for an autonomous mobile device that can improve the estimation accuracy of its own position even when the estimation results of two estimation means are used.
上記目的を達成するため、本発明の自律移動装置の制御方法は、自己を移動させる移動手段と、自己の周囲の環境情報を取得するセンサと、前記移動手段を制御して自己を移動させる制御装置と、地図情報を有する記憶部とを備えた自律移動装置の制御方法であって、前記制御装置は、前記環境情報および前記地図情報に基づきパーティクルフィルタを用いて確率的手法により推定された自己位置を示す第一推定情報を第一自己位置推定部で算出し、前記環境情報および前記地図情報に基づきラインマッチングを用いてマッチング手法により推定された自己位置を示す第二推定情報を第二自己位置推定部で算出し、前記第一推定情報と前記第二推定情報に基づき統合関数を用いて統合情報を統合部で算出し、前記統合情報に基づいて前記移動手段を制御して自己を移動させることを特徴とする。 In order to achieve the above object, a method for controlling an autonomous mobile device according to the present invention includes a moving unit that moves itself, a sensor that acquires environmental information around the device, and a control that moves the self by controlling the moving unit. A method for controlling an autonomous mobile device comprising a device and a storage unit having map information, wherein the control device is self-estimated by a probabilistic method using a particle filter based on the environment information and the map information First estimation information indicating a position is calculated by a first self-position estimation unit, and second estimation information indicating a self-position estimated by a matching method using line matching based on the environment information and the map information is obtained as a second self Calculated by the position estimation unit, calculated by the integration unit using the integration function based on the first estimation information and the second estimation information, and moved based on the integration information And wherein the moving the self-control the stage.
本発明によれば、2つの推定手段の推定結果を用いた場合でも自己位置の精度の高い位置推定が可能となる。 According to the present invention, it is possible to estimate the position of the self-position with high accuracy even when the estimation results of the two estimation means are used.
以下、本発明の実施の形態に係る自律移動装置について、図面を参照して説明する。 Hereinafter, an autonomous mobile device according to an embodiment of the present invention will be described with reference to the drawings.
(実施の形態1)
自律移動装置1は、図1に示すように、自己の周囲空間に存在する障害物の位置情報などを含む環境情報を取得するセンサ2と、自己を移動させる移動手段3と、センサ2によって取得した環境情報(センサ情報)を基に移動手段3を制御する制御装置4と、これらに電力を供給する電池8とを備える。
(Embodiment 1)
As shown in FIG. 1, the autonomous
本実施の形態の自律移動装置1の基本的な動作としては、走行情報に基づいて更新部が自己位置情報を更新し、逐次更新される自己位置情報に基づいて制御することで、目的地まで移動する。
As a basic operation of the autonomous
制御装置4は、記憶部7と、自己位置を示す第一推定情報を推定により算出する第一自己位置推定部51と、自己位置を示す第二推定情報を推定により算出する第二自己位置推定部52と、第三自己位置推定部53と、第一推定情報と第二推定情報などの複数の推定情報を用いて自己位置を示す統合情報を算出する統合部9と、地図情報を用いて目的地までの経路を生成する経路生成部6と、学習データを基に学習する学習器10と、統合情報などを用いて記憶部7に記憶されている自己位置情報を更新する更新部11を備える。記憶部7は、制御パラメータや地図情報、自己位置情報、取得した環境情報(センサ情報)、走行情報等を記憶する。第一自己位置推定部51は、センサ2からの環境情報と地図情報を用いて、第一推定情報を算出する。自己位置を示す第三推定情報を算出する第三自己位置推定部53は、統合部9を学習する際に必要に応じて自己位置を推定する。
The
ここで、自己位置を示す推定情報とは、自律移動装置1が記憶部7に記憶している自己の位置を示す自己位置情報を、更新部11が更新するための情報である。また、自己位置情報の更新とは、統合情報などに含まれる自己位置情報と対応する情報を用いて、記憶部7に記憶されていた自己位置情報を新しい情報に置き換えることである。
Here, the estimated information indicating the self position is information for the update unit 11 to update the self position information indicating the self position stored in the
センサ2は、例えば、図2に示すように、自律移動装置1の走行面Pに平行な計測平面2P内に存在する障害物の情報を取得する。
For example, as shown in FIG. 2, the sensor 2 acquires information on an obstacle that exists in a measurement plane 2 </ b> P parallel to the traveling plane P of the autonomous
センサ2としては、例えば、平面内をスキャンするレーザレーダを挙示することができる。センサ2(レーザレーダ)は、進行方向前方のスキャン平面である半円形の計測平面2Pにおいて、予め定められた一定角度範囲内でレーザビームを揺動させ、障害物までの距離や障害物までの方向(角度)を取得することができるセンサである。センサ2は、例えば、測定可能距離の上限が30mで、レーザビームを振る範囲が自律移動装置1の進行方向を中心に左右±90゜の角度範囲であり、当該角度範囲内において0.5゜毎に測距する。センサ2は、例えば、一定の制御周期のもとで間欠的にスキャンを行って、1回のスキャン毎に取得する距離データ、および、当該距離データを取得したときのスキャン角度の集合を、環境情報(センサ情報)として記憶部7に記憶させる。環境情報は、センサ2により所定の角度毎に検出された障害物の距離に基づき得られた障害物(本実施の形態においては廊下の壁)の情報である。なお、環境情報には、その他の情報、例えば各スキャンを区別する区別情報(例えば時刻情報)などが含まれていても良い。
As the sensor 2, for example, a laser radar that scans in a plane can be listed. The sensor 2 (laser radar) oscillates the laser beam within a predetermined fixed angle range on a
なお、上記のセンサ構成、センサの例は、本実施の形態を実現する一つの例であって、これらに限定されるわけではなく、種々のセンサを用いることができる。 Note that the sensor configuration and sensor examples described above are examples for realizing the present embodiment, and the present invention is not limited to these, and various sensors can be used.
移動手段3は、例えば電池8で駆動するモータと駆動輪などで構成される。このモータには、モータの回転数や回転速度を計測するエンコーダが走行情報取得手段31として設けられている。制御装置4は、走行情報取得手段31としてのエンコーダの出力によって所定時間間隔毎に自律移動装置1の移動距離や移動方向などが含まれる走行情報を取得することができる。得られた走行情報は、記憶部7に記憶される。記憶された走行情報は、適宜、デッドレコニング(推定航法)などにおいて参照される。
The moving
走行情報は、基準位置を基準とした座標系において相対位置や相対的な移動方向を含む情報である。基準位置は、例えば、自律移動装置1が移動を開始したときの位置である。相対位置は、基準位置に対する相対的な位置を示す。
The travel information is information including a relative position and a relative movement direction in a coordinate system based on the reference position. The reference position is, for example, a position when the autonomous
自己位置情報は、記憶部7に記憶された走行情報を用いたデッドレコニングにより逐次更新される。さらに、自己位置情報は、後述の統合部9により算出された統合情報によっても更新される。デッドレコニングは、例えば、50msec程度の短いサンプリング周期で実施され、更新部11は、走行情報に基づき自己位置情報を例えば50msecの間隔で更新する。統合部9による統合情報による自己位置情報の更新は、例えば、1000msec程度の長いサンプリング周期で実施され、更新部11は、統合情報に基づき自己位置情報を例えば1000msecの間隔で更新する。つまり、更新部11において、統合情報に基づく自己位置情報の更新は、走行情報に基づく更新の間隔よりも長い間隔である。
The self-location information is sequentially updated by dead reckoning using travel information stored in the
第一自己位置推定部51は、環境情報(センサ情報)と地図情報を用いて、確率的手法に基づき自己位置を示す第一推定情報を、推定により算出する。ここで、確率的手法は、例えばベイズ理論を用いた手法である。本実施の形態では、第一自己位置推定部51での確率的手法として、パーティクル(粒子)フィルタを用いる。パーティクルフィルタを用いた第一推定情報の算出においては、第一推定情報は、パーティクルと呼ばれるサンプル集合が分布した状態で表現される。これらパーティクルの推定、更新、リサンプリング等により、第一推定情報の算出が所定の時間間隔で行われる。すなわち、第一自己位置推定部51は、パーティクルフィルタを用いて自律移動装置1の自己の位置を推定し、第一推定情報を算出する。
The first self-
図3は、本発明の実施の形態において、第一自己位置推定部により算出された第一推定情報を用いて自己位置情報を更新する場合を示す説明図である。図3に示す更新前の自律移動装置1の自己位置情報101は、例えば走行情報に基づいて更新されたものであり、図3中において二点鎖線で示したものである。更新前の自己位置情報101における環境情報は、図3中において二点鎖線の直線で示した環境情報201として表されるものである。一方、図3中に示される実線の直線は、地図情報に含まれる廊下の壁を示す情報であり、対応地図情報301である。このように、第一推定情報による更新前の自己位置情報101に基づくセンサ2からの環境情報201と、対応地図情報301とが乖離している場合が発生する可能性がある。そこで、本実施の形態では、第一自己位置推定部51によりパーティクルフィルタを用いて複数のパーティクル102を算出し、このパーティクル102を用いた推定結果を用いることで、図3中において実線で示した第一推定情報111を算出して、自己位置の推定精度を向上させている。例えば、第一自己位置推定部51は、複数のパーティクル102の平均値を用いてX座標値、Y座標値、向きを示す値、共分散の値等を含む第一推定情報を算出する。
FIG. 3 is an explanatory diagram showing a case where self-position information is updated using the first estimation information calculated by the first self-position estimation unit in the embodiment of the present invention. The self-
なお、第一推定情報は、更新前の自己位置情報との差分などであってもよい。 The first estimation information may be a difference from the self-location information before update.
第二自己位置推定部52は、センサ2からの環境情報と地図情報を用いて、第一自己位置推定部51とは異なる手法に基づいて第二推定情報を算出する。本実施の形態の第二自己位置推定部52は、センサ2から得られる環境情報から抽出されたラインセグメントを用い、この抽出されたラインセグメントを地図情報に含まれるラインセグメントとラインマッチングを行うことで、第二推定情報を算出する。すなわち、本実施の形態におけるラインマッチングとは、センサ2からの環境情報から取得したラインと、地図情報に含まれるラインとを比較マッチングする、マッチング手法の一例である。
The second self-
図4は、本発明の実施の形態において、第二自己位置推定部により第二推定情報を算出する場合を示す説明図である。図4に示す更新前の自律移動装置1の自己位置情報101は、例えば走行情報に基づいて更新されたものであり、図4中において二点鎖線で示したものである。図4中には、更新前の自己位置情報101において抽出されたラインセグメント401と、地図情報から抽出された対応ラインセグメント501とを表している。第二自己位置推定部52は、図4中に二点鎖線の線分で示された環境情報によるラインセグメント401と、地図情報から抽出された対応ラインセグメント501とを比較し、ラインセグメント401と対応ラインセグメント501とが一定の距離、一定の角度以内であればマッチングさせ、第二推定情報を算出する。第二推定情報は、X座標値、Y座標値、向きを示す値、マッチング率を含む情報である。マッチング率は、ラインセグメント401と対応ラインセグメント501とがどの程度一致しているかを示す値である。第二自己位置推定部52によるラインマッチングを用いることで、図4中において実線で示した第二推定情報151を算出して、自己位置の推定精度を向上させている。
FIG. 4 is an explanatory diagram showing a case where the second estimation information is calculated by the second self-position estimation unit in the embodiment of the present invention. The self-
なお、第二推定情報は、更新前の自己位置情報との差分などであってもかまわない。 Note that the second estimation information may be a difference from the self-location information before update.
図5を用いて、本発明の実施の形態における第一推定情報と第二推定情報を用いた統合部9による統合情報の算出方法を説明する。統合部9による統合情報の算出は、前述のように、デッドレコニングに基づく自己位置情報の更新周期よりも長い周期で実施され、得られた統合情報により、自己位置情報は更新される。 With reference to FIG. 5, a calculation method of integrated information by the integration unit 9 using the first estimation information and the second estimation information in the embodiment of the present invention will be described. As described above, the calculation of the integrated information by the integration unit 9 is performed with a period longer than the update period of the self-position information based on dead reckoning, and the self-position information is updated with the obtained integrated information.
制御装置4は、自律移動装置1が移動中、比較的長いサンプリング周期ごとに以下の処理を実施する。
The
はじめに、第一自己位置推定部51により第一推定情報を算出する(A1)。次に、第二自己位置推定部52により第二推定情報を算出する(A2)。次に、統合部9は、第一推定情報と第二推定情報を入力値として、学習器10によって学習された学習データを用いて算出された統合関数を用いて推定される自己位置を示す統合情報を算出する(A3)。更新部11は、統合部9によって得られた統合情報によって、自律移動装置1の現在の自己位置を示す自己位置情報を更新する。
First, first estimation information is calculated by the first self-position estimation unit 51 (A1). Next, second estimation information is calculated by the second self-position estimation unit 52 (A2). Next, the integration unit 9 uses the first estimated information and the second estimated information as input values and integrates the self-position estimated using the integration function calculated using the learning data learned by the
本実施の形態においては、統合関数として、ニューラルネットワークを用いている。ニューラルネットワークは、周知のように、学習能力を持ち、非線形関数で表現することができ、制御、予測、診断など、多くの分野で用いられている。 In this embodiment, a neural network is used as the integration function. As is well known, the neural network has learning ability and can be expressed by a non-linear function, and is used in many fields such as control, prediction and diagnosis.
図6を用いて、本実施の形態におけるニューラルネットワークの構造、入力値、出力値について説明する。ニューラルネットワークには多くの構造が考案されているが、本実施の形態においては、シグモイド関数を持つニューロン素子を2層(中間層、出力層)重ねた3層ニューラルネットワークを用いる。図6に示すように、入力値としては、第一推定情報と第二推定情報とに含まれる値を用いる。出力値は統合情報である。中間層のユニット数は、例えば10個としている。出力層のユニット数は、出力値と同じであり、出力値を、自律移動装置1のX座標値、Y座標値、向きを示す値とした場合、3つとなる。各層の間は重みによって結合されており、これらの重みは、後述の学習器10によるニューラルネットワークの学習によって求められる。第一推定情報における入力値としては、第一推定情報に含まれるX座標値、Y座標値、向きを示す値、共分散値を用い、第二推定情報における入力値としては、第二推定情報に含まれるX座標値、Y座標値、向きを示す値、マッチング率を用いる。
The structure, input value, and output value of the neural network in this embodiment will be described with reference to FIG. Many structures have been devised for the neural network, but in this embodiment, a three-layer neural network in which two layers of neuron elements having a sigmoid function (intermediate layer, output layer) are used is used. As shown in FIG. 6, values included in the first estimation information and the second estimation information are used as input values. The output value is integrated information. The number of units in the intermediate layer is, for example, 10. The number of units in the output layer is the same as the output value, and when the output value is an X coordinate value, a Y coordinate value, and a value indicating the direction of the autonomous
なお、第一自己位置推定部51による第一推定情報の算出において、パーティクルフィルタによる計算結果が収束していない場合には、統合部9による統合情報の算出を実施せず、第二推定情報に基づき自己位置情報を更新することもできる。これは、パーティクルフィルタはパーティクルを分布させた後に、パーティクルが一箇所に集合する(収束する)までに時間を要し、この間は、パーティクルフィルタによる結果には大きな誤差が含まれている可能性があることを防ぐためである。パーティクルフィルタによる計算が収束しているかどうかの判断は、第一推定情報の分散が一定値以下である、あるいは、第一推定情報の最小値と最大値の差が一定値以下(例えば、X座標値の差分が2m以内かつ、Y座標値の差分が2m以内)であるかによって判断する。
In addition, in the calculation of the first estimation information by the first self-
次に、ニューラルネットワークを学習器10によって学習する方法について述べる。ニューラルネットワークを備えた統合部9により自己位置情報を更新するための精度の高い統合情報を算出するためには、ニューラルネットワークの学習が必要となる。学習は、各層間の重みを決定するための計算を意味する。重みとは、図6に示したように、各層の間の各ユニットを関連づけるパラメータのことである。学習には、入力値と出力値の組み合わせの学習データを用いる。本実施の形態においては、シミュレータにより取得したデータを用いてニューラルネットワークを一旦学習させ、その後、自律移動装置1を実際の環境で走行させて取得したデータを用いてニューラルネットワークを再度学習させる方法を用いている。
Next, a method for learning a neural network by the
図7は、上記のニューラルネットワークの学習のフローチャートを示している。はじめに、後述のシミュレータを用いて、学習に必要なデータを取得し、そのデータを学習データとしてニューラルネットワークに学習させる(B1)。一般的に、ニューラルネットワークを学習させるときの、重みの初期値、学習係数、などに関して、最適なパラメータは存在せず、ニューラルネットワークを適用するモデルに対して試行錯誤的に設定する必要があるといわれている。本実施の形態においても、シミュレータを用いた学習においては、重みの初期値、学習係数などを試行錯誤的に設定し、学習の誤差(入力値と出力値の誤差)が一定の範囲内に入るまで、学習パラメータを変えつつ、学習を行うものとする。次に、自律移動装置1の動作により取得したデータを用いてニューラルネットワークを学習する(B2)。ここで、シミュレータを用いているのは、一般的に動作テストを実施することができる時間は短い場合が多いため、自律移動装置1を実際に走行させて学習データを取得して学習する時間が短くなり、取得されるデータ量が不足する場合があるための対策である。具体的には、本実施の形態では、実機である自律移動装置1の動作により取得したデータを用いたニューラルネットワークの学習において、シミュレータを用いて学習した際の結果であるニューラルネットワークの重みを初期値とし、学習パラメータもその際と同様の値を用いて、初期値にシミュレータを用いて学習した結果を用いる。これにより、学習の時間を短縮することが可能であり、実機動作により取得したデータを用いたニューラルネットワークの学習は、実際の走行現場に合わせて、重みを微調整することができ、自律移動装置1の導入時に、短時間で、かつ、精度の高い学習結果を生成することが可能となる。
FIG. 7 shows a flowchart of learning of the neural network. First, data necessary for learning is acquired using a simulator described later, and the neural network learns the data as learning data (B1). Generally, there are no optimal parameters for the initial values of weights, learning coefficients, etc. when learning a neural network, and it is necessary to set trial and error for the model to which the neural network is applied. It is said. Also in this embodiment, in learning using a simulator, initial values of weights, learning coefficients, etc. are set by trial and error, and learning errors (input value and output value errors) fall within a certain range. Until now, learning is performed while changing the learning parameters. Next, the neural network is learned using the data acquired by the operation of the autonomous mobile device 1 (B2). Here, the simulator is used because the time during which an operation test can generally be performed is often short, so the time for actually learning the autonomous
学習データを用いたニューラルネットワークの学習方法について説明する。上記記載の階層型のニューラルネットワークでは、学習データを用いてバックプロパゲーション法(誤差逆伝播法)により学習し、内部の結合状態(重み)を調整して決定した重み係数を記憶部7に記憶する。バックプロパゲーション法による学習アルゴリズムの中核は、最急降下法による入力値と出力値の誤差最小化である。最急降下法による最小解の探索の問題点としては、大域的最小解を得ることができず、学習結果が局所最適解の取得に陥ってしまうことがあげられる。図8は、重みに対する入力値と出力値の誤差の関係を示す例である。重みの初期値設定や、学習係数の設定によっては、図8で示す、大局的な最適解が得られず、局所的な最適解を得る結果となり、入力値と出力値の誤差が大きく残ってしまう可能性がある。そこで、本実施の形態では、シミュレータにより取得したデータを用いてニューラルネットワークを試行錯誤的に学習させることで、局所的な最適解ではなく、大局的な最適解を取得することを可能としている。
A neural network learning method using learning data will be described. In the hierarchical neural network described above, learning is performed by using the backpropagation method (error back propagation method) using the learning data, and the weighting coefficient determined by adjusting the internal coupling state (weight) is stored in the
なお、本実施の形態では、シミュレータにより取得したデータを用いてニューラルネットワークを一旦学習させた後、自律移動装置1を実際の環境で走行させて取得したデータを用いてニューラルネットワークを再度学習させる方法について述べたが、自律移動装置1の走行環境に複雑な形状の障害物が少ない場合など、シミュレータにより取得したデータによる学習と、自律移動装置1を実際の環境で走行させて取得したデータを用いた学習との間に大きな差異がない場合などは、どちらか一方の学習のみとすることも可能である。
In the present embodiment, after the neural network is once learned using the data acquired by the simulator, the neural network is learned again using the data acquired by running the autonomous
シミュレータの動作概要を、図9を用いて説明する。シミュレータ600は、自律移動装置1の移動を計算機上の仮想環境でシミュレートするものである。シミュレータ600による動作は、自律移動シミュレータ601と仮想自律移動装置602から構成される。仮想自律移動装置602は、自律移動装置1における移動手段3とセンサ2を実際には保有せず、これらの機能を計算機上で自律移動シミュレータ601により実現するものである。自律移動シミュレータ601は、センサ2、移動手段3、記憶部7の動作をシミュレートする。より具体的には、自律移動シミュレータ601は、仮想自律移動装置602から取得した移動手段3への指令値と同様の制御値によって、制御パラメータに従って、仮想環境内で自己(仮想的な自律移動装置)を移動させ、仮想環境内での仮想的な自律移動装置1の位置や向きを示す仮想自己位置情報611を算出する。自律移動シミュレータ601は、この仮想自己位置情報611と地図情報612から、仮想自己位置情報611に対応する位置に自律移動装置1が存在した場合に取得されるセンサ2から得られるであろう仮想環境情報613を計算し、この結果を仮想自律移動装置602へ送信する。仮想自律移動装置602は自律移動シミュレータ601から取得した仮想環境情報613に基づいて、仮想自己位置情報611を算出する。仮想自律移動装置602は、上記シミュレートを、目的地へ到着するまで実施することで、仮想環境上で目的地までの移動を行う。この際、一定頻度で、第一自己位置推定部51によって取得した第一推定情報と、第二自己位置推定部52によって取得した第二推定情報と、仮想自律移動装置602が自律移動シミュレータ601から取得した仮想自己位置情報611を記憶部に記憶する。そして、これら第一推定情報と第二推定情報を学習データの入力値、仮想自己位置情報611を第三推定情報として学習データの出力値とする。これは、仮想自己位置情報611は、自律移動シミュレータ601の自己の位置に対応しており、自己位置の真値であるという考えに基づく。また、上記の学習データの取得においては、地図情報をさまざまに設定(例えば、仮想障害物622を配置)する、あるいは、自律移動シミュレータ601と仮想自律移動装置602の地図情報にズレを生じさせるなどして、実際の環境で起こりえる状況をさまざまに設定することで、多様な環境に対応できる学習データを取得することができる。
An outline of the operation of the simulator will be described with reference to FIG. The
上記のように、シミュレータ600を用いることで、自律移動装置1を実際に走行させることなく、計算機上で学習データを取得できる。
As described above, by using the
次に、学習データを自律移動装置1の実環境内での移動動作により取得する方法について説明する。自律移動装置1を実環境で走行させ、目的地に到着するまでに一定頻度で記憶した第一自己位置推定部51によって算出した第一推定情報と、第二自己位置推定部52によって算出した第二推定情報を、学習データの入力値とする。学習データの出力値には、第一推定情報、および、第二推定情報よりも信頼性の高い推定情報を用いる。本実施の形態では、第一推定情報と第二推定情報よりも信頼性の高い第三推定情報を取得するために、例えば走行テストを実施している際に実環境内に配置したランドマークを用いて第三推定情報の算出を行っている。第三推定情報は、第三自己位置推定部53を用いて算出される。実環境に配置するランドマークとしては、例えば、反射板を挙示することができる。反射板を実環境に配置することで、例えば、センサ2としてレーザレーダを用いた場合、反射板の存在する方向および反射板までの距離を示す環境情報を精度よく取得するとともに、反射板に反射されたビームを受光した際のビームの強度などからそのビームが反射板からの反射であることを検知し、他の環境情報から区別することできる。反射板の位置を複数取得できた場合には、三角測量の原理により、自律移動装置1の第三推定情報を精度よく取得できる。そして、自己の位置を示す精度の高い情報として第三推定情報を学習データの出力データとして用い、ニューラルネットワークの学習を実施する。学習が完了した後は、ランドマークはとりはずし、以降、学習済みの統合部9を用いて統合情報を算出する。このようにすることで、自律移動装置1が、実際の環境を走行して取得した環境情報を基に学習を実施することができるため、実際の走行環境に適した学習を実施することができる。
Next, a method for acquiring learning data by a moving operation in the real environment of the autonomous
なお、ランドマークの設置は、自己位置情報の更新をより精度よく実施したい場所で多く設置することが望ましい。自己位置情報の更新をより精度よく実施したい場所とは、例えば、自律移動装置1の移動開始地点、到着地点(目的地)、通路が交差するような交差点、ドアが設置されている付近、自律移動装置1が搭乗する可能性のあるエレベータ付近などである。多く設置することとは、例えば、2〜3m間隔で反射板を設置することである。こうすることで、自律移動装置1の到着精度向上、ドア部等の確実な通過が可能となる。また、新しいランドマークからの反射をセンサ2が取得する毎に学習器10による学習を行う。
It should be noted that it is desirable to install many landmarks at locations where self-location information is to be updated more accurately. The location where the self-location information is to be updated more accurately is, for example, the movement start point, the arrival point (destination) of the autonomous
以上の実施例では、第一自己位置推定部51としてパーティクルフィルタを用い、第二自己位置推定部52としてラインマッチングを用いた手法を説明しているが、条件に応じて、推定手段はこれらに限られず、カルマンフィルタ、ICPアルゴリズム (Iterative Closest Point Algorithm)など、多種の推定手段を用いることが可能であり、また、これらを3つ以上組み合わせることも可能である。
In the above embodiment, the method using the particle filter as the first self-
なお、本実施の形態では、ランドマークを用いた三角測量による方法を第三自己位置推定部53の第三推定情報の算出方法として説明しているが、第三自己位置推定部53の第三推定情報の算出方法はこの手段に限定されず、たとえば、環境情報から恒久的に配置される障害物のエッジなどの特徴部分を抽出して、それら特徴部分を用いた三角測量による第三推定情報の算出など、種々の方法を採用することが可能である。
In the present embodiment, the method based on the triangulation using the landmark is described as the third estimation information calculation method of the third self-
(実施の形態2)
実施の形態2は、統合部9の学習結果の異なる統合関数を複数保有し、統合部9による統合情報の算出に用いる統合関数を自律移動装置1が走行するエリアによって変更できるようにすることが特徴である。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 2)
In the second embodiment, a plurality of integration functions having different learning results of the integration unit 9 are held, and the integration function used for calculation of integration information by the integration unit 9 can be changed depending on the area where the autonomous
本実施の形態は、より具体的には、地図情報を複数のエリアに予め区切り、そのエリアごとで学習データを用意し、エリアごとで前述のニューラルネットワークなどの統合関数の学習を実施し、エリアごとで異なる学習結果の統合関数を作成している。 More specifically, in the present embodiment, map information is divided into a plurality of areas in advance, learning data is prepared for each area, learning of an integration function such as the above-described neural network is performed for each area, An integrated function with different learning results is created.
こうすることで、環境によって異なる学習結果となる可能性のある複数の統合関数を、エリアごとに設定できるため、より精度の高い自己位置情報に基づいた走行が可能となる。エリアの設定は、より簡単には、地図情報を格子状(例えば、5m四方のマス目)に区切り、各格子を一つのエリアとすることで実現できる。 In this way, since a plurality of integrated functions that may have different learning results depending on the environment can be set for each area, it is possible to travel based on more accurate self-position information. The setting of the area can be realized more simply by dividing the map information into a lattice shape (for example, a square of 5 m square) and making each lattice one area.
(実施の形態3)
実施の形態3は、シミュレータを用いて取得した学習データを用いたニューラルネットワークの学習と、実際の現場である実環境で自律移動装置1を走行させて取得した学習データを用いたニューラルネットワークの学習において、補正の範囲の制限に差を設けていることを特徴とする。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 3)
In the third embodiment, neural network learning using learning data acquired using a simulator and neural network learning using learning data acquired by running the autonomous
シミュレータを用いて取得した学習データを用いたニューラルネットワークの学習においては、重みの初期値はランダム生成した値などを用いるため、学習結果の重みと、初期値の重みには大きな差が発生する可能性があり、補正の範囲を大きく設定する必要がある。一方、実環境で自律移動装置1を走行させて取得した学習データを用いたニューラルネットワークの学習においては、すでにシミュレータを用いて取得した学習データを用いたニューラルネットワークの学習結果(重み)を初期値として学習を開始するため、重みの値が大きくことなることは望ましくない。そのため、重みの補正の範囲は小さく設定する必要がある。このように、実際の現場を走行させて取得した学習データを用いたニューラルネットワークの学習と、シミュレータを用いて取得した学習データを用いたニューラルネットワークの学習結果との補正の範囲を変えることで、位置精度がを悪化することを防止できる。
In neural network learning using learning data obtained using a simulator, the initial value of the weight is a randomly generated value, so there can be a large difference between the weight of the learning result and the initial value weight. It is necessary to set a large correction range. On the other hand, in the learning of the neural network using the learning data acquired by running the autonomous
(実施の形態4)
実施の形態4は、パーティクルフィルタを用いて第一自己位置推定部51が算出した第一推定情報と、ラインセグメントマッチングを用いて第二自己位置推定部52が算出した第二推定情報を、ニューラルネットワークを用いて統合部9が統合して統合情報を算出する方法において、パーティクルフィルタの推定精度を高めることで、統合情報に基づき更新された自己位置情報の精度を高める方法である。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 4)
In the fourth embodiment, the first estimation information calculated by the first self-
パーティクルフィルタは、パーティクルの推定、更新、リサンプリングを実施する過程において、リサンプリング処理の後、得られたパーティクルの集合に対してノイズを付加して新たなパーティクルの集合を取得する処理を含む。そのため、ノイズを大きくするとパーティクルの分布は広がり、ノイズを小さくするとパーティクルの分布は小さくなる。したがって、ノイズを大きくすると、位置推定のロバスト性は上がるが精度が下がり、逆に、ノイズを小さくすると、位置推定のロバスト性は下がるが、精度は上がる。 The particle filter includes a process of adding a noise to the obtained set of particles to obtain a new set of particles after the resampling process in the process of estimating, updating, and resampling the particles. Therefore, when the noise is increased, the particle distribution is expanded, and when the noise is decreased, the particle distribution is decreased. Therefore, if the noise is increased, the robustness of the position estimation is increased but the accuracy is decreased. Conversely, if the noise is decreased, the robustness of the position estimation is decreased, but the accuracy is increased.
図10で(a)を付した側は、ノイズを大きく設定した場合のパーティクル102の広がり具合を示し、図10で(b)を付した側は、ノイズを小さく設定した場合のパーティクルの広がり具合を示している。このように、ノイズを小さくすることで、パーティクルの分散値は小さくなる。
The side marked with (a) in FIG. 10 shows how the
図11を用いて、ノイズを小さく設定する条件を説明する。本実施の形態では、パーティクルフィルタによって算出した第一推定情報701と、ラインセグメントマッチングによって算出した第二推定情報702の差分が小さいとき、パーティクルフィルタのノイズを小さくする。より具体的には、パーティクルの広がり703の中にラインセグメントマッチングの推定結果である第二推定情報702が含まれる場合(図11中(a)側の状態)、ノイズを小さくする。一方、パーティクルの広がり703の中にラインセグメントマッチングの推定結果である第二推定情報702が含まれない場合(図11中(b)側の状態)、ノイズは変化させないものとする。このように構成することで、パーティクルフィルタを用いた第一推定情報の精度が向上し、結果として、ニューラルネットワークを用いた統合情報の精度を向上させ、統合情報を用いて更新された自己位置情報の精度を向上させることができる。
The conditions for setting the noise small will be described with reference to FIG. In the present embodiment, when the difference between the
(実施の形態5)
実施の形態5は、パーティクルフィルタを用いて第一自己位置推定部51が算出した第一推定情報と、ラインセグメントマッチングを用いて第二自己位置推定部52が算出した第二推定情報を、ニューラルネットワークを用いて統合部9が統合する統合情報の算出方法において、パーティクルフィルタによるパーティクルの分布が収束していない状態においても、第一推定情報を算出して統合部9による統合情報の算出を実現する方法である。これ以外は、前述の実施の形態1と同様であるため、説明は省略する。
(Embodiment 5)
In the fifth embodiment, the first estimation information calculated by the first self-
パーティクルフィルタは、前述のように、パーティクルが一箇所に集合する(パーティクルの分布が収束する)までに時間を要する。そして、収束に至っていないパーティクルの分布を用いて算出された第一推定情報には大きな誤差が含まれている可能性がある。一方で、パーティクルの分布が収束するまでの過程において、パーティクルがいくつかの場所に集合し、それぞれクラスターを形成することが見出されている。本実施の形態では、パーティクルの分布が収束していない状態でもクラスターを用いて精度の高い第一推定情報を算出している。パーティクルフィルタは、初期状態では、パーティクル102を環境中に分布させることが一般的であり(図12中(a)側に示す)、その後、計算過程で、クラスター800を形成することがある(図12中(b)側に示す)。クラスター800とは、パーティクル102が一定距離の中に存在しているパーティクル102の集合のことである。この状態において、複数のクラスター800から第二推定情報702に近い(例えば最も近い)クラスター800を抽出し、抽出されたクラスター800内のパーティクル102に基づいて第一推定情報711を算出する。そして得られた第一推定情報711と、第二推定情報702を用いて、統合部9により統合情報を算出する。
As described above, the particle filter requires time until the particles gather in one place (the particle distribution converges). The first estimation information calculated using the particle distribution that has not yet converged may include a large error. On the other hand, it has been found that in the process until the particle distribution converges, the particles gather in several places to form clusters. In the present embodiment, high-precision first estimation information is calculated using clusters even in a state where the particle distribution has not converged. In the initial state, the particle filter generally distributes the
こうすることで、パーティクル102の分布が収束に至っていない状態であっても、第二推定情報とクラスターを用いて算出された第一推定情報を用いることで、統合部9による統合情報の算出が可能となり、パーティクルフィルタの結果である第一推定情報を統合部9が利用できない時間を削減することができる。
In this way, even if the distribution of the
(実施の形態6)
実施の形態6は、所定の時間帯において、学習データを自律移動装置1の実環境内での移動動作により取得する方法である。これ以外は、前述の実施の形態1と同様のため、説明は省略する。一般的に、日々、自律移動装置1が通常に移動している場合、第一推定情報および第二推定情報より精度のよい第三推定情報を導出することは困難である。そこで、本実施の形態では、学習データ取得時間(例えば、人などが居ない深夜などの時間帯)を設定し、学習データ取得時間に自律移動装置1を移動させて第三推定情報を取得している。
(Embodiment 6)
The sixth embodiment is a method of acquiring learning data by a movement operation in the real environment of the autonomous
本実施の形態では、第三推定情報を第一自己位置推定部51と第二自己位置推定部52とによって算出する。具体的には、学習データ取得時間(人などが居ない時間)において、自律移動装置1を低速で、あるいは、間欠的に一旦停止を繰り返しながら移動させる。そして、低速で連続的に自律移動装置1が移動する場合は、一定時間間隔(または、走行情報に基づく一定距離間隔)で、間欠的に自律移動装置1が移動する場合は、自律移動装置1が停止中にセンサ2により環境情報を取得しておき、当該環境情報に基づき第一自己位置推定部51により第一推定情報を、第二自己位置推定部52により第二推定情報を算出する。こうすることで、自律移動装置1が通常速度(例えば、設定される許容最高速度1m/s)で走行するときよりも、環境情報を正確に取得できるようになり、計算時間に余裕を持って第一推定情報や第二推定情報を算出でき、これらに基づいて第三推定情報を導出することができる。図13は、経路上を所定の間隔に定められた情報取得位置Sで環境情報を取得しながら目的地まで移動する様子を示している。一定間隔は、例えば、2mや10秒などである。
In the present embodiment, the third estimation information is calculated by the first self-
なお、このとき、ラインセグメントマッチングのマッチング率が高い場合、ラインセグメントマッチングの結果である第二推定情報を第三推定情報としてもよい。また、ラインセグメントマッチングのマッチング率が低く、パーティクルフィルタの分散値が小さい場合、パーティクルフィルタの第一推定情報を第三推定情報としてもよい。 At this time, when the matching rate of line segment matching is high, the second estimation information that is the result of line segment matching may be used as the third estimation information. Further, when the matching rate of line segment matching is low and the dispersion value of the particle filter is small, the first estimation information of the particle filter may be used as the third estimation information.
また、上記実施と同時に、自律移動装置1の移動途中で取得した環境情報に加え、仮想的な障害物の位置情報が反映された仮想的な環境情報を用いて、第一自己位置推定部51によって第一推定情報を算出し、第二自己位置推定部52によって第二推定情報を算出し、このデータを学習データの入力値とする。学習データの出力値には、前述の、第三推定情報を用いる。こうすることで、実際には人などの障害物がない環境において、人などの障害物がある状態を模擬した状態での第一推定情報や第二推定情報を算出することができ、より現実の状況に近い学習データを得ることができる。
Simultaneously with the above implementation, the first self-
なお、仮想的な障害物は、あらかじめ設定した障害物の位置の軌跡を用いることもでき、また、自律移動装置1が通常走行した場合に取得した、障害物の位置の軌跡の記録を用いてもよい。
It is to be noted that a virtual obstacle can use a preset locus of the obstacle position, and can also use a record of the obstacle position locus acquired when the autonomous
本発明に係る自律移動装置は、例えば、病院内などのように多種多様な障害物が存在する環境で走行する必要がある場合に利用できる。 The autonomous mobile device according to the present invention can be used when it is necessary to travel in an environment where various obstacles exist, such as in a hospital.
1 自律移動装置
2 センサ
3 移動手段
4 制御装置
6 経路生成部
7 記憶部
8 電池
9 統合部
10 学習器
11 更新部
31 走行情報取得手段
51 第一自己位置推定部
52 第二自己位置推定部
53 第三自己位置推定部
DESCRIPTION OF
Claims (13)
前記制御装置は、前記環境情報および前記地図情報に基づきパーティクルフィルタを用いて確率的手法により推定された自己位置を示す第一推定情報を第一自己位置推定部で算出し、前記環境情報および前記地図情報に基づきラインマッチングを用いてマッチング手法により推定された自己位置を示す第二推定情報を第二自己位置推定部で算出し、前記第一推定情報と前記第二推定情報に基づき統合関数を用いて統合情報を統合部で算出し、前記統合情報に基づいて前記移動手段を制御して自己を移動させる、
自律移動装置の制御方法。 Control of an autonomous mobile device comprising a moving means for moving the self, a sensor for acquiring environmental information around the self, a control device for controlling the moving means to move the self, and a storage unit having map information A method,
The control device calculates first estimation information indicating a self-position estimated by a probabilistic method using a particle filter based on the environment information and the map information in a first self-position estimation unit, and the environment information and the Second estimation information indicating a self-position estimated by a matching method using line matching based on map information is calculated by a second self-position estimation unit, and an integrated function is calculated based on the first estimation information and the second estimation information. Using the integrated unit to calculate integrated information, and based on the integrated information to control the moving means to move itself,
Control method of autonomous mobile device.
請求項1に記載の自律移動装置の制御方法。 As the integration function, using a neural network,
The method for controlling an autonomous mobile device according to claim 1.
請求項2に記載の自律移動装置の制御方法。 As the neural network, a three-layer neural network in which two layers of neuron elements having a sigmoid function are stacked is used.
The method for controlling an autonomous mobile device according to claim 2.
請求項2または3に記載の自律移動装置の制御方法。 As an input value of the neural network in the first estimation information, an X coordinate value, a Y coordinate value, a value indicating a direction, and a covariance value of the first estimation information are used, and the input of the neural network in the second estimation information As the value, the X coordinate value, the Y coordinate value, the value indicating the direction, and the matching rate of the second estimation information are used.
The method for controlling an autonomous mobile device according to claim 2 or 3.
請求項1〜4いずれか1項に記載の自律移動装置の制御方法。 The integration function is calculated by learning by a learning device using the first estimation information and the second estimation information as input values.
The control method of the autonomous mobile apparatus of any one of Claims 1-4.
請求項5に記載の自律移動装置の制御方法。 Learning with a neural network for each of a plurality of areas set in the map information,
The method for controlling an autonomous mobile device according to claim 5.
請求項5または6に記載の自律移動装置の制御方法。 The learning by the learning device is derived by a movement operation of a virtual autonomous mobile device in the simulator environment,
The method for controlling an autonomous mobile device according to claim 5 or 6.
請求項5または6に記載の自律移動装置の制御方法。 The learning by the learning device is performed by executing a moving operation that moves to the destination while operating itself at a lower speed than the actual operation in the real environment.
The method for controlling an autonomous mobile device according to claim 5 or 6.
請求項5または6に記載の自律移動装置の制御方法。 Learning by the learning device is performed using landmarks temporarily arranged in the real environment.
The method for controlling an autonomous mobile device according to claim 5 or 6.
請求項1〜9のいずれか1項に記載の自律移動装置の制御方法。 The probabilistic method using the particle filter includes a process of adding noise to the obtained set of particles after the resampling process to obtain a new set of particles, and the first estimation information and the If the difference of the second estimation information is within a certain range, reduce the magnitude of the noise,
The control method of the autonomous mobile apparatus of any one of Claims 1-9.
請求項5または6に記載の自律移動装置の制御方法。 The learning device uses only the second estimation information as an input value in a state where the particle distribution calculated using the particle filter has not converged,
The method for controlling an autonomous mobile device according to claim 5 or 6.
請求項5または6に記載の自律移動装置の制御方法。 The first self-position estimation unit is closest to the second estimation information when the particles form a plurality of clusters in a state where the particle distribution calculated using the particle filter has not converged. The first estimation information is calculated using particles in the cluster.
The method for controlling an autonomous mobile device according to claim 5 or 6.
請求項5または6に記載の自律移動装置の制御方法。 The learning device uses the second estimation information as a learning result when the matching rate calculated by the line segment matching is high, and the particle variance calculated using the particle filter is low while the matching rate is low. In this case, the first estimation information is used as a learning result.
The method for controlling an autonomous mobile device according to claim 5 or 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014147930A JP2016024598A (en) | 2014-07-18 | 2014-07-18 | Control method of autonomous mobile apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014147930A JP2016024598A (en) | 2014-07-18 | 2014-07-18 | Control method of autonomous mobile apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016024598A true JP2016024598A (en) | 2016-02-08 |
Family
ID=55271315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014147930A Pending JP2016024598A (en) | 2014-07-18 | 2014-07-18 | Control method of autonomous mobile apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016024598A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017102559A1 (en) | 2016-02-12 | 2017-08-17 | Nidec Elesys Corporation | Waveguide device and antenna device with the waveguide device |
JP2017220197A (en) * | 2016-06-12 | 2017-12-14 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Vehicle control method and apparatus, and method and apparatus for acquiring decision-making module |
JP2018013860A (en) * | 2016-07-19 | 2018-01-25 | 株式会社豊田自動織機 | Autonomous movable object control device |
WO2019026761A1 (en) * | 2017-08-03 | 2019-02-07 | 日本電産シンポ株式会社 | Moving body and computer program |
US20190272446A1 (en) * | 2018-03-02 | 2019-09-05 | Zoox, Inc. | Automatic creation and updating of maps |
WO2019202806A1 (en) * | 2018-04-20 | 2019-10-24 | 本田技研工業株式会社 | Self-location estimation method |
JP2020057271A (en) * | 2018-10-03 | 2020-04-09 | 株式会社Ihi | Travel control device |
JP2020140490A (en) * | 2019-02-28 | 2020-09-03 | 三菱ロジスネクスト株式会社 | Transportation system, area determination device, and area determination method |
JP2020161141A (en) * | 2019-03-27 | 2020-10-01 | エルジー エレクトロニクス インコーポレイティド | Mobile robot and method of controlling the same |
JP2021018639A (en) * | 2019-07-22 | 2021-02-15 | 株式会社ダイヘン | Self-position estimation device, self-position selector and learning tool |
JP2021018638A (en) * | 2019-07-22 | 2021-02-15 | 株式会社ダイヘン | Self-position estimation device |
JP2021163455A (en) * | 2020-03-31 | 2021-10-11 | 株式会社豊田自動織機 | Position estimation system |
CN114080304A (en) * | 2019-08-22 | 2022-02-22 | 欧姆龙株式会社 | Control device, control method, and control program |
WO2022038823A1 (en) * | 2020-08-17 | 2022-02-24 | 村田機械株式会社 | Autonomous travel route planning method, autonomous traveling method, and program |
JP2022095273A (en) * | 2020-12-16 | 2022-06-28 | 株式会社豊田自動織機 | Self-position estimation device, moving object, self-position estimation method, and self-position estimation program |
-
2014
- 2014-07-18 JP JP2014147930A patent/JP2016024598A/en active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017102559A1 (en) | 2016-02-12 | 2017-08-17 | Nidec Elesys Corporation | Waveguide device and antenna device with the waveguide device |
JP2017220197A (en) * | 2016-06-12 | 2017-12-14 | バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド | Vehicle control method and apparatus, and method and apparatus for acquiring decision-making module |
US10429841B2 (en) | 2016-06-12 | 2019-10-01 | Baidu Online Network Technology (Beijing) Co., Ltd. | Vehicle control method and apparatus and method and apparatus for acquiring decision-making model |
JP2018013860A (en) * | 2016-07-19 | 2018-01-25 | 株式会社豊田自動織機 | Autonomous movable object control device |
CN110998472A (en) * | 2017-08-03 | 2020-04-10 | 日本电产新宝株式会社 | Mobile object and computer program |
WO2019026761A1 (en) * | 2017-08-03 | 2019-02-07 | 日本電産シンポ株式会社 | Moving body and computer program |
US20190272446A1 (en) * | 2018-03-02 | 2019-09-05 | Zoox, Inc. | Automatic creation and updating of maps |
US11501105B2 (en) * | 2018-03-02 | 2022-11-15 | Zoox, Inc. | Automatic creation and updating of maps |
US20200401152A1 (en) * | 2018-04-20 | 2020-12-24 | Honda Motor Co., Ltd. | Self-location estimation method |
WO2019202806A1 (en) * | 2018-04-20 | 2019-10-24 | 本田技研工業株式会社 | Self-location estimation method |
US11874666B2 (en) | 2018-04-20 | 2024-01-16 | Honda Motor Co., Ltd. | Self-location estimation method |
CN111989631A (en) * | 2018-04-20 | 2020-11-24 | 本田技研工业株式会社 | Self-position estimation method |
JPWO2019202806A1 (en) * | 2018-04-20 | 2021-02-12 | 本田技研工業株式会社 | Self-position estimation method |
JP2020057271A (en) * | 2018-10-03 | 2020-04-09 | 株式会社Ihi | Travel control device |
JP2020140490A (en) * | 2019-02-28 | 2020-09-03 | 三菱ロジスネクスト株式会社 | Transportation system, area determination device, and area determination method |
JP2020161141A (en) * | 2019-03-27 | 2020-10-01 | エルジー エレクトロニクス インコーポレイティド | Mobile robot and method of controlling the same |
JP7150773B2 (en) | 2019-03-27 | 2022-10-11 | エルジー エレクトロニクス インコーポレイティド | Mobile robot and its control method |
JP7385388B2 (en) | 2019-07-22 | 2023-11-22 | 株式会社ダイヘン | Self-position estimation device |
JP2021018639A (en) * | 2019-07-22 | 2021-02-15 | 株式会社ダイヘン | Self-position estimation device, self-position selector and learning tool |
JP2021018638A (en) * | 2019-07-22 | 2021-02-15 | 株式会社ダイヘン | Self-position estimation device |
CN114080304A (en) * | 2019-08-22 | 2022-02-22 | 欧姆龙株式会社 | Control device, control method, and control program |
CN114080304B (en) * | 2019-08-22 | 2024-05-14 | 欧姆龙株式会社 | Control device, control method, and control program |
JP2021163455A (en) * | 2020-03-31 | 2021-10-11 | 株式会社豊田自動織機 | Position estimation system |
JP7489014B2 (en) | 2020-03-31 | 2024-05-23 | 株式会社豊田自動織機 | Location Estimation System |
WO2022038823A1 (en) * | 2020-08-17 | 2022-02-24 | 村田機械株式会社 | Autonomous travel route planning method, autonomous traveling method, and program |
JP2022095273A (en) * | 2020-12-16 | 2022-06-28 | 株式会社豊田自動織機 | Self-position estimation device, moving object, self-position estimation method, and self-position estimation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016024598A (en) | Control method of autonomous mobile apparatus | |
CN111656296B (en) | System and method for autonomous movement planning and navigation of a robot | |
Stachniss et al. | On actively closing loops in grid-based FastSLAM | |
EP3590016A1 (en) | Method and system for simultaneous localization and sensor calibration | |
JP2018037064A (en) | Online learning method and vehicle control method based on reinforcement learning without active search | |
US12093051B2 (en) | Path determination method | |
CN108645413A (en) | The dynamic correcting method of positioning and map building while a kind of mobile robot | |
US20200103915A1 (en) | Determining Changes in Marker Setups for Robot Localization | |
CN113390411B (en) | Foot type robot navigation and positioning method based on variable configuration sensing device | |
JP6240595B2 (en) | Self-position estimation apparatus and mobile body equipped with self-position estimation apparatus | |
JP2018017826A (en) | Autonomous moving body and environment map update device | |
Trivun et al. | Active SLAM-based algorithm for autonomous exploration with mobile robot | |
TW202036030A (en) | Information processing device and mobile robot | |
JP2016149090A (en) | Autonomous mobile device, autonomous mobile system, autonomous mobile method and program | |
JP2009223757A (en) | Autonomous mobile body, control system, and self-position estimation method | |
JP2020149186A (en) | Position / orientation estimation device, learning device, mobile robot, position / orientation estimation method, learning method | |
KR101799700B1 (en) | Apparatus and the method for navigation using neuromorphic neural network model | |
Fabresse et al. | Active perception for 3D range-only simultaneous localization and mapping with UAVs | |
US20220405573A1 (en) | Calibration for a distributed system | |
Munoz-Gómez et al. | Exploration and map-building under uncertainty with multiple heterogeneous robots | |
Sinha et al. | A∗ WRBAS: Space Mobile Robotics Control Conceptual Model Using IoRT Reinforcement Learning and Tracking with Noise Estimation Using EKF | |
Lee et al. | Localization method for mobile robots moving on stairs in multi-floor environments | |
Dien et al. | Building Environmental Awareness System for Mobile Robot Operating in Indoor Environment on ROS Platform | |
Rui et al. | Path planning for bathymetry-aided underwater navigation | |
Mohamad Yatim et al. | Comparison of Sampling Methods for Rao-blackwellized Particle Filter with Neural Network |