JP2011209845A - Autonomous mobile body, self-position estimation method and map information creation system - Google Patents
Autonomous mobile body, self-position estimation method and map information creation system Download PDFInfo
- Publication number
- JP2011209845A JP2011209845A JP2010074905A JP2010074905A JP2011209845A JP 2011209845 A JP2011209845 A JP 2011209845A JP 2010074905 A JP2010074905 A JP 2010074905A JP 2010074905 A JP2010074905 A JP 2010074905A JP 2011209845 A JP2011209845 A JP 2011209845A
- Authority
- JP
- Japan
- Prior art keywords
- map information
- estimation
- self
- distance
- measurement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 77
- 238000005259 measurement Methods 0.000 claims abstract description 155
- 238000003860 storage Methods 0.000 claims abstract description 29
- 230000007246 mechanism Effects 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 5
- 238000005520 cutting process Methods 0.000 claims description 2
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 238000012545 processing Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000036544 posture Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005452 bending Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Navigation (AREA)
Abstract
Description
本発明は、自律移動体、自己位置推定方法、地図情報作成システム、及び地図情報作成方法に関する。 The present invention relates to an autonomous mobile body, a self-position estimation method, a map information creation system, and a map information creation method.
近年、建物内部や屋外の限定された領域内を、周囲の環境に基づいて自律的に移動可能な自律移動型ロボットなどの移動体が開発されつつある。このような移動体は、予め記憶された移動する領域に関する移動マップ上において、現在の自己の位置から特定の目標地点までの移動経路を作成することで自律移動を可能とするため、通常、移動する領域内における自己位置を認識する機能を備えている。このような自律移動体を制御するための自己位置推定方法が特許文献1に開示されている。
In recent years, mobile bodies such as autonomous mobile robots that can move autonomously within a limited area inside a building or outdoors based on the surrounding environment are being developed. Since such a moving body enables autonomous movement by creating a movement route from the current position to a specific target point on a movement map relating to a moving area stored in advance, it normally moves. It has a function of recognizing its own position in the area to be operated. A self-position estimation method for controlling such an autonomous mobile body is disclosed in
ところで、ウェルキャブ車両(車椅子で搭乗可能な自動車)では、利用者が車椅子に乗ったまま、自動車内に乗り込む。このとき、従来の車椅子では、補助者がウインチを操作したり、車椅子が車両から落ちたりしないように補助する必要がある。さらに、搭乗まで時間がかかってしまう。よって、車椅子ユーザや補助者にとって大きな負担となっている。 By the way, in a well cab vehicle (a vehicle that can be boarded by a wheelchair), the user gets into the vehicle while riding in the wheelchair. At this time, in the conventional wheelchair, it is necessary to assist the assistant so that the winch does not operate the winch or the wheelchair falls from the vehicle. In addition, it takes time to board. Therefore, it becomes a big burden for a wheelchair user and an assistant.
そこで、本件出願人は、自律移動体を車椅子として利用して、ウェルキャブ車両に全自動で搭乗可能な機能を開発している。ウェルキャブ車両内では、シートなどの障害物が配置されている。このため、移動環境が複雑になり、自己位置推定による自律移動が困難である。しかしながら、特許文献1に記載の自己位置推定方法では、環境内に赤外線照射部を設ける必要が生じてしまう。実用上、ウェルキャブ車両内に赤外線照射部を設けることは困難である。従って、自己位置推定が正確に行うことが困難であるという問題点が生じてしまう。
Therefore, the present applicant has developed a function capable of fully automatically boarding a well cab vehicle using an autonomous mobile body as a wheelchair. Obstacles such as seats are arranged in the well cab vehicle. For this reason, the moving environment becomes complicated, and autonomous movement based on self-position estimation is difficult. However, in the self-position estimation method described in
本発明は、上記の問題点に鑑みてなされたものであり、自己位置推定の精度を向上することができる自律移動体、自己位置推定方法、地図情報作成システム、及び地図情報作成方法を提供することを目的とする。 The present invention has been made in view of the above problems, and provides an autonomous mobile body, a self-position estimation method, a map information creation system, and a map information creation method that can improve the accuracy of self-position estimation. For the purpose.
本発明の第1の態様にかかる自律移動体は、移動環境内の推定用地図情報に基づいて自己位置を推定して、前記移動環境内を移動する自律移動体であって、周囲の障害物までの距離に応じた距離データを測定するセンサ部と、前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を複数記憶する地図情報記憶部であって、前記移動環境の異なる測定面での推定用地図情報を記憶する地図情報記憶部と、前記自己位置又は前記センサ部の測定角度に基づいて、前記地図情報記憶部に記憶された複数の推定用地図情報の中から1つの推定用地図情報を選択する地図情報選択部と、前記地図情報選択部で選択された推定用地図情報と前記センサ部で測定された距離データとに基づいて、自己位置を推定する自己位置推定部と、を備えたものである。この構成によれば、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。 The autonomous mobile body according to the first aspect of the present invention is an autonomous mobile body that moves within the mobile environment by estimating its own position based on estimation map information in the mobile environment, and surrounding obstacles A map information storage unit for storing a plurality of two-dimensional estimation map information according to the arrangement of obstacles in the moving environment, and a sensor unit for measuring distance data according to the distance to Based on a map information storage unit that stores map information for estimation on different measurement planes, and a plurality of map information for estimation stored in the map information storage unit based on the self-position or the measurement angle of the sensor unit A self-position that estimates a self-position based on a map information selection section that selects one map information for estimation, map information for estimation selected by the map information selection section, and distance data measured by the sensor section And an estimation unit It is. According to this configuration, since the appropriate map information for estimation can be selected, the accuracy of self-position estimation can be improved.
本発明の第2の態様にかかる自律移動体は、上記の自律移動体であって、前記センサ部の測定角度を測定する角度センサをさらに備え、前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、前記角度センサの測定結果に応じて、前記位置情報選択部が前記推定用地図情報を選択するものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。 An autonomous mobile body according to a second aspect of the present invention is the above-described autonomous mobile body, further comprising an angle sensor for measuring a measurement angle of the sensor unit, wherein the map information storage unit has a measurement surface with a different angle. The map information for estimation is stored, and the position information selection unit selects the map information for estimation according to the measurement result of the angle sensor. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.
本発明の第3の態様にかかる自律移動体は、上記の自律移動体であって、前記自己位置推定部で推定された自己位置が所定の位置を越えたら、前記地図情報選択部が選択する推定用地図情報を切り替えるものである。これにより、適切なタイミングで推定用地図情報を切り替えることができるため、自己位置推定の精度を向上することができる。 The autonomous mobile body according to the third aspect of the present invention is the autonomous mobile body described above, and the map information selection section selects when the self-position estimated by the self-position estimation section exceeds a predetermined position. The map information for estimation is switched. Thereby, since the map information for estimation can be switched at an appropriate timing, the accuracy of self-position estimation can be improved.
本発明の第4の態様にかかる自律移動体は、上記の自律移動体であって、前記移動環境内の障害物の位置に応じて、前記推定用地図情報を切り替える位置が予め設定されているものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。 An autonomous mobile body according to a fourth aspect of the present invention is the above-described autonomous mobile body, and a position for switching the estimation map information is preset according to the position of an obstacle in the mobile environment. Is. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.
本発明の第5の態様にかかる自律移動体は、上記の自律移動体であって、前記推定用地図情報を切り替える時に、前記自律移動体の移動が停止することを特徴とするものである。これにより、推定用地図情報を切り替えるタイミングにおいても、自己位置推定の精度を向上することができる。 An autonomous mobile body according to a fifth aspect of the present invention is the above-described autonomous mobile body, wherein the movement of the autonomous mobile body stops when the map information for estimation is switched. Thereby, the precision of self-position estimation can be improved also in the timing which switches the map information for estimation.
本発明の第6の態様にかかる自律移動体は、上記の自律移動体であって、前記距離データに応じた距離画像データと、前記推定用地図情報とをパターンマッチングして、自己位置を推定するものである。これにより、自己位置を正確に推定することができる。 An autonomous mobile body according to a sixth aspect of the present invention is the above autonomous mobile body, and estimates the self-position by pattern matching the distance image data corresponding to the distance data and the map information for estimation. To do. Thereby, a self-position can be estimated correctly.
本発明の第7の態様にかかる自律移動体は、移動環境内の推定用地図情報に基づいて自己位置を推定して、前記移動環境内を移動する自律移動体であって、周囲の障害物までの距離を測定するセンサ部と、前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を記憶する地図情報記憶部と、前自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、前記推定用地図情報に合成する地図情報作成部と、前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果と、に基づいて、自己位置を推定する自己位置推定部と、を備えるものである。これにより、適切な推定用地図情報を用いることができるため、自己位置推定の精度を向上することができる。 An autonomous moving body according to a seventh aspect of the present invention is an autonomous moving body that moves within the moving environment by estimating its own position based on map information for estimation in the moving environment, and surrounding obstacles A sensor unit for measuring the distance to the map, a map information storage unit for storing two-dimensional estimation map information according to the arrangement of obstacles in the moving environment, and the sensor unit during movement of the previous autonomous mobile body A map information creation unit that cuts out the distance image data based on the measured distance and combines it with the estimation map information, the estimation map information combined with the distance image data, and the sensor unit after the combination A self-position estimating unit that estimates the self-position based on the measurement result. Thereby, since the suitable map information for estimation can be used, the precision of self-position estimation can be improved.
本発明の第8の態様にかかる自律移動体は、上記の自律移動体であって、前記移動環境の一部の領域に対応して、前記距離画像データが切り出され、前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されているものである。これにより、適切に合成することができるため、自己位置推定の精度を向上することができる。 An autonomous mobile body according to an eighth aspect of the present invention is the above-described autonomous mobile body, wherein the distance image data is cut out corresponding to a partial region of the mobile environment, and the one of the mobile environments is selected. The area of the part is set based on the movable range of the obstacle. Thereby, since it can synthesize | combine appropriately, the precision of self-position estimation can be improved.
本発明の第9の態様にかかる地図情報作成システムは、移動環境内の自己位置推定に用いられる推定用地図情報を作成する地図情報作成システムであって、所定の測定面において、前記移動環境の障害物までの距離を測定するセンサ部と、前記移動環境における前記センサ部の位置を測定する位置測定部と、前記センサ部の測定面の角度を変更する角度変更機構と、異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、前記推定用地図情報を作成する地図情報作成部と、を備えるものである。これにより、自己位置推定に好適な推定用地図情報を作成することができるため、自己位置推定の精度を向上することができる。 A map information creation system according to a ninth aspect of the present invention is a map information creation system for creating map information for estimation used for self-position estimation in a mobile environment, wherein the mobile environment is A sensor unit that measures the distance to an obstacle, a position measurement unit that measures the position of the sensor unit in the moving environment, an angle change mechanism that changes the angle of the measurement surface of the sensor unit, and a measurement surface with a different angle And a map information creating unit that creates the map information for estimation by synthesizing distance image data corresponding to the distance measured by the sensor unit. Thereby, since the estimation map information suitable for self-position estimation can be created, the accuracy of self-position estimation can be improved.
本発明の第10の態様にかかる自己位置推定方法は、移動環境内の推定用地図情報に基づいて自己位置を推定する移動体における自己位置推定方法であって、周囲の障害物までの距離に応じた距離データを測定するステップと、前記移動環境内の障害物の配置に応じた2次元の推定用地図情報が異なる測定面毎に記憶された地図情報記憶部から、前記移動体の位置又は姿勢に基づいて、1つの推定用地図情報を選択するステップと、選択された前記推定用地図情報と、前記距離データと、に基づいて自己位置を推定するステップと、を備えるものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。 A self-position estimation method according to a tenth aspect of the present invention is a self-position estimation method in a moving body that estimates a self-position based on map information for estimation in a moving environment, and is based on the distance to surrounding obstacles. A step of measuring the corresponding distance data, and a map information storage unit in which two-dimensional estimation map information corresponding to the arrangement of the obstacle in the moving environment is stored for each different measurement surface, The method includes a step of selecting one piece of estimation map information based on a posture, and a step of estimating a self-position based on the selected piece of estimation map information and the distance data. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.
本発明の第11の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記距離データを測定するセンサ部の測定角度を測定するステップをさらに備え、前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、前記測定角度に応じて、前記推定用地図情報を選択するものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。 A self-position estimation method according to an eleventh aspect of the present invention is the self-position estimation method described above, further comprising a step of measuring a measurement angle of a sensor unit that measures the distance data, wherein the map information storage unit is The map information for estimation of the measurement surface of a different angle is stored, and the map information for estimation is selected according to the measurement angle. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.
本発明の第12の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、推定された前記自己位置が、所定の位置を越えたら、別の推定用地図情報に切り替えるものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。 A self-position estimation method according to a twelfth aspect of the present invention is the self-position estimation method described above, and switches to another estimation map information when the estimated self-position exceeds a predetermined position. is there. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.
本発明の第13の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、 前記移動環境内の障害物の位置に応じて、前記推定用地図情報を切り替える位置が予め設定されているものである。これにより、適切なタイミングで推定用地図情報を切り替えることができるため、自己位置推定の精度を向上することができる。 A self-position estimation method according to a thirteenth aspect of the present invention is the self-position estimation method described above, wherein a position for switching the estimation map information is preset according to the position of an obstacle in the moving environment. It is what. Thereby, since the map information for estimation can be switched at an appropriate timing, the accuracy of self-position estimation can be improved.
本発明の第14の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記推定用地図情報を切り替える時に、前記自律移動体の移動が停止することを特徴とするものである。これにより、推定用地図情報を切り替えるタイミングにおいても、自己位置推定の精度を向上することができる。 A self-position estimation method according to a fourteenth aspect of the present invention is the self-position estimation method described above, wherein the autonomous mobile body stops moving when the estimation map information is switched. is there. Thereby, the precision of self-position estimation can be improved also in the timing which switches the map information for estimation.
本発明の第15の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記距離データに応じた距離画像データと、前記推定用地図情報とをパターンマッチングして、自己位置を推定するものである。これにより、自己位置推定の精度を向上することができる。 A self-position estimation method according to a fifteenth aspect of the present invention is the self-position estimation method described above, wherein the distance image data corresponding to the distance data and the estimation map information are subjected to pattern matching, and the self-position is estimated. Is estimated. Thereby, the accuracy of self-position estimation can be improved.
本発明の第16の態様にかかる自己位置推定方法は、移動環境内の推定用地図情報に基づいて自己位置を推定する移動体における自己位置推定方法であって、周囲の障害物までの距離を測定するステップと、前記自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、推定用地図情報に合成するステップと、前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果とに基づいて、自己位置を推定するステップと、を備えるものである。これにより、適切な推定用地図情報を用いることができるため、自己位置推定の精度を向上することができる。 A self-position estimation method according to a sixteenth aspect of the present invention is a self-position estimation method in a mobile body that estimates a self-position based on map information for estimation in a moving environment, and calculates a distance to surrounding obstacles. A step of measuring, a step of cutting out distance image data based on a distance measured by the sensor unit during the movement of the autonomous mobile body, and combining it with map information for estimation, and the estimation in which the distance image data is combined And a step of estimating a self-position based on the map information and the measurement result of the sensor unit after combining. Thereby, since the suitable map information for estimation can be used, the precision of self-position estimation can be improved.
本発明の第17の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記移動環境の一部の領域に対応して、前記距離画像データが切り出され、前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されているものである。これにより、適切に合成することができるため、自己位置推定の精度を向上することができる。 A self-position estimation method according to a seventeenth aspect of the present invention is the self-position estimation method described above, wherein the distance image data is cut out corresponding to a partial area of the movement environment, and The partial area is set based on a movable range of the obstacle. Thereby, since it can synthesize | combine appropriately, the precision of self-position estimation can be improved.
本発明の第18の態様にかかる地図情報作成方法は、移動環境内の自己位置推定に用いられる推定用地図情報を作成する地図情報作成方法であって、所定の測定面において、前記移動環境の障害物までの距離を測定するステップと、前記移動環境における前記センサ部の位置を測定するステップと、前記センサ部の測定面の角度を変更するステップと、異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、推定用地図情報を作成するステップと、を備えるものである。これにより、自己位置推定に好適な推定用地図情報を作成することができるため、自己位置推定の精度を向上することができる。 A map information creation method according to an eighteenth aspect of the present invention is a map information creation method for creating map information for estimation used for self-position estimation in a mobile environment, wherein the mobile environment The step of measuring the distance to the obstacle, the step of measuring the position of the sensor unit in the moving environment, the step of changing the angle of the measurement surface of the sensor unit, and the sensor unit on different measurement surfaces Synthesizing distance image data corresponding to the measured distance to create estimation map information. Thereby, since the estimation map information suitable for self-position estimation can be created, the accuracy of self-position estimation can be improved.
本発明によれば、自己位置推定の精度を向上することができる自律移動体、自己位置推定方法、地図情報作成システム、及び地図情報作成方法を提供することを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, it can provide providing the autonomous mobile body which can improve the precision of self-position estimation, the self-position estimation method, the map information creation system, and the map information creation method.
以下、本発明に係る移動体の実施形態を、図面に基づいて詳細に説明する。但し、本発明が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。 Hereinafter, embodiments of a moving body according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. In addition, for clarity of explanation, the following description and drawings are simplified as appropriate.
まず、本発明に係る移動体の一例であるロボットの構成について、図1を用いて説明する。図1はロボット1の構成を模式的に示す側面図である。本実施の形態では、ロボット1が、移動環境内を自己位置推定しながら、自律移動する自律移動体として説明する。ここでは、ロボット1が ウェルキャブ車両内を移動するものとして説明する。もちろん、移動環境は、ウェルキャブ車両に限られるものではない。
First, a configuration of a robot which is an example of a moving body according to the present invention will be described with reference to FIG. FIG. 1 is a side view schematically showing the configuration of the
ロボット1は、本体10と、前輪11と、後輪12と、レーザセンサ13と、レーザセンサ14と、角度変更機構15と、制御部16と、ジャイロセンサ17とを備えている。前輪11と、後輪12は、本体10に対して回転可能に取り付けられている。また、前輪11と後輪12は、例えば、モータによって回転する。例えば、前輪11と後輪12を前方の回転することで前進し、後方に回転することで後退する。さらに、前輪11が左右両側に設けられている場合、左右の回転数を変えることで、左右に旋回する。なお、車輪の数は特に限定されるものではなく、2輪、3輪、4輪、あるいはそれ以上の数の車輪を有していても良い。
The
レーザセンサ13、14は、所定の測定面において、周囲の障害物までの距離に応じた距離データを測定する。レーザセンサ13、14は、例えば、レーザレンジファインダであり、ロボット1とともに移動する。レーザセンサ13は、水平面において、一定の角度毎にレーザ光を出射する。そして、そのレーザ光が反射して戻るまでの時間に応じて、障害物までの距離を検出する。また、障害物までの距離とは、障害物の外形までの距離である。レーザ光は、例えば、全方位に対して1度毎に出射されている。よって、ある測定面において、全方位で障害物までの距離が測定される。それぞれの方位における距離が集合することで距離データが構成される。レーザセンサ13、14からの出力は、制御部16に入力される。
The
そして、周囲の障害物までの距離に応じて距離画像データが取得される。尚、距離画像データとは、移動環境に存在する障害物までの距離値を各画素の画素値として有する2次元データである。この距離画像データと推定用地図情報を用いて、自己位置を推定する。また、ここでの障害物とは、ロボット1が衝突するおそれのあるものや、移動の妨げとなるものであり、壁などを含む。
And distance image data is acquired according to the distance to the surrounding obstacle. The distance image data is two-dimensional data having a distance value to an obstacle existing in the moving environment as a pixel value of each pixel. The self-position is estimated using the distance image data and the estimation map information. In addition, the obstacles here are those that may cause the
レーザセンサ13はロボット1の前方に、レーザセンサ14はロボット1の後方に取り付けられている。レーザセンサ13は前方180度を、レーザセンサ14は後方180度を測定する。これにより、ロボット1の周りの全方位に対して距離情報を取得することができる。もちろん、レーザセンサ13、14の測定可能範囲は180°に限られるものではない。さらに、レーザセンサ13、14によるレーザ測定を行うことで、2次元の推定用地図情報を作成することができる。以下、レーザセンサ13、14による測定データをレーザデータと称することもある。
The
なお、レーザレンジファインダ以外の、ステレオカメラ、距離画像カメラ(例えば、SR−4000)、3次元にレーザを照射して環境を測定するセンサ(例えば、リーグル)等を用いて距離データを測定しても良い。距離データを測定するセンサとして、光学的な測定を行うレーザセンサを用いたが、それ以外の方法で測定するセンサを用いても良い。また、一方のレーザセンサのみで測定を行っても良い。さらに、レーザセンサの数は2に限られるものではない。 In addition, the distance data is measured using a stereo camera, a distance image camera (for example, SR-4000), a three-dimensional laser irradiation sensor (for example, Legle), etc. other than the laser range finder. Also good. Although a laser sensor that performs optical measurement is used as a sensor that measures distance data, a sensor that measures by other methods may be used. Alternatively, measurement may be performed using only one laser sensor. Furthermore, the number of laser sensors is not limited to two.
さらに、レーザセンサ13のチルト角を変える角度変更機構15が設けられている。角度変更機構は、例えば、関節機構であって、本体10に対するレーザセンサ13の角度を変える。これにより、レーザセンサ13が上、又は下を向き、ロボットのピッチ軸周りの角度が変化する。よって、レーザセンサ13のチルト角、すなわち測定面の角度が変化する。角度変更機構15には、回転角度を測定するエンコーダなどが設けられている。そして、角度変更機構15の回転角度は、制御部16に入力される。
Further, an
さらに、本体10の内部には、制御部16とジャイロセンサ17が内蔵されている。ジャイロセンサ17は、ロボット1の姿勢角を検出するセンサであり、例えば、水平面(地面)に対する本体10の角度を測定する。ジャイロセンサ17の出力は、制御部16に入力される。ジャイロセンサ17の検出結果によって、ロボット1の仰角を求めることができる。従って、ジャイロセンサ17の検出結果と、角度変更機構15の関節角度によって、レーザセンサ13の測定面の角度を求めることができる。また、ジャイロセンサ17によって、レーザセンサ14の測定面の角度も検出することができる。ここで、測定面の角度とは、水平面(地面)に対する角度であり、水平面と平行な場合を0度とする。
Further, a
制御部16は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信用のインタフェイスなどを有する演算処理装置である。また、制御部16は、着脱可能なHDD、光ディスク、光磁気ディスク等を有し、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じてメモリ(不図示)等に供給する。もちろん、制御部16は、物理的に一つの構成に限られるものではない。
The
制御部16は、移動制御するための演算処理を行う。例えば、制御部16は、自己位置推定を行う。そして、自己位置推定結果に応じて、前輪11、後輪12を駆動するためのモータ等を制御する。これにより、障害物と衝突せずに、自律移動することができる。なお、前輪11及び後輪12の一方のみが駆動輪であっても良い。制御部16は、移動環境の推定用地図情報を記憶している。そして、推定用地図情報と、レーザセンサ13、14で測定された距離情報と、に基づいて自己位置を推定する。具体的には、推定用地図情報と、距離情報に応じた距離画像データとのパターンマッチングを行う。そして、パターンがマッチングした位置をロボット1の自己位置として推定する。そして、現在の自己位置から、障害物と衝突しないように移動終点まで移動する。ロボット1は、所定の座席位置を移動終点として移動する。
The
ロボット1がウェルキャブ車両を移動する様子を図2、図3に示す。図2、図3に示すように、ロボット1は、車外に設けられたスロープ54を上って、車両50内に入る。スロープ54は、車両50の後方に取り付けられている。ロボット1は、車両50の後方から所定の連結位置(移動終点)まで移動する。連結位置までロボット1が移動したら、ロボット1を車両50に連結する。このとき、スロープ54から車両50を移動する際、ロボット1は推定用地図情報を参照して、自己位置を推定している。
FIGS. 2 and 3 show how the
例えば、推定用地図情報は、図4に示すようになる、車両50内では、車両50の内壁、ギアボックス、シート、天井などが障害物となる。推定用地図情報は、これらの障害物に応じた、画像データである。図4では、太線が障害物の外形を示しており、点線がレーザ測定で測定された距離画像データを示している。そして、これらのパターンのマッチングを行うことで、自己位置推定が行われる。
For example, the estimation map information is as shown in FIG. 4. In the
具体的には、レーザデータと同じように、2次元空間を障害物の位置座標値を格納した点列データで表現することで、推定用地図情報が作成される。推定用地図情報は、図4に示すように、予め定義された座標系についての障害物の位置座標が格納されている。図4に示す太線が、障害物が存在していない空間と、障害物が存在している空間の境界線となる。推定した自己位置を参照して、推定用地図情報に含まれる障害物と衝突しないように、前進、右旋回、左旋回等をする。そして、自己位置推定を繰り返しながら、移動していく。これにより、障害物を避けながら自律移動することができる。なお、推定用地図情報と移動用地図情報は異なる地図情報であってもよい。 Specifically, the map information for estimation is created by expressing the two-dimensional space with point sequence data storing the position coordinate values of obstacles, as in the case of laser data. As shown in FIG. 4, the estimation map information stores the position coordinates of an obstacle with respect to a predefined coordinate system. A thick line shown in FIG. 4 is a boundary line between a space where no obstacle exists and a space where an obstacle exists. With reference to the estimated self-position, the vehicle moves forward, turns right, turns left, etc. so as not to collide with an obstacle included in the estimation map information. And it moves, repeating self-position estimation. Thereby, it can move autonomously, avoiding an obstacle. Note that the map information for estimation and the map information for movement may be different map information.
次に、制御部16の構成について、図5を用いて説明する。図5は、制御部16の構成を模式的に示すブロック図である。制御部16は、地図情報作成部21と、地図情報記憶部22と、自己位置推定部23と、駆動制御部24と、チルト角制御部25と、地図情報選択部26を備えている。地図情報作成部21は、移動環境の推定用地図情報を作成する。例えば、レーザセンサ13、14の測定によって、ある測定地点から障害物までの距離を求める。そして、ある測定地点から障害物までの距離に応じた距離データに基づいて、推定用地図情報を作成することができる。例えば、レーザセンサ13、14で取得した距離画像データに基づいて、推定用地図情報を作成する。例えば、ある地図情報に対して、その地図情報には存在していない障害物の情報を合成することで、推定用地図情報を作成する。
Next, the configuration of the
地図情報記憶部22は、地図情報作成部21で作成された推定用地図情報を記憶する。さらに、後述す量に推定用地図情報が複数格納されていても良い。推定用地図情報は、移動環境、すなわち、車両50内、及びその周辺の障害物の位置座標等を有する2次元データである。なお、移動環境の推定用地図情報は、ロボット1と異なる別の装置によって、作成されても良い。すなわち、ロボット1と別のロボットや装置によって、レーザ測定を行っても良い。地図情報選択部26は、地図情報記憶部22に記憶されている複数の推定用地図情報の中から、1つの推定用地図情報を選択する。地図情報選択部26は、ロボット1の位置や、角度に応じて、推定用地図情報を選択する。
The map
自己位置推定部23は、選択された推定用地図情報に基づいて、自己位置を推定する。すなわち、レーザセンサ13、14による距離画像データを推定用地図情報に対してパターンマッチングする。そして、このパターンマッチング結果から、推定用地図情報内のロボット座標、すなわち、移動環境内の自己位置が推定される。このように、推定用地図情報と、距離画像データとを比較することで、自己位置が推定される。2次元の推定用地図情報と、2次元の距離画像データとをマッチングすることで、演算時間を短縮化することができる。
The self-
駆動制御部24は、前輪11と後輪12の駆動を制御する。すなわち、推定された自己位置と推定用地図情報に基づいて、移動方向を決定する。具体的には、駆動制御部24は、自己位置を参照して、推定用地図情報内のどの方向に進めばよいかを決定する。これにより、例えば前輪11と後輪12の回転数や回転トルクに応じた指令値が、駆動モータに出力される。
The
チルト角制御部25は、角度変更機構15を制御する。すなわち、ジャイロセンサ17での検出結果に応じて、角度変更機構15を駆動する。これにより、レーザセンサ13のチルト角が制御される。例えば、スロープ54上でのロボット位置に応じて、チルト角を変更しても良い。
The tilt
実施の形態1.
本実施の形態では、複数のレーザ測定結果に基づいて推定用地図情報が作成されている。そして、ロボット1が、推定用地図情報により自己位置推定を行っている。以下に推定用地図情報の作成について説明する。まず、推定用地図情報を作成するシステム構成に付いて、図6を用いて説明する。図6は、推定用地図情報を作成する作成システムの構成を示す図である。
In the present embodiment, estimation map information is created based on a plurality of laser measurement results. Then, the
本実施の形態においても、図6に示すように、ロボット1は、車両50に進入する手前のスロープ54に上っている。このシステムには、3次元位置測定器61が設けられている。3次元位置測定器61は、車両50に対するロボット1を測定している。換言すると3次元位置測定器61は、移動環境におけるレーザセンサ13、14の位置を測定している。3次元位置測定器61は、例えば、東陽テクニカ社製のロボットキャリブレーションROCALシステムである。また、車両50には、障害物52、53が存在している。障害物53は、床51上に配置されたスロープギアボックスである。また、障害物52は、例えば、天井55に設けられた、跳ね上げサードシートである。
Also in the present embodiment, as shown in FIG. 6, the
スロープ54のたわみなどで、移動中のロボット1がピッチ方向に揺れてしまうことがある。揺れていないでレーザセンサ13が水平になっている状態では、レーザセンサ13が測定面Aで測定を行うことになる。よって、レーザセンサ13からのレーザ光は障害物53には当たるが、障害物52には当たらない。一方、揺れた状態では、レーザセンサ13が測定面Bを測定することになる。この場合、レーザセンサ13から出射されたレーザ光は障害物52には当たるが、障害物53には当たらない。このように、スロープ54のたわみなどでロボット1が揺れるような状況では、障害物52と障害物53のいずれが測定できるかわからない。従って、本実施形態では、2つの地図情報を合成して、推定用地図情報を作成している。具体的には、測定面Aと測定面Bの両方の地図情報を合成して、推定用地図情報として作成する。この場合、推定用地図情報には、障害物52、53の情報が含まれていることになる。
The moving
このため、ロボット1がレーザセンサ13の測定結果を用いて、測定面Aと測定面Bの地図情報を作成する。具体的には、手動で、ロボット1をスロープ54上の所定の測定地点まで移動させる。なお、測定地点は実際に揺れが大きくなる位置とすることが好ましい。例えば、スロープ54の上り始めで揺れが発生しやすいため、スロープ54の上り始めの位置を測定地点とする。さらには、ロボット1を他の位置を測定地点としてもよい。もちろん、測定地点を2箇所以上としても良い。このように、1又は複数の測定地点までロボット1を手動で移動させる。
For this reason, the
このとき、ロボット1の詳細な測定地点の座標は、3次元位置測定器61で測定されている。すなわち、車両50を基準とするロボット1の3次元座標が、3次元位置測定器61によって正確に測定されている。そして、チルト角を変えた2つの測定面A,Bで、レーザセンサ13が周囲の障害物までの距離を検出する。これにより、測定面A、Bにおける障害物までの距離に応じた距離データが取得される。測定面A、Bにおける距離画像データがそれぞれ取得される。ここではレーザレンジファインダをレーザセンサ13として用いているため、全方位における障害物までの距離が検出される。なお、ジャイロセンサ17の測定によって、揺れが治まったことを検知した後、距離データを測定することが好ましい。また、測定面Aと測定面Bのチルト角は、実際の揺れに応じて決定すれば良い。すなわち、実際に揺れるだろう位置において、揺れる角度にレーザセンサ13を傾ける。もちろん、異なる測定地点では、異なるチルト角で測定しても良い。
At this time, the coordinates of the detailed measurement point of the
そして、3次元位置測定器61で測定された測定地点の座標とレーザセンサ13のチルト角とを考慮して、各測定面における地図情報を作成する。これにより、測定面Aにおいて測定された障害物の距離データを含む地図情報と、測定面Bにおいて測定された障害物の距離データを含む地図情報が作成される。例えば、図7に示すように、測定面Aの地図情報を地図情報M1とし、測定面Bの地図情報を地図情報M2とする。ここで、地図情報M1、M2において、障害物の外形が線として示されている。すなわち、地図情報M1,M2に示された線が障害物を示しており、ロボット1が移動する際は、この線を避けて移動する。合成された地図情報M(1+2)が推定用地図情報として使用される。推定用地図情報M(1+2)では、地図情報M1に対して、地図情報M2でしか検出されていない障害物を含む合成領域91が追加されている。
Then, in consideration of the coordinates of the measurement point measured by the three-dimensional
このように、足りない障害物の距離データを補完する形で、合成された新たな地図情報を推定用地図情報として作成する。そして、実際にロボット1が車両50内に進入する際に、この推定用地図情報と用いて、自己位置を推定する。すなわち、推定用地図情報と距離画像データとをパターンマッチング処理する。これにより、スロープ54が揺れていなどの外乱があっても、正確に自己位置を推定することができる。揺れなどの外乱があった場合でも、正確に自己位置推定することができる。よって、移動中に揺れが治まるのを待つ必要がなく、安全かつ迅速な移動が可能となる。
In this way, the synthesized new map information is created as estimation map information in a form that complements the distance data of the missing obstacle. Then, when the
次に、地図情報の作成方法について、図8を用いて説明する。図8は、地図情報の作成方法を示すフローチャートである。まず、ロボット1の連結位置を基準に、測定地点の座標を計算する(ステップS101)。推定用地図情報の作成に必要な1又は複数の位置を測定地点とする。測定地点としては、スロープ54の上り始めの位置や、車両50内部等がある。ここでは、車両50全体の障害物が含まれるように、測定地点を決定する。すなわち、全ての障害物の情報が推定用地図情報に含まれるようにする。そして、測定地点にレーザセンサを置く(ステップS102)。例えば、手動でロボット1を測定地点まで移動する。ここでは、3次元位置測定器61によって、ロボット1の位置を測定している。このため、ロボット1を測定地点まで正確に移動することができる。測定地点までロボット1を移動したら、レーザセンサ13によって、レーザデータを取得する(ステップS103)。このレーザデータが障害物の距離の情報を含んでいる。
Next, a map information creation method will be described with reference to FIG. FIG. 8 is a flowchart showing a map information creation method. First, the coordinates of the measurement point are calculated based on the connection position of the robot 1 (step S101). One or a plurality of positions necessary for creating the estimation map information are set as measurement points. Measurement points include the position at which the
そして、座標に紐づいた地図情報を作成する(ステップS104)。すなわち、測定地点の座標と、チルト角を考慮した地図情報を作成する。地図情報は、距離画像データに応じたパターンとなる。そして、測定地点が存在するかしないかを判定する(ステップS105)。すなわち、全ての測定地点の測定が終了するまで、上記の処理を繰り返す。全ての測定地点での測定を終了すると、全ての地図情報を合成して、地図の作成が完了する。すなわち、チルト角の異なる複数の地図情報をマージすることによって、推定用地図情報が作成される。このようにすることで、外乱に強い自己位置推定用の地図を作成することができる。自己位置推定に好適な推定用地図情報を作成することができるため、自己位置推定の精度を向上することができる。 Then, map information associated with the coordinates is created (step S104). That is, the map information considering the coordinates of the measurement point and the tilt angle is created. The map information has a pattern corresponding to the distance image data. Then, it is determined whether or not the measurement point exists (step S105). That is, the above process is repeated until the measurement of all measurement points is completed. When the measurement at all measurement points is completed, all the map information is synthesized and the creation of the map is completed. That is, the map information for estimation is created by merging a plurality of pieces of map information having different tilt angles. In this way, a map for self-position estimation that is resistant to disturbance can be created. Since the estimation map information suitable for self-position estimation can be created, the accuracy of self-position estimation can be improved.
上記のように、異なる角度の測定面での位置情報(距離画像データ)を合成して、水平面における推定用地図情報を作成する。もちろん、水平面内の推定用地図情報に限らず、水平面以外の平面の推定用地図情報を作成しても良い。なお、1つの測定地点で3以上のチルト角でレーザデータを取得して、3以上の距離画像データを合成しても良い。なお、一部の測定地点では、1つのチルト角のみでレーザデータを取得しても良い。合成後の地図情報を揺れが大きくなる箇所でのみ使用しても良い。例えば、揺れが大きい、スロープ54の上り始めの周辺でのみ、合成した推定用地図情報を用いる。これら以外の揺れが小さい箇所では、1つのチルト角で測定された地図情報を推定用地図情報として用いる。すなわち、2つのチルト角の地図情報が合成されていない地図情報を推定用地図情報として用いる。これにより、正確に自己位置推定することができる。さらには、角度が同じで、高さの異なる測定面の距離画像データを合成しても良い。
As described above, the position information (distance image data) on the measurement surfaces at different angles is synthesized to create the estimation map information on the horizontal plane. Of course, not only the estimation map information in the horizontal plane but also the estimation map information for planes other than the horizontal plane may be created. It is also possible to acquire laser data at a tilt angle of 3 or more at one measurement point and synthesize 3 or more distance image data. Note that at some measurement points, laser data may be acquired with only one tilt angle. The combined map information may be used only at a place where the shaking becomes large. For example, the combined estimation map information is used only in the vicinity of the
実施の形態2.
本実施の形態では、ロボット1の自己位置に応じて、地図を切り替えている。なお、本実施の形態では合成していない地図情報を推定用地図情報として利用している。すなわち、実施の形態1で示した合成後の地図情報ではなく、ある1つのチルト角で測定されたレーザデータに基づく地図情報を推定用地図情報として用いている。
In the present embodiment, the map is switched according to the
本実施の形態における自己位置推定について、図9を用いて説明する。図9は、車両50を移動するロボット1による自己位置推定を説明する図である。図9に示すように、スロープ54を移動している間は、ロボット1の位置に応じて、レーザセンサ13の高さが異なる。例えば、スロープ54の上り始めでは、レーザセンサ13が測定面Cの高さであるが、スロープ54の終わりでは、レーザセンサ13が測定面Dの高さとなる。すなわち、レーザセンサ13のチルト角を一定に保っていたとしても、測定面の高さが徐々に変化していく。よって、測定面Dでは、障害物53を検出することができない。すなわち、レーザセンサ13の測定面が障害物53よりも高くなるため、レーザセンサ13からのレーザ光が障害物53に当たらない。このように、レーザセンサ13が測定面の高さになると、レーザセンサ13の検出結果には、障害物53の情報が含まれなくなってしまう。このように、測定面の高さに応じて、レーザセンサ13で検出できる障害物が変わってくるため、障害物の距離情報が異なってしまうことになる。すなわち、測定面の高さに応じて、距離画像パターンに違いが生じてしまう。
Self-position estimation in the present embodiment will be described with reference to FIG. FIG. 9 is a diagram illustrating self-position estimation by the
従って、本実施形態では、移動環境内のロボット1の自己位置に応じて、使用する推定用地図情報を切り替えている。すなわち、ロボット1の座標に応じて、異なる推定用地図情報を使用する。例えば、図10に示すPA地点までは、推定用地図情報Maを用いる。そして、PA地点からPB地点までは推定用地図情報Mabを用いる。さらに、B地点からC地点までは推定用地図情報Mbcを用い、PC地点からPD地点までは推定用地図情報Mcdを用いる。さらに、D地点を越えると推定用地図情報Mdに切り替える。なお、D地点を越えると、座席が近くなりすぎてしまうため、後ろ側のレーザセンサ14からの測定結果のみを使用して、自己位置推定する。このように、自己位置に応じて、使用するレーザセンサを切り替えることで、自己位置推定の精度を向上することができる。
Therefore, in this embodiment, the estimation map information to be used is switched according to the self-position of the
このように、推定された自己位置の座標に応じて、推定用地図情報を切り替える。すなわち、推定された自己位置がしきい値となる座標を越えたら、異なる推定用地図情報に切り替える。これにより、自己位置推定の精度を高くすることができる。例えば、推定用地図情報を切り替える時は、ロボット1の移動を一時的に停止してもよい。すなわち、自己位置の座標がしきい値を越えたら、ロボット1の移動を一時的に停止する。そして、切り替えが完了した後に、ロボット1の移動が再開する。これにより、推定用地図情報を切り替えるタイミングにおいても、自己位置推定の精度を向上することができる。しきい値となる座標は、障害物の位置に応じて予め設定すれば良い。すなわち、レーザセンサ13が障害物を越えたら、推定用地図情報を切り替えればよい。切り替える座標は、実際のロボット1を走行させたときの、自己位置推定結果が良かった位置から設定しても良い。
In this way, the map information for estimation is switched according to the estimated coordinates of the self position. That is, when the estimated self-position exceeds the threshold value coordinates, the map is switched to different estimation map information. Thereby, the precision of self-position estimation can be made high. For example, when switching the estimation map information, the movement of the
本実施の形態では、地図情報記憶部22には、測定面の高さに応じた推定用地図情報が複数記憶されている。そして、自己位置に応じて、地図情報選択部26が選択する推定用地図情報を切り替える。推定用地図情報を切り替える処理に付いて、図11を用いて説明する。図11は、推定用地図情報を切り替えながら、移動する処理を示すフローチャートである。
In the present embodiment, the map
まず、人がロボット1に乗って、スロープ54の下付近まで移動させる(ステップS201)。そして、レーザセンサ13、14の測定によって自己位置推定を行う(ステップS202)。すなわち、レーザセンサ13、14によって検出された障害物の距離画像データと、推定用地図情報とを比較して、自己位置を推定する。なお、複数の推定用地図情報のうち、予め1つの推定用地図情報を最初に用いる設定しておく。例えば、図10に示す例では、推定用地図情報Maを最初に用いる推定用地図情報として設定しておく。
First, a person gets on the
そして、自己位置推定ができているか否か判定し(ステップS203)、推定できるまで上記の処理を繰り返す。自己位置が推定できたら(ステップS203のYES)、ロボット1が移動環境内での移動を開始する。具体的には、レーザセンサ13、14の測定結果によって自己位置を推定しながら、スロープ54又は車両50の内部を移動する(ステップS204)。これにより、前輪11、及び後輪12の駆動モータに指令値が出力される。そして、推定された自己位置が連結位置(移動終点)に到達しているか否かを判定する(ステップS205)。連結位置に到達した場合(ステップS206)、移動を終了する。
Then, it is determined whether or not self-position estimation is possible (step S203), and the above processing is repeated until estimation is possible. If the self position can be estimated (YES in step S203), the
連結位置に到達していない場合、地図の切り替え地点まで到達しているか否かを判定する(ステップS207)。ここでは、推定された自己位置の座標が所定のしきい値を越えたか否かによって、切り替え地点まで到達したか否かを判定する。切り替え地点まで到達していない場合(ステップS207のNO)、そのまま同じ推定用地図情報を用いてステップS204からの処理を繰り返す。切り替え地点に到達した場合は、自己位置推定する推定用地図情報を切り替える(ステップS208)。そして、切り替えられた推定用地図情報で、ステップS204からの処理を繰り返す。このようにして、ロボット1が車両50内を自律移動していく。
If the connection position has not been reached, it is determined whether or not the map switching point has been reached (step S207). Here, whether or not the switching point has been reached is determined based on whether or not the estimated coordinates of the self-position exceeded a predetermined threshold value. If the switching point has not been reached (NO in step S207), the processing from step S204 is repeated using the same estimation map information as it is. When the switching point is reached, the estimation map information for self-position estimation is switched (step S208). Then, the processing from step S204 is repeated with the switched estimation map information. In this way, the
このように、車両50を移動環境とすると、ロボット1が前に進めば進むほど、センシングする環境が変わってしまう。よって、ロボット1の自己位置に応じて、異なる高さで取得された推定用地図情報に切り替える。そして、推定用地図情報を切り替えることで、自己位置を精度よく推定することができる。なお、上記の説明では、推定用地図情報は、高さの異なる測定面での測定結果により作成したが、チルト角の異なる測定面での測定結果により作成しても良い。例えば、測定面のチルト角をスロープ54を上る時の角度に合わせればよい。あるいは、高さ、及びチルト角の両方ともが異なる測定面での測定結果に基づいて、推定用地図情報を作成しても良い。
Thus, when the
本実施の形態では、自己位置に応じて最適な推定用地図情報を選択することができる。これにより、自己位置推定の精度を向上することができる。よって、ウェルキャブ車両内を安全かつ迅速に移動することができる。 In the present embodiment, optimal map information for estimation can be selected according to the self position. Thereby, the accuracy of self-position estimation can be improved. Therefore, it is possible to move safely and quickly in the well cab vehicle.
実施の形態3.
実施の形態3にかかる自己位置推定方法について、図12、及び図13を用いて説明する。図12は、ロボット1がスロープ54を上る様子を示す図である。図13は、本実施形態にかかる自己位置推定方法に用いられる推定用地図情報を説明するための図である。
Embodiment 3 FIG.
A self-position estimation method according to the third embodiment will be described with reference to FIGS. 12 and 13. FIG. 12 is a diagram illustrating a state in which the
図12に示すように、ロボット1がスロープ54を上る際、スロープ54の撓みなどによって、ロボット1が揺れてしまう。ロボット1が揺れてしまうと、レーザセンサ13の測定面の仰角が変化してしまう。例えば、レーザセンサ13が測定面Eで測定したり、測定面Fで測定したりしてしまう。特にスロープ54の強度不足や、床51の凹凸によってロボット1が揺れる。この揺れが起きると障害物53が検出できずに、天井55を検出してしまう。すなわち、レーザセンサ13からのレーザ光が障害物53に照射されずに、天井55に照射されてしまう。よって、自己位置推定の精度が低下してしまう。
As shown in FIG. 12, when the
そこで、本実施形態では、角度の異なる測定面で測定した測定結果から、それぞれ推定用地図情報を作成する。ここでは、ピッチ方向の揺れの影響を低減するために、複数の推定用地図情報から最適な地図情報を選択する。 Therefore, in this embodiment, the estimation map information is created from the measurement results measured on the measurement surfaces with different angles. Here, in order to reduce the influence of the fluctuation in the pitch direction, optimal map information is selected from a plurality of estimation map information.
例えば、図13に示すように、角度変更機構15によってレーザセンサ13のチルト角を変えて、レーザ測定を行う。そして、それぞれの測定における距離画像データに基づいて、推定用地図情報を作成する。具体的には、同じ測定地点で、チルト角を変えてレーザ測定を行う。それぞれの測定結果から、異なる角度の推定用地図情報を作成する。例えば、数度毎にレーザ測定を行う。具体的には、−10°、−5°、0°、+5°、+10°でレーザ測定を行う。さらに、測定地点を変えて、それぞれの測定地点でチルト角を変えてレーザ測定を行う。この場合、地図情報記憶部22には、位置と角度とを紐付けて推定用地図情報が保存される。すなわち、推定用地図情報が測定位置タグと角度タグとともに地図情報記憶部22に格納される。自己位置推定部23には、測定位置タグ毎、角度タグ毎に推定用地図情報のファイルが格納されている。測定位置、または角度が異なれば、異なるファイルとして、推定用地図情報を地図情報記憶部22が記憶する。
For example, as shown in FIG. 13, laser measurement is performed by changing the tilt angle of the
そして、地図情報記憶部22から、推定用地図情報のファイルを読み出して、自己位置推定を行う。ロボット1が車両50に進入する際、ジャイロセンサ17からの出力によって、水平面に対するレーザセンサ13、14の角度を求める。そして、自己位置推定部23は、レーザセンサ13、14の測定面の角度に応じた推定用地図情報を選択する。そして、選択された推定用地図情報を用いて自己位置推定を行う。すなわち、自己位置推定部23は、測定面の角度と同じか近い角度タグを有する推定用地図情報を選択する。さらに、自己位置推定部23は、ロボット1の位置と同じか近い測定位置タグを有する推定用地図情報を選択する。このように、自己位置推定部23は、測定した時の、測定地点位置と、測定面角度に応じた最適な推定用地図情報を選択する。こうすることで、自己位置推定の精度を向上することができる。
Then, the estimation map information file is read from the map
さらに、本実施形態では、処理速度の低下を防ぐため、以下の処理を行っている。まず、自己位置推定部23が、地図情報記憶部22の中から、予め読み出す可能性がある推定用地図情報を複数抽出する。具体的には、推定された自己位置に近い推定用地図情報を抽出する。そして、自己位置推定部23は、抽出された複数の推定用地図情報を角度タグ付きでバッファ領域27に移動させる(図14)。図14は、地図情報記憶部22から推定用地図情報M3〜推定用地図情報M7が抽出されて、バッファ領域27に格納される。ジャイロセンサ17が所定の角度になった瞬間に、1つの推定用地図情報を演算領域に移動させる。すなわち、地図情報選択部26がジャイロセンサ17が検出した測定面の角度と一致する角度タグを有する推定用地図情報を選択する。この処理を行うことで、自己位置推定処理の遅延を回避することができる。なお、読み出す可能性に対する判断は、位置タグを用いればよい。すなわち、現在の推定自己位置に最も近い位置タグの推定用地図情報をバッファ領域27に格納すれば良い。
Furthermore, in the present embodiment, the following processing is performed in order to prevent a reduction in processing speed. First, the self-
次に、本実施形態にかかる自己位置推定方法について、図15を用いて説明する。図15は、本実施形態に係る自己位置推定方法を示すフローチャートである。なお、本実施の形態にかかる自己位置推定方法は、基本的なフローは実施の形態1、2と同様であるため、適宜説明を省略する。 Next, the self-position estimation method according to the present embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing the self-position estimation method according to the present embodiment. Note that the self-position estimation method according to the present embodiment has a basic flow similar to that of the first and second embodiments, and thus description thereof will be omitted as appropriate.
実施の形態2と同様に、人がスロープ下付近まで移動させ(ステップS301)、レーザ自己位置推定を行う(ステップS302)。そして、自己位置推定ができたら(ステップS303のYES)、レーザで自己位置推定ながら、スロープ54、車両50の内部を移動する(ステップS304)。ここまでの処理は、実施の形態2で示したステップS201〜ステップS204の処理と同様であるため説明を省略する。
As in the second embodiment, a person moves to near the slope (step S301) and performs laser self-position estimation (step S302). When self-position estimation is completed (YES in step S303), the
そして、ジャイロセンサ17と連動して、動的に地図を切り替える処理を行う(ステップS305)。ステップS305では、ジャイロセンサ17の測定結果に応じて、バッファ領域27の中の推定用地図情報から、最適な角度タグの推定用地図情報が選択される。その後、連結位置に到達しているか判定し(ステップS306)。ステップS306〜ステップS309までの処理は、実施の形態2で示したステップS205〜ステップS208までの処理と同様であるため説明を省略する。そして、実施の形態2と同様に、自己位置に応じて、自己位置推定する推定用地図情報を切り替えたら(ステップS209)、同一位置で、測定角度の違う推定用地図情報をバッファ領域27に展開する。そして、ステップS304に戻り、レーザ自己位置推定しながら、スロープ54、車両50の内部を移動する。
Then, in conjunction with the
次に、図16を用いて、ジャイロセンサの出力と連動して、動的に推定用地図情報を切り替える処理に付いて説明する。図16は、この処理を示すフローチャートである。まず、ジャイロセンサ17から、現在のロボット角度を取得する(ステップS401)。すなわち、ロボット1の本体10の角度を測定する。これにより、レーザセンサ13、14の測定面の角度を求めることができる。ここで、測定面の角度は、水平面を0°とする。そして、バッファ領域27内に、ジャイロセンサ17で取得した角度の推定用地図情報が存在するか否かを判定する(ステップS402)。すなわち、予めバッファ領域27に抽出された複数の推定用地図情報の角度タグを参照して、測定面と一致する角度タグがあるか否かを判定する。
Next, the process of dynamically switching the estimation map information in conjunction with the output of the gyro sensor will be described with reference to FIG. FIG. 16 is a flowchart showing this processing. First, the current robot angle is acquired from the gyro sensor 17 (step S401). That is, the angle of the
一致する角度タグの推定用地図情報が存在する場合(ステップS402のYES)、その角度に紐付いた推定用地図情報を引き出す(ステップS403)。これにより、1つの推定用地図情報が演算領域に移動する。そして、引き出した推定用地図情報とレーザデータで自己位置推定を行う(ステップS404)。すなわち、レーザセンサ13、14で測定した距離画像データと、推定用地図情報のパターンマッチングによって、自己位置を推定する。一方、一致する角度タグの推定用地図情報が存在しない場合は、初期設定されている推定用地図情報で自己位置推定を行う(ステップS405)。このようにすることで、同じ角度のパターンで自己位置推定することができるため、推定精度を向上することができる。
When the map information for estimation of the matching angle tag exists (YES in step S402), the map information for estimation linked to the angle is extracted (step S403). Thereby, one piece of estimation map information moves to the calculation area. Then, self-position estimation is performed using the extracted map information for estimation and laser data (step S404). That is, the self-position is estimated by pattern matching between the distance image data measured by the
本実施の形態では、測定面角度、又は自己位置に応じて最適な推定用地図情報を選択することができる。これにより、自己位置推定の精度を向上することができる。よって、ウェルキャブ車両内を安全かつ迅速に移動することができる。 In the present embodiment, optimal map information for estimation can be selected according to the measurement surface angle or the self-position. Thereby, the accuracy of self-position estimation can be improved. Therefore, it is possible to move safely and quickly in the well cab vehicle.
実施の形態4.
本実施の形態では、推定用地図情報の一部の領域に、障害物の位置を動的に変化できる領域を設けておく。そして、レーザ測定の結果によって、動的領域内の障害物の位置を決定する。例えば、車両50内では、シートの位置や姿勢が変化することがある。このような場合、シートの位置や姿勢が、予め記憶された推定用地図情報の情報と異なってしまう。本実施の形態では、シート等の障害物の位置・姿勢の違いを吸収して、正確に自己位置推定を行う方法を提供する。
Embodiment 4 FIG.
In the present embodiment, an area where the position of the obstacle can be dynamically changed is provided in a partial area of the estimation map information. Then, the position of the obstacle in the dynamic region is determined based on the result of the laser measurement. For example, in the
例えば、図17に示すように、領域R1、R2を障害物の位置が変化する動的領域とする。一方、領域R3,R4を障害物の位置が変化しない静的領域とする。具体的には、パッセンジャーシートの可動範囲を領域R1とし、セカンドシートの可動範囲を領域R2として設定する。これらのシートは、位置、姿勢が変化するため、ロボット1が同じ位置に存在する場合でも、障害物までの距離が変化することがある。領域R3、R4は例えば、車両50のボディの内壁等に相当する。
For example, as shown in FIG. 17, the regions R 1 and R 2 are dynamic regions in which the position of the obstacle changes. On the other hand, the regions R 3 and R 4 are static regions where the position of the obstacle does not change. Specifically, the movable range of the passenger seat and a region R 1, to set the movable range of the second seat as the region R 2. Since the positions and postures of these sheets change, the distance to the obstacle may change even when the
地図情報記憶部22は、領域R1、R2を動的領域とする推定用地図情報を予め記憶している。動的領域では、障害物が存在していないとする。すなわち、領域R1、R2を除いた移動環境に対して障害物が存在する推定用地図情報を作成しておく。そして、レーザセンサ13、14による最初の測定結果に基づいて、領域R1、R2の障害物の位置を測定する。そして、予め記憶している推定用地図情報に対して、領域R1、R2における障害物の距離画像データを合成する。すなわち、地図情報作成部21が距離画像データの一部を切り出して、既に地図情報記憶部22記憶されている推定用地図情報にマージする。これにより、動的領域における障害物の座標が確定した推定用地図情報を作成することができる。
The map
具体的には、図18に示すように、領域R1,R2を障害物が全くない動的領域とする推定用地図情報M8が地図情報記憶部22に記憶されている。そして、自己位置推定部23が1回目のレーザ測定での距離画像データM9を、推定用地図情報M8とマッチングする。これにより、推定用地図情報における自己位置が推定される。そして、推定された自己位置に基づいて、領域R1,R2内の障害物の距離画像データを抽出する。すなわち、距離画像データ中から、領域R1、R2の距離画像データを取り出す。従って、領域R1,R2に配置された障害物の距離に応じた、領域R1,R2の距離画像データが抽出される。そして、領域R1,R2の距離画像データを推定用地図情報M8に合成する。これにより、動的領域における障害物の距離データが確定した推定用地図情報M10が作成される。この後は、推定用地図情報M10を用いて自己位置推定を行う。すなわち、推定用地図情報M8にR1、R2の距離画像データM9がマージされた推定用地図情報M10に基づいて、自己位置が推定される。これにより、可動する障害物がある移動環境においても、自己位置推定の精度を向上することができる。
Specifically, as shown in FIG. 18, estimation map information M 8 to region R 1, R 2 obstacle is no dynamic region is stored in the map
次に、図19を用いて、本実施形態にかかる自己位置推定方法について説明する。図19は、自己位置推定方法を示すフローチャートである。また、図19に示す自己位置推定方法では、実施の形態2で示した自己位置推定方法を利用している。すなわち、自己位置に応じて推定用地図情報を切り替えている。従って、実施の形態1、2で説明した内容については、適宜説明を省略する。具体的には、図19に示すステップS501〜ステップS503が図11のステップS201〜ステップS203に対応する。
Next, the self-position estimation method according to the present embodiment will be described with reference to FIG. FIG. 19 is a flowchart showing a self-position estimation method. Further, in the self-position estimation method shown in FIG. 19, the self-position estimation method shown in the second embodiment is used. That is, the estimation map information is switched according to the self position. Therefore, the description of the contents described in
ここで、ステップS502では、動的領域の障害物を除いた推定用地図情報によって自己位置推定を行う。従って、自己位置推定ができたら(ステップS503のYES)、座席位置の地図を動的に作成する(ステップS504)。すなわち、自己位置推定に用いた距離画像データM9から、領域R1,R2の距離画像データを抽出し、動的領域の障害物を除いた推定用地図情報M8と合成する。これにより、推定用地図情報M10が作成される。推定用地図情報10では、領域R1,R2内の障害物の位置が確定している。 Here, in step S502, self-position estimation is performed using the estimation map information excluding obstacles in the dynamic region. Therefore, if self-position estimation is completed (YES in step S503), a seat position map is dynamically created (step S504). That is, the distance image data of the areas R 1 and R 2 are extracted from the distance image data M 9 used for the self-position estimation and synthesized with the estimation map information M 8 excluding the obstacles in the dynamic area. As a result, the estimation map information M 10 is created. In the estimation map information 10 , the position of the obstacle in the areas R 1 and R 2 is fixed.
そして、レーザセンサ13、14の測定結果によって自己位置を推定しながら、スロープ54上、又は車両50の内部を移動する(ステップS505)。これ以降のステップS506〜ステップS509は、実施の形態2で示したステップS205〜ステップS208と同様であるため説明を省略する。
And it moves on the
本実施の形態ではステップS504でレーザ測定の結果から推定用地図情報を作成している。ここでは、一度のレーザ測定結果から、切り替えに用いられる全ての推定用地図情報を作成しているが、一部の推定用地図情報を作成しても良い。この場合、別のレーザ測定結果から推定用地図情報を作成するようにする。 In this embodiment, map information for estimation is created from the result of laser measurement in step S504. Here, all the estimation map information used for switching is created from a single laser measurement result, but a part of the estimation map information may be created. In this case, the estimation map information is created from another laser measurement result.
次に、動的領域の障害物情報を加えた推定用地図情報の作成について、図20を用いて説明する。図20は、推定用地図情報を作成する方法を示すフローチャートである。先ず、ステップS504の処理となった段階で、予め作成した推定用地図情報とレーザデータのマッチング処理を行う(ステップS601)。すなわち、レーザ測定による距離画像データを、動的領域の障害物を除いた推定用地図情報にマッチングさせる。 Next, creation of estimation map information to which obstacle information of a dynamic area is added will be described with reference to FIG. FIG. 20 is a flowchart illustrating a method of creating estimation map information. First, at the stage of step S504, matching processing between preliminarily created map information for estimation and laser data is performed (step S601). That is, the distance image data obtained by laser measurement is matched with map information for estimation excluding obstacles in the dynamic area.
次に、動的領域内のレーザデータを算出する(ステップS602)。ここでは、例えば、動的領域内における障害物の座標が算出される。そして、動的領域内に障害物のデータが存在するか否かを判定する(ステップS603)。動的領域内に障害物のデータがあり場合(ステップS603のYES)、対象となる障害物のデータをメモリから切り取る(ステップS604)。すなわち、動的領域内の障害物の座標を抽出する。そして、予め作成していた推定用地図情報に、メモリから切り出したデータを上書きする。これにより、推定用地図情報に、動的領域内の障害物の情報が追加される。そして、障害物の情報が追加された推定用地図情報を用いて、図19で示した自己位置推定を行う。一方、動的領域に障害物のデータがない場合(ステップS603のNO)、マージ処理を行わず、次の処理に移行するステップ(S606)。すなわち、ステップS601で推定に用いられた推定用地図情報がそのまま使用される。 Next, laser data in the dynamic region is calculated (step S602). Here, for example, the coordinates of the obstacle in the dynamic region are calculated. Then, it is determined whether obstacle data exists in the dynamic area (step S603). If there is obstacle data in the dynamic area (YES in step S603), the target obstacle data is cut out from the memory (step S604). That is, the coordinates of the obstacle in the dynamic area are extracted. Then, the data extracted from the memory is overwritten on the estimation map information created in advance. Thereby, the information of the obstacle in the dynamic area is added to the estimation map information. Then, the self-position estimation shown in FIG. 19 is performed using the estimation map information to which the obstacle information is added. On the other hand, when there is no obstacle data in the dynamic area (NO in step S603), the merge process is not performed and the process proceeds to the next process (S606). That is, the estimation map information used for estimation in step S601 is used as it is.
このように、障害物の位置・姿勢が動的に変化する領域を動的領域とする。そして、動的領域では障害物のレーザデータを推定用地図情報に合成する。このようにすることで、正確な障害物の情報を有する推定用地図情報を利用することができる。よって、高精度で、自己位置推定することができる。なお、上記の説明では、動的領域をシートの可動範囲としてが、他の障害物の可動範囲を動的領域としてもよい。もちろん、その障害物が動くことができる最大の範囲を動的領域として設定すればよい。 In this way, a region where the position / posture of the obstacle dynamically changes is defined as a dynamic region. In the dynamic area, the laser data of the obstacle is combined with the estimation map information. In this way, it is possible to use the estimation map information having accurate obstacle information. Therefore, self-position estimation can be performed with high accuracy. In the above description, the dynamic region is the movable range of the seat, but the movable range of other obstacles may be the dynamic region. Of course, the maximum range in which the obstacle can move may be set as the dynamic region.
なお、上記の実施の形態1乃至4は、適宜組み合わせて実施してもよく、別々に実施しても良い。例えば、実施の形態1で作成した推定用地図情報を用いて地図情報を作成し、その推定用地図情報を用いて実施の形態2、3、4の自己位置推定方法で自己位置推定する。さらには、実施の形態2、3、及び4のうちの、2つ以上の自己位置推定方法を組み合わせも良く、それぞれ別個に用いてもよい。
Note that
実施形態1乃至4に示された方法によって、自己位置推定精度を向上することができる。例えば、揺れが大きい移動環境や、フロアの凹凸がある移動環境、スロープを上る移動環境等の場合、外乱が生じやすいが、上記の方法によってロバスト性を向上することができる。さらに、移動環境自体に特別な装置やセンサを用いる必要がなくなる。このように、上記の方法は、ウェルキャブ車両内への進入など、外乱の大きい移動環境に対して好適である。さらに3次元を測定するセンサを用いる必要がないため、小型化などを図ることができる。すなわち、2次元の測定面を測定するセンサを用いることでロボット1を小型化、軽量化することができる。さらに、2次元の情報を用いているため、演算時間を短縮することができる。
The self-position estimation accuracy can be improved by the methods shown in the first to fourth embodiments. For example, in the case of a moving environment with large shaking, a moving environment with uneven floors, a moving environment where a slope is climbed, disturbance is likely to occur, but the robustness can be improved by the above method. Further, it is not necessary to use a special device or sensor for the mobile environment itself. As described above, the above method is suitable for a moving environment with a large disturbance such as entering a well cab vehicle. Furthermore, since it is not necessary to use a sensor that measures three dimensions, the size can be reduced. That is, the
1 ロボット
10 本体
11 前輪
12 後輪
13 レーザセンサ
14 レーザセンサ
15 角度変更機構
16 制御部
17 ジャイロセンサ
21 地図情報作成部
22 地図情報記憶部
23 自己位置推定部
24 駆動制御部
25 チルト角制御部
26 地図情報選択部
27 バッファ領域
50 車両
51 床
52 障害物
53 障害物
54 スロープ
55 天井
61 3次元位置測定器
91 合成領域
DESCRIPTION OF
Claims (18)
周囲の障害物までの距離に応じた距離データを測定するセンサ部と、
前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を複数記憶する地図情報記憶部であって、前記移動環境の異なる測定面での推定用地図情報を記憶する地図情報記憶部と、
前記自己位置又は前記センサ部の測定角度に基づいて、前記地図情報記憶部に記憶された複数の推定用地図情報の中から1つの推定用地図情報を選択する地図情報選択部と、
前記地図情報選択部で選択された推定用地図情報と前記センサ部で測定された距離データとに基づいて、自己位置を推定する自己位置推定部と、を備えた自律移動体。 An autonomous mobile that moves within the mobile environment by estimating its own position based on estimation map information in the mobile environment,
A sensor unit that measures distance data according to the distance to surrounding obstacles;
A map information storage unit that stores a plurality of two-dimensional estimation map information according to the arrangement of obstacles in the moving environment, and stores map information for estimation on different measurement surfaces of the moving environment And
A map information selection unit that selects one estimation map information from a plurality of estimation map information stored in the map information storage unit based on the self-position or the measurement angle of the sensor unit;
An autonomous mobile body comprising: a self-position estimating unit that estimates a self-position based on map information for estimation selected by the map information selecting unit and distance data measured by the sensor unit.
前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、
前記角度センサの測定結果に応じて、前記位置情報選択部が前記推定用地図情報を選択する請求項1に記載の自律移動体。 An angle sensor for measuring a measurement angle of the sensor unit;
The map information storage unit stores map information for estimation of measurement surfaces at different angles,
The autonomous mobile body according to claim 1, wherein the position information selection unit selects the estimation map information according to a measurement result of the angle sensor.
周囲の障害物までの距離を測定するセンサ部と、
前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を記憶する地図情報記憶部と、
前記自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、前記推定用地図情報に合成する地図情報作成部と、
前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果と、に基づいて、自己位置を推定する自己位置推定部と、を備える自律移動体。 An autonomous mobile that moves within the mobile environment by estimating its own position based on estimation map information in the mobile environment,
A sensor unit that measures the distance to surrounding obstacles;
A map information storage unit for storing two-dimensional map information for estimation according to the arrangement of obstacles in the moving environment;
A map information creation unit that cuts out distance image data based on the distance measured by the sensor unit during the movement of the autonomous mobile body and synthesizes it with the estimation map information;
An autonomous mobile body comprising: a self-position estimation unit that estimates a self-position based on the estimation map information obtained by combining the distance image data and the measurement result of the sensor unit after the combination.
前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されている請求項7に記載の自律移動体。 The distance image data is cut out corresponding to a partial area of the moving environment,
The autonomous mobile body according to claim 7, wherein the partial area of the moving environment is set based on a movable range of the obstacle.
所定の測定面において、前記移動環境の障害物までの距離を測定するセンサ部と、
前記移動環境における前記センサ部の位置を測定する位置測定部と、
前記センサ部の測定面の角度を変更する角度変更機構と、
異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、前記推定用地図情報を作成する地図情報作成部と、を備える地図情報作成システム。 A map information creation system for creating estimation map information used for self-position estimation in a mobile environment,
A sensor unit for measuring a distance to an obstacle in the moving environment on a predetermined measurement surface;
A position measuring unit for measuring the position of the sensor unit in the moving environment;
An angle changing mechanism for changing the angle of the measurement surface of the sensor unit;
A map information creation system comprising: a map information creation unit that creates the map information for estimation by synthesizing distance image data corresponding to the distance measured by the sensor unit on measurement surfaces at different angles.
周囲の障害物までの距離に応じた距離データを測定するステップと、
前記移動環境内の障害物の配置に応じた2次元の推定用地図情報が異なる測定面毎に記憶された地図情報記憶部から、前記移動体の位置又は姿勢に基づいて、1つの推定用地図情報を選択するステップと、
選択された前記推定用地図情報と、前記距離データと、に基づいて自己位置を推定するステップと、を備える自己位置推定方法。
に基づいて自己位置を推定するステップと、を備える自己位置推定方法。 A self-position estimation method in a moving body that estimates self-position based on map information for estimation in a moving environment,
Measuring distance data according to the distance to surrounding obstacles;
One estimation map based on the position or orientation of the moving object from a map information storage unit storing two-dimensional estimation map information according to the arrangement of obstacles in the moving environment for each different measurement surface Selecting information,
A self-position estimation method comprising: estimating a self-position based on the selected map information for estimation and the distance data.
A self-position estimation method comprising: estimating a self-position based on
前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、
前記測定角度に応じて、前記推定用地図情報を選択する請求項10に記載の自己位置推定方法。 Further comprising measuring a measurement angle of a sensor unit for measuring the distance data;
The map information storage unit stores map information for estimation of measurement surfaces at different angles,
The self-position estimation method according to claim 10, wherein the estimation map information is selected according to the measurement angle.
周囲の障害物までの距離を測定するステップと、
前記自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、推定用地図情報に合成するステップと、
前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果とに基づいて、自己位置を推定するステップと、を備える自己位置推定方法。 A self-position estimation method in a moving body that estimates self-position based on map information for estimation in a moving environment,
Measuring the distance to surrounding obstacles;
Cutting out the distance image data based on the distance measured by the sensor unit during the movement of the autonomous mobile body and combining it with the estimation map information;
A self-position estimation method comprising: estimating the self-position based on the map information for estimation combined with the distance image data and the measurement result of the sensor unit after combining.
前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されている請求項16に記載の自己位置推定方法。 The distance image data is cut out corresponding to a partial area of the moving environment,
The self-position estimation method according to claim 16, wherein the partial area of the moving environment is set based on a movable range of the obstacle.
所定の測定面において、前記移動環境の障害物までの距離を測定するステップと、
前記移動環境における前記センサ部の位置を測定するステップと、
前記センサ部の測定面の角度を変更するステップと、
異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、推定用地図情報を作成するステップと、を備える地図情報作成方法。 A map information creation method for creating map information for estimation used for self-location estimation in a mobile environment,
Measuring a distance to an obstacle in the moving environment on a predetermined measurement surface;
Measuring the position of the sensor unit in the mobile environment;
Changing the angle of the measurement surface of the sensor unit;
A map information creating method comprising: synthesizing distance image data corresponding to the distance measured by the sensor unit on measurement surfaces of different angles to create map information for estimation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010074905A JP2011209845A (en) | 2010-03-29 | 2010-03-29 | Autonomous mobile body, self-position estimation method and map information creation system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010074905A JP2011209845A (en) | 2010-03-29 | 2010-03-29 | Autonomous mobile body, self-position estimation method and map information creation system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011209845A true JP2011209845A (en) | 2011-10-20 |
Family
ID=44940865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010074905A Pending JP2011209845A (en) | 2010-03-29 | 2010-03-29 | Autonomous mobile body, self-position estimation method and map information creation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011209845A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013076829A1 (en) * | 2011-11-22 | 2013-05-30 | 株式会社日立製作所 | Autonomous mobile system |
CN103674015A (en) * | 2013-12-13 | 2014-03-26 | 国家电网公司 | Trackless positioning navigation method and device |
CN104777835A (en) * | 2015-03-11 | 2015-07-15 | 武汉汉迪机器人科技有限公司 | Omni-directional automatic forklift and 3D stereoscopic vision navigating and positioning method |
JP2016109650A (en) * | 2014-12-10 | 2016-06-20 | 株式会社デンソー | Position estimation system, position estimation method, and position estimation program |
CN107922119A (en) * | 2015-11-25 | 2018-04-17 | 株式会社日立制作所 | Shelf configuration system, transfer robot and shelf collocation method |
CN108008409A (en) * | 2017-11-28 | 2018-05-08 | 深圳市杉川机器人有限公司 | Region contour method for drafting and device |
CN109602341A (en) * | 2019-01-23 | 2019-04-12 | 珠海市微半导体有限公司 | A kind of clean robot based on virtual boundary falls control method and chip |
CN109975819A (en) * | 2017-12-28 | 2019-07-05 | 沈阳新松机器人自动化股份有限公司 | A kind of optimization method of cost laser measurement data |
JP2019159520A (en) * | 2018-03-09 | 2019-09-19 | カシオ計算機株式会社 | Autonomous mobile device, autonomous mobile method and program |
JP2019185213A (en) * | 2018-04-04 | 2019-10-24 | 国立大学法人九州工業大学 | Autonomous movement robot and control method thereof |
CN112578789A (en) * | 2019-09-30 | 2021-03-30 | 日本电产株式会社 | Moving body |
JP2022140794A (en) * | 2018-03-09 | 2022-09-27 | カシオ計算機株式会社 | Autonomous mobile device, autonomous mobile method and program |
WO2023176328A1 (en) * | 2022-03-16 | 2023-09-21 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
-
2010
- 2010-03-29 JP JP2010074905A patent/JP2011209845A/en active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013076829A1 (en) * | 2011-11-22 | 2015-04-27 | 株式会社日立製作所 | Autonomous mobile system |
US9062980B2 (en) | 2011-11-22 | 2015-06-23 | Hitachi, Ltd. | Autonomous mobile system |
WO2013076829A1 (en) * | 2011-11-22 | 2013-05-30 | 株式会社日立製作所 | Autonomous mobile system |
CN103674015A (en) * | 2013-12-13 | 2014-03-26 | 国家电网公司 | Trackless positioning navigation method and device |
JP2016109650A (en) * | 2014-12-10 | 2016-06-20 | 株式会社デンソー | Position estimation system, position estimation method, and position estimation program |
CN104777835A (en) * | 2015-03-11 | 2015-07-15 | 武汉汉迪机器人科技有限公司 | Omni-directional automatic forklift and 3D stereoscopic vision navigating and positioning method |
CN107922119A (en) * | 2015-11-25 | 2018-04-17 | 株式会社日立制作所 | Shelf configuration system, transfer robot and shelf collocation method |
CN107922119B (en) * | 2015-11-25 | 2020-05-29 | 株式会社日立制作所 | Shelf arrangement system, transfer robot, and shelf arrangement method |
CN108008409A (en) * | 2017-11-28 | 2018-05-08 | 深圳市杉川机器人有限公司 | Region contour method for drafting and device |
WO2019104866A1 (en) * | 2017-11-28 | 2019-06-06 | 深圳市杉川机器人有限公司 | Method and device for drawing region outline and computer readable storage medium |
CN108008409B (en) * | 2017-11-28 | 2019-12-10 | 深圳市杉川机器人有限公司 | Region contour drawing method and device |
US11275178B2 (en) | 2017-11-28 | 2022-03-15 | Shenzhen 3Irobotix Co., Ltd. | Method and device for drawing region outline and computer readable storage medium |
CN109975819A (en) * | 2017-12-28 | 2019-07-05 | 沈阳新松机器人自动化股份有限公司 | A kind of optimization method of cost laser measurement data |
JP7306546B2 (en) | 2018-03-09 | 2023-07-11 | カシオ計算機株式会社 | AUTONOMOUS MOBILE DEVICE, AUTONOMOUS MOVEMENT METHOD AND PROGRAM |
JP2019159520A (en) * | 2018-03-09 | 2019-09-19 | カシオ計算機株式会社 | Autonomous mobile device, autonomous mobile method and program |
JP7127303B2 (en) | 2018-03-09 | 2022-08-30 | カシオ計算機株式会社 | AUTONOMOUS MOBILE DEVICE, AUTONOMOUS MOVEMENT METHOD AND PROGRAM |
US11662738B2 (en) | 2018-03-09 | 2023-05-30 | Casio Computer Co., Ltd. | Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map |
JP2022140794A (en) * | 2018-03-09 | 2022-09-27 | カシオ計算機株式会社 | Autonomous mobile device, autonomous mobile method and program |
JP2019185213A (en) * | 2018-04-04 | 2019-10-24 | 国立大学法人九州工業大学 | Autonomous movement robot and control method thereof |
JP7112066B2 (en) | 2018-04-04 | 2022-08-03 | 国立大学法人九州工業大学 | Autonomous mobile robot and its control method |
CN109602341B (en) * | 2019-01-23 | 2020-09-15 | 珠海市一微半导体有限公司 | Cleaning robot falling control method and chip based on virtual boundary |
CN109602341A (en) * | 2019-01-23 | 2019-04-12 | 珠海市微半导体有限公司 | A kind of clean robot based on virtual boundary falls control method and chip |
CN112578789A (en) * | 2019-09-30 | 2021-03-30 | 日本电产株式会社 | Moving body |
WO2023176328A1 (en) * | 2022-03-16 | 2023-09-21 | ソニーグループ株式会社 | Information processing device, information processing method, and information processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011209845A (en) | Autonomous mobile body, self-position estimation method and map information creation system | |
AU2022203742B2 (en) | An Automatic Location Placement System | |
US11531342B2 (en) | Automatic location placement system | |
JP4788722B2 (en) | Autonomous mobile robot, self-position estimation method, environmental map generation method, environmental map generation device, and environmental map data structure | |
JP5510081B2 (en) | Obstacle avoidance support device, obstacle avoidance support method, and moving object | |
JP5278283B2 (en) | Autonomous mobile device and control method thereof | |
JP6711138B2 (en) | Self-position estimating device and self-position estimating method | |
WO2011074165A1 (en) | Autonomous mobile device | |
JP5310285B2 (en) | Self-position estimation apparatus and self-position estimation method | |
JP6867120B2 (en) | Cartography method and cartography device | |
US11853064B2 (en) | Automatic location placement system | |
JP2009031884A (en) | Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body | |
JP6828579B2 (en) | Environmental maintenance robot and its control program | |
JP2008139035A (en) | 3-d environment measurement device and mobile robot provided with the same | |
JP6074205B2 (en) | Autonomous mobile | |
JP2018206004A (en) | Cruise control device of autonomous traveling carriage, and autonomous travelling carriage | |
JP2009223757A (en) | Autonomous mobile body, control system, and self-position estimation method | |
JP2009050936A (en) | Interference determination device and leg wheel type robot | |
JP2009174898A (en) | Moving body and environmental information generation method | |
JP2007190654A (en) | Leg-wheel robot | |
JP2008260117A (en) | Leg-wheel type robot and leg-wheel device | |
JP6863049B2 (en) | Autonomous mobile robot | |
WO2023007562A1 (en) | Control device | |
KR20140116623A (en) | Method and robot for drawing a map based on location anticipation | |
WO2024034025A1 (en) | Autonomous movement control device, autonomous movement system, autonomous movement method, and program |