[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011209845A - Autonomous mobile body, self-position estimation method and map information creation system - Google Patents

Autonomous mobile body, self-position estimation method and map information creation system Download PDF

Info

Publication number
JP2011209845A
JP2011209845A JP2010074905A JP2010074905A JP2011209845A JP 2011209845 A JP2011209845 A JP 2011209845A JP 2010074905 A JP2010074905 A JP 2010074905A JP 2010074905 A JP2010074905 A JP 2010074905A JP 2011209845 A JP2011209845 A JP 2011209845A
Authority
JP
Japan
Prior art keywords
map information
estimation
self
distance
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010074905A
Other languages
Japanese (ja)
Inventor
Yusuke Kida
祐介 木田
Kazuhiro Shintani
和宏 新谷
Hideki Nomura
秀樹 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Toyota Motor Corp
Priority to JP2010074905A priority Critical patent/JP2011209845A/en
Publication of JP2011209845A publication Critical patent/JP2011209845A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Navigation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an autonomous mobile body, a self-position estimation method, a map information creation system and a map information creation method, allowing improvement of accuracy of self-position estimation.SOLUTION: The autonomous mobile body includes: a laser sensor measuring distance data corresponding to a distance to a peripheral obstacle; a map information storage part 22 storing a plurality of pieces of two-dimensional estimating map information in different measurement faces of movement environment; a map information selection part 26 selecting one piece of the estimating map information from the plurality of pieces of the estimating map information stored in the map information storage part 22 based on a measurement angle of the laser sensor or a self-position; and a self-position estimation part 23 estimating the self-position based on the estimating map information selected in the map information selection part 26 and the distance data measured by the laser sensor.

Description

本発明は、自律移動体、自己位置推定方法、地図情報作成システム、及び地図情報作成方法に関する。   The present invention relates to an autonomous mobile body, a self-position estimation method, a map information creation system, and a map information creation method.

近年、建物内部や屋外の限定された領域内を、周囲の環境に基づいて自律的に移動可能な自律移動型ロボットなどの移動体が開発されつつある。このような移動体は、予め記憶された移動する領域に関する移動マップ上において、現在の自己の位置から特定の目標地点までの移動経路を作成することで自律移動を可能とするため、通常、移動する領域内における自己位置を認識する機能を備えている。このような自律移動体を制御するための自己位置推定方法が特許文献1に開示されている。   In recent years, mobile bodies such as autonomous mobile robots that can move autonomously within a limited area inside a building or outdoors based on the surrounding environment are being developed. Since such a moving body enables autonomous movement by creating a movement route from the current position to a specific target point on a movement map relating to a moving area stored in advance, it normally moves. It has a function of recognizing its own position in the area to be operated. A self-position estimation method for controlling such an autonomous mobile body is disclosed in Patent Document 1.

特開2009−176031号公報JP 2009-176031 A

ところで、ウェルキャブ車両(車椅子で搭乗可能な自動車)では、利用者が車椅子に乗ったまま、自動車内に乗り込む。このとき、従来の車椅子では、補助者がウインチを操作したり、車椅子が車両から落ちたりしないように補助する必要がある。さらに、搭乗まで時間がかかってしまう。よって、車椅子ユーザや補助者にとって大きな負担となっている。   By the way, in a well cab vehicle (a vehicle that can be boarded by a wheelchair), the user gets into the vehicle while riding in the wheelchair. At this time, in the conventional wheelchair, it is necessary to assist the assistant so that the winch does not operate the winch or the wheelchair falls from the vehicle. In addition, it takes time to board. Therefore, it becomes a big burden for a wheelchair user and an assistant.

そこで、本件出願人は、自律移動体を車椅子として利用して、ウェルキャブ車両に全自動で搭乗可能な機能を開発している。ウェルキャブ車両内では、シートなどの障害物が配置されている。このため、移動環境が複雑になり、自己位置推定による自律移動が困難である。しかしながら、特許文献1に記載の自己位置推定方法では、環境内に赤外線照射部を設ける必要が生じてしまう。実用上、ウェルキャブ車両内に赤外線照射部を設けることは困難である。従って、自己位置推定が正確に行うことが困難であるという問題点が生じてしまう。   Therefore, the present applicant has developed a function capable of fully automatically boarding a well cab vehicle using an autonomous mobile body as a wheelchair. Obstacles such as seats are arranged in the well cab vehicle. For this reason, the moving environment becomes complicated, and autonomous movement based on self-position estimation is difficult. However, in the self-position estimation method described in Patent Document 1, it is necessary to provide an infrared irradiation unit in the environment. In practice, it is difficult to provide an infrared irradiation unit in a well cab vehicle. Therefore, there arises a problem that it is difficult to accurately perform self-position estimation.

本発明は、上記の問題点に鑑みてなされたものであり、自己位置推定の精度を向上することができる自律移動体、自己位置推定方法、地図情報作成システム、及び地図情報作成方法を提供することを目的とする。   The present invention has been made in view of the above problems, and provides an autonomous mobile body, a self-position estimation method, a map information creation system, and a map information creation method that can improve the accuracy of self-position estimation. For the purpose.

本発明の第1の態様にかかる自律移動体は、移動環境内の推定用地図情報に基づいて自己位置を推定して、前記移動環境内を移動する自律移動体であって、周囲の障害物までの距離に応じた距離データを測定するセンサ部と、前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を複数記憶する地図情報記憶部であって、前記移動環境の異なる測定面での推定用地図情報を記憶する地図情報記憶部と、前記自己位置又は前記センサ部の測定角度に基づいて、前記地図情報記憶部に記憶された複数の推定用地図情報の中から1つの推定用地図情報を選択する地図情報選択部と、前記地図情報選択部で選択された推定用地図情報と前記センサ部で測定された距離データとに基づいて、自己位置を推定する自己位置推定部と、を備えたものである。この構成によれば、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。   The autonomous mobile body according to the first aspect of the present invention is an autonomous mobile body that moves within the mobile environment by estimating its own position based on estimation map information in the mobile environment, and surrounding obstacles A map information storage unit for storing a plurality of two-dimensional estimation map information according to the arrangement of obstacles in the moving environment, and a sensor unit for measuring distance data according to the distance to Based on a map information storage unit that stores map information for estimation on different measurement planes, and a plurality of map information for estimation stored in the map information storage unit based on the self-position or the measurement angle of the sensor unit A self-position that estimates a self-position based on a map information selection section that selects one map information for estimation, map information for estimation selected by the map information selection section, and distance data measured by the sensor section And an estimation unit It is. According to this configuration, since the appropriate map information for estimation can be selected, the accuracy of self-position estimation can be improved.

本発明の第2の態様にかかる自律移動体は、上記の自律移動体であって、前記センサ部の測定角度を測定する角度センサをさらに備え、前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、前記角度センサの測定結果に応じて、前記位置情報選択部が前記推定用地図情報を選択するものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。   An autonomous mobile body according to a second aspect of the present invention is the above-described autonomous mobile body, further comprising an angle sensor for measuring a measurement angle of the sensor unit, wherein the map information storage unit has a measurement surface with a different angle. The map information for estimation is stored, and the position information selection unit selects the map information for estimation according to the measurement result of the angle sensor. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.

本発明の第3の態様にかかる自律移動体は、上記の自律移動体であって、前記自己位置推定部で推定された自己位置が所定の位置を越えたら、前記地図情報選択部が選択する推定用地図情報を切り替えるものである。これにより、適切なタイミングで推定用地図情報を切り替えることができるため、自己位置推定の精度を向上することができる。   The autonomous mobile body according to the third aspect of the present invention is the autonomous mobile body described above, and the map information selection section selects when the self-position estimated by the self-position estimation section exceeds a predetermined position. The map information for estimation is switched. Thereby, since the map information for estimation can be switched at an appropriate timing, the accuracy of self-position estimation can be improved.

本発明の第4の態様にかかる自律移動体は、上記の自律移動体であって、前記移動環境内の障害物の位置に応じて、前記推定用地図情報を切り替える位置が予め設定されているものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。   An autonomous mobile body according to a fourth aspect of the present invention is the above-described autonomous mobile body, and a position for switching the estimation map information is preset according to the position of an obstacle in the mobile environment. Is. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.

本発明の第5の態様にかかる自律移動体は、上記の自律移動体であって、前記推定用地図情報を切り替える時に、前記自律移動体の移動が停止することを特徴とするものである。これにより、推定用地図情報を切り替えるタイミングにおいても、自己位置推定の精度を向上することができる。   An autonomous mobile body according to a fifth aspect of the present invention is the above-described autonomous mobile body, wherein the movement of the autonomous mobile body stops when the map information for estimation is switched. Thereby, the precision of self-position estimation can be improved also in the timing which switches the map information for estimation.

本発明の第6の態様にかかる自律移動体は、上記の自律移動体であって、前記距離データに応じた距離画像データと、前記推定用地図情報とをパターンマッチングして、自己位置を推定するものである。これにより、自己位置を正確に推定することができる。   An autonomous mobile body according to a sixth aspect of the present invention is the above autonomous mobile body, and estimates the self-position by pattern matching the distance image data corresponding to the distance data and the map information for estimation. To do. Thereby, a self-position can be estimated correctly.

本発明の第7の態様にかかる自律移動体は、移動環境内の推定用地図情報に基づいて自己位置を推定して、前記移動環境内を移動する自律移動体であって、周囲の障害物までの距離を測定するセンサ部と、前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を記憶する地図情報記憶部と、前自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、前記推定用地図情報に合成する地図情報作成部と、前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果と、に基づいて、自己位置を推定する自己位置推定部と、を備えるものである。これにより、適切な推定用地図情報を用いることができるため、自己位置推定の精度を向上することができる。   An autonomous moving body according to a seventh aspect of the present invention is an autonomous moving body that moves within the moving environment by estimating its own position based on map information for estimation in the moving environment, and surrounding obstacles A sensor unit for measuring the distance to the map, a map information storage unit for storing two-dimensional estimation map information according to the arrangement of obstacles in the moving environment, and the sensor unit during movement of the previous autonomous mobile body A map information creation unit that cuts out the distance image data based on the measured distance and combines it with the estimation map information, the estimation map information combined with the distance image data, and the sensor unit after the combination A self-position estimating unit that estimates the self-position based on the measurement result. Thereby, since the suitable map information for estimation can be used, the precision of self-position estimation can be improved.

本発明の第8の態様にかかる自律移動体は、上記の自律移動体であって、前記移動環境の一部の領域に対応して、前記距離画像データが切り出され、前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されているものである。これにより、適切に合成することができるため、自己位置推定の精度を向上することができる。   An autonomous mobile body according to an eighth aspect of the present invention is the above-described autonomous mobile body, wherein the distance image data is cut out corresponding to a partial region of the mobile environment, and the one of the mobile environments is selected. The area of the part is set based on the movable range of the obstacle. Thereby, since it can synthesize | combine appropriately, the precision of self-position estimation can be improved.

本発明の第9の態様にかかる地図情報作成システムは、移動環境内の自己位置推定に用いられる推定用地図情報を作成する地図情報作成システムであって、所定の測定面において、前記移動環境の障害物までの距離を測定するセンサ部と、前記移動環境における前記センサ部の位置を測定する位置測定部と、前記センサ部の測定面の角度を変更する角度変更機構と、異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、前記推定用地図情報を作成する地図情報作成部と、を備えるものである。これにより、自己位置推定に好適な推定用地図情報を作成することができるため、自己位置推定の精度を向上することができる。   A map information creation system according to a ninth aspect of the present invention is a map information creation system for creating map information for estimation used for self-position estimation in a mobile environment, wherein the mobile environment is A sensor unit that measures the distance to an obstacle, a position measurement unit that measures the position of the sensor unit in the moving environment, an angle change mechanism that changes the angle of the measurement surface of the sensor unit, and a measurement surface with a different angle And a map information creating unit that creates the map information for estimation by synthesizing distance image data corresponding to the distance measured by the sensor unit. Thereby, since the estimation map information suitable for self-position estimation can be created, the accuracy of self-position estimation can be improved.

本発明の第10の態様にかかる自己位置推定方法は、移動環境内の推定用地図情報に基づいて自己位置を推定する移動体における自己位置推定方法であって、周囲の障害物までの距離に応じた距離データを測定するステップと、前記移動環境内の障害物の配置に応じた2次元の推定用地図情報が異なる測定面毎に記憶された地図情報記憶部から、前記移動体の位置又は姿勢に基づいて、1つの推定用地図情報を選択するステップと、選択された前記推定用地図情報と、前記距離データと、に基づいて自己位置を推定するステップと、を備えるものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。   A self-position estimation method according to a tenth aspect of the present invention is a self-position estimation method in a moving body that estimates a self-position based on map information for estimation in a moving environment, and is based on the distance to surrounding obstacles. A step of measuring the corresponding distance data, and a map information storage unit in which two-dimensional estimation map information corresponding to the arrangement of the obstacle in the moving environment is stored for each different measurement surface, The method includes a step of selecting one piece of estimation map information based on a posture, and a step of estimating a self-position based on the selected piece of estimation map information and the distance data. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.

本発明の第11の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記距離データを測定するセンサ部の測定角度を測定するステップをさらに備え、前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、前記測定角度に応じて、前記推定用地図情報を選択するものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。   A self-position estimation method according to an eleventh aspect of the present invention is the self-position estimation method described above, further comprising a step of measuring a measurement angle of a sensor unit that measures the distance data, wherein the map information storage unit is The map information for estimation of the measurement surface of a different angle is stored, and the map information for estimation is selected according to the measurement angle. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.

本発明の第12の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、推定された前記自己位置が、所定の位置を越えたら、別の推定用地図情報に切り替えるものである。これにより、適切な推定用地図情報を選択することができるため、自己位置推定の精度を向上することができる。   A self-position estimation method according to a twelfth aspect of the present invention is the self-position estimation method described above, and switches to another estimation map information when the estimated self-position exceeds a predetermined position. is there. Thereby, since the suitable map information for estimation can be selected, the accuracy of self-position estimation can be improved.

本発明の第13の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、 前記移動環境内の障害物の位置に応じて、前記推定用地図情報を切り替える位置が予め設定されているものである。これにより、適切なタイミングで推定用地図情報を切り替えることができるため、自己位置推定の精度を向上することができる。   A self-position estimation method according to a thirteenth aspect of the present invention is the self-position estimation method described above, wherein a position for switching the estimation map information is preset according to the position of an obstacle in the moving environment. It is what. Thereby, since the map information for estimation can be switched at an appropriate timing, the accuracy of self-position estimation can be improved.

本発明の第14の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記推定用地図情報を切り替える時に、前記自律移動体の移動が停止することを特徴とするものである。これにより、推定用地図情報を切り替えるタイミングにおいても、自己位置推定の精度を向上することができる。   A self-position estimation method according to a fourteenth aspect of the present invention is the self-position estimation method described above, wherein the autonomous mobile body stops moving when the estimation map information is switched. is there. Thereby, the precision of self-position estimation can be improved also in the timing which switches the map information for estimation.

本発明の第15の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記距離データに応じた距離画像データと、前記推定用地図情報とをパターンマッチングして、自己位置を推定するものである。これにより、自己位置推定の精度を向上することができる。   A self-position estimation method according to a fifteenth aspect of the present invention is the self-position estimation method described above, wherein the distance image data corresponding to the distance data and the estimation map information are subjected to pattern matching, and the self-position is estimated. Is estimated. Thereby, the accuracy of self-position estimation can be improved.

本発明の第16の態様にかかる自己位置推定方法は、移動環境内の推定用地図情報に基づいて自己位置を推定する移動体における自己位置推定方法であって、周囲の障害物までの距離を測定するステップと、前記自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、推定用地図情報に合成するステップと、前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果とに基づいて、自己位置を推定するステップと、を備えるものである。これにより、適切な推定用地図情報を用いることができるため、自己位置推定の精度を向上することができる。   A self-position estimation method according to a sixteenth aspect of the present invention is a self-position estimation method in a mobile body that estimates a self-position based on map information for estimation in a moving environment, and calculates a distance to surrounding obstacles. A step of measuring, a step of cutting out distance image data based on a distance measured by the sensor unit during the movement of the autonomous mobile body, and combining it with map information for estimation, and the estimation in which the distance image data is combined And a step of estimating a self-position based on the map information and the measurement result of the sensor unit after combining. Thereby, since the suitable map information for estimation can be used, the precision of self-position estimation can be improved.

本発明の第17の態様にかかる自己位置推定方法は、上記の自己位置推定方法であって、前記移動環境の一部の領域に対応して、前記距離画像データが切り出され、前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されているものである。これにより、適切に合成することができるため、自己位置推定の精度を向上することができる。   A self-position estimation method according to a seventeenth aspect of the present invention is the self-position estimation method described above, wherein the distance image data is cut out corresponding to a partial area of the movement environment, and The partial area is set based on a movable range of the obstacle. Thereby, since it can synthesize | combine appropriately, the precision of self-position estimation can be improved.

本発明の第18の態様にかかる地図情報作成方法は、移動環境内の自己位置推定に用いられる推定用地図情報を作成する地図情報作成方法であって、所定の測定面において、前記移動環境の障害物までの距離を測定するステップと、前記移動環境における前記センサ部の位置を測定するステップと、前記センサ部の測定面の角度を変更するステップと、異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、推定用地図情報を作成するステップと、を備えるものである。これにより、自己位置推定に好適な推定用地図情報を作成することができるため、自己位置推定の精度を向上することができる。   A map information creation method according to an eighteenth aspect of the present invention is a map information creation method for creating map information for estimation used for self-position estimation in a mobile environment, wherein the mobile environment The step of measuring the distance to the obstacle, the step of measuring the position of the sensor unit in the moving environment, the step of changing the angle of the measurement surface of the sensor unit, and the sensor unit on different measurement surfaces Synthesizing distance image data corresponding to the measured distance to create estimation map information. Thereby, since the estimation map information suitable for self-position estimation can be created, the accuracy of self-position estimation can be improved.

本発明によれば、自己位置推定の精度を向上することができる自律移動体、自己位置推定方法、地図情報作成システム、及び地図情報作成方法を提供することを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, it can provide providing the autonomous mobile body which can improve the precision of self-position estimation, the self-position estimation method, the map information creation system, and the map information creation method.

本発明にかかるロボットの全体構成を模式的に示す図である。It is a figure which shows typically the whole structure of the robot concerning this invention. 本発明にかかるロボットが車両に進入する様子を示す上面図である。It is a top view which shows a mode that the robot concerning this invention approachs a vehicle. 本発明にかかるロボットが車両に進入する様子を示す側面図である。It is a side view which shows a mode that the robot concerning this invention approachs a vehicle. 本発明にかかるロボットの自己位置推定に用いられる推定用地図情報を示す図である。It is a figure which shows the map information for estimation used for the self-position estimation of the robot concerning this invention. 本発明にかかる移動体の制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part of the moving body concerning this invention. 実施の形態1にかかる地図情報作成システムを示す図である。It is a figure which shows the map information creation system concerning Embodiment 1. FIG. 実施の形態1にかかる地図情報作成システムによって作成された推定用地図情報を模式的に示す図である。It is a figure which shows typically the map information for estimation produced by the map information production system concerning Embodiment 1. FIG. 実施の形態1にかかる地図情報作成方法を示すフローチャートである。3 is a flowchart illustrating a map information creation method according to the first exemplary embodiment. 車両を移動するロボットによる自己位置推定を説明する図である。It is a figure explaining the self-position estimation by the robot which moves a vehicle. 実施の形態2にかかるロボットにおける推定用地図情報の切り替えを説明する図である。It is a figure explaining switching of the map information for estimation in the robot concerning Embodiment 2. FIG. 実施の形態2にかかる自己位置推定方法を示すフローチャートである。6 is a flowchart illustrating a self-position estimation method according to a second exemplary embodiment. 車両を移動するロボットによる自己位置推定を説明する図である。It is a figure explaining the self-position estimation by the robot which moves a vehicle. 実施の形態3にかかるロボットが、推定用地図情報を取得している様子を示す図である。It is a figure which shows a mode that the robot concerning Embodiment 3 is acquiring the map information for estimation. 実施の形態3にかかるロボットが、推定用地図情報を読み出す様子を説明する図である。It is a figure explaining a mode that the robot concerning Embodiment 3 reads map information for presumption. 実施の形態3にかかる自己位置推定方法を示すフローチャートである。10 is a flowchart illustrating a self-position estimation method according to a third embodiment. 実施の形態3にかかる自己位置推定方法において、推定用地図情報を切り替えるフローを示すフローチャートである。10 is a flowchart showing a flow of switching estimation map information in the self-position estimation method according to the third exemplary embodiment. 実施の形態4にかかるロボットの自己位置推定に用いられる推定用地図情報を示す図である。It is a figure which shows the map information for estimation used for the self-position estimation of the robot concerning Embodiment 4. 実施の形態4にかかるロボットの自己位置推定で作成された推定用地図情報を示す図である。It is a figure which shows the map information for estimation produced by the self-position estimation of the robot concerning Embodiment 4. 実施の形態4にかかる自己位置推定方法を示すフローチャートである。10 is a flowchart illustrating a self-position estimation method according to a fourth embodiment. 実施の形態4にかかる自己位置推定方法において、地図情報を作成するフローを示すフローチャートである。14 is a flowchart illustrating a flow of creating map information in the self-position estimation method according to the fourth exemplary embodiment.

以下、本発明に係る移動体の実施形態を、図面に基づいて詳細に説明する。但し、本発明が以下の実施形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。   Hereinafter, embodiments of a moving body according to the present invention will be described in detail with reference to the drawings. However, the present invention is not limited to the following embodiments. In addition, for clarity of explanation, the following description and drawings are simplified as appropriate.

まず、本発明に係る移動体の一例であるロボットの構成について、図1を用いて説明する。図1はロボット1の構成を模式的に示す側面図である。本実施の形態では、ロボット1が、移動環境内を自己位置推定しながら、自律移動する自律移動体として説明する。ここでは、ロボット1が ウェルキャブ車両内を移動するものとして説明する。もちろん、移動環境は、ウェルキャブ車両に限られるものではない。     First, a configuration of a robot which is an example of a moving body according to the present invention will be described with reference to FIG. FIG. 1 is a side view schematically showing the configuration of the robot 1. In the present embodiment, the robot 1 will be described as an autonomous mobile body that autonomously moves while estimating its own position in the moving environment. Here, description will be made assuming that the robot 1 moves in the well cab vehicle. Of course, the moving environment is not limited to the well cab vehicle.

ロボット1は、本体10と、前輪11と、後輪12と、レーザセンサ13と、レーザセンサ14と、角度変更機構15と、制御部16と、ジャイロセンサ17とを備えている。前輪11と、後輪12は、本体10に対して回転可能に取り付けられている。また、前輪11と後輪12は、例えば、モータによって回転する。例えば、前輪11と後輪12を前方の回転することで前進し、後方に回転することで後退する。さらに、前輪11が左右両側に設けられている場合、左右の回転数を変えることで、左右に旋回する。なお、車輪の数は特に限定されるものではなく、2輪、3輪、4輪、あるいはそれ以上の数の車輪を有していても良い。   The robot 1 includes a main body 10, a front wheel 11, a rear wheel 12, a laser sensor 13, a laser sensor 14, an angle changing mechanism 15, a control unit 16, and a gyro sensor 17. The front wheel 11 and the rear wheel 12 are rotatably attached to the main body 10. The front wheel 11 and the rear wheel 12 are rotated by, for example, a motor. For example, the front wheel 11 and the rear wheel 12 move forward by rotating forward and move backward by rotating backward. Further, when the front wheels 11 are provided on both the left and right sides, the left and right are turned by changing the left and right rotational speeds. The number of wheels is not particularly limited, and may have two, three, four, or more wheels.

レーザセンサ13、14は、所定の測定面において、周囲の障害物までの距離に応じた距離データを測定する。レーザセンサ13、14は、例えば、レーザレンジファインダであり、ロボット1とともに移動する。レーザセンサ13は、水平面において、一定の角度毎にレーザ光を出射する。そして、そのレーザ光が反射して戻るまでの時間に応じて、障害物までの距離を検出する。また、障害物までの距離とは、障害物の外形までの距離である。レーザ光は、例えば、全方位に対して1度毎に出射されている。よって、ある測定面において、全方位で障害物までの距離が測定される。それぞれの方位における距離が集合することで距離データが構成される。レーザセンサ13、14からの出力は、制御部16に入力される。   The laser sensors 13 and 14 measure distance data according to the distance to surrounding obstacles on a predetermined measurement surface. The laser sensors 13 and 14 are, for example, laser range finders and move together with the robot 1. The laser sensor 13 emits laser light at a certain angle on a horizontal plane. Then, the distance to the obstacle is detected according to the time until the laser beam is reflected and returned. The distance to the obstacle is the distance to the outer shape of the obstacle. For example, the laser beam is emitted every 1 degree with respect to all directions. Therefore, the distance to the obstacle is measured in all directions on a certain measurement surface. Distance data is constructed by collecting the distances in the respective directions. Outputs from the laser sensors 13 and 14 are input to the control unit 16.

そして、周囲の障害物までの距離に応じて距離画像データが取得される。尚、距離画像データとは、移動環境に存在する障害物までの距離値を各画素の画素値として有する2次元データである。この距離画像データと推定用地図情報を用いて、自己位置を推定する。また、ここでの障害物とは、ロボット1が衝突するおそれのあるものや、移動の妨げとなるものであり、壁などを含む。   And distance image data is acquired according to the distance to the surrounding obstacle. The distance image data is two-dimensional data having a distance value to an obstacle existing in the moving environment as a pixel value of each pixel. The self-position is estimated using the distance image data and the estimation map information. In addition, the obstacles here are those that may cause the robot 1 to collide or are obstructed to move, and include walls and the like.

レーザセンサ13はロボット1の前方に、レーザセンサ14はロボット1の後方に取り付けられている。レーザセンサ13は前方180度を、レーザセンサ14は後方180度を測定する。これにより、ロボット1の周りの全方位に対して距離情報を取得することができる。もちろん、レーザセンサ13、14の測定可能範囲は180°に限られるものではない。さらに、レーザセンサ13、14によるレーザ測定を行うことで、2次元の推定用地図情報を作成することができる。以下、レーザセンサ13、14による測定データをレーザデータと称することもある。   The laser sensor 13 is attached to the front of the robot 1 and the laser sensor 14 is attached to the rear of the robot 1. The laser sensor 13 measures 180 degrees forward, and the laser sensor 14 measures 180 degrees backward. Thereby, distance information can be acquired for all directions around the robot 1. Of course, the measurable range of the laser sensors 13 and 14 is not limited to 180 °. Furthermore, two-dimensional map information for estimation can be created by performing laser measurement with the laser sensors 13 and 14. Hereinafter, the measurement data obtained by the laser sensors 13 and 14 may be referred to as laser data.

なお、レーザレンジファインダ以外の、ステレオカメラ、距離画像カメラ(例えば、SR−4000)、3次元にレーザを照射して環境を測定するセンサ(例えば、リーグル)等を用いて距離データを測定しても良い。距離データを測定するセンサとして、光学的な測定を行うレーザセンサを用いたが、それ以外の方法で測定するセンサを用いても良い。また、一方のレーザセンサのみで測定を行っても良い。さらに、レーザセンサの数は2に限られるものではない。   In addition, the distance data is measured using a stereo camera, a distance image camera (for example, SR-4000), a three-dimensional laser irradiation sensor (for example, Legle), etc. other than the laser range finder. Also good. Although a laser sensor that performs optical measurement is used as a sensor that measures distance data, a sensor that measures by other methods may be used. Alternatively, measurement may be performed using only one laser sensor. Furthermore, the number of laser sensors is not limited to two.

さらに、レーザセンサ13のチルト角を変える角度変更機構15が設けられている。角度変更機構は、例えば、関節機構であって、本体10に対するレーザセンサ13の角度を変える。これにより、レーザセンサ13が上、又は下を向き、ロボットのピッチ軸周りの角度が変化する。よって、レーザセンサ13のチルト角、すなわち測定面の角度が変化する。角度変更機構15には、回転角度を測定するエンコーダなどが設けられている。そして、角度変更機構15の回転角度は、制御部16に入力される。   Further, an angle changing mechanism 15 that changes the tilt angle of the laser sensor 13 is provided. The angle changing mechanism is, for example, a joint mechanism, and changes the angle of the laser sensor 13 with respect to the main body 10. Thereby, the laser sensor 13 faces up or down, and the angle around the pitch axis of the robot changes. Therefore, the tilt angle of the laser sensor 13, that is, the angle of the measurement surface changes. The angle changing mechanism 15 is provided with an encoder for measuring the rotation angle. Then, the rotation angle of the angle changing mechanism 15 is input to the control unit 16.

さらに、本体10の内部には、制御部16とジャイロセンサ17が内蔵されている。ジャイロセンサ17は、ロボット1の姿勢角を検出するセンサであり、例えば、水平面(地面)に対する本体10の角度を測定する。ジャイロセンサ17の出力は、制御部16に入力される。ジャイロセンサ17の検出結果によって、ロボット1の仰角を求めることができる。従って、ジャイロセンサ17の検出結果と、角度変更機構15の関節角度によって、レーザセンサ13の測定面の角度を求めることができる。また、ジャイロセンサ17によって、レーザセンサ14の測定面の角度も検出することができる。ここで、測定面の角度とは、水平面(地面)に対する角度であり、水平面と平行な場合を0度とする。   Further, a control unit 16 and a gyro sensor 17 are built in the main body 10. The gyro sensor 17 is a sensor that detects the attitude angle of the robot 1 and measures the angle of the main body 10 with respect to a horizontal plane (ground), for example. The output of the gyro sensor 17 is input to the control unit 16. The elevation angle of the robot 1 can be obtained from the detection result of the gyro sensor 17. Therefore, the angle of the measurement surface of the laser sensor 13 can be obtained from the detection result of the gyro sensor 17 and the joint angle of the angle changing mechanism 15. The gyro sensor 17 can also detect the angle of the measurement surface of the laser sensor 14. Here, the angle of the measurement surface is an angle with respect to the horizontal plane (ground), and the case where the measurement plane is parallel to the horizontal plane is 0 degree.

制御部16は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、通信用のインタフェイスなどを有する演算処理装置である。また、制御部16は、着脱可能なHDD、光ディスク、光磁気ディスク等を有し、各種プログラムや制御パラメータなどを記憶し、そのプログラムやデータを必要に応じてメモリ(不図示)等に供給する。もちろん、制御部16は、物理的に一つの構成に限られるものではない。   The control unit 16 is an arithmetic processing unit having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), a communication interface, and the like. The control unit 16 includes a removable HDD, an optical disk, a magneto-optical disk, and the like, stores various programs and control parameters, and supplies the programs and data to a memory (not shown) or the like as necessary. . Of course, the controller 16 is not limited to one physical configuration.

制御部16は、移動制御するための演算処理を行う。例えば、制御部16は、自己位置推定を行う。そして、自己位置推定結果に応じて、前輪11、後輪12を駆動するためのモータ等を制御する。これにより、障害物と衝突せずに、自律移動することができる。なお、前輪11及び後輪12の一方のみが駆動輪であっても良い。制御部16は、移動環境の推定用地図情報を記憶している。そして、推定用地図情報と、レーザセンサ13、14で測定された距離情報と、に基づいて自己位置を推定する。具体的には、推定用地図情報と、距離情報に応じた距離画像データとのパターンマッチングを行う。そして、パターンがマッチングした位置をロボット1の自己位置として推定する。そして、現在の自己位置から、障害物と衝突しないように移動終点まで移動する。ロボット1は、所定の座席位置を移動終点として移動する。   The control unit 16 performs arithmetic processing for movement control. For example, the control unit 16 performs self-position estimation. And the motor etc. for driving the front wheel 11 and the rear wheel 12 are controlled according to the self-position estimation result. Thereby, it can move autonomously, without colliding with an obstacle. Only one of the front wheel 11 and the rear wheel 12 may be a drive wheel. The control unit 16 stores map information for estimating the moving environment. Then, the self position is estimated based on the estimation map information and the distance information measured by the laser sensors 13 and 14. Specifically, pattern matching between the estimation map information and the distance image data corresponding to the distance information is performed. Then, the position where the pattern is matched is estimated as the self position of the robot 1. And it moves to the movement end point from the present self position so that it may not collide with an obstacle. The robot 1 moves with a predetermined seat position as a movement end point.

ロボット1がウェルキャブ車両を移動する様子を図2、図3に示す。図2、図3に示すように、ロボット1は、車外に設けられたスロープ54を上って、車両50内に入る。スロープ54は、車両50の後方に取り付けられている。ロボット1は、車両50の後方から所定の連結位置(移動終点)まで移動する。連結位置までロボット1が移動したら、ロボット1を車両50に連結する。このとき、スロープ54から車両50を移動する際、ロボット1は推定用地図情報を参照して、自己位置を推定している。   FIGS. 2 and 3 show how the robot 1 moves in the well cab vehicle. As shown in FIGS. 2 and 3, the robot 1 enters the vehicle 50 by going up a slope 54 provided outside the vehicle. The slope 54 is attached to the rear of the vehicle 50. The robot 1 moves from the rear of the vehicle 50 to a predetermined connection position (movement end point). When the robot 1 moves to the connection position, the robot 1 is connected to the vehicle 50. At this time, when moving the vehicle 50 from the slope 54, the robot 1 estimates its own position with reference to the estimation map information.

例えば、推定用地図情報は、図4に示すようになる、車両50内では、車両50の内壁、ギアボックス、シート、天井などが障害物となる。推定用地図情報は、これらの障害物に応じた、画像データである。図4では、太線が障害物の外形を示しており、点線がレーザ測定で測定された距離画像データを示している。そして、これらのパターンのマッチングを行うことで、自己位置推定が行われる。   For example, the estimation map information is as shown in FIG. 4. In the vehicle 50, the inner wall, gear box, seat, ceiling, etc. of the vehicle 50 are obstacles. The estimation map information is image data corresponding to these obstacles. In FIG. 4, the bold line indicates the outline of the obstacle, and the dotted line indicates the distance image data measured by laser measurement. Then, self-position estimation is performed by matching these patterns.

具体的には、レーザデータと同じように、2次元空間を障害物の位置座標値を格納した点列データで表現することで、推定用地図情報が作成される。推定用地図情報は、図4に示すように、予め定義された座標系についての障害物の位置座標が格納されている。図4に示す太線が、障害物が存在していない空間と、障害物が存在している空間の境界線となる。推定した自己位置を参照して、推定用地図情報に含まれる障害物と衝突しないように、前進、右旋回、左旋回等をする。そして、自己位置推定を繰り返しながら、移動していく。これにより、障害物を避けながら自律移動することができる。なお、推定用地図情報と移動用地図情報は異なる地図情報であってもよい。   Specifically, the map information for estimation is created by expressing the two-dimensional space with point sequence data storing the position coordinate values of obstacles, as in the case of laser data. As shown in FIG. 4, the estimation map information stores the position coordinates of an obstacle with respect to a predefined coordinate system. A thick line shown in FIG. 4 is a boundary line between a space where no obstacle exists and a space where an obstacle exists. With reference to the estimated self-position, the vehicle moves forward, turns right, turns left, etc. so as not to collide with an obstacle included in the estimation map information. And it moves, repeating self-position estimation. Thereby, it can move autonomously, avoiding an obstacle. Note that the map information for estimation and the map information for movement may be different map information.

次に、制御部16の構成について、図5を用いて説明する。図5は、制御部16の構成を模式的に示すブロック図である。制御部16は、地図情報作成部21と、地図情報記憶部22と、自己位置推定部23と、駆動制御部24と、チルト角制御部25と、地図情報選択部26を備えている。地図情報作成部21は、移動環境の推定用地図情報を作成する。例えば、レーザセンサ13、14の測定によって、ある測定地点から障害物までの距離を求める。そして、ある測定地点から障害物までの距離に応じた距離データに基づいて、推定用地図情報を作成することができる。例えば、レーザセンサ13、14で取得した距離画像データに基づいて、推定用地図情報を作成する。例えば、ある地図情報に対して、その地図情報には存在していない障害物の情報を合成することで、推定用地図情報を作成する。   Next, the configuration of the control unit 16 will be described with reference to FIG. FIG. 5 is a block diagram schematically showing the configuration of the control unit 16. The control unit 16 includes a map information creation unit 21, a map information storage unit 22, a self-position estimation unit 23, a drive control unit 24, a tilt angle control unit 25, and a map information selection unit 26. The map information creating unit 21 creates map information for estimating the moving environment. For example, the distance from a certain measurement point to an obstacle is obtained by measuring the laser sensors 13 and 14. Then, the estimation map information can be created based on the distance data corresponding to the distance from a certain measurement point to the obstacle. For example, the estimation map information is created based on the distance image data acquired by the laser sensors 13 and 14. For example, the map information for estimation is created by synthesizing information of an obstacle that does not exist in the map information with respect to certain map information.

地図情報記憶部22は、地図情報作成部21で作成された推定用地図情報を記憶する。さらに、後述す量に推定用地図情報が複数格納されていても良い。推定用地図情報は、移動環境、すなわち、車両50内、及びその周辺の障害物の位置座標等を有する2次元データである。なお、移動環境の推定用地図情報は、ロボット1と異なる別の装置によって、作成されても良い。すなわち、ロボット1と別のロボットや装置によって、レーザ測定を行っても良い。地図情報選択部26は、地図情報記憶部22に記憶されている複数の推定用地図情報の中から、1つの推定用地図情報を選択する。地図情報選択部26は、ロボット1の位置や、角度に応じて、推定用地図情報を選択する。   The map information storage unit 22 stores the estimation map information created by the map information creation unit 21. Furthermore, a plurality of estimation map information may be stored in the amount described later. The estimation map information is two-dimensional data having a moving environment, that is, position coordinates of obstacles in and around the vehicle 50. Note that the map information for estimating the moving environment may be created by another device different from the robot 1. That is, the laser measurement may be performed by a robot or apparatus different from the robot 1. The map information selection unit 26 selects one estimation map information from among a plurality of estimation map information stored in the map information storage unit 22. The map information selection unit 26 selects the map information for estimation according to the position and angle of the robot 1.

自己位置推定部23は、選択された推定用地図情報に基づいて、自己位置を推定する。すなわち、レーザセンサ13、14による距離画像データを推定用地図情報に対してパターンマッチングする。そして、このパターンマッチング結果から、推定用地図情報内のロボット座標、すなわち、移動環境内の自己位置が推定される。このように、推定用地図情報と、距離画像データとを比較することで、自己位置が推定される。2次元の推定用地図情報と、2次元の距離画像データとをマッチングすることで、演算時間を短縮化することができる。   The self-position estimation unit 23 estimates the self-position based on the selected estimation map information. That is, the distance image data obtained by the laser sensors 13 and 14 is pattern-matched with the estimation map information. Then, from the pattern matching result, the robot coordinates in the estimation map information, that is, the self-position in the moving environment is estimated. In this way, the self-position is estimated by comparing the estimation map information with the distance image data. The calculation time can be shortened by matching the two-dimensional map information for estimation with the two-dimensional distance image data.

駆動制御部24は、前輪11と後輪12の駆動を制御する。すなわち、推定された自己位置と推定用地図情報に基づいて、移動方向を決定する。具体的には、駆動制御部24は、自己位置を参照して、推定用地図情報内のどの方向に進めばよいかを決定する。これにより、例えば前輪11と後輪12の回転数や回転トルクに応じた指令値が、駆動モータに出力される。   The drive control unit 24 controls the driving of the front wheels 11 and the rear wheels 12. That is, the moving direction is determined based on the estimated self-location and the estimation map information. Specifically, the drive control unit 24 refers to the self position and determines which direction in the estimation map information should be advanced. Thereby, for example, a command value corresponding to the rotational speed and rotational torque of the front wheels 11 and the rear wheels 12 is output to the drive motor.

チルト角制御部25は、角度変更機構15を制御する。すなわち、ジャイロセンサ17での検出結果に応じて、角度変更機構15を駆動する。これにより、レーザセンサ13のチルト角が制御される。例えば、スロープ54上でのロボット位置に応じて、チルト角を変更しても良い。   The tilt angle control unit 25 controls the angle changing mechanism 15. That is, the angle changing mechanism 15 is driven according to the detection result of the gyro sensor 17. Thereby, the tilt angle of the laser sensor 13 is controlled. For example, the tilt angle may be changed according to the position of the robot on the slope 54.

実施の形態1.
本実施の形態では、複数のレーザ測定結果に基づいて推定用地図情報が作成されている。そして、ロボット1が、推定用地図情報により自己位置推定を行っている。以下に推定用地図情報の作成について説明する。まず、推定用地図情報を作成するシステム構成に付いて、図6を用いて説明する。図6は、推定用地図情報を作成する作成システムの構成を示す図である。
Embodiment 1 FIG.
In the present embodiment, estimation map information is created based on a plurality of laser measurement results. Then, the robot 1 performs self-position estimation based on the estimation map information. The creation of the estimation map information will be described below. First, the system configuration for creating the estimation map information will be described with reference to FIG. FIG. 6 is a diagram illustrating a configuration of a creation system that creates map information for estimation.

本実施の形態においても、図6に示すように、ロボット1は、車両50に進入する手前のスロープ54に上っている。このシステムには、3次元位置測定器61が設けられている。3次元位置測定器61は、車両50に対するロボット1を測定している。換言すると3次元位置測定器61は、移動環境におけるレーザセンサ13、14の位置を測定している。3次元位置測定器61は、例えば、東陽テクニカ社製のロボットキャリブレーションROCALシステムである。また、車両50には、障害物52、53が存在している。障害物53は、床51上に配置されたスロープギアボックスである。また、障害物52は、例えば、天井55に設けられた、跳ね上げサードシートである。   Also in the present embodiment, as shown in FIG. 6, the robot 1 climbs up the slope 54 before entering the vehicle 50. In this system, a three-dimensional position measuring device 61 is provided. The three-dimensional position measuring device 61 measures the robot 1 with respect to the vehicle 50. In other words, the three-dimensional position measuring device 61 measures the positions of the laser sensors 13 and 14 in the moving environment. The three-dimensional position measuring device 61 is, for example, a robot calibration ROCAL system manufactured by Toyo Technica. Further, the vehicle 50 has obstacles 52 and 53. The obstacle 53 is a slope gear box arranged on the floor 51. The obstacle 52 is, for example, a flip-up third sheet provided on the ceiling 55.

スロープ54のたわみなどで、移動中のロボット1がピッチ方向に揺れてしまうことがある。揺れていないでレーザセンサ13が水平になっている状態では、レーザセンサ13が測定面Aで測定を行うことになる。よって、レーザセンサ13からのレーザ光は障害物53には当たるが、障害物52には当たらない。一方、揺れた状態では、レーザセンサ13が測定面Bを測定することになる。この場合、レーザセンサ13から出射されたレーザ光は障害物52には当たるが、障害物53には当たらない。このように、スロープ54のたわみなどでロボット1が揺れるような状況では、障害物52と障害物53のいずれが測定できるかわからない。従って、本実施形態では、2つの地図情報を合成して、推定用地図情報を作成している。具体的には、測定面Aと測定面Bの両方の地図情報を合成して、推定用地図情報として作成する。この場合、推定用地図情報には、障害物52、53の情報が含まれていることになる。   The moving robot 1 may shake in the pitch direction due to the deflection of the slope 54 or the like. In a state where the laser sensor 13 is horizontal without being shaken, the laser sensor 13 performs measurement on the measurement surface A. Therefore, the laser beam from the laser sensor 13 hits the obstacle 53 but does not hit the obstacle 52. On the other hand, in the shaken state, the laser sensor 13 measures the measurement surface B. In this case, the laser light emitted from the laser sensor 13 hits the obstacle 52 but does not hit the obstacle 53. Thus, in the situation where the robot 1 is shaken by the deflection of the slope 54, it is not known which of the obstacle 52 and the obstacle 53 can be measured. Therefore, in this embodiment, the map information for estimation is created by combining two pieces of map information. Specifically, the map information of both the measurement surface A and the measurement surface B is synthesized and created as estimation map information. In this case, the estimation map information includes information on the obstacles 52 and 53.

このため、ロボット1がレーザセンサ13の測定結果を用いて、測定面Aと測定面Bの地図情報を作成する。具体的には、手動で、ロボット1をスロープ54上の所定の測定地点まで移動させる。なお、測定地点は実際に揺れが大きくなる位置とすることが好ましい。例えば、スロープ54の上り始めで揺れが発生しやすいため、スロープ54の上り始めの位置を測定地点とする。さらには、ロボット1を他の位置を測定地点としてもよい。もちろん、測定地点を2箇所以上としても良い。このように、1又は複数の測定地点までロボット1を手動で移動させる。   For this reason, the robot 1 creates map information of the measurement surface A and the measurement surface B using the measurement result of the laser sensor 13. Specifically, the robot 1 is manually moved to a predetermined measurement point on the slope 54. In addition, it is preferable to make a measurement point into the position where shaking becomes large actually. For example, since the shaking is likely to occur at the beginning of the slope 54, the position at the beginning of the slope 54 is set as the measurement point. Furthermore, it is good also considering the robot 1 as a measurement point in another position. Of course, two or more measurement points may be used. Thus, the robot 1 is manually moved to one or a plurality of measurement points.

このとき、ロボット1の詳細な測定地点の座標は、3次元位置測定器61で測定されている。すなわち、車両50を基準とするロボット1の3次元座標が、3次元位置測定器61によって正確に測定されている。そして、チルト角を変えた2つの測定面A,Bで、レーザセンサ13が周囲の障害物までの距離を検出する。これにより、測定面A、Bにおける障害物までの距離に応じた距離データが取得される。測定面A、Bにおける距離画像データがそれぞれ取得される。ここではレーザレンジファインダをレーザセンサ13として用いているため、全方位における障害物までの距離が検出される。なお、ジャイロセンサ17の測定によって、揺れが治まったことを検知した後、距離データを測定することが好ましい。また、測定面Aと測定面Bのチルト角は、実際の揺れに応じて決定すれば良い。すなわち、実際に揺れるだろう位置において、揺れる角度にレーザセンサ13を傾ける。もちろん、異なる測定地点では、異なるチルト角で測定しても良い。   At this time, the coordinates of the detailed measurement point of the robot 1 are measured by the three-dimensional position measuring device 61. That is, the three-dimensional coordinates of the robot 1 with the vehicle 50 as a reference are accurately measured by the three-dimensional position measuring device 61. Then, the laser sensor 13 detects the distance to the surrounding obstacle on the two measurement surfaces A and B with different tilt angles. Thereby, the distance data according to the distance to the obstacle in the measurement surfaces A and B is acquired. Distance image data on the measurement surfaces A and B are acquired. Here, since the laser range finder is used as the laser sensor 13, the distance to the obstacle in all directions is detected. Note that it is preferable to measure the distance data after detecting that the shaking has been cured by the measurement of the gyro sensor 17. Further, the tilt angle between the measurement surface A and the measurement surface B may be determined according to the actual shaking. That is, the laser sensor 13 is tilted at a swinging angle at a position where it will actually swing. Of course, measurement may be performed at different tilt points at different measurement points.

そして、3次元位置測定器61で測定された測定地点の座標とレーザセンサ13のチルト角とを考慮して、各測定面における地図情報を作成する。これにより、測定面Aにおいて測定された障害物の距離データを含む地図情報と、測定面Bにおいて測定された障害物の距離データを含む地図情報が作成される。例えば、図7に示すように、測定面Aの地図情報を地図情報Mとし、測定面Bの地図情報を地図情報Mとする。ここで、地図情報M、Mにおいて、障害物の外形が線として示されている。すなわち、地図情報M,Mに示された線が障害物を示しており、ロボット1が移動する際は、この線を避けて移動する。合成された地図情報M(1+2)が推定用地図情報として使用される。推定用地図情報M(1+2)では、地図情報Mに対して、地図情報Mでしか検出されていない障害物を含む合成領域91が追加されている。 Then, in consideration of the coordinates of the measurement point measured by the three-dimensional position measuring device 61 and the tilt angle of the laser sensor 13, map information on each measurement surface is created. Thereby, map information including the distance data of the obstacle measured on the measurement surface A and map information including the distance data of the obstacle measured on the measurement surface B are created. For example, as shown in FIG. 7, the map information of the measurement surface A and the map information M 1, the map information of the measurement surface B with the map information M 2. Here, in the map information M 1 and M 2 , the outline of the obstacle is shown as a line. That is, the lines shown in the map information M 1 and M 2 indicate obstacles, and when the robot 1 moves, it moves avoiding these lines. The combined map information M (1 + 2) is used as the estimation map information. In estimation map information M (1 + 2), with respect to map information M 1, combining region 91 including an obstacle is not detected is added only in the map information M 2.

このように、足りない障害物の距離データを補完する形で、合成された新たな地図情報を推定用地図情報として作成する。そして、実際にロボット1が車両50内に進入する際に、この推定用地図情報と用いて、自己位置を推定する。すなわち、推定用地図情報と距離画像データとをパターンマッチング処理する。これにより、スロープ54が揺れていなどの外乱があっても、正確に自己位置を推定することができる。揺れなどの外乱があった場合でも、正確に自己位置推定することができる。よって、移動中に揺れが治まるのを待つ必要がなく、安全かつ迅速な移動が可能となる。   In this way, the synthesized new map information is created as estimation map information in a form that complements the distance data of the missing obstacle. Then, when the robot 1 actually enters the vehicle 50, the self-position is estimated using the estimation map information. That is, the map information for estimation and the distance image data are subjected to pattern matching processing. Thereby, even if there is a disturbance such as the slope 54 shaking, the self-position can be estimated accurately. Even when there is a disturbance such as shaking, the self-position can be accurately estimated. Therefore, it is not necessary to wait for the shaking to subside during movement, and safe and quick movement is possible.

次に、地図情報の作成方法について、図8を用いて説明する。図8は、地図情報の作成方法を示すフローチャートである。まず、ロボット1の連結位置を基準に、測定地点の座標を計算する(ステップS101)。推定用地図情報の作成に必要な1又は複数の位置を測定地点とする。測定地点としては、スロープ54の上り始めの位置や、車両50内部等がある。ここでは、車両50全体の障害物が含まれるように、測定地点を決定する。すなわち、全ての障害物の情報が推定用地図情報に含まれるようにする。そして、測定地点にレーザセンサを置く(ステップS102)。例えば、手動でロボット1を測定地点まで移動する。ここでは、3次元位置測定器61によって、ロボット1の位置を測定している。このため、ロボット1を測定地点まで正確に移動することができる。測定地点までロボット1を移動したら、レーザセンサ13によって、レーザデータを取得する(ステップS103)。このレーザデータが障害物の距離の情報を含んでいる。   Next, a map information creation method will be described with reference to FIG. FIG. 8 is a flowchart showing a map information creation method. First, the coordinates of the measurement point are calculated based on the connection position of the robot 1 (step S101). One or a plurality of positions necessary for creating the estimation map information are set as measurement points. Measurement points include the position at which the slope 54 starts to rise, the inside of the vehicle 50, and the like. Here, the measurement point is determined so that the obstacle of the entire vehicle 50 is included. That is, information on all obstacles is included in the estimation map information. Then, a laser sensor is placed at the measurement point (step S102). For example, the robot 1 is manually moved to the measurement point. Here, the position of the robot 1 is measured by the three-dimensional position measuring device 61. For this reason, the robot 1 can be accurately moved to the measurement point. When the robot 1 is moved to the measurement point, laser data is acquired by the laser sensor 13 (step S103). This laser data includes information on the distance of the obstacle.

そして、座標に紐づいた地図情報を作成する(ステップS104)。すなわち、測定地点の座標と、チルト角を考慮した地図情報を作成する。地図情報は、距離画像データに応じたパターンとなる。そして、測定地点が存在するかしないかを判定する(ステップS105)。すなわち、全ての測定地点の測定が終了するまで、上記の処理を繰り返す。全ての測定地点での測定を終了すると、全ての地図情報を合成して、地図の作成が完了する。すなわち、チルト角の異なる複数の地図情報をマージすることによって、推定用地図情報が作成される。このようにすることで、外乱に強い自己位置推定用の地図を作成することができる。自己位置推定に好適な推定用地図情報を作成することができるため、自己位置推定の精度を向上することができる。   Then, map information associated with the coordinates is created (step S104). That is, the map information considering the coordinates of the measurement point and the tilt angle is created. The map information has a pattern corresponding to the distance image data. Then, it is determined whether or not the measurement point exists (step S105). That is, the above process is repeated until the measurement of all measurement points is completed. When the measurement at all measurement points is completed, all the map information is synthesized and the creation of the map is completed. That is, the map information for estimation is created by merging a plurality of pieces of map information having different tilt angles. In this way, a map for self-position estimation that is resistant to disturbance can be created. Since the estimation map information suitable for self-position estimation can be created, the accuracy of self-position estimation can be improved.

上記のように、異なる角度の測定面での位置情報(距離画像データ)を合成して、水平面における推定用地図情報を作成する。もちろん、水平面内の推定用地図情報に限らず、水平面以外の平面の推定用地図情報を作成しても良い。なお、1つの測定地点で3以上のチルト角でレーザデータを取得して、3以上の距離画像データを合成しても良い。なお、一部の測定地点では、1つのチルト角のみでレーザデータを取得しても良い。合成後の地図情報を揺れが大きくなる箇所でのみ使用しても良い。例えば、揺れが大きい、スロープ54の上り始めの周辺でのみ、合成した推定用地図情報を用いる。これら以外の揺れが小さい箇所では、1つのチルト角で測定された地図情報を推定用地図情報として用いる。すなわち、2つのチルト角の地図情報が合成されていない地図情報を推定用地図情報として用いる。これにより、正確に自己位置推定することができる。さらには、角度が同じで、高さの異なる測定面の距離画像データを合成しても良い。   As described above, the position information (distance image data) on the measurement surfaces at different angles is synthesized to create the estimation map information on the horizontal plane. Of course, not only the estimation map information in the horizontal plane but also the estimation map information for planes other than the horizontal plane may be created. It is also possible to acquire laser data at a tilt angle of 3 or more at one measurement point and synthesize 3 or more distance image data. Note that at some measurement points, laser data may be acquired with only one tilt angle. The combined map information may be used only at a place where the shaking becomes large. For example, the combined estimation map information is used only in the vicinity of the slope 54 where the slope 54 starts to rise. In other places where the shaking is small, the map information measured at one tilt angle is used as the estimation map information. That is, map information in which map information of two tilt angles is not synthesized is used as estimation map information. Thereby, self-position estimation can be performed accurately. Furthermore, distance image data of measurement surfaces having the same angle and different heights may be combined.

実施の形態2.
本実施の形態では、ロボット1の自己位置に応じて、地図を切り替えている。なお、本実施の形態では合成していない地図情報を推定用地図情報として利用している。すなわち、実施の形態1で示した合成後の地図情報ではなく、ある1つのチルト角で測定されたレーザデータに基づく地図情報を推定用地図情報として用いている。
Embodiment 2. FIG.
In the present embodiment, the map is switched according to the robot 1's own position. In the present embodiment, map information that has not been combined is used as estimation map information. That is, map information based on laser data measured at a certain tilt angle is used as the estimation map information, instead of the combined map information shown in the first embodiment.

本実施の形態における自己位置推定について、図9を用いて説明する。図9は、車両50を移動するロボット1による自己位置推定を説明する図である。図9に示すように、スロープ54を移動している間は、ロボット1の位置に応じて、レーザセンサ13の高さが異なる。例えば、スロープ54の上り始めでは、レーザセンサ13が測定面Cの高さであるが、スロープ54の終わりでは、レーザセンサ13が測定面Dの高さとなる。すなわち、レーザセンサ13のチルト角を一定に保っていたとしても、測定面の高さが徐々に変化していく。よって、測定面Dでは、障害物53を検出することができない。すなわち、レーザセンサ13の測定面が障害物53よりも高くなるため、レーザセンサ13からのレーザ光が障害物53に当たらない。このように、レーザセンサ13が測定面の高さになると、レーザセンサ13の検出結果には、障害物53の情報が含まれなくなってしまう。このように、測定面の高さに応じて、レーザセンサ13で検出できる障害物が変わってくるため、障害物の距離情報が異なってしまうことになる。すなわち、測定面の高さに応じて、距離画像パターンに違いが生じてしまう。   Self-position estimation in the present embodiment will be described with reference to FIG. FIG. 9 is a diagram illustrating self-position estimation by the robot 1 that moves the vehicle 50. As shown in FIG. 9, while the slope 54 is moving, the height of the laser sensor 13 varies depending on the position of the robot 1. For example, the laser sensor 13 is at the height of the measurement surface C at the beginning of the rise of the slope 54, but the laser sensor 13 is at the height of the measurement surface D at the end of the slope 54. That is, even if the tilt angle of the laser sensor 13 is kept constant, the height of the measurement surface gradually changes. Therefore, the obstacle 53 cannot be detected on the measurement surface D. That is, since the measurement surface of the laser sensor 13 is higher than the obstacle 53, the laser light from the laser sensor 13 does not hit the obstacle 53. Thus, when the laser sensor 13 reaches the height of the measurement surface, the detection result of the laser sensor 13 does not include information on the obstacle 53. Thus, since the obstacle that can be detected by the laser sensor 13 changes according to the height of the measurement surface, the distance information of the obstacle will be different. That is, the distance image pattern varies depending on the height of the measurement surface.

従って、本実施形態では、移動環境内のロボット1の自己位置に応じて、使用する推定用地図情報を切り替えている。すなわち、ロボット1の座標に応じて、異なる推定用地図情報を使用する。例えば、図10に示すP地点までは、推定用地図情報Mを用いる。そして、P地点からP地点までは推定用地図情報Mabを用いる。さらに、B地点からC地点までは推定用地図情報Mbcを用い、P地点からP地点までは推定用地図情報Mcdを用いる。さらに、D地点を越えると推定用地図情報Mに切り替える。なお、D地点を越えると、座席が近くなりすぎてしまうため、後ろ側のレーザセンサ14からの測定結果のみを使用して、自己位置推定する。このように、自己位置に応じて、使用するレーザセンサを切り替えることで、自己位置推定の精度を向上することができる。 Therefore, in this embodiment, the estimation map information to be used is switched according to the self-position of the robot 1 in the moving environment. That is, different estimation map information is used according to the coordinates of the robot 1. For example, until P A point indicated in FIG. 10 uses the estimation map information M a. Then, the P A point to P B point is used for estimation map information M ab. Furthermore, from point B to point C using the estimated map information M bc, from P C point to P D point is used for estimation map information M cd. Furthermore, when the point D is exceeded, the map information Md is switched to the estimation map information Md. In addition, since the seat becomes too close after passing point D, self-position estimation is performed using only the measurement result from the laser sensor 14 on the rear side. Thus, the accuracy of self-position estimation can be improved by switching the laser sensor to be used according to the self-position.

このように、推定された自己位置の座標に応じて、推定用地図情報を切り替える。すなわち、推定された自己位置がしきい値となる座標を越えたら、異なる推定用地図情報に切り替える。これにより、自己位置推定の精度を高くすることができる。例えば、推定用地図情報を切り替える時は、ロボット1の移動を一時的に停止してもよい。すなわち、自己位置の座標がしきい値を越えたら、ロボット1の移動を一時的に停止する。そして、切り替えが完了した後に、ロボット1の移動が再開する。これにより、推定用地図情報を切り替えるタイミングにおいても、自己位置推定の精度を向上することができる。しきい値となる座標は、障害物の位置に応じて予め設定すれば良い。すなわち、レーザセンサ13が障害物を越えたら、推定用地図情報を切り替えればよい。切り替える座標は、実際のロボット1を走行させたときの、自己位置推定結果が良かった位置から設定しても良い。   In this way, the map information for estimation is switched according to the estimated coordinates of the self position. That is, when the estimated self-position exceeds the threshold value coordinates, the map is switched to different estimation map information. Thereby, the precision of self-position estimation can be made high. For example, when switching the estimation map information, the movement of the robot 1 may be temporarily stopped. That is, when the coordinate of the self position exceeds the threshold value, the movement of the robot 1 is temporarily stopped. Then, after the switching is completed, the movement of the robot 1 is resumed. Thereby, the precision of self-position estimation can be improved also in the timing which switches the map information for estimation. The coordinates serving as the threshold may be set in advance according to the position of the obstacle. That is, if the laser sensor 13 exceeds an obstacle, the estimation map information may be switched. The coordinates to be switched may be set from a position where the self-position estimation result is good when the actual robot 1 is run.

本実施の形態では、地図情報記憶部22には、測定面の高さに応じた推定用地図情報が複数記憶されている。そして、自己位置に応じて、地図情報選択部26が選択する推定用地図情報を切り替える。推定用地図情報を切り替える処理に付いて、図11を用いて説明する。図11は、推定用地図情報を切り替えながら、移動する処理を示すフローチャートである。   In the present embodiment, the map information storage unit 22 stores a plurality of estimation map information according to the height of the measurement surface. And the map information for estimation which the map information selection part 26 selects according to a self-position is switched. The process of switching the estimation map information will be described with reference to FIG. FIG. 11 is a flowchart showing a process of moving while switching the estimation map information.

まず、人がロボット1に乗って、スロープ54の下付近まで移動させる(ステップS201)。そして、レーザセンサ13、14の測定によって自己位置推定を行う(ステップS202)。すなわち、レーザセンサ13、14によって検出された障害物の距離画像データと、推定用地図情報とを比較して、自己位置を推定する。なお、複数の推定用地図情報のうち、予め1つの推定用地図情報を最初に用いる設定しておく。例えば、図10に示す例では、推定用地図情報Mを最初に用いる推定用地図情報として設定しておく。 First, a person gets on the robot 1 and moves it to near the bottom of the slope 54 (step S201). Then, self-position estimation is performed by measurement of the laser sensors 13 and 14 (step S202). That is, the distance image data of the obstacle detected by the laser sensors 13 and 14 is compared with the estimation map information to estimate the self position. Of the plurality of estimation map information, one estimation map information is set to be used first. For example, in the example shown in FIG. 10, it is set as the estimated map information using estimation map information M a first.

そして、自己位置推定ができているか否か判定し(ステップS203)、推定できるまで上記の処理を繰り返す。自己位置が推定できたら(ステップS203のYES)、ロボット1が移動環境内での移動を開始する。具体的には、レーザセンサ13、14の測定結果によって自己位置を推定しながら、スロープ54又は車両50の内部を移動する(ステップS204)。これにより、前輪11、及び後輪12の駆動モータに指令値が出力される。そして、推定された自己位置が連結位置(移動終点)に到達しているか否かを判定する(ステップS205)。連結位置に到達した場合(ステップS206)、移動を終了する。   Then, it is determined whether or not self-position estimation is possible (step S203), and the above processing is repeated until estimation is possible. If the self position can be estimated (YES in step S203), the robot 1 starts moving in the moving environment. Specifically, it moves within the slope 54 or the vehicle 50 while estimating its own position based on the measurement results of the laser sensors 13 and 14 (step S204). As a result, the command values are output to the drive motors for the front wheels 11 and the rear wheels 12. Then, it is determined whether or not the estimated self position has reached the connection position (movement end point) (step S205). If the connection position has been reached (step S206), the movement is terminated.

連結位置に到達していない場合、地図の切り替え地点まで到達しているか否かを判定する(ステップS207)。ここでは、推定された自己位置の座標が所定のしきい値を越えたか否かによって、切り替え地点まで到達したか否かを判定する。切り替え地点まで到達していない場合(ステップS207のNO)、そのまま同じ推定用地図情報を用いてステップS204からの処理を繰り返す。切り替え地点に到達した場合は、自己位置推定する推定用地図情報を切り替える(ステップS208)。そして、切り替えられた推定用地図情報で、ステップS204からの処理を繰り返す。このようにして、ロボット1が車両50内を自律移動していく。   If the connection position has not been reached, it is determined whether or not the map switching point has been reached (step S207). Here, whether or not the switching point has been reached is determined based on whether or not the estimated coordinates of the self-position exceeded a predetermined threshold value. If the switching point has not been reached (NO in step S207), the processing from step S204 is repeated using the same estimation map information as it is. When the switching point is reached, the estimation map information for self-position estimation is switched (step S208). Then, the processing from step S204 is repeated with the switched estimation map information. In this way, the robot 1 moves autonomously within the vehicle 50.

このように、車両50を移動環境とすると、ロボット1が前に進めば進むほど、センシングする環境が変わってしまう。よって、ロボット1の自己位置に応じて、異なる高さで取得された推定用地図情報に切り替える。そして、推定用地図情報を切り替えることで、自己位置を精度よく推定することができる。なお、上記の説明では、推定用地図情報は、高さの異なる測定面での測定結果により作成したが、チルト角の異なる測定面での測定結果により作成しても良い。例えば、測定面のチルト角をスロープ54を上る時の角度に合わせればよい。あるいは、高さ、及びチルト角の両方ともが異なる測定面での測定結果に基づいて、推定用地図情報を作成しても良い。   Thus, when the vehicle 50 is a moving environment, the sensing environment changes as the robot 1 moves forward. Therefore, the estimation map information acquired at different heights is switched according to the self-position of the robot 1. Then, by switching the estimation map information, the self position can be estimated with high accuracy. In the above description, the estimation map information is created based on the measurement results on the measurement surfaces having different heights, but may be created based on the measurement results on the measurement surfaces having different tilt angles. For example, the tilt angle of the measurement surface may be adjusted to the angle when the slope 54 is raised. Alternatively, the estimation map information may be created based on measurement results on measurement surfaces having different heights and tilt angles.

本実施の形態では、自己位置に応じて最適な推定用地図情報を選択することができる。これにより、自己位置推定の精度を向上することができる。よって、ウェルキャブ車両内を安全かつ迅速に移動することができる。   In the present embodiment, optimal map information for estimation can be selected according to the self position. Thereby, the accuracy of self-position estimation can be improved. Therefore, it is possible to move safely and quickly in the well cab vehicle.

実施の形態3.
実施の形態3にかかる自己位置推定方法について、図12、及び図13を用いて説明する。図12は、ロボット1がスロープ54を上る様子を示す図である。図13は、本実施形態にかかる自己位置推定方法に用いられる推定用地図情報を説明するための図である。
Embodiment 3 FIG.
A self-position estimation method according to the third embodiment will be described with reference to FIGS. 12 and 13. FIG. 12 is a diagram illustrating a state in which the robot 1 climbs the slope 54. FIG. 13 is a diagram for explaining estimation map information used in the self-position estimation method according to the present embodiment.

図12に示すように、ロボット1がスロープ54を上る際、スロープ54の撓みなどによって、ロボット1が揺れてしまう。ロボット1が揺れてしまうと、レーザセンサ13の測定面の仰角が変化してしまう。例えば、レーザセンサ13が測定面Eで測定したり、測定面Fで測定したりしてしまう。特にスロープ54の強度不足や、床51の凹凸によってロボット1が揺れる。この揺れが起きると障害物53が検出できずに、天井55を検出してしまう。すなわち、レーザセンサ13からのレーザ光が障害物53に照射されずに、天井55に照射されてしまう。よって、自己位置推定の精度が低下してしまう。   As shown in FIG. 12, when the robot 1 climbs the slope 54, the robot 1 shakes due to the bending of the slope 54 or the like. When the robot 1 shakes, the elevation angle of the measurement surface of the laser sensor 13 changes. For example, the laser sensor 13 measures on the measurement surface E or measures on the measurement surface F. In particular, the robot 1 shakes due to insufficient strength of the slope 54 or unevenness of the floor 51. When this shaking occurs, the obstacle 53 cannot be detected and the ceiling 55 is detected. That is, the laser beam from the laser sensor 13 is irradiated to the ceiling 55 without being irradiated to the obstacle 53. Therefore, the accuracy of self-position estimation is reduced.

そこで、本実施形態では、角度の異なる測定面で測定した測定結果から、それぞれ推定用地図情報を作成する。ここでは、ピッチ方向の揺れの影響を低減するために、複数の推定用地図情報から最適な地図情報を選択する。   Therefore, in this embodiment, the estimation map information is created from the measurement results measured on the measurement surfaces with different angles. Here, in order to reduce the influence of the fluctuation in the pitch direction, optimal map information is selected from a plurality of estimation map information.

例えば、図13に示すように、角度変更機構15によってレーザセンサ13のチルト角を変えて、レーザ測定を行う。そして、それぞれの測定における距離画像データに基づいて、推定用地図情報を作成する。具体的には、同じ測定地点で、チルト角を変えてレーザ測定を行う。それぞれの測定結果から、異なる角度の推定用地図情報を作成する。例えば、数度毎にレーザ測定を行う。具体的には、−10°、−5°、0°、+5°、+10°でレーザ測定を行う。さらに、測定地点を変えて、それぞれの測定地点でチルト角を変えてレーザ測定を行う。この場合、地図情報記憶部22には、位置と角度とを紐付けて推定用地図情報が保存される。すなわち、推定用地図情報が測定位置タグと角度タグとともに地図情報記憶部22に格納される。自己位置推定部23には、測定位置タグ毎、角度タグ毎に推定用地図情報のファイルが格納されている。測定位置、または角度が異なれば、異なるファイルとして、推定用地図情報を地図情報記憶部22が記憶する。   For example, as shown in FIG. 13, laser measurement is performed by changing the tilt angle of the laser sensor 13 by the angle changing mechanism 15. Then, map information for estimation is created based on the distance image data in each measurement. Specifically, laser measurement is performed at the same measurement point while changing the tilt angle. Map information for estimation at different angles is created from each measurement result. For example, laser measurement is performed every few degrees. Specifically, laser measurement is performed at −10 °, −5 °, 0 °, + 5 °, and + 10 °. Furthermore, laser measurement is performed by changing the measurement point and changing the tilt angle at each measurement point. In this case, the map information storage unit 22 stores the map information for estimation by associating the position and the angle. That is, the estimation map information is stored in the map information storage unit 22 together with the measurement position tag and the angle tag. The self-position estimation unit 23 stores a map information file for estimation for each measurement position tag and each angle tag. If the measurement position or angle is different, the map information storage unit 22 stores the estimation map information as a different file.

そして、地図情報記憶部22から、推定用地図情報のファイルを読み出して、自己位置推定を行う。ロボット1が車両50に進入する際、ジャイロセンサ17からの出力によって、水平面に対するレーザセンサ13、14の角度を求める。そして、自己位置推定部23は、レーザセンサ13、14の測定面の角度に応じた推定用地図情報を選択する。そして、選択された推定用地図情報を用いて自己位置推定を行う。すなわち、自己位置推定部23は、測定面の角度と同じか近い角度タグを有する推定用地図情報を選択する。さらに、自己位置推定部23は、ロボット1の位置と同じか近い測定位置タグを有する推定用地図情報を選択する。このように、自己位置推定部23は、測定した時の、測定地点位置と、測定面角度に応じた最適な推定用地図情報を選択する。こうすることで、自己位置推定の精度を向上することができる。   Then, the estimation map information file is read from the map information storage unit 22 and self-position estimation is performed. When the robot 1 enters the vehicle 50, the angles of the laser sensors 13 and 14 with respect to the horizontal plane are obtained by the output from the gyro sensor 17. Then, the self-position estimation unit 23 selects estimation map information corresponding to the angle of the measurement surface of the laser sensors 13 and 14. Then, self-position estimation is performed using the selected estimation map information. That is, the self-position estimation unit 23 selects estimation map information having an angle tag that is the same as or close to the angle of the measurement surface. Further, the self-position estimation unit 23 selects the estimation map information having the measurement position tag that is the same as or close to the position of the robot 1. As described above, the self-position estimation unit 23 selects the optimum map information for estimation according to the measurement point position and the measurement surface angle when measured. By doing so, the accuracy of self-position estimation can be improved.

さらに、本実施形態では、処理速度の低下を防ぐため、以下の処理を行っている。まず、自己位置推定部23が、地図情報記憶部22の中から、予め読み出す可能性がある推定用地図情報を複数抽出する。具体的には、推定された自己位置に近い推定用地図情報を抽出する。そして、自己位置推定部23は、抽出された複数の推定用地図情報を角度タグ付きでバッファ領域27に移動させる(図14)。図14は、地図情報記憶部22から推定用地図情報M〜推定用地図情報Mが抽出されて、バッファ領域27に格納される。ジャイロセンサ17が所定の角度になった瞬間に、1つの推定用地図情報を演算領域に移動させる。すなわち、地図情報選択部26がジャイロセンサ17が検出した測定面の角度と一致する角度タグを有する推定用地図情報を選択する。この処理を行うことで、自己位置推定処理の遅延を回避することができる。なお、読み出す可能性に対する判断は、位置タグを用いればよい。すなわち、現在の推定自己位置に最も近い位置タグの推定用地図情報をバッファ領域27に格納すれば良い。 Furthermore, in the present embodiment, the following processing is performed in order to prevent a reduction in processing speed. First, the self-position estimation unit 23 extracts a plurality of estimation map information that may be read out from the map information storage unit 22 in advance. Specifically, estimation map information close to the estimated self-location is extracted. Then, the self-position estimating unit 23 moves the extracted plurality of pieces of estimated map information to the buffer area 27 with an angle tag (FIG. 14). In FIG. 14, the estimation map information M 3 to the estimation map information M 7 are extracted from the map information storage unit 22 and stored in the buffer area 27. At the moment when the gyro sensor 17 is at a predetermined angle, one piece of estimation map information is moved to the calculation area. That is, the map information selection unit 26 selects map information for estimation having an angle tag that matches the angle of the measurement surface detected by the gyro sensor 17. By performing this process, a delay in the self-position estimation process can be avoided. Note that the position tag may be used to determine the possibility of reading. That is, the map information for estimation of the position tag closest to the current estimated self-position may be stored in the buffer area 27.

次に、本実施形態にかかる自己位置推定方法について、図15を用いて説明する。図15は、本実施形態に係る自己位置推定方法を示すフローチャートである。なお、本実施の形態にかかる自己位置推定方法は、基本的なフローは実施の形態1、2と同様であるため、適宜説明を省略する。   Next, the self-position estimation method according to the present embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing the self-position estimation method according to the present embodiment. Note that the self-position estimation method according to the present embodiment has a basic flow similar to that of the first and second embodiments, and thus description thereof will be omitted as appropriate.

実施の形態2と同様に、人がスロープ下付近まで移動させ(ステップS301)、レーザ自己位置推定を行う(ステップS302)。そして、自己位置推定ができたら(ステップS303のYES)、レーザで自己位置推定ながら、スロープ54、車両50の内部を移動する(ステップS304)。ここまでの処理は、実施の形態2で示したステップS201〜ステップS204の処理と同様であるため説明を省略する。   As in the second embodiment, a person moves to near the slope (step S301) and performs laser self-position estimation (step S302). When self-position estimation is completed (YES in step S303), the slope 54 and the inside of the vehicle 50 are moved while self-position estimation is performed with a laser (step S304). The processing up to this point is the same as the processing from step S201 to step S204 shown in the second embodiment, and a description thereof will be omitted.

そして、ジャイロセンサ17と連動して、動的に地図を切り替える処理を行う(ステップS305)。ステップS305では、ジャイロセンサ17の測定結果に応じて、バッファ領域27の中の推定用地図情報から、最適な角度タグの推定用地図情報が選択される。その後、連結位置に到達しているか判定し(ステップS306)。ステップS306〜ステップS309までの処理は、実施の形態2で示したステップS205〜ステップS208までの処理と同様であるため説明を省略する。そして、実施の形態2と同様に、自己位置に応じて、自己位置推定する推定用地図情報を切り替えたら(ステップS209)、同一位置で、測定角度の違う推定用地図情報をバッファ領域27に展開する。そして、ステップS304に戻り、レーザ自己位置推定しながら、スロープ54、車両50の内部を移動する。   Then, in conjunction with the gyro sensor 17, a process of dynamically switching the map is performed (step S305). In step S 305, optimal angle tag estimation map information is selected from the estimation map information in the buffer area 27 in accordance with the measurement result of the gyro sensor 17. Thereafter, it is determined whether the connection position has been reached (step S306). The processing from step S306 to step S309 is the same as the processing from step S205 to step S208 shown in the second embodiment, and a description thereof will be omitted. Then, as in the second embodiment, when the estimation map information for self-position estimation is switched according to the self-position (step S209), the estimation map information with different measurement angles is developed in the buffer area 27 at the same position. To do. And it returns to step S304 and moves the inside of the slope 54 and the vehicle 50, estimating a laser self-position.

次に、図16を用いて、ジャイロセンサの出力と連動して、動的に推定用地図情報を切り替える処理に付いて説明する。図16は、この処理を示すフローチャートである。まず、ジャイロセンサ17から、現在のロボット角度を取得する(ステップS401)。すなわち、ロボット1の本体10の角度を測定する。これにより、レーザセンサ13、14の測定面の角度を求めることができる。ここで、測定面の角度は、水平面を0°とする。そして、バッファ領域27内に、ジャイロセンサ17で取得した角度の推定用地図情報が存在するか否かを判定する(ステップS402)。すなわち、予めバッファ領域27に抽出された複数の推定用地図情報の角度タグを参照して、測定面と一致する角度タグがあるか否かを判定する。   Next, the process of dynamically switching the estimation map information in conjunction with the output of the gyro sensor will be described with reference to FIG. FIG. 16 is a flowchart showing this processing. First, the current robot angle is acquired from the gyro sensor 17 (step S401). That is, the angle of the main body 10 of the robot 1 is measured. Thereby, the angle of the measurement surface of the laser sensors 13 and 14 can be calculated | required. Here, the angle of the measurement surface is 0 ° on the horizontal plane. Then, it is determined whether or not the angle estimation map information acquired by the gyro sensor 17 exists in the buffer area 27 (step S402). That is, it is determined whether or not there is an angle tag that matches the measurement surface with reference to the angle tags of the plurality of estimation map information extracted in advance in the buffer area 27.

一致する角度タグの推定用地図情報が存在する場合(ステップS402のYES)、その角度に紐付いた推定用地図情報を引き出す(ステップS403)。これにより、1つの推定用地図情報が演算領域に移動する。そして、引き出した推定用地図情報とレーザデータで自己位置推定を行う(ステップS404)。すなわち、レーザセンサ13、14で測定した距離画像データと、推定用地図情報のパターンマッチングによって、自己位置を推定する。一方、一致する角度タグの推定用地図情報が存在しない場合は、初期設定されている推定用地図情報で自己位置推定を行う(ステップS405)。このようにすることで、同じ角度のパターンで自己位置推定することができるため、推定精度を向上することができる。   When the map information for estimation of the matching angle tag exists (YES in step S402), the map information for estimation linked to the angle is extracted (step S403). Thereby, one piece of estimation map information moves to the calculation area. Then, self-position estimation is performed using the extracted map information for estimation and laser data (step S404). That is, the self-position is estimated by pattern matching between the distance image data measured by the laser sensors 13 and 14 and the estimation map information. On the other hand, if there is no estimation map information for the matching angle tag, self-position estimation is performed using the initially set estimation map information (step S405). By doing in this way, since self-position estimation can be carried out with the pattern of the same angle, estimation accuracy can be improved.

本実施の形態では、測定面角度、又は自己位置に応じて最適な推定用地図情報を選択することができる。これにより、自己位置推定の精度を向上することができる。よって、ウェルキャブ車両内を安全かつ迅速に移動することができる。   In the present embodiment, optimal map information for estimation can be selected according to the measurement surface angle or the self-position. Thereby, the accuracy of self-position estimation can be improved. Therefore, it is possible to move safely and quickly in the well cab vehicle.

実施の形態4.
本実施の形態では、推定用地図情報の一部の領域に、障害物の位置を動的に変化できる領域を設けておく。そして、レーザ測定の結果によって、動的領域内の障害物の位置を決定する。例えば、車両50内では、シートの位置や姿勢が変化することがある。このような場合、シートの位置や姿勢が、予め記憶された推定用地図情報の情報と異なってしまう。本実施の形態では、シート等の障害物の位置・姿勢の違いを吸収して、正確に自己位置推定を行う方法を提供する。
Embodiment 4 FIG.
In the present embodiment, an area where the position of the obstacle can be dynamically changed is provided in a partial area of the estimation map information. Then, the position of the obstacle in the dynamic region is determined based on the result of the laser measurement. For example, in the vehicle 50, the position and posture of the seat may change. In such a case, the position and orientation of the sheet differ from the information of the presumed map information stored in advance. In the present embodiment, there is provided a method for accurately estimating the self position by absorbing the difference in the position and posture of an obstacle such as a seat.

例えば、図17に示すように、領域R、Rを障害物の位置が変化する動的領域とする。一方、領域R,Rを障害物の位置が変化しない静的領域とする。具体的には、パッセンジャーシートの可動範囲を領域Rとし、セカンドシートの可動範囲を領域Rとして設定する。これらのシートは、位置、姿勢が変化するため、ロボット1が同じ位置に存在する場合でも、障害物までの距離が変化することがある。領域R、Rは例えば、車両50のボディの内壁等に相当する。 For example, as shown in FIG. 17, the regions R 1 and R 2 are dynamic regions in which the position of the obstacle changes. On the other hand, the regions R 3 and R 4 are static regions where the position of the obstacle does not change. Specifically, the movable range of the passenger seat and a region R 1, to set the movable range of the second seat as the region R 2. Since the positions and postures of these sheets change, the distance to the obstacle may change even when the robot 1 exists at the same position. Regions R 3 and R 4 correspond to, for example, the inner wall of the body of the vehicle 50.

地図情報記憶部22は、領域R、Rを動的領域とする推定用地図情報を予め記憶している。動的領域では、障害物が存在していないとする。すなわち、領域R、Rを除いた移動環境に対して障害物が存在する推定用地図情報を作成しておく。そして、レーザセンサ13、14による最初の測定結果に基づいて、領域R、Rの障害物の位置を測定する。そして、予め記憶している推定用地図情報に対して、領域R、Rにおける障害物の距離画像データを合成する。すなわち、地図情報作成部21が距離画像データの一部を切り出して、既に地図情報記憶部22記憶されている推定用地図情報にマージする。これにより、動的領域における障害物の座標が確定した推定用地図情報を作成することができる。 The map information storage unit 22 stores in advance map information for estimation in which the regions R 1 and R 2 are dynamic regions. It is assumed that no obstacle exists in the dynamic area. That is, map information for estimation in which an obstacle exists in the moving environment excluding the areas R 1 and R 2 is created. Then, based on the first measurement results by the laser sensors 13 and 14, measures the position of the obstacle in the region R 1, R 2. Then, the estimation map information stored in advance, to synthesize the range image data of the obstacle in the region R 1, R 2. That is, the map information creation unit 21 cuts out a part of the distance image data and merges it with the map information for estimation already stored in the map information storage unit 22. Thereby, the estimation map information in which the coordinates of the obstacle in the dynamic region are fixed can be created.

具体的には、図18に示すように、領域R,Rを障害物が全くない動的領域とする推定用地図情報Mが地図情報記憶部22に記憶されている。そして、自己位置推定部23が1回目のレーザ測定での距離画像データMを、推定用地図情報Mとマッチングする。これにより、推定用地図情報における自己位置が推定される。そして、推定された自己位置に基づいて、領域R,R内の障害物の距離画像データを抽出する。すなわち、距離画像データ中から、領域R、Rの距離画像データを取り出す。従って、領域R1,Rに配置された障害物の距離に応じた、領域R,Rの距離画像データが抽出される。そして、領域R,Rの距離画像データを推定用地図情報Mに合成する。これにより、動的領域における障害物の距離データが確定した推定用地図情報M10が作成される。この後は、推定用地図情報M10を用いて自己位置推定を行う。すなわち、推定用地図情報MにR、Rの距離画像データMがマージされた推定用地図情報M10に基づいて、自己位置が推定される。これにより、可動する障害物がある移動環境においても、自己位置推定の精度を向上することができる。 Specifically, as shown in FIG. 18, estimation map information M 8 to region R 1, R 2 obstacle is no dynamic region is stored in the map information storage unit 22. The self-position estimating portion 23 is the range image data M 9 of the laser measuring the first, matching the estimated map information M 8. Thereby, the self position in the estimation map information is estimated. Then, based on the estimated self-position, the distance image data of the obstacles in the regions R 1 and R 2 is extracted. That is, the distance image data of the regions R 1 and R 2 are extracted from the distance image data. Therefore, depending on the distance of the deployed obstacle region R1, R 2, the distance image data of the region R 1, R 2 are extracted. Then, the distance image data of the regions R 1 and R 2 is combined with the estimation map information M 8 . Thus, the estimation map information M 10 a distance data of an obstacle in the dynamic region is established is created. Thereafter, a self position estimated by using the estimation map information M 10. That is, the estimation map information M 8 on the basis of the R 1, R 2 of the distance image data M 9 is estimation map information M 10 which are merged, the self-position is estimated. Thereby, even in a moving environment where there are movable obstacles, the accuracy of self-position estimation can be improved.

次に、図19を用いて、本実施形態にかかる自己位置推定方法について説明する。図19は、自己位置推定方法を示すフローチャートである。また、図19に示す自己位置推定方法では、実施の形態2で示した自己位置推定方法を利用している。すなわち、自己位置に応じて推定用地図情報を切り替えている。従って、実施の形態1、2で説明した内容については、適宜説明を省略する。具体的には、図19に示すステップS501〜ステップS503が図11のステップS201〜ステップS203に対応する。   Next, the self-position estimation method according to the present embodiment will be described with reference to FIG. FIG. 19 is a flowchart showing a self-position estimation method. Further, in the self-position estimation method shown in FIG. 19, the self-position estimation method shown in the second embodiment is used. That is, the estimation map information is switched according to the self position. Therefore, the description of the contents described in Embodiments 1 and 2 will be omitted as appropriate. Specifically, steps S501 to S503 shown in FIG. 19 correspond to steps S201 to S203 in FIG.

ここで、ステップS502では、動的領域の障害物を除いた推定用地図情報によって自己位置推定を行う。従って、自己位置推定ができたら(ステップS503のYES)、座席位置の地図を動的に作成する(ステップS504)。すなわち、自己位置推定に用いた距離画像データMから、領域R,Rの距離画像データを抽出し、動的領域の障害物を除いた推定用地図情報Mと合成する。これにより、推定用地図情報M10が作成される。推定用地図情報10では、領域R,R内の障害物の位置が確定している。 Here, in step S502, self-position estimation is performed using the estimation map information excluding obstacles in the dynamic region. Therefore, if self-position estimation is completed (YES in step S503), a seat position map is dynamically created (step S504). That is, the distance image data of the areas R 1 and R 2 are extracted from the distance image data M 9 used for the self-position estimation and synthesized with the estimation map information M 8 excluding the obstacles in the dynamic area. As a result, the estimation map information M 10 is created. In the estimation map information 10 , the position of the obstacle in the areas R 1 and R 2 is fixed.

そして、レーザセンサ13、14の測定結果によって自己位置を推定しながら、スロープ54上、又は車両50の内部を移動する(ステップS505)。これ以降のステップS506〜ステップS509は、実施の形態2で示したステップS205〜ステップS208と同様であるため説明を省略する。   And it moves on the slope 54 or the inside of the vehicle 50, estimating a self-position by the measurement result of the laser sensors 13 and 14 (step S505). Subsequent steps S506 to S509 are the same as steps S205 to S208 shown in the second embodiment, and thus description thereof is omitted.

本実施の形態ではステップS504でレーザ測定の結果から推定用地図情報を作成している。ここでは、一度のレーザ測定結果から、切り替えに用いられる全ての推定用地図情報を作成しているが、一部の推定用地図情報を作成しても良い。この場合、別のレーザ測定結果から推定用地図情報を作成するようにする。   In this embodiment, map information for estimation is created from the result of laser measurement in step S504. Here, all the estimation map information used for switching is created from a single laser measurement result, but a part of the estimation map information may be created. In this case, the estimation map information is created from another laser measurement result.

次に、動的領域の障害物情報を加えた推定用地図情報の作成について、図20を用いて説明する。図20は、推定用地図情報を作成する方法を示すフローチャートである。先ず、ステップS504の処理となった段階で、予め作成した推定用地図情報とレーザデータのマッチング処理を行う(ステップS601)。すなわち、レーザ測定による距離画像データを、動的領域の障害物を除いた推定用地図情報にマッチングさせる。   Next, creation of estimation map information to which obstacle information of a dynamic area is added will be described with reference to FIG. FIG. 20 is a flowchart illustrating a method of creating estimation map information. First, at the stage of step S504, matching processing between preliminarily created map information for estimation and laser data is performed (step S601). That is, the distance image data obtained by laser measurement is matched with map information for estimation excluding obstacles in the dynamic area.

次に、動的領域内のレーザデータを算出する(ステップS602)。ここでは、例えば、動的領域内における障害物の座標が算出される。そして、動的領域内に障害物のデータが存在するか否かを判定する(ステップS603)。動的領域内に障害物のデータがあり場合(ステップS603のYES)、対象となる障害物のデータをメモリから切り取る(ステップS604)。すなわち、動的領域内の障害物の座標を抽出する。そして、予め作成していた推定用地図情報に、メモリから切り出したデータを上書きする。これにより、推定用地図情報に、動的領域内の障害物の情報が追加される。そして、障害物の情報が追加された推定用地図情報を用いて、図19で示した自己位置推定を行う。一方、動的領域に障害物のデータがない場合(ステップS603のNO)、マージ処理を行わず、次の処理に移行するステップ(S606)。すなわち、ステップS601で推定に用いられた推定用地図情報がそのまま使用される。   Next, laser data in the dynamic region is calculated (step S602). Here, for example, the coordinates of the obstacle in the dynamic region are calculated. Then, it is determined whether obstacle data exists in the dynamic area (step S603). If there is obstacle data in the dynamic area (YES in step S603), the target obstacle data is cut out from the memory (step S604). That is, the coordinates of the obstacle in the dynamic area are extracted. Then, the data extracted from the memory is overwritten on the estimation map information created in advance. Thereby, the information of the obstacle in the dynamic area is added to the estimation map information. Then, the self-position estimation shown in FIG. 19 is performed using the estimation map information to which the obstacle information is added. On the other hand, when there is no obstacle data in the dynamic area (NO in step S603), the merge process is not performed and the process proceeds to the next process (S606). That is, the estimation map information used for estimation in step S601 is used as it is.

このように、障害物の位置・姿勢が動的に変化する領域を動的領域とする。そして、動的領域では障害物のレーザデータを推定用地図情報に合成する。このようにすることで、正確な障害物の情報を有する推定用地図情報を利用することができる。よって、高精度で、自己位置推定することができる。なお、上記の説明では、動的領域をシートの可動範囲としてが、他の障害物の可動範囲を動的領域としてもよい。もちろん、その障害物が動くことができる最大の範囲を動的領域として設定すればよい。   In this way, a region where the position / posture of the obstacle dynamically changes is defined as a dynamic region. In the dynamic area, the laser data of the obstacle is combined with the estimation map information. In this way, it is possible to use the estimation map information having accurate obstacle information. Therefore, self-position estimation can be performed with high accuracy. In the above description, the dynamic region is the movable range of the seat, but the movable range of other obstacles may be the dynamic region. Of course, the maximum range in which the obstacle can move may be set as the dynamic region.

なお、上記の実施の形態1乃至4は、適宜組み合わせて実施してもよく、別々に実施しても良い。例えば、実施の形態1で作成した推定用地図情報を用いて地図情報を作成し、その推定用地図情報を用いて実施の形態2、3、4の自己位置推定方法で自己位置推定する。さらには、実施の形態2、3、及び4のうちの、2つ以上の自己位置推定方法を組み合わせも良く、それぞれ別個に用いてもよい。   Note that Embodiments 1 to 4 described above may be implemented in appropriate combination or separately. For example, map information is created using the estimation map information created in the first embodiment, and self-position estimation is performed using the estimation map information according to the second, third, and fourth embodiments. Furthermore, two or more self-position estimation methods in the second, third, and fourth embodiments may be combined and may be used separately.

実施形態1乃至4に示された方法によって、自己位置推定精度を向上することができる。例えば、揺れが大きい移動環境や、フロアの凹凸がある移動環境、スロープを上る移動環境等の場合、外乱が生じやすいが、上記の方法によってロバスト性を向上することができる。さらに、移動環境自体に特別な装置やセンサを用いる必要がなくなる。このように、上記の方法は、ウェルキャブ車両内への進入など、外乱の大きい移動環境に対して好適である。さらに3次元を測定するセンサを用いる必要がないため、小型化などを図ることができる。すなわち、2次元の測定面を測定するセンサを用いることでロボット1を小型化、軽量化することができる。さらに、2次元の情報を用いているため、演算時間を短縮することができる。   The self-position estimation accuracy can be improved by the methods shown in the first to fourth embodiments. For example, in the case of a moving environment with large shaking, a moving environment with uneven floors, a moving environment where a slope is climbed, disturbance is likely to occur, but the robustness can be improved by the above method. Further, it is not necessary to use a special device or sensor for the mobile environment itself. As described above, the above method is suitable for a moving environment with a large disturbance such as entering a well cab vehicle. Furthermore, since it is not necessary to use a sensor that measures three dimensions, the size can be reduced. That is, the robot 1 can be reduced in size and weight by using a sensor that measures a two-dimensional measurement surface. Furthermore, since two-dimensional information is used, the calculation time can be shortened.

1 ロボット
10 本体
11 前輪
12 後輪
13 レーザセンサ
14 レーザセンサ
15 角度変更機構
16 制御部
17 ジャイロセンサ
21 地図情報作成部
22 地図情報記憶部
23 自己位置推定部
24 駆動制御部
25 チルト角制御部
26 地図情報選択部
27 バッファ領域
50 車両
51 床
52 障害物
53 障害物
54 スロープ
55 天井
61 3次元位置測定器
91 合成領域
DESCRIPTION OF SYMBOLS 1 Robot 10 Main body 11 Front wheel 12 Rear wheel 13 Laser sensor 14 Laser sensor 15 Angle change mechanism 16 Control part 17 Gyro sensor 21 Map information preparation part 22 Map information storage part 23 Self-position estimation part 24 Drive control part 25 Tilt angle control part 26 Map information selection unit 27 Buffer area 50 Vehicle 51 Floor 52 Obstacle 53 Obstacle 54 Slope 55 Ceiling 61 3D position measuring device 91 Composite area

Claims (18)

移動環境内の推定用地図情報に基づいて自己位置を推定して、前記移動環境内を移動する自律移動体であって、
周囲の障害物までの距離に応じた距離データを測定するセンサ部と、
前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を複数記憶する地図情報記憶部であって、前記移動環境の異なる測定面での推定用地図情報を記憶する地図情報記憶部と、
前記自己位置又は前記センサ部の測定角度に基づいて、前記地図情報記憶部に記憶された複数の推定用地図情報の中から1つの推定用地図情報を選択する地図情報選択部と、
前記地図情報選択部で選択された推定用地図情報と前記センサ部で測定された距離データとに基づいて、自己位置を推定する自己位置推定部と、を備えた自律移動体。
An autonomous mobile that moves within the mobile environment by estimating its own position based on estimation map information in the mobile environment,
A sensor unit that measures distance data according to the distance to surrounding obstacles;
A map information storage unit that stores a plurality of two-dimensional estimation map information according to the arrangement of obstacles in the moving environment, and stores map information for estimation on different measurement surfaces of the moving environment And
A map information selection unit that selects one estimation map information from a plurality of estimation map information stored in the map information storage unit based on the self-position or the measurement angle of the sensor unit;
An autonomous mobile body comprising: a self-position estimating unit that estimates a self-position based on map information for estimation selected by the map information selecting unit and distance data measured by the sensor unit.
前記センサ部の測定角度を測定する角度センサをさらに備え、
前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、
前記角度センサの測定結果に応じて、前記位置情報選択部が前記推定用地図情報を選択する請求項1に記載の自律移動体。
An angle sensor for measuring a measurement angle of the sensor unit;
The map information storage unit stores map information for estimation of measurement surfaces at different angles,
The autonomous mobile body according to claim 1, wherein the position information selection unit selects the estimation map information according to a measurement result of the angle sensor.
前記自己位置推定部で推定された自己位置が所定の位置を越えたら、前記地図情報選択部が選択する推定用地図情報を切り替える請求項1、又は2に記載の自律移動体。   The autonomous mobile body according to claim 1 or 2, wherein when the self-position estimated by the self-position estimation unit exceeds a predetermined position, the map information for estimation selected by the map information selection unit is switched. 前記移動環境内の障害物の位置に応じて、前記推定用地図情報を切り替える位置が予め設定されている請求項3に記載の自律移動体。   The autonomous mobile body according to claim 3, wherein a position for switching the estimation map information is preset according to the position of an obstacle in the moving environment. 前記推定用地図情報を切り替える時に、前記自律移動体の移動が停止することを特徴とする請求項3、又は4に記載の移動体。   The moving body according to claim 3 or 4, wherein the movement of the autonomous moving body stops when the map information for estimation is switched. 前記距離データに応じた距離画像データと、前記推定用地図情報とをパターンマッチングして、自己位置を推定する請求項1乃至5のいずれか1項に記載の自律移動体。   The autonomous mobile body according to any one of claims 1 to 5, wherein the self-position is estimated by pattern-matching distance image data corresponding to the distance data and the estimation map information. 移動環境内の推定用地図情報に基づいて自己位置を推定して、前記移動環境内を移動する自律移動体であって、
周囲の障害物までの距離を測定するセンサ部と、
前記移動環境内の障害物の配置に応じた2次元の推定用地図情報を記憶する地図情報記憶部と、
前記自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、前記推定用地図情報に合成する地図情報作成部と、
前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果と、に基づいて、自己位置を推定する自己位置推定部と、を備える自律移動体。
An autonomous mobile that moves within the mobile environment by estimating its own position based on estimation map information in the mobile environment,
A sensor unit that measures the distance to surrounding obstacles;
A map information storage unit for storing two-dimensional map information for estimation according to the arrangement of obstacles in the moving environment;
A map information creation unit that cuts out distance image data based on the distance measured by the sensor unit during the movement of the autonomous mobile body and synthesizes it with the estimation map information;
An autonomous mobile body comprising: a self-position estimation unit that estimates a self-position based on the estimation map information obtained by combining the distance image data and the measurement result of the sensor unit after the combination.
前記移動環境の一部の領域に対応して、前記距離画像データが切り出され、
前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されている請求項7に記載の自律移動体。
The distance image data is cut out corresponding to a partial area of the moving environment,
The autonomous mobile body according to claim 7, wherein the partial area of the moving environment is set based on a movable range of the obstacle.
移動環境内の自己位置推定に用いられる推定用地図情報を作成する地図情報作成システムであって、
所定の測定面において、前記移動環境の障害物までの距離を測定するセンサ部と、
前記移動環境における前記センサ部の位置を測定する位置測定部と、
前記センサ部の測定面の角度を変更する角度変更機構と、
異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、前記推定用地図情報を作成する地図情報作成部と、を備える地図情報作成システム。
A map information creation system for creating estimation map information used for self-position estimation in a mobile environment,
A sensor unit for measuring a distance to an obstacle in the moving environment on a predetermined measurement surface;
A position measuring unit for measuring the position of the sensor unit in the moving environment;
An angle changing mechanism for changing the angle of the measurement surface of the sensor unit;
A map information creation system comprising: a map information creation unit that creates the map information for estimation by synthesizing distance image data corresponding to the distance measured by the sensor unit on measurement surfaces at different angles.
移動環境内の推定用地図情報に基づいて自己位置を推定する移動体における自己位置推定方法であって、
周囲の障害物までの距離に応じた距離データを測定するステップと、
前記移動環境内の障害物の配置に応じた2次元の推定用地図情報が異なる測定面毎に記憶された地図情報記憶部から、前記移動体の位置又は姿勢に基づいて、1つの推定用地図情報を選択するステップと、
選択された前記推定用地図情報と、前記距離データと、に基づいて自己位置を推定するステップと、を備える自己位置推定方法。
に基づいて自己位置を推定するステップと、を備える自己位置推定方法。
A self-position estimation method in a moving body that estimates self-position based on map information for estimation in a moving environment,
Measuring distance data according to the distance to surrounding obstacles;
One estimation map based on the position or orientation of the moving object from a map information storage unit storing two-dimensional estimation map information according to the arrangement of obstacles in the moving environment for each different measurement surface Selecting information,
A self-position estimation method comprising: estimating a self-position based on the selected map information for estimation and the distance data.
A self-position estimation method comprising: estimating a self-position based on
前記距離データを測定するセンサ部の測定角度を測定するステップをさらに備え、
前記地図情報記憶部が異なる角度の測定面の推定用地図情報を記憶しており、
前記測定角度に応じて、前記推定用地図情報を選択する請求項10に記載の自己位置推定方法。
Further comprising measuring a measurement angle of a sensor unit for measuring the distance data;
The map information storage unit stores map information for estimation of measurement surfaces at different angles,
The self-position estimation method according to claim 10, wherein the estimation map information is selected according to the measurement angle.
推定された前記自己位置が、所定の位置を越えたら、別の推定用地図情報に切り替える請求項10、又は11に記載の自己位置推定方法。   12. The self-position estimation method according to claim 10, wherein when the estimated self-position exceeds a predetermined position, switching to another estimation map information is performed. 前記移動環境内の障害物の位置に応じて、前記推定用地図情報を切り替える位置が予め設定されている請求項12に記載の自己位置推定方法。   The self-position estimation method according to claim 12, wherein a position for switching the estimation map information is preset according to the position of an obstacle in the moving environment. 前記推定用地図情報を切り替える時に、前記自律移動体の移動が停止することを特徴とする請求項12、又は13に記載の自己位置推定方法。   14. The self-position estimation method according to claim 12, wherein the movement of the autonomous mobile body stops when the estimation map information is switched. 前記距離データに応じた距離画像データと、前記推定用地図情報とをパターンマッチングして、自己位置を推定する請求項10乃至14のいずれか1項に記載の自己位置推定方法。   The self-position estimation method according to any one of claims 10 to 14, wherein the self-position is estimated by pattern matching the distance image data corresponding to the distance data and the estimation map information. 移動環境内の推定用地図情報に基づいて自己位置を推定する移動体における自己位置推定方法であって、
周囲の障害物までの距離を測定するステップと、
前記自律移動体の移動中に前記センサ部で測定された距離に基づく距離画像データを切り出して、推定用地図情報に合成するステップと、
前記距離画像データが合成された前記推定用地図情報と、合成した後の前記センサ部の測定結果とに基づいて、自己位置を推定するステップと、を備える自己位置推定方法。
A self-position estimation method in a moving body that estimates self-position based on map information for estimation in a moving environment,
Measuring the distance to surrounding obstacles;
Cutting out the distance image data based on the distance measured by the sensor unit during the movement of the autonomous mobile body and combining it with the estimation map information;
A self-position estimation method comprising: estimating the self-position based on the map information for estimation combined with the distance image data and the measurement result of the sensor unit after combining.
前記移動環境の一部の領域に対応して、前記距離画像データが切り出され、
前記移動環境の前記一部の領域が、前記障害物の可動範囲に基づいて設定されている請求項16に記載の自己位置推定方法。
The distance image data is cut out corresponding to a partial area of the moving environment,
The self-position estimation method according to claim 16, wherein the partial area of the moving environment is set based on a movable range of the obstacle.
移動環境内の自己位置推定に用いられる推定用地図情報を作成する地図情報作成方法であって、
所定の測定面において、前記移動環境の障害物までの距離を測定するステップと、
前記移動環境における前記センサ部の位置を測定するステップと、
前記センサ部の測定面の角度を変更するステップと、
異なる角度の測定面において前記センサ部が測定した距離に応じた距離画像データを合成して、推定用地図情報を作成するステップと、を備える地図情報作成方法。
A map information creation method for creating map information for estimation used for self-location estimation in a mobile environment,
Measuring a distance to an obstacle in the moving environment on a predetermined measurement surface;
Measuring the position of the sensor unit in the mobile environment;
Changing the angle of the measurement surface of the sensor unit;
A map information creating method comprising: synthesizing distance image data corresponding to the distance measured by the sensor unit on measurement surfaces of different angles to create map information for estimation.
JP2010074905A 2010-03-29 2010-03-29 Autonomous mobile body, self-position estimation method and map information creation system Pending JP2011209845A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010074905A JP2011209845A (en) 2010-03-29 2010-03-29 Autonomous mobile body, self-position estimation method and map information creation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010074905A JP2011209845A (en) 2010-03-29 2010-03-29 Autonomous mobile body, self-position estimation method and map information creation system

Publications (1)

Publication Number Publication Date
JP2011209845A true JP2011209845A (en) 2011-10-20

Family

ID=44940865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010074905A Pending JP2011209845A (en) 2010-03-29 2010-03-29 Autonomous mobile body, self-position estimation method and map information creation system

Country Status (1)

Country Link
JP (1) JP2011209845A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013076829A1 (en) * 2011-11-22 2013-05-30 株式会社日立製作所 Autonomous mobile system
CN103674015A (en) * 2013-12-13 2014-03-26 国家电网公司 Trackless positioning navigation method and device
CN104777835A (en) * 2015-03-11 2015-07-15 武汉汉迪机器人科技有限公司 Omni-directional automatic forklift and 3D stereoscopic vision navigating and positioning method
JP2016109650A (en) * 2014-12-10 2016-06-20 株式会社デンソー Position estimation system, position estimation method, and position estimation program
CN107922119A (en) * 2015-11-25 2018-04-17 株式会社日立制作所 Shelf configuration system, transfer robot and shelf collocation method
CN108008409A (en) * 2017-11-28 2018-05-08 深圳市杉川机器人有限公司 Region contour method for drafting and device
CN109602341A (en) * 2019-01-23 2019-04-12 珠海市微半导体有限公司 A kind of clean robot based on virtual boundary falls control method and chip
CN109975819A (en) * 2017-12-28 2019-07-05 沈阳新松机器人自动化股份有限公司 A kind of optimization method of cost laser measurement data
JP2019159520A (en) * 2018-03-09 2019-09-19 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
JP2019185213A (en) * 2018-04-04 2019-10-24 国立大学法人九州工業大学 Autonomous movement robot and control method thereof
CN112578789A (en) * 2019-09-30 2021-03-30 日本电产株式会社 Moving body
JP2022140794A (en) * 2018-03-09 2022-09-27 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
WO2023176328A1 (en) * 2022-03-16 2023-09-21 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013076829A1 (en) * 2011-11-22 2015-04-27 株式会社日立製作所 Autonomous mobile system
US9062980B2 (en) 2011-11-22 2015-06-23 Hitachi, Ltd. Autonomous mobile system
WO2013076829A1 (en) * 2011-11-22 2013-05-30 株式会社日立製作所 Autonomous mobile system
CN103674015A (en) * 2013-12-13 2014-03-26 国家电网公司 Trackless positioning navigation method and device
JP2016109650A (en) * 2014-12-10 2016-06-20 株式会社デンソー Position estimation system, position estimation method, and position estimation program
CN104777835A (en) * 2015-03-11 2015-07-15 武汉汉迪机器人科技有限公司 Omni-directional automatic forklift and 3D stereoscopic vision navigating and positioning method
CN107922119A (en) * 2015-11-25 2018-04-17 株式会社日立制作所 Shelf configuration system, transfer robot and shelf collocation method
CN107922119B (en) * 2015-11-25 2020-05-29 株式会社日立制作所 Shelf arrangement system, transfer robot, and shelf arrangement method
CN108008409A (en) * 2017-11-28 2018-05-08 深圳市杉川机器人有限公司 Region contour method for drafting and device
WO2019104866A1 (en) * 2017-11-28 2019-06-06 深圳市杉川机器人有限公司 Method and device for drawing region outline and computer readable storage medium
CN108008409B (en) * 2017-11-28 2019-12-10 深圳市杉川机器人有限公司 Region contour drawing method and device
US11275178B2 (en) 2017-11-28 2022-03-15 Shenzhen 3Irobotix Co., Ltd. Method and device for drawing region outline and computer readable storage medium
CN109975819A (en) * 2017-12-28 2019-07-05 沈阳新松机器人自动化股份有限公司 A kind of optimization method of cost laser measurement data
JP7306546B2 (en) 2018-03-09 2023-07-11 カシオ計算機株式会社 AUTONOMOUS MOBILE DEVICE, AUTONOMOUS MOVEMENT METHOD AND PROGRAM
JP2019159520A (en) * 2018-03-09 2019-09-19 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
JP7127303B2 (en) 2018-03-09 2022-08-30 カシオ計算機株式会社 AUTONOMOUS MOBILE DEVICE, AUTONOMOUS MOVEMENT METHOD AND PROGRAM
US11662738B2 (en) 2018-03-09 2023-05-30 Casio Computer Co., Ltd. Autonomous mobile apparatus, autonomous move method, and recording medium that use a selected environment map
JP2022140794A (en) * 2018-03-09 2022-09-27 カシオ計算機株式会社 Autonomous mobile device, autonomous mobile method and program
JP2019185213A (en) * 2018-04-04 2019-10-24 国立大学法人九州工業大学 Autonomous movement robot and control method thereof
JP7112066B2 (en) 2018-04-04 2022-08-03 国立大学法人九州工業大学 Autonomous mobile robot and its control method
CN109602341B (en) * 2019-01-23 2020-09-15 珠海市一微半导体有限公司 Cleaning robot falling control method and chip based on virtual boundary
CN109602341A (en) * 2019-01-23 2019-04-12 珠海市微半导体有限公司 A kind of clean robot based on virtual boundary falls control method and chip
CN112578789A (en) * 2019-09-30 2021-03-30 日本电产株式会社 Moving body
WO2023176328A1 (en) * 2022-03-16 2023-09-21 ソニーグループ株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
JP2011209845A (en) Autonomous mobile body, self-position estimation method and map information creation system
AU2022203742B2 (en) An Automatic Location Placement System
US11531342B2 (en) Automatic location placement system
JP4788722B2 (en) Autonomous mobile robot, self-position estimation method, environmental map generation method, environmental map generation device, and environmental map data structure
JP5510081B2 (en) Obstacle avoidance support device, obstacle avoidance support method, and moving object
JP5278283B2 (en) Autonomous mobile device and control method thereof
JP6711138B2 (en) Self-position estimating device and self-position estimating method
WO2011074165A1 (en) Autonomous mobile device
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
JP6867120B2 (en) Cartography method and cartography device
US11853064B2 (en) Automatic location placement system
JP2009031884A (en) Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
JP6828579B2 (en) Environmental maintenance robot and its control program
JP2008139035A (en) 3-d environment measurement device and mobile robot provided with the same
JP6074205B2 (en) Autonomous mobile
JP2018206004A (en) Cruise control device of autonomous traveling carriage, and autonomous travelling carriage
JP2009223757A (en) Autonomous mobile body, control system, and self-position estimation method
JP2009050936A (en) Interference determination device and leg wheel type robot
JP2009174898A (en) Moving body and environmental information generation method
JP2007190654A (en) Leg-wheel robot
JP2008260117A (en) Leg-wheel type robot and leg-wheel device
JP6863049B2 (en) Autonomous mobile robot
WO2023007562A1 (en) Control device
KR20140116623A (en) Method and robot for drawing a map based on location anticipation
WO2024034025A1 (en) Autonomous movement control device, autonomous movement system, autonomous movement method, and program