[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2019093316A1 - 移動体の測位装置及びその較正方法 - Google Patents

移動体の測位装置及びその較正方法 Download PDF

Info

Publication number
WO2019093316A1
WO2019093316A1 PCT/JP2018/041163 JP2018041163W WO2019093316A1 WO 2019093316 A1 WO2019093316 A1 WO 2019093316A1 JP 2018041163 W JP2018041163 W JP 2018041163W WO 2019093316 A1 WO2019093316 A1 WO 2019093316A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
marker
orientation
orientation information
marker image
Prior art date
Application number
PCT/JP2018/041163
Other languages
English (en)
French (fr)
Inventor
恵佑 渡邊
一敏 佐藤
裕人 吉村
田口 信幸
義勝 五百竹
柿本 英司
Original Assignee
国立研究開発法人宇宙航空研究開発機構
株式会社デンソー
日立造船株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 国立研究開発法人宇宙航空研究開発機構, 株式会社デンソー, 日立造船株式会社 filed Critical 国立研究開発法人宇宙航空研究開発機構
Publication of WO2019093316A1 publication Critical patent/WO2019093316A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments

Definitions

  • the present invention relates to a mobile object positioning apparatus that can be applied to automatic travel of a vehicle and the like, and a method of calibrating the same.
  • Satellite positioning is widely used in moving objects including automobiles, agricultural machines, construction machines, etc. However, satellite positioning can not be performed as in tunnels, underpasses, cities with many high-rise buildings, etc.
  • the position is estimated by dead reckoning navigation using a sensor such as an IMU (Inertial Measurement Unit: inertial measurement device) using a gyro or the like, a vehicle speed meter, or a barometer.
  • IMU Inertial Measurement Unit: inertial measurement device
  • the attitude (azimuth angle) of the moving object is indirectly estimated from the moving path between two points Only. For this reason, although it is possible to correct the output of the dead reckoning navigation (the position and the azimuth angle of the moving body), the accuracy is insufficient, for example, to calibrate the sensor itself such as IMU, speedometer, barometer is there.
  • an object of the present invention is to provide a positioning device capable of maintaining the output of dead-reckoning navigation with high accuracy in a situation where positioning by satellite, such as in a tunnel, is not possible, and a calibration method of the positioning device.
  • a plurality of marks are arranged in a similar manner to the pitch between a plurality of lenses forming a dead reckoning unit that generates position and orientation information by dead reckoning, a microlens array, and the microlens array.
  • An imaging unit configured to capture a marker image having a variable moiré pattern unit configured to generate a moiré interference fringe pattern by a mark row and at least two reference points; and a marker image captured by the imaging unit.
  • a calibration unit that calibrates position and orientation information generated by the dead reckoning navigation unit.
  • the positioning device According to the positioning device according to the present invention, it is possible to maintain the output of dead reckoning navigation with high accuracy in a situation where positioning by satellite, such as in a tunnel, is not possible.
  • any method may be used as long as it is a GNSS (Global Navigation Satellite System) method, for example, a real time kinematic positioning (RTK: Realtime Kinematic) method, a single carrier.
  • RTK Realtime Kinematic
  • PPP Precise Point Positioning
  • PPP-AR PPP Ambiguity Resolution
  • a plurality of markers 40 shown in FIG. 2 are installed in advance in the tunnel at predetermined intervals, and the accurate position and attitude of the vehicle are measured using the markers 40 by the method described below. . Also, it is possible to perform calibration of a sensor such as an IMU, which has conventionally been performed in a stopped state, while moving.
  • FIG. 1 shows a schematic block diagram of a positioning device 10 according to the present embodiment.
  • the positioning device 10 includes a GNSS unit 11, an IMU unit 12, a marker positioning unit 13, a control unit 14, a storage unit 15, a calibration unit 16, and an input / output unit 17.
  • the GNSS unit 11 functioning as a satellite positioning unit includes a GNSS antenna (not shown), measures the position of the GNSS antenna by satellite positioning, and outputs position information.
  • the IMU unit 12 functioning as a dead reckoning navigation unit is a motion sensor (not shown) for detecting the 3-axis acceleration and attitude of the positioning device 10, a velocity sensor (not shown) for detecting the velocity of a moving object, and an altitude of the positioning device 10.
  • the IMU unit 12 detects the attitude of the moving object, moves from the GNSS unit 11 or the control unit 14 when the moving object enters a tunnel to which the signal from the positioning satellite can not reach and the positioning by the GNSS unit 11 can not be performed. It receives body position information and guesses the position of the mobile by dead reckoning.
  • the marker positioning unit 13 includes a position and orientation calculation unit 131, an angle calculation unit 132, and a position and orientation correction unit 133, and corrects the output of the position and orientation information by the IMU unit 12 using the marker 40 shown in FIG. And an image processing apparatus (not shown) for processing an image captured by a camera 134 as an imaging unit and an image captured by the camera 134 attached to the front of the vehicle for capturing an image of the marker 40.
  • the position and orientation calculation unit 131 calculates relative position and orientation information of the camera 134, that is, the moving object with respect to the marker 40, based on the image of the marker 40 captured by the camera 134.
  • the angle calculation unit 132 calculates a line-of-sight angle which is an angle formed by the camera 134, that is, the moving body with respect to the marker 40, based on the image of the marker 40 captured by the camera 134.
  • the position and orientation correction unit 133 corrects the relative position and orientation information of the moving body with respect to the marker 40 calculated by the position and orientation calculation unit 131 using the gaze angle calculated by the angle calculation unit 132.
  • the control unit 14 executes various calculations and controls in addition to calculating the position and orientation of the moving object based on the information from the GNSS unit 11, the IMU unit 12, and the marker positioning unit 13.
  • the storage unit 15 relates to identification information for specifying each marker from an image obtained by imaging the ID unit 41 of each marker 40 and the position and orientation of each marker 40 measured in advance in the earth coordinate system. Information is stored in association with each other.
  • the storage unit 15 is also used as a temporary storage unit in various operations.
  • the calibration unit 16 calibrates various sensors included in the IMU unit 12 based on the position and orientation information generated by the marker positioning unit 13.
  • the input / output unit 17 outputs the position and orientation information of the moving object calculated by the control unit 14 to the control unit (not shown) of the moving object and the display unit (not shown), while the control instruction to the control unit 14 Receive input.
  • FIG. 2 is a schematic plan view of the marker 40 used in the present embodiment.
  • the marker 40 uses, for example, the LentiMark described in "LentiMark: a visual marker for high-accuracy posture estimation using a lenticular lens" (The Institute of Electronics, Information and Communication Engineers D Vol. J 95-D No. 8 pp 1522-2529). be able to.
  • the marker 40 includes an ID portion 41 displaying the center marker identification information, an X-axis variable moiré pattern portion 42 provided along the right side around the ID portion 41, and a Y-axis provided along the upper side It comprises a variable moire pattern portion 43 and reference points 46a to 46d at four corners.
  • ID section 41 for example, unique ID information for identifying the marker 40 and accurate position and orientation information of the marker 40 are encoded and embedded in the figure. That is, the shape of the ID section 41 is different depending on each marker 40, the ID section 41 is imaged by the camera 134, the image is processed, and the marker positioning section 13 recognizes and installs the respective markers 40. It is possible to identify position coordinates and position / orientation information GP 41 that is its orientation. As tools that can be used for this identification, ARTool Kit, ARTag, CyberCode, ARTool Kit Plus, etc. are known. Also, a code called a two-dimensional barcode or QR code (registered trademark) can be used for this ID section 41.
  • the reference points 46a to 46d disposed at the four corners of the marker 40 are used to measure the distance from the moving object observing the marker 40 to the marker 40 and the relative position and orientation of the moving object with respect to the marker 40. Since the diameter of the reference point and the distance between the reference points are known in advance, the distance from the moving object to the marker 40 and the marker 40 can be determined by measuring the size and distance of the reference point in the image captured by the camera 134. It is possible to know the displacement angle with respect to the normal of, that is, the relative position and orientation information of the moving body.
  • the lenticular lens is on the black and white striped pattern, and the axial direction of each cylindrical lens constituting the lenticular lens is parallel to the striped pattern.
  • the X-axis variable moiré pattern portion 42 and the Y-axis variable moiré pattern portion 43 are viewed from the front by making the intervals of the cylindrical lenses and the intervals of the stripe pattern different from each other.
  • black stripes (called "black peaks") 42a and 43a appear respectively. The position of the black peak largely changes only by slightly rotating the X-axis variable moiré pattern portion 42 and the Y-axis variable moiré pattern portion 43 around an axis parallel to the cylindrical lens.
  • variable moire pattern portion can adjust the sensitivity of rotational angle detection by changing the distance between the cylindrical lenses and the distance between the stripes.
  • the X-axis variable moiré pattern portion 42 and the Y-axis variable moiré pattern portion 43 are described in detail with reference to FIGS. 3 to 8 of Japanese Patent No. 5842248 and the related specification.
  • the black peak 42a appearing in the X-axis variable moiré pattern portion 42 moves in the vertical direction. That is, the X-axis variable moiré pattern unit 42 can detect the line-of-sight angle of the X-axis of the moving body with reference to the normal line of the marker 40.
  • the black peak 43a appearing in the Y axis variable moiré pattern portion 43 moves in the left and right direction.
  • the Y-axis variable moiré pattern unit 43 can detect the line-of-sight angle of the Y-axis of the movable body based on the normal line of the marker 40.
  • the X-axis variable moiré pattern portion 42 and the Y-axis variable moiré pattern portion 43 are each at one place, but in addition to these, it is also possible to add an angle detection variable moiré pattern portion with low sensitivity. It is possible.
  • the angle of the line of sight relative to the normal to the marker 40 can be determined with high accuracy by determining the rotation angles about the horizontal and vertical axes.
  • the angle from the front of the line of sight when observing the X axis variable moiré pattern portion 42 and the Y axis variable moiré pattern portion 43 that is, the method of the X axis variable moiré pattern portion 42 and the Y axis variable moiré pattern portion 43
  • the relationship between the angle between the line and the line of sight and the positions of the black peaks 42 a and 43 a can be measured in advance and stored in the storage unit 15.
  • FIG. 3 is a flowchart showing a dead reckoning process of the positioning device 10 mounted on a mobile traveling in the tunnel.
  • the positioning by the GNSS unit 11 is stopped, and the latest position information GP 11 already measured by the GNSS unit 11 is handed over to the IMU unit 12 and the dead reckoning navigation It is started (step S11).
  • the camera 134 captures an image of the marker 40 (step S12).
  • the positional relationship between the mobile unit and the camera 134 attached to the mobile unit is measured in advance, and stored in the storage unit 15 as a correction value.
  • the marker positioning unit 13 identifies the unique ID of the marker 40 from the image information of the ID unit 41 of the captured marker 40, and in the earth coordinate system associated with the unique ID stored in advance from the storage unit 15.
  • the position and orientation information GP 15 is read out (step S13). Note that instead of reading out the position and orientation information GP 15 associated with the unique ID stored in advance in the storage unit 15, the position information providing server (not shown) is connected via a network (not shown), The position and orientation information GP 15 associated with the unique ID may be read out. Further, instead of the identification of the unique ID, the position and orientation information GP 41 of the marker 40 embedded in the image information may be acquired.
  • the position and orientation calculation unit 131 calculates the relative position and orientation information CP 131 of the moving object with respect to the marker 40 based on the four reference points 41a to 41d included in the image information of the marker 40 captured in step S12 (step S14). ).
  • the angle calculation unit 132 analyzes the X-axis variable moiré pattern unit 42 and the Y-axis variable moiré pattern unit 43 included in the image information of the marker 40, and calculates the positions of black peaks 42a and 43a appearing due to the moiré pattern.
  • a line of sight angle ⁇ X on the X axis and a line of sight angle ⁇ Y on the Y axis, which the straight line connecting the center of the marker 40 and the camera 135 forms with respect to the normal of the marker 40 (step S15).
  • the position and orientation correction unit 133 corrects the relative position and orientation information CP 131 of the moving object with respect to the marker 40 determined in step S14 using ⁇ X and ⁇ Y calculated in step S15 (step S16), and step S13.
  • the position and orientation information GP 133 in the earth coordinate system of the moving object is calculated based on the position and orientation information GP 15 or GP 41 of the marker 40 acquired in the above, and output from the input / output unit 17 (step S17). As described above, the operation from step S11 to step S17 is continued until the radio wave of the navigation satellite can be received and the positioning by the GNSS unit 11 becomes possible.
  • FIG. 4 is a flowchart showing a calibration process of the IMU unit 12 according to the present embodiment.
  • the calibration unit 16 measures an elapsed time T after the calibration based on the time T 0 at which the IMU unit 12 was finally calibrated (step S21). If the elapsed time T after calibration exceeds a predetermined threshold value T X (step S22; YES), the position and orientation information GP 133 corrected in step S17 in FIG. 3 and the imaging in step S12 in FIG.
  • step S23 conducted comparing the position and orientation information GP 12 calculated by the IMU unit 12 at the same time (step S23), the threshold delta X which is a difference delta 0 between the position and orientation information GP 12 and the position and orientation information GP 133 predetermined in the case of more (step S24; YES), so that the position and orientation information GP 12 of the IMU unit 12 coincides with the position and orientation information GP 133 corrected in step S17, the output value of a sensor or the like having the IMU 12 Calibrate (step S25).
  • step S22 if the elapsed time T is very small in step S22; and (Step S22 NO), if the error delta 0 of position and orientation information is smaller than a threshold delta X (step S24; NO), without calibration process End the process.
  • Markers 40 are installed at appropriate intervals in the tunnel, for example, at intervals of 100 meters, and if the marker positioning unit 13 performs the positioning operation each time the mobile passes each marker, the accuracy of the mobile is obtained. Do position and can know the orientation continuously, since the output GP 12 of the IMU unit 12 can be corrected each time, it can be greatly suppressed the accumulation of error in the output GP 12 of the IMU unit 12.
  • information GP 15 related to the position and orientation of each marker 40 measured in advance in the storage unit 15 of the positioning device 10 are stored in a server on a network (not shown), It is also possible to access the relevant server of the network via wireless communication and download these information GP 15 accordingly . Further, the information GP 15 and GP 133, it is also possible to share with the other plurality of vehicles traveling close via the wireless communication. The difference ⁇ 0 between the information GP 12 of the position and orientation of the vehicle determined by the IMU unit 12 and the information GP 133 of the position and orientation of the vehicle determined using the marker is shared among a plurality of vehicles via the network It is also possible.
  • the present invention can be applied to any place where the marker 40 can be installed even under such circumstances, and there are urban areas where lower buildings and high-rise buildings are lined up.
  • the present invention can be applied instead of satellite positioning.
  • the corrected position and orientation information GP 133 of the IMU unit 12 is supplied to the GNSS unit 11, It can be used for estimation of positioning parameters of the PPP scheme or the PPP-AR scheme by the GNSS unit 11. Since the supplied position and orientation information GP 133 is accurate, the time required for the initialization process of the PPP method or the PPP-AR method can be significantly reduced.
  • initialization is generally performed. It can be used for estimation of positioning parameters of the PPP method or the PPP-AR method which requires time for processing. And, since this data is correct, the time required for the initialization process of the PPP system or the PPP-AR system can be greatly reduced. As described above, if markers are used in the tunnel and positioning using the GNSS is resumed when exiting the tunnel, positioning can be performed seamlessly inside and outside the tunnel.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

トンネル内などの衛星による測位が不可能な状況において推測航法の出力を高い精度で補正することができる測位装置及び測位装置の較正方法を提供する。マイクロレンズアレイと、マイクロレンズアレイを構成する複数のレンズ間のピッチと相似に複数のマークが配列されたマーク列とによって、モアレ干渉縞パターンを生じるように構成された可変モアレパターン部および少なくとも2つの基準点を備えたマーカ画像を利用して、移動体の位置及び姿勢を測定する。

Description

移動体の測位装置及びその較正方法
 本発明は、車両の自動走行などにも適用できる、移動体の測位装置及びその較正方法に関する。
 自動車、農業機械、建設機械などを含む移動体では、衛星測位が広く利用されるようになっているが、トンネル内、高架下、高層ビルの多い都市などのように衛星測位を行うことができない環境では、ジャイロなどを利用したIMU(Inertial Measurement Unit:慣性計測装置)、車速計、気圧計などのセンサを用いた推測航法によって位置の推定がなされている。
 しかしながら、推測航法においては、測位装置の較正後の時間の経過とともに、実際の位置との誤差が蓄積するため、限られた範囲でしか求められる精度を得ることができないという問題があった。このような問題に対して、例えば移動体の走行路に沿って一定間隔で反射体を設置し、移動体と反射体の相対距離を計測することで誤差を補正する方法が提案されている(特許文献1)。
特許第3710451号公報
 上記文献1において提案されている技術では、移動体の位置を精度よく測定することは可能であるものの、移動体の姿勢(方位角)は2地点間の移動経路から間接的に推定しているのみである。このため、推測航法の出力(移動体の位置と方位角)を補正することはできても、例えば、IMU、車速計、気圧計等のセンサそのものを較正するためには、精度が不十分である。
 そこで、本発明は、トンネル内などの衛星による測位が不可能な状況において推測航法の出力を高い精度で維持することができる測位装置及びこの測位装置の較正方法を提供することを目的とする。
 本発明に係る測位装置は、推測航法により位置姿勢情報を生成する推測航法部と、マイクロレンズアレイと、前記マイクロレンズアレイを構成する複数のレンズ間のピッチと相似に複数のマークが配列されたマーク列とによって、モアレ干渉縞パターンを生じるように構成された可変モアレパターン部および少なくとも2つの基準点を備えたマーカ画像を撮像する撮像部と、前記撮像部で撮像されたマーカ画像に基づいて、前記推測航法部の生成する位置姿勢情報を較正する較正部とを有する。
 本発明に係る測位装置によれば、トンネル内などの衛星による測位が不可能な状況において推測航法の出力を高い精度で維持することができる。
本発明の実施形態に係る測位装置の概略ブロック図である。 本実施形態で使用するマーカの概略平面図である。 本実施形態に係る測位装置の推測航法処理を示すフローチャートである。 本実施形態に係る測位装置のIMU部の較正処理を示すフローチャートである。
 以下に、本発明の実施形態について説明する。本実施形態では、測位装置による衛星測位が不可能となる状況の一例として、航法衛星から送信された航法信号を受信できないトンネル内での、測位装置が搭載された移動体である車両の自動走行について説明する。
 車両の自動走行を実現するためには、測位装置により、車両の正確な位置を常時把握しておく必要がある。衛星測位が可能な一般の道路上では、GNSS(全地球航法衛星システム:Global Navigation Satellite System)の方式ならばいずれの方式でもよく、例えば、リアルタイムキネマティック測位(RTK:Realtime Kinematic)方式、単独搬送波位相測位(PPP:Precise Point Positioning)方式、PPP-AR(PPP Ambiguity Resolution)方式等を採用することにより、数センチメートル程度の誤差で正確な測位が可能となっている。しかしながら、トンネルの中のような衛星測位が不可能となる状況下では、例えばIMUを用いた推測航法に切り換えて車両の位置を推定することになるが、前述のようにIMUによる位置推定には誤差の蓄積という問題があり、トンネルの距離が長い場合には蓄積される誤差は無視できなくなる。そこで、本実施形態では、例えば図2に示すマーカ40を、トンネル内に所定の間隔で予め複数設置し、以下に説明する方法でマーカ40を利用して車両の正確な位置及び姿勢を測定する。また、従来では停止状態で行うのが一般的であった、IMU等のセンサの較正を移動中にも行えるようにするものである。
 図1は、本実施形態に係る測位装置10の概略ブロック図を示している。測位装置10には、GNSS部11、IMU部12、マーカ測位部13、制御部14、記憶部15、較正部16、入出力部17が含まれている。
 衛星測位部として機能するGNSS部11にはGNSSアンテナ(不図示)が含まれており、衛星測位によってGNSSアンテナの位置を測定して位置情報を出力する。
 推測航法部として機能するIMU部12は、測位装置10の3軸加速度および姿勢を検出するモーション・センサ(不図示)、移動体の速度を検出する速度センサ(不図示)、測位装置10の高度を検出する気圧計(不図示)等のセンサを有する。IMU部12は、移動体の姿勢を検出するとともに、測位衛星からの信号が届かないトンネルに移動体が入り、GNSS部11による測位ができなくなった時点で、GNSS部11又は制御部14から移動体の位置情報を受け取って、推測航法により移動体の位置を推測する。
 マーカ測位部13は、位置姿勢算出部131、角度算出部132、位置姿勢修正部133を有し、図2に示すマーカ40を使用して、IMU部12による位置姿勢情報の出力を補正するものであり、マーカ40を撮像するために車両の前方に取り付けられた、撮像部としてのカメラ134及びカメラ134が撮像した画像を処理する画像処理装置(不図示)が含まれている。
 位置姿勢算出部131は、カメラ134が撮像したマーカ40の画像に基づいて、マーカ40に対するカメラ134すなわち移動体の相対的な位置姿勢情報を算出する。角度算出部132は、カメラ134が撮像したマーカ40の画像に基づいて、マーカ40に対してカメラ134すなわち移動体の成す角度である視線角度を算出する。位置姿勢修正部133は、角度算出部132において算出された視線角度を用いて、位置姿勢算出部131において算出されたマーカ40に対する移動体の相対的位置姿勢情報を修正する。
 制御部14は、GNSS部11、IMU部12、マーカ測位部13からの情報に基づいて移動体の位置および姿勢を算出する他、各種の演算及び制御を実行する。記憶部15には、各マーカ40のID部41を撮像して得られる画像から各マーカを特定するための識別情報と、予め測定されているそれぞれのマーカ40の地球座標系における位置及び姿勢に関する情報とが、互いに関連付けて記憶されている。また記憶部15は、各種演算における一時的な記憶手段としても使用される。
 較正部16は、マーカ測位部13で生成された位置姿勢情報に基づいて、IMU部12の有する各種センサの較正を行う。
 入出力部17は、制御部14により算出された移動体の位置姿勢情報を、移動体の制御部(不図示)や、表示部(不図示)に出力する一方、制御部14に対する制御指示の入力を受ける。
 図2は、本実施形態で使用するマーカ40の概略平面図である。マーカ40は、例えば「LentiMark:レンチキュラーレンズを用いた高精度な姿勢推定のための視覚マーカ」(電子情報通信学会誌D Vol.J95-D No.8 pp1522-1529)に記載のLentiMarkを使用することができる。マーカ40には、中央のマーカ識別情報が表示されるID部41と、その周囲の右辺に沿って設けられた、X軸用可変モアレパターン部42と、上辺に沿って設けられたY軸用可変モアレパターン部43と、四隅の基準点46a~46dから構成されている。
 ID部41には、例えばマーカ40を識別するためのユニークID情報およびマーカ40の正確な位置姿勢情報が符号化されて図形の中に埋め込まれている。すなわち、それぞれのマーカ40によってこのID部41の形状は異なっており、このID部41をカメラ134で撮像し、その画像を処理してマーカ測位部13が認識することによってそれぞれのマーカ40の設置位置の座標およびその向きである位置姿勢情報GP41を識別することができる。この識別のために使用できるものとしては、ARTool Kit、ARTag、CyberCode、ARTool Kit Plus等が知られている。また、2次元バーコード又はQRコード(登録商標)と呼ばれるコードをこのID部41に使用することもできる。
 マーカ40の四隅に配置された基準点46a~46dは、マーカ40を観測する移動体からマーカ40までの距離およびマーカ40に対する移動体の相対的位置姿勢を測定するのに使用される。この基準点の直径と各基準点同士の間隔は予め分かっているので、カメラ134で撮像した画像における基準点の大きさ及び間隔を計測することによって、移動体からマーカ40までの距離およびマーカ40の法線に対する変位角度、すなわち移動体の相対的位置姿勢情報を知ることができる。
 X軸用可変モアレパターン部42、Y軸用可変モアレパターン部43のそれぞれは、レンチキュラーレンズを白黒縞模様の上に、レンチキュラーレンズを構成する各シリンダー状レンズの軸方向と縞模様とが平行になるように貼り付けて作成されるもので、シリンダー状レンズの間隔と縞模様の間隔を異ならせることによって、X軸用可変モアレパターン部42およびY軸用可変モアレパターン部43を正面から見たときに、それぞれ黒い縞模様(「黒ピーク」と呼ぶ)42aおよび43aが現れる。この黒ピークの位置は、X軸用可変モアレパターン部42およびY軸用可変モアレパターン部43がシリンダー状レンズと平行な軸の回りに僅かに回転するだけで大きく変化する。すなわち、黒ピークの位置に基づいて高い感度でマーカ40に対する移動体の相対的な回転角度を検出することができる。可変モアレパターン部は、シリンダー状レンズの間隔と縞模様の間隔とを変えることによって、回転角度検出の感度を調整することができる。X軸用可変モアレパターン部42およびY軸用可変モアレパターン部43については、特許第5842248号公報の図3~図8及びこれに関連する明細書の記載によって詳しく説明されている。
 図2に示したマーカ40が水平方向の軸(X軸)の回りに回転すると、X軸用可変モアレパターン部42に現れる黒ピーク42aは上下方向に移動する。すなわち、X軸用可変モアレパターン部42は、マーカ40の法線を基準とした移動体のX軸の視線角度を検出することができる。また、マーカ40が垂直方向の軸(Y軸)の回りに回転すると、Y軸用可変モアレパターン部43に現れる黒ピーク43aは左右方向に移動する。すなわち、Y軸用可変モアレパターン部43はマーカ40の法線を基準とした移動体のY軸の視線角度を検出することができる。本実施形態では、X軸用可変モアレパターン部42およびY軸用可変モアレパターン部43はそれぞれ1カ所としているが、これらに加えて低い感度での角度検出用可変モアレパターン部を付加することも可能である。水平方向、垂直方向の軸の回りの回転角度を求めることによって、マーカ40の法線に対する視線の角度を高い精度で求めることができる。X軸用可変モアレパターン部42およびY軸用可変モアレパターン部43を観察したときの視線の正面からの角度、すなわち、X軸用可変モアレパターン部42およびY軸用可変モアレパターン部43の法線と視線との角度と、各黒ピーク42aおよび43aの位置との関係は、予め計測して記憶部15に記憶しておくことができる。
 本実施形態に係る測位装置10の動作について説明する。図3は、トンネル内を走行する移動体に搭載された測位装置10の推測航法処理を示すフローチャートである。
 移動体がトンネル内に入り、航法衛星の電波を受信できなくなると、GNSS部11による測位を停止し、GNSS部11で測位済みの最新の位置情報GP11をIMU部12に引き継ぎ、推測航法が開始される(ステップS11)。移動体がマーカ40に近づくと、カメラ134によってマーカ40を撮像する(ステップS12)。なお、移動体とこれに取り付けられたカメラ134の位置関係は予め測定されており、記憶部15に補正値として記憶されている。
 マーカ測位部13では、撮像されたマーカ40のID部41の画像情報からマーカ40のユニークIDを識別して、記憶部15から予め記憶されている当該ユニークIDと対応づけられた地球座標系における位置姿勢情報GP15を読み出す(ステップS13)。なお、記憶部15に予め記憶されている当該ユニークIDと対応づけられた位置姿勢情報GP15を読み出すのに代えて、図示しないネットワークを介して位置情報提供サーバ(不図示)に接続して、当該ユニークIDと対応づけられた位置及び姿勢情報GP15を読み出すようにしてもよい。また、ユニークIDの識別に代えて、画像情報に埋め込まれたマーカ40の位置姿勢情報GP41を取得してもよい。
 位置姿勢算出部131は、ステップS12で撮像されたマーカ40の画像情報に含まれる4つの基準点41a~41dに基づいて、マーカ40に対する移動体の相対位置姿勢情報CP131を算出する(ステップS14)。角度算出部132は、マーカ40の画像情報に含まれるX軸用可変モアレパターン部42およびY軸用可変モアレパターン部43を解析して、モアレパターンによって出現する黒ピーク42aおよび43a位置を算出し、マーカ40の中心とカメラ135とを結ぶ直線がマーカ40の法線に対して成すX軸上の視線角度θXおよびY軸上の視線角度θYを算出する(ステップS15)。
 位置姿勢修正部133は、ステップS15において算出されたθXおよびθYを用いて、ステップS14において判定されたマーカ40に対する移動体の相対位置姿勢情報CP131を修正し(ステップS16)、ステップS13で取得したマーカ40の位置姿勢情報GP15又はGP41に基づいて、移動体の地球座標系における位置姿勢情報GP133を算出して入出力部17から出力する(ステップS17)。以上、ステップS11からステップS17の動作を、航法衛星の電波を受信でき、GNSS部11による測位が可能となるまで継続する。
 以上のように、マーカ40の位置姿勢、移動体からマーカ40までの距離と視線の角度が正確に求められれば、マーカ40と移動体との相対位置が正確に求められる。そして、記憶部15から読み出されたそのマーカ40の地球座標系における位置及び姿勢と、マーカ40と移動体との相対位置とに基づいて、移動体の地球座標系における位置及び姿勢(すなわち、移動体の進行方向)を正確に算出することができる。
 得られた移動体の地球座標系における位置及び姿勢のデータを用いて、IMU部12の出力を正確に較正することもできる。図4は、本実施の形態に係るIMU部12の較正処理を示すフローチャートである。
 較正部16では、最後にIMU部12の較正を行った時刻T0を基準として、較正後の経過時間Tを計測する(ステップS21)。較正後の経過時間Tが予め定めた閾値TXを越えた場合には(ステップS22;YES)、図3のステップS17で補正された位置姿勢情報GP133と、図3のステップS12の撮像が行われた同時刻にIMU部12で算出された位置姿勢情報GP12とを比較し(ステップS23)、位置姿勢情報GP12と位置姿勢情報GP133との差異Δ0が予め定めた閾値ΔX以上の場合には(ステップS24;YES)、IMU部12の位置姿勢情報GP12がステップS17で補正された位置姿勢情報GP133と一致するように、IMU部12が有するセンサ等の出力値を較正する(ステップS25)。なお、ステップS22で経過時間Tが極めて小さい場合(ステップS22;NO)や、位置姿勢情報の誤差Δ0が閾値ΔXよりも小さい場合には(ステップS24;NO)、較正処理を行わずに処理を終了する。
 マーカ40は、トンネル内に適当の間隔、例えば100メートル間隔で設置しておき、移動体が各マーカを通過するたびにマーカ測位部13が測位動作を実行するようにすれば、移動体の正確な位置及び姿勢を継続的に知ることができ、IMU部12の出力GP12をその都度補正することができるので、IMU部12の出力GP12の誤差の蓄積を大幅に抑えることができる。
 予め測定された各マーカ40の位置及び姿勢に関する情報GP15を測位装置10の記憶部15に記憶しておくのに代えて、これらの情報を図示しないネットワーク上のサーバに記憶しておき、必要に応じて無線通信を介してネットワークの当該サーバにアクセスしてこれらの情報GP15をダウンロードすることも可能である。また、これらの情報GP15やGP133を、無線通信を介して近くを走行する別の複数の車両との間で共有するようにすることも可能である。IMU部12が求めた車両の位置及び姿勢の情報GP12と、マーカを利用して求めた車両の位置及び姿勢の情報GP133の差分Δ0を、ネットワークを介して複数の車両間で共有することも可能である。
 上記実施形態では、衛星測位が不可能となる状況の一例としてトンネルの中を、例えば自動運転で車両が走行する場合について説明したが、衛星測位が不可能となる状況には、他にも高架の下や高層ビルが立ち並ぶ都市部などがあり、このような状況下でもマーカ40を設置できるところであれば、本発明を適用することができる。また、衛星測位が不可能ではない状況下であっても、衛星測位の代わりに本発明を適用することも可能である。
 図3に示した処理において、航法衛星の電波を受信でき、GNSS部11による測位が可能となったときに、補正されたIMU部12の位置姿勢情報GP133をGNSS部11に供給すれば、GNSS部11によるPPP方式又はPPP-AR方式の測位パラメータの推定に利用することができる。供給された位置姿勢情報GP133が正確であることにより、PPP方式又はPPP-AR方式の初期化処理に要する時間を大幅に短縮することができる。
 すなわち上記実施形態では、マーカ40を使用することによって、トンネル内であっても走行している車両の正確な位置及び姿勢を知ることができるため、トンネルの出口にマーカ40を設置しておき、その正確な位置及び姿勢を測定しておいて、これを利用してトンネルから出る時点での正確な車両の位置及び姿勢を求め、そのデータをGNSS部11に供給すれば、一般的に初期化処理に時間を要するPPP方式又はPPP-AR方式の測位パラメータの推定に利用することができる。そして、このデータが正確であることにより、PPP方式又はPPP-AR方式の初期化処理に要する時間を大幅に短縮することができる。このように、トンネル内ではマーカを利用し、トンネルから出た時点でGNSSを用いた測位を再開するようにすれば、トンネルの内及び外においてシームレスに測位を行うことができる。
10 測位部
11 GNSS部
12 IMU部
13 マーカ測位部
14 制御部
15 記憶部
40 マーカ
41 ID部
42 X軸用可変モアレパターン部
43 Y軸用可変モアレパターン部
46a、46b、46c、46d 基準点

Claims (4)

  1. 推測航法により位置姿勢情報を生成する推測航法部と、
    マイクロレンズアレイと、前記マイクロレンズアレイを構成する複数のレンズ間のピッチと相似に複数のマークが配列されたマーク列とによって、モアレ干渉縞パターンを生じるように構成された可変モアレパターン部および少なくとも2つの基準点を備えたマーカ画像を撮像する撮像部と、
    前記撮像部で撮像されたマーカ画像に基づいて、前記推測航法部の生成する位置姿勢情報を較正する較正部とを有する測位装置。
  2. 前記撮像部で撮像された前記マーカ画像に含まれる少なくとも2つの基準点に基づいて、前記マーカ画像の位置姿勢情報を算出する位置姿勢算出部と、
    前記撮像部で撮像された前記マーカ画像に含まれる前記可変モアレパターン部に生じたモアレ干渉縞パターンを解析して、前記マーカと前記マーカ画像を撮像した地点とを結ぶ直線が前記マーカに対して成す視線角度を算出する角度算出部と、
    前記視線角度を用いて、前記位置姿勢算出部で算出された位置姿勢情報を修正する位置姿勢修正部とを有し、
    前記較正部は、前記位置修正部で修正された位置修正情報に基づいて、前記推測航法部の生成する位置姿勢情報を較正する請求項1に記載の測位装置。
  3. 衛星測位により地球座標位置を含む位置姿勢情報を生成する衛星測位部を有し、
    前記推測航法部は、前記較正部により較正された位置姿勢情報を前記衛星測位部に供給し、
    前記衛星測位部は、前記推測航法部から供給された位置姿勢情報を用いて衛星測位のパラメータ推定を行う請求項1または2に記載の測位装置。
  4. マイクロレンズアレイと、前記マイクロレンズアレイを構成する複数のレンズ間のピッチと相似に複数のマークが配列されたマーク列とによって、モアレ干渉縞パターンを生じるように構成された可変モアレパターン部および少なくとも2つの基準点を備えたマーカ画像を撮像部により撮像する工程と、
    撮像された前記マーカ画像に含まれる前記少なくとも2つの基準点に基づいて、前記マーカ画像の位置姿勢情報を位置姿勢算出部により算出する工程と、
    撮像された前記マーカ画像に含まれる前記可変モアレパターン部に生じた前記モアレ干渉縞パターンを解析して、前記マーカと前記マーカ画像を撮像した地点とを結ぶ直線が前記マーカに対して成す視線角度を角度算出部により算出する工程と、
    前記視線角度を用いて、前記マーカ画像の前記位置姿勢を記位置姿勢修正部により修正する工程と、
    修正された前記位置姿勢情報に基づいて、推測航法により位置姿勢情報を生成する推測航法部の位置姿勢情報を較正部により較正する工程と、
    を備える測位装置の較正方法。
PCT/JP2018/041163 2017-11-07 2018-11-06 移動体の測位装置及びその較正方法 WO2019093316A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-214560 2017-11-07
JP2017214560A JP2019086390A (ja) 2017-11-07 2017-11-07 移動体の測位装置及びその較正方法

Publications (1)

Publication Number Publication Date
WO2019093316A1 true WO2019093316A1 (ja) 2019-05-16

Family

ID=66437794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/041163 WO2019093316A1 (ja) 2017-11-07 2018-11-06 移動体の測位装置及びその較正方法

Country Status (2)

Country Link
JP (1) JP2019086390A (ja)
WO (1) WO2019093316A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388390B2 (ja) * 2021-04-14 2023-11-29 トヨタ自動車株式会社 位置情報取得システム、位置情報取得方法
CN118382787A (zh) * 2021-12-24 2024-07-23 日立安斯泰莫株式会社 车载电子控制装置以及位置推定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0385413A (ja) * 1989-08-30 1991-04-10 Okuma Mach Works Ltd 平均化回折モアレ位置検出器
JP2011129126A (ja) * 2009-12-17 2011-06-30 Deere & Co ランドマーク識別のための自動標識付け
JP2013517483A (ja) * 2010-01-18 2013-05-16 クアルコム,インコーポレイテッド オブジェクトを使用した慣性航法システムの整合および較正
JP2014508284A (ja) * 2011-01-11 2014-04-03 クゥアルコム・インコーポレイテッド 画像処理に基づくカメラベースの位置特定およびナビゲーション

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0385413A (ja) * 1989-08-30 1991-04-10 Okuma Mach Works Ltd 平均化回折モアレ位置検出器
JP2011129126A (ja) * 2009-12-17 2011-06-30 Deere & Co ランドマーク識別のための自動標識付け
JP2013517483A (ja) * 2010-01-18 2013-05-16 クアルコム,インコーポレイテッド オブジェクトを使用した慣性航法システムの整合および較正
JP2014508284A (ja) * 2011-01-11 2014-04-03 クゥアルコム・インコーポレイテッド 画像処理に基づくカメラベースの位置特定およびナビゲーション

Also Published As

Publication number Publication date
JP2019086390A (ja) 2019-06-06

Similar Documents

Publication Publication Date Title
US9134339B2 (en) Directed registration of three-dimensional scan measurements using a sensor unit
US10788830B2 (en) Systems and methods for determining a vehicle position
EP3637371B1 (en) Map data correcting method and device
US7895761B2 (en) Measurement method and measuring device for use in measurement systems
US11227168B2 (en) Robust lane association by projecting 2-D image into 3-D world using map information
US6931322B2 (en) Method for correcting position error in navigation system
KR101632225B1 (ko) 측지 측량 시스템 및 다수의 타겟 추적 기능을 갖는 방법
US20080319664A1 (en) Navigation aid
US8538671B2 (en) Apparatus and method for detecting position and orientation of mobile object
US8578765B2 (en) Method for wheel suspension measurement and a device for measuring the wheel suspension geometry of a vehicle
US10495456B2 (en) Method for calibrating a detection device, and detection device
CN108759834B (zh) 一种基于全局视觉的定位方法
CN113710988A (zh) 用于识别环境传感器的功能能力的方法、控制仪和车辆
US8199316B2 (en) Device and method for tracking the movement of a tool of a handling unit
JP2007506109A (ja) 携帯型測定装置の空間位置の決定方法とシステム
CN108759815A (zh) 一种用于全局视觉定位方法中的信息融合组合导航方法
WO2019093316A1 (ja) 移動体の測位装置及びその較正方法
JP5122693B1 (ja) 車載測量システム
KR20200119092A (ko) 차량 및 차량의 위치 검출 방법
US20170046953A1 (en) Method and apparatus for determining direction of the beginning of vehicle movement
CN108955683A (zh) 基于全局视觉的定位方法
KR20180137904A (ko) 차량 주행 정보의 보정 장치 및 방법
CN113063441A (zh) 里程计累计推算误差的数据源纠正方法及装置
US20220055655A1 (en) Positioning autonomous vehicles
JP2021017073A (ja) 位置推定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18876458

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18876458

Country of ref document: EP

Kind code of ref document: A1