JP7308141B2 - Self-position estimation method and self-position estimation device - Google Patents
Self-position estimation method and self-position estimation device Download PDFInfo
- Publication number
- JP7308141B2 JP7308141B2 JP2019239022A JP2019239022A JP7308141B2 JP 7308141 B2 JP7308141 B2 JP 7308141B2 JP 2019239022 A JP2019239022 A JP 2019239022A JP 2019239022 A JP2019239022 A JP 2019239022A JP 7308141 B2 JP7308141 B2 JP 7308141B2
- Authority
- JP
- Japan
- Prior art keywords
- error
- vehicle
- self
- profile
- threshold
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 91
- 238000001514 detection method Methods 0.000 claims description 168
- 238000005259 measurement Methods 0.000 claims description 71
- 230000001133 acceleration Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000010365 information processing Effects 0.000 description 7
- 238000002474 experimental method Methods 0.000 description 6
- 238000004088 simulation Methods 0.000 description 6
- 238000007476 Maximum Likelihood Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 230000010354 integration Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Instructional Devices (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
本発明は、自己位置推定方法及び自己位置推定装置に関する。 The present invention relates to a self-position estimation method and a self-position estimation device.
複数の検出部によって計測した物標の位置と、学習地図上の物標の位置の距離を最小化するような二次元変換を決定することで、車両の位置と向きとを推定する自己位置推定装置が提案されている(特許文献1参照)。 Self-position estimation that estimates the position and orientation of the vehicle by determining the two-dimensional transformation that minimizes the distance between the target position measured by multiple detection units and the target position on the learning map. A device has been proposed (see Patent Document 1).
特許文献1に記載の技術によれば、複数の検出部によって計測した車両座標系での物標の位置に基づいて、最尤推定により地図データ上での車両の位置及び向きを推定する。そのため、複数の検出部のうち一の検出部の測定誤差が大きい場合、当該一の検出部による測定結果に引きずられて、最尤推定によって求めた車両の位置及び向きの精度が低下してしまうという問題がある。 According to the technique described in Patent Document 1, the position and orientation of a vehicle on map data are estimated by maximum likelihood estimation based on the positions of targets in the vehicle coordinate system measured by a plurality of detection units. Therefore, if the measurement error of one of the plurality of detectors is large, the accuracy of the vehicle position and orientation determined by maximum likelihood estimation will be affected by the measurement result of that one detector. There is a problem.
本発明は、上記問題に鑑みてなされたものであり、その目的とするところは、複数の検出部による測定結果を組み合わせて、地図データ上での車両の位置及び向きを精度よく推定できる自己位置推定方法及び自己位置推定装置を提供することにある。 The present invention has been made in view of the above problems, and its object is to combine the measurement results of a plurality of detection units to accurately estimate the position and orientation of a vehicle on map data. An object of the present invention is to provide an estimation method and a self-position estimation device.
上述した問題を解決するために、本発明の一態様に係る自己位置推定方法及び自己位置推定装置は、車両の周囲の物標を検出する複数の検出部からの測定結果を用いて、地図データ上での車両の位置及び向きを推定する際に、車両の車両座標系において車両の前後方向、車両の幅方向にそれぞれ沿った物標の位置とそれらの誤差、車両から物標に向かう向きの角度とその誤差を、それぞれ推定し、推定された誤差が最小となる車両の前後方向に沿った物標の位置、車両の幅方向に沿った物標の位置、車両から物標に向かう向きの角度をそれぞれ選択し、選択した位置および角度に基づいて車両の位置及び向きを推定する。 In order to solve the above-described problems, a self-position estimation method and a self-position estimation device according to one aspect of the present invention use measurement results from a plurality of detection units that detect targets around a vehicle to generate map data. When estimating the position and orientation of the vehicle above, the position of the target along the longitudinal direction of the vehicle and the width direction of the vehicle in the vehicle coordinate system, their errors, and the direction from the vehicle to the target The angle and its error are estimated, and the position of the target along the front-back direction of the vehicle, the position of the target along the width direction of the vehicle, and the direction from the vehicle to the target at which the estimated error is the smallest. Each angle is selected and the position and orientation of the vehicle is estimated based on the selected position and angle.
本発明によれば、複数の検出部のうち一の検出部の測定結果が他の検出部による測定結果と比較して大きく異なってしまう場合であっても、複数の検出部による測定結果を組み合わせて、車両の位置及び向きを精度よく推定できる。 According to the present invention, even if the measurement result of one of the plurality of detection units is significantly different from the measurement results of the other detection units, the measurement results of the plurality of detection units are combined. Therefore, the position and orientation of the vehicle can be estimated with high accuracy.
[第1実施形態]
次に、図面を参照して、本発明の実施の形態を詳細に説明する。説明において、同一のものには同一符号を付して重複説明を省略する。
[First embodiment]
Embodiments of the present invention will now be described in detail with reference to the drawings. In the explanation, the same reference numerals are given to the same parts, and redundant explanations are omitted.
[自己位置推定装置の構成]
図1は、本実施形態に係る自己位置推定装置の構成を示すブロック図である。図1に示すように、本実施形態に係る自己位置推定装置は、複数の検出部40と、コントローラ100とを備える。なお、自己位置推定装置は、図示しない車両に搭載される。
[Configuration of self-localization device]
FIG. 1 is a block diagram showing the configuration of the self-position estimation device according to this embodiment. As shown in FIG. 1 , the self-position estimation device according to this embodiment includes a plurality of
検出部40は、車両の位置を決定するための基準となる物標の、車両との相対的な位置関係を出力する。
The
検出部40の例として、車両に搭載されたカメラによって撮像した画像に基づいて、車両周囲の白線を認識する白線検出部、停止線を検出する停止線検出部などが挙げられる。この他にも、車両に搭載されたレーダあるいはライダによって道路標識や建物などの車両周囲の立体物(静止物体)を検出するランドマーク検出部、人工衛星からの電波を受信することにより、地上における車両の位置を検出する衛星測位システム(GPS)に基づく位置検出部などがある。また、検出部40としては、車両モデルから車両の位置を推定する位置推定部も含まれる。例えば、車両モデルとしては、車両の車輪速と操舵角からオドメトリを求めて車両の位置を推定するモデルが考えられる。なお、白線や停止線等の車両周囲の道路上の表示や道路標識、建物等の車両周囲の立体物等の、静止した目標物を以下では物標と記載する。
Examples of the
コントローラ100(制御部、処理部の一例)は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。コントローラ100には、自己位置推定装置として機能させるためのコンピュータプログラム(自己位置推定プログラム)がインストールされている。コンピュータプログラムを実行することにより、コントローラ100は、自己位置推定装置が備える複数の情報処理回路(31、33、71、73、75、91、93)として機能する。
The controller 100 (an example of a control unit or processing unit) is a general-purpose microcomputer including a CPU (Central Processing Unit), memory, and an input/output unit. A computer program (self-position estimation program) for functioning as a self-position estimation device is installed in the
なお、ここでは、ソフトウェアによって自己位置推定装置が備える複数の情報処理回路(31、33、71、73、75、91、93)を実現する例を示す。ただし、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(31、33、71、73、75、91、93)を構成することも可能である。また、複数の情報処理回路(31、33、71、73、75、91、93)を個別のハードウェアにより構成してもよい。更に、情報処理回路(31、33、71、73、75、91、93)は、車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。 Here, an example of realizing a plurality of information processing circuits (31, 33, 71, 73, 75, 91, 93) included in the self-position estimation device by software is shown. However, it is also possible to configure the information processing circuits (31, 33, 71, 73, 75, 91, 93) by preparing dedicated hardware for executing each information processing described below. Also, the plurality of information processing circuits (31, 33, 71, 73, 75, 91, 93) may be configured by individual hardware. Furthermore, the information processing circuits (31, 33, 71, 73, 75, 91, 93) may also be used as an electronic control unit (ECU) used for other vehicle-related controls.
コントローラ100は、複数の情報処理回路(31、33、71、73、75、91、93)として、推定部31、誤差推定部33、第1選択部71、第2選択部73、第3選択部75、出力部91、誤差統合部93を備える。
The
推定部31は、検出部40の出力結果に基づいて、検出部40による検出対象となっている物標の、車両座標系から見た、車両の前後方向に沿った位置、車両の幅方向に沿った位置、及び、車両の前後方向を基準として車両から物標に向かう向きの角度を推定する。なお、以下の前提として、複数の検出部40による出力結果は、同一の物標に対する出力結果であるとする。
Based on the output result of the
推定部31による推定は、複数ある検出部40ごとに行われる。すなわち、推定部31は、検出部40ごと、且つ、車両の前後方向の位置(第1座標値)、車両の幅方向の位置(第2座標値)、物標へ向かう向きを示す角度(第3座標値)ごとに、推定結果を出力する。
The estimation by the
誤差推定部33は、検出部40の出力結果に基づいて、推定部31による出力結果に対する誤差を推定する。より具体的には、検出部40の出力結果に基づいて、検出部40ごとに、車両の前後方向の位置に含まれる誤差(第1誤差)、車両の幅方向の位置に含まれる誤差(第2誤差)、物標へ向かう向きを示す角度に含まれる誤差(第3誤差)ごとに、推定結果を出力する。
The
例えば、図3には、複数の検出部40からの出力結果として、第一の検出部40からの第一の出力結果(位置P1(X1,Y1)、誤差範囲R1)と、第二の検出部40からの第二の出力結果(位置P2(X2,Y2)、誤差範囲R2)とが示されている。推定部31による推定は複数ある検出部40ごとに行われ、推定部31は、車両の前後方向の位置(第1座標値)として「位置P1の座標値X1」「位置P2の座標値X2」を推定結果として出力している。また、推定部31は、車両の幅方向の位置(第2座標値)として「位置P1の座標値Y1」「位置P2の座標値Y2」を推定結果として出力している。
For example, FIG. 3 shows, as output results from the plurality of
また、図3では、誤差推定部33は、推定部31による推定結果「座標値X1」「座標値X2」「座標値Y1」「座標値Y2」に含まれる誤差として、「誤差ΔX1」「誤差ΔX2」「誤差ΔY1」「誤差ΔY2」を推定結果として出力している。ここで、「誤差ΔX1」「誤差ΔX2」は第1誤差であり、「誤差ΔY1」「誤差ΔY2」は第2誤差である。
Further, in FIG. 3, the
図3では、第3座標値、第3誤差については明示していないが、推定部31及び誤差推定部33は、物標へ向かう向きを示す角度についても同様に推定結果を出力する。また、図3では、複数の検出部40の出力結果として2つのみが示されているが、それ以上の個数の出力結果が存在する場合であっても、推定部31及び誤差推定部33は同様に処理を行う。
Although the third coordinate value and the third error are not explicitly shown in FIG. 3, the estimating
なお、誤差推定部33による誤差の推定には、種々の方法が存在する。例えば、検出部40自身が出力する誤差情報に基づいて誤差を推定するものであってもよいし、検出部40ごとの特性に基づく誤差モデルに基づいて、誤差を推定するものであってもよい。また、検出部40の出力結果だけでなく、車両の走行軌跡を表現する車両モデルをコントローラ100内部に保持しておき、当該車両モデルに基づいて推定される物標の位置と、検出部40自身が出力する誤差情報、検出部40ごとの特性に基づく誤差モデルに基づいて、誤差を推定するものであってもよい。
There are various methods for estimating the error by the
誤差推定部33で用いる誤差モデルには、種々のモデルが存在する。例えば、検出部40がカメラを含む場合、カメラの物標に対する移動速度と発生する誤差との関係を実測して、誤差モデルは作成されるものであってもよい。ここで、一般に、移動速度が大きくなるほど、発生する誤差は大きくなるため、移動速度の関数として、実測された誤差を評価する近似式として誤差モデルを作成することが可能である。
There are various error models used by the
また、カメラの物標までの撮像距離と発生する誤差の関係を実測して、誤差モデルは作成されるものであってもよい。 Also, the error model may be created by actually measuring the relationship between the imaging distance of the camera to the target and the error that occurs.
上記の他にも、カメラのレンズパラメータに基づいて計算によりカメラをモデル化し、モデル化したカメラの特性に基づいて、誤差モデルは作成されるものであってもよい。 In addition to the above, the camera may be modeled by calculation based on the lens parameters of the camera, and the error model may be created based on the characteristics of the modeled camera.
車両の走行軌跡を表現する車両モデルについても、種々のモデルが存在する。例えば、オドメトリおよび車両に車載される衛星測位システムに基づいて車両の走行軌跡を実測しておき、所定時間経過後の車両の位置を予測するモデルであってもよい。 There are also various models for vehicle models that express the travel locus of the vehicle. For example, it may be a model that predicts the position of the vehicle after a predetermined period of time by actually measuring the vehicle's travel locus based on odometry and a satellite positioning system mounted on the vehicle.
第1選択部71は、推定部31によって推定された複数の第1座標値の中で、第1誤差が最小となる第1座標値を、第1選択値として選択する。また、最小となる第1誤差を最小第1誤差として選択する。図3に示す例では、第1選択部71は、第1誤差である「誤差ΔX1」「誤差ΔX2」のうち、最小の第1誤差は「誤差ΔX1」であるので、複数の第1座標値である「座標値X1」「座標値X2」の中から、「誤差ΔX1」に対応付けられる「座標値X1」を、第1選択値として選択している。また、第1選択部71は、「誤差ΔX1」を最小第1誤差として選択している。
The
第2選択部73は、推定部31によって推定された複数の第2座標値の中で、第2誤差が最小となる第2座標値を、第2選択値として選択する。また、最小となる第2誤差を最小第2誤差として選択する。図3に示す例では、第2選択部73は、第2誤差である「誤差ΔY1」「誤差ΔY2」のうち、最小の第2誤差は「誤差ΔY2」であるので、複数の第2座標値である「座標値Y1」「座標値Y2」の中から、「誤差ΔY2」に対応付けられる「座標値Y2」を、第2選択値として選択している。また、第2選択部73は、「誤差ΔY2」を最小第2誤差として選択している。
The
第3選択部75は、推定部31によって推定された複数の第3座標値の中で、第3誤差が最小となる第3座標値を、第3選択値として選択する。また、最小となる第3誤差を最小第3誤差として選択する。第3選択部75は、第1選択部71及び第2選択部73と同様に、第3選択値及び最小第3誤差を、複数の第3座標値に基づいて選択する。
The
出力部91は、第1選択部71、第2選択部73、第3選択部75によってそれぞれ選択された第1選択値、第2選択値、第3選択値に基づいて、検出部40による検出対象となっている物標の位置及び角度を推定する。その他、出力部91は、推定した物標の位置及び角度に基づいて、車両の位置及び向きを推定する。すなわち、出力部91は、物標位置を含む地図データを予め記憶し、第1選択部71、第2選択部73、第3選択部75で選択された第1選択値、第2選択値、第3選択値と地図データとを照合して、地図データ上における、車両の位置及び向きを推定する。
Based on the first selection value, the second selection value, and the third selection value selected by the
図3に示す例では、出力部91は、第1選択値である「座標値X1」と、第2選択値である「座標値Y2」を、物標の位置PE(X1,Y2)であると推定している。
In the example shown in FIG. 3, the
図3では、第3選択値については明示していないが、出力部91は、物標へ向かう向きを示す角度についても、第3選択値に基づいて同様に推定する。
Although the third selection value is not explicitly shown in FIG. 3, the
誤差統合部93は、第1選択部71、第2選択部73、第3選択部75によってそれぞれ選択された最小第1誤差、最小第2誤差、最小第3誤差に基づいて、出力部91によって推定された物標の位置及び角度に関する誤差を推定する。その結果、出力部91によって推定された、地図データ上における車両の位置及び向きに関する誤差を推定する。
The
例えば、誤差統合部93は、推定された物標の位置及び角度に関する誤差が、最小第1誤差、最小第2誤差、最小第3誤差の合計であるとして推定する。
For example, the
[自己位置推定装置の処理手順]
次に、本実施形態に係る自己位置推定装置による自己位置推定の処理手順を、図2のフローチャートを参照して説明する。図2に示す自己位置推定の処理は、車両のイグニッションがオンされると開始し、イグニッションがオンとなっている間、繰り返し実行される。
[Processing procedure of the self-position estimation device]
Next, a processing procedure for self-position estimation by the self-position estimation device according to this embodiment will be described with reference to the flowchart of FIG. The self-position estimation process shown in FIG. 2 starts when the ignition of the vehicle is turned on, and is repeatedly executed while the ignition is on.
まず、ステップS101において、検出部40は、車両の位置を決定するための基準となる物標の、車両との相対的な位置関係を出力する。そして、推定部31は、検出部40の出力結果に基づいて、検出部40による検出対象となっている物標の、車両座標系から見た、車両の前後方向に沿った位置、車両の幅方向に沿った位置、及び、車両の前後方向を基準として車両から物標に向かう向きの角度を推定する。
First, in step S101, the
ステップS103において、誤差推定部33は、検出部40の出力結果に基づいて、推定部31による出力結果に対する誤差を推定する。
In step S<b>103 , the
ステップS105において、第1選択部71は、推定部31によって推定された複数の第1座標値の中で、第1誤差が最小となる第1座標値を、第1選択値として選択する。また、最小となる第1誤差を最小第1誤差として選択する。
In step S<b>105 , the
ステップS107において、第2選択部73は、推定部31によって推定された複数の第2座標値の中で、第2誤差が最小となる第2座標値を、第2選択値として選択する。また、最小となる第2誤差を最小第2誤差として選択する。
In step S<b>107 , the
ステップS109において、第3選択部75は、推定部31によって推定された複数の第3座標値の中で、第3誤差が最小となる第3座標値を、第3選択値として選択する。また、最小となる第3誤差を最小第3誤差として選択する。
In step S<b>109 , the
ステップS111において、出力部91は、第1選択部71、第2選択部73、第3選択部75に基づいて、地図データ上における、車両の位置及び向きを推定する。
In step S<b>111 , the
ステップS113において、誤差統合部93は、出力部91によって推定された、地図データ上における車両の位置及び向きに関する誤差を推定する。
In step S<b>113 , the
[実施形態の効果]
以上詳細に説明したように、本実施形態に係る自己位置推定方法及び自己位置推定装置は、車両の周囲の物標を検出する複数の検出部からの測定結果を用いて、地図データ上での車両の位置及び向きを推定する際に、複数の検出部ごとに、車両の車両座標系において、車両の前後方向に沿った物標の位置を第1座標値として推定し、第1座標値が有する誤差を第1誤差として推定し、車両の幅方向に沿った物標の位置を第2座標値として推定し、第2座標値が有する誤差を第2誤差として推定し、車両の前後方向を基準として車両から物標に向かう向きの角度を第3座標値として推定し、第3座標値が有する誤差を第3誤差として推定する。そして、推定された複数の第1座標値の中で第1誤差が最小となる第1座標値を、第1選択値として選択し、推定された複数の第2座標値の中で第2誤差が最小となる第2座標値を、第2選択値として選択し、推定された複数の第3座標値の中で第3誤差が最小となる第3座標値を、第3選択値として選択し、第1選択値、第2選択値、第3選択値に基づいて、車両の位置及び向きを推定する。
[Effects of Embodiment]
As described in detail above, the self-position estimation method and the self-position estimation device according to the present embodiment use the measurement results from a plurality of detection units that detect targets around the vehicle to determine the position on the map data. When estimating the position and orientation of the vehicle, each of the plurality of detection units estimates the position of the target along the longitudinal direction of the vehicle as a first coordinate value in the vehicle coordinate system of the vehicle. estimating the position of the target along the width direction of the vehicle as a first error, estimating the position of the target along the width direction of the vehicle as a second coordinate value, estimating the error of the second coordinate value as a second error, and estimating the longitudinal direction of the vehicle As a reference, the angle of the direction from the vehicle to the target is estimated as the third coordinate value, and the error of the third coordinate value is estimated as the third error. Then, a first coordinate value with the smallest first error among the estimated plurality of first coordinate values is selected as a first selection value, and a second error is selected among the plurality of estimated second coordinate values. is selected as the second selection value, and the third coordinate value with the minimum third error among the plurality of estimated third coordinate values is selected as the third selection value. , the first selection value, the second selection value, and the third selection value are used to estimate the position and orientation of the vehicle.
これにより、複数の検出部のうち一の検出部の測定結果が他の検出部による測定結果と比較して大きく異なってしまう場合であっても、複数の検出部による測定結果の中から、誤差が最も小さいと推定される量(車両の前後方向の位置(第1座標値)、車両の幅方向の位置(第2座標値)、物標へ向かう向きを示す角度(第3座標値))同士を組み合わせ、車両の位置及び向きを精度よく推定できる。 As a result, even if the measurement result of one of the plurality of detection units is significantly different from the measurement result of the other detection units, the error can be detected from the measurement results of the plurality of detection units. is estimated to be the smallest (position in the longitudinal direction of the vehicle (first coordinate value), position in the width direction of the vehicle (second coordinate value), angle indicating the direction toward the target (third coordinate value)) By combining them, the position and orientation of the vehicle can be estimated with high accuracy.
最尤推定による方法では、複数の検出部による複数の測定結果の中に、誤差の大きな測定結果が混入してしまう場合に、誤差の大きな測定結果に引きずられて、推定された車両の位置及び向きの精度が悪化してしまうことがある。結局のところ、最尤推定による方法は、測定結果が無限個の極限では正しい結果を与えるが、現実の測定では有限個の検出部しか利用することができないため、有限個の測定結果しか得られない。そのため、最尤推定による方法では、測定結果の誤差が問題となりうるのである。これと比較して、本実施形態による方法によれば、誤差の大きな測定結果に引きずられて、推定された車両の位置及び向きの精度が悪化してしまうことを抑制できる。 In the method using maximum likelihood estimation, when a measurement result with a large error is included in a plurality of measurement results obtained by a plurality of detection units, the estimated vehicle position and position are affected by the measurement result with a large error. Orientation accuracy may deteriorate. Ultimately, the maximum likelihood method gives correct results in the limit of infinite number of measurements, but in real measurements only a finite number of measurements are available because only a finite number of detectors are available. do not have. Therefore, the error in the measurement result can be a problem in the method based on maximum likelihood estimation. In comparison, according to the method of the present embodiment, it is possible to prevent deterioration of the accuracy of the estimated vehicle position and orientation due to measurement results with large errors.
また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、第1選択値が有する第1誤差、第2選択値が有する第2誤差、第3選択値が有する第3誤差の合計を算出するものであってもよい。これにより、推定された車両の位置及び向きについての誤差を評価することができる。また、車両モデルを介して将来の車両の位置及び向きについての誤差を評価するための基となるデータとすることができる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, the sum of the first error of the first selection value, the second error of the second selection value, and the third error of the third selection value is It may be calculated. This allows the error in the estimated vehicle position and orientation to be evaluated. It can also serve as a basis for evaluating errors in future vehicle position and orientation via a vehicle model.
さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、検出部ごとの誤差モデルを用いて、当該検出部における第1誤差、第2誤差、第3誤差をそれぞれ推定するものであってもよい。検出部毎に用意された誤差モデルを使用して誤差を推定するため、検出部毎の特性を考慮した誤差の推定を行うことができる。また、検出部が誤差モデルから離れた挙動を示した場合に、検出部が故障していること検知したり、もしくは、検出部が何らかの原因により通常の条件下で測定を行うことができていないことを検知したりできる。 Furthermore, in the self-position estimation method and self-position estimation device according to the present embodiment, the error model for each detection unit is used to estimate the first error, the second error, and the third error in the detection unit. may Since the error is estimated using the error model prepared for each detection unit, the error can be estimated in consideration of the characteristics of each detection unit. In addition, when the detection unit exhibits behavior that deviates from the error model, it is detected that the detection unit is malfunctioning, or the detection unit cannot perform measurement under normal conditions for some reason. can be detected.
また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、検出部がカメラである場合、誤差モデルは、カメラの移動速度と発生する誤差の間の関係を実測して作成されたものであってもよい。さらには、誤差モデルは、カメラの撮像距離と発生する誤差の関係を実測して作成されたものであってもよい。車両の移動に伴ってカメラに生じる誤差を、実測値に基づいて正確に評価でき、車両の位置及び向きを、より精度よく推定できる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, when the detection unit is a camera, the error model is created by actually measuring the relationship between the moving speed of the camera and the error that occurs. may be Furthermore, the error model may be created by actually measuring the relationship between the imaging distance of the camera and the error that occurs. Errors that occur in the camera as the vehicle moves can be accurately evaluated based on actual measurements, and the position and orientation of the vehicle can be estimated with higher accuracy.
さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、誤差モデルは、カメラのレンズパラメータに基づいて計算によりモデル化して作成されたものであってもよい。車両の移動に伴ってカメラに生じる誤差を、モデル化したカメラの特性に基づいて正確に評価でき、車両の位置及び向きを、より精度よく推定できる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, the error model may be created by modeling by calculation based on the lens parameters of the camera. Errors that occur in the camera as the vehicle moves can be accurately evaluated based on the modeled characteristics of the camera, and the position and orientation of the vehicle can be estimated more accurately.
また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、車両の車両モデルに基づいて、車両の位置及び向きを推定するものであってもよい。また、車両モデルは、オドメトリおよび車両に車載される衛星測位システムに基づいて実測して作成されたものであってもよい。車両モデルに基づいて推定することにより、車両の走行軌跡と推定された車両の位置及び向きとの間のズレ量を誤差の評価に利用することができ、車両の位置及び向きの推定を改善できる。 Moreover, in the self-position estimation method and the self-position estimation device according to the present embodiment, the position and orientation of the vehicle may be estimated based on the vehicle model of the vehicle. Also, the vehicle model may be created by actual measurement based on odometry and a satellite positioning system mounted on the vehicle. By estimating based on a vehicle model, the amount of deviation between the trajectory of the vehicle and the estimated position and orientation of the vehicle can be used to evaluate the error, improving the estimation of the vehicle position and orientation. .
さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、車両モデルと、検出部ごとの誤差モデルを用いて、当該検出部における第1誤差、第2誤差、第3誤差を推定するものであってもよい。検出部毎に用意された誤差モデルを使用して誤差を推定するため、検出部毎の特性を考慮した誤差の推定を行うことができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, the vehicle model and the error model for each detection unit are used to estimate the first error, the second error, and the third error in the detection unit. can be anything. Since the error is estimated using the error model prepared for each detection unit, the error can be estimated in consideration of the characteristics of each detection unit.
また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、過去の時点で選択された、第1選択値、第2選択値、第3選択値に基づいて、車両の位置及び向きを推定するものであってもよい。過去の時点で選択された、第1選択値、第2選択値、第3選択値も推定に利用することで、推定に使用するデータ量を増やすことが可能となり、車両の位置及び向きを、より精度よく推定できる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, the position and orientation of the vehicle are determined based on the first selection value, the second selection value, and the third selection value selected in the past. It may be estimated. By using the first selected value, the second selected value, and the third selected value selected in the past for estimation, the amount of data used for estimation can be increased, and the position and orientation of the vehicle can be It can be estimated more accurately.
さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、第1選択値が有する第1誤差、第2選択値が有する第2誤差、第3選択値が有する第3誤差に基づいて、車両の位置及び向きを推定するものであってもよい。これにより、推定された車両の位置及び向きについての誤差を評価することができる。また、車両モデルを介して将来の車両の位置及び向きについての誤差を評価するための基となるデータとすることができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, based on the first error of the first selection value, the second error of the second selection value, and the third error of the third selection value, , to estimate the position and orientation of the vehicle. This allows the error in the estimated vehicle position and orientation to be evaluated. It can also serve as a basis for evaluating errors in future vehicle position and orientation via a vehicle model.
[第2実施形態]
次に、図面を参照して、本発明の実施の形態を詳細に説明する。説明において、同一のものには同一符号を付して重複説明を省略する。
[Second embodiment]
Embodiments of the present invention will now be described in detail with reference to the drawings. In the explanation, the same reference numerals are given to the same parts, and redundant explanations are omitted.
[自己位置推定装置の構成]
図4は、本実施形態に係る自己位置推定装置の構成を示すブロック図である。図4に示すように、本実施形態に係る自己位置推定装置は、検出部評価部150をさらに備えたことが第1実施形態と相違している。
[Configuration of self-localization device]
FIG. 4 is a block diagram showing the configuration of the self-position estimation device according to this embodiment. As shown in FIG. 4, the self-position estimation device according to this embodiment differs from the first embodiment in that it further includes a detection
検出部評価部150は、複数の検出部40の中から、誤差を有する検出部40を特定し、特定された検出部40を第1-第3選択部71-75にそれぞれ出力する。その結果、第1-第3選択部71-75では、特定された検出部40の測定結果を用いて推定された座標値を除外した上で、第1-第3誤差が最小となる座標値を第1-第3選択値として選択する。検出部評価部150は、プロファイル作成部152と、検出部特定部154とを備えている。
The detection
プロファイル作成部152は、複数の検出部40ごとに、車両の車両座標系において、車両の前後方向に沿った物標の速度を第1速度として算出し、所定期間内に算出された複数の第1速度を記憶してプロファイルを作成する。同様に、プロファイル作成部152は、車両の幅方向に沿った物標の速度を第2速度として算出し、所定期間内に算出された複数の第2速度を記憶してプロファイルを作成する。また、車両の前後方向を基準として車両から物標に向かう向きの角速度を第3速度として算出し、所定期間内に算出された複数の第3速度を記憶してプロファイルを作成する。さらに、プロファイル作成部152は、基準となる速度を記憶した基準プロファイルも作成する。
The
プロファイル作成部152は、まず複数の検出部40ごとに、検出部40が検出対象としている物標の速度を算出する。例えば、検出部40が白線検出部である場合には白線の移動速度を算出し、検出部40がGPSに基づく車両の位置検出システムである場合には車両の速度を算出する。速度の算出方法は、検出部40によってそれぞれ異なっているが、基本的には所定時間内における物標の位置の変化量から求めることができる。そして、プロファイル作成部152は、車両の前後方向に沿った物標の速度を第1速度、車両の幅方向に沿った物標の速度を第2速度、車両の前後方向を基準として車両から物標に向かう向きの角速度を第3速度として算出する。
The
次に、プロファイル作成部152は、所定期間内に算出された複数の速度を、算出された時刻の順に並べて記録したプロファイルを作成する。例えば、プロファイルには、10秒間の間に1秒毎に算出された10個の速度が、算出された時刻の順に並べられて記憶されている。そして、プロファイル作成部152は、検出部40ごとに第1速度と第2速度と第3速度のプロファイルをそれぞれ作成する。
Next, the
また、プロファイル作成部152は、基準となる速度を記憶した基準プロファイルを作成する。基準プロファイルは、検出部40の中で最も安定していると考えられる検出部の測定結果を用いて算出された速度を記憶したプロファイルである。例えば、車両モデルから推定された速度を記憶したプロファイルを基準プロファイルとすることが考えられる。車両モデルとしては、車両の車輪速と操舵角から求められるオドメトリを用いることができる。車両モデルの他にもGPSによって検出された車両の位置から算出された速度を用いて基準プロファイルを作成してもよい。
Also, the
次に、検出部特定部154は、プロファイルに記憶された第1速度と基準プロファイルに記憶された速度との差分を算出する。同様に、検出部特定部154は、プロファイルに記憶された第2速度と基準プロファイルに記憶された速度との差分を算出し、プロファイルに記憶された第3速度と基準プロファイルに記憶された速度との差分を算出する。そして、算出された差分を加算して差分の和を算出し、算出された差分の和が第1閾値より大きくなるか否かを判定する。その結果、算出された差分の和が第1閾値より大きくなる場合には、第1閾値より大きいと判定されたプロファイルを作成するための測定結果を出力した検出部40を、継続して誤差を有する検出部であると特定する。
Next, the detection
ここで、継続して誤差を有する検出部を特定する方法を、図5、6を参照して説明する。図5は、検出部40の測定結果から算出された速度の時間変化を示す図であり、図6は、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分の和の時間変化を示す図である。
Here, a method for identifying detectors that continuously have errors will be described with reference to FIGS. FIG. 5 is a graph showing changes over time in speed calculated from the measurement results of the
図5に示すように、プロファイル作成部152は、複数の検出部40の測定結果から検出部40ごとに速度Va、Vb、Vc、Vrを算出している。速度Vaは検出部40aの測定結果から算出された速度、速度Vbは検出部40bの測定結果から算出された速度、速度Vcは検出部40cの測定結果から算出された速度である。また、速度Vrは基準となる速度であり、図5ではオドメトリから求めた速度を基準としている。図5に示すように、速度Vaは急な減速をしており、速度Vbは緩やかに減速している。一方、速度Vc、Vrは加速している。
As shown in FIG. 5 , the
図5において、プロファイル作成部152は、現在時刻t0より前の所定期間、例えば10秒間に算出された速度を記憶してプロファイルを作成する。図5では、速度Va、Vb、Vcのプロファイルをそれぞれ作成し、基準プロファイルとして速度Vrのプロファイルを作成する。
In FIG. 5, the
こうしてプロファイルが作成されると、次に、検出部特定部154は、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分を算出する。プロファイルは、所定の時刻や所定の時間間隔で速度を記憶しているので、同一の時刻にある速度同士で差分を算出する。例えば、速度Vaの時刻t5における速度と速度Vrの時刻t5における速度の差分を算出する。そして、プロファイルに記憶されている速度のすべてについてそれぞれ差分を算出する。図5の場合では、現在時刻t0より前の10秒間の速度の差分をすべて算出する。
After the profile is created in this way, the detection
そして、検出部特定部154は、算出された差分をすべて加算して差分の和を算出し、算出した差分の和が第1閾値より大きくなるか否かを判定する。図6は、図5の速度Vaから算出した差分の和Saと、図5の速度Vbから算出した差分の和Sbと、図5の速度Vcから算出した差分の和Scを示している。尚、第1閾値は、車両が通常の速度で直進走行している場合に、継続して誤差を有する検出部を特定するために設定された閾値であり、予め実験やシミュレーションによって設定しておけばよい。
Then, the detection
図6に示すように、差分の和Sa、Sbは、時刻t0において第1閾値よりも大きくなっている。すなわち、プロファイルの作成期間において、速度Va、Vbは、基準となる速度Vrから継続して乖離が生じていたことが分かる。したがって、速度Va、Vbを算出した測定結果を出力した検出部40は、継続して誤差を有する検出部であると特定することができる。
As shown in FIG. 6, the sums of differences Sa and Sb are greater than the first threshold at time t0. That is, it can be seen that the velocities Va and Vb continued to deviate from the reference velocity Vr during the profile creation period. Therefore, the
一方、差分の和Scは第1閾値以下となっている。すなわち、プロファイルの作成期間において、速度Vcは、基準となる速度Vrからの乖離が常に小さいことが分かる。したがって、速度Vcを算出した測定結果を出力した検出部40は、誤差が小さい検出部であると特定することができる。
On the other hand, the sum Sc of differences is less than or equal to the first threshold. That is, it can be seen that the speed Vc always has a small deviation from the reference speed Vr during the profile creation period. Therefore, the
こうして誤差を有する検出部が特定されると、検出部特定部154は、特定結果を第1-第3選択部71-75に出力する。
When the detecting portion having the error is thus specified, the detecting
第1選択部71は、特定結果を取得すると、推定部31で推定された複数の第1座標値の中で、誤差を有すると特定された検出部40の測定結果を用いて推定された第1座標値を除外する。そして、除外されなかった第1座標値の中から第1誤差が最小となる第1座標値を第1選択値として選択する。
After acquiring the identification result, the
同様に、第2選択部73は、推定部31で推定された複数の第2座標値の中で、誤差を有すると特定された検出部40の測定結果を用いて推定された第2座標値を除外する。そして、除外されなかった第2座標値の中から第2誤差が最小となる第2座標値を第2選択値として選択する。
Similarly, the
また、第3選択部75は、推定部31で推定された複数の第3座標値の中で、誤差を有すると特定された検出部40の測定結果を用いて推定された第3座標値を除外する。そして、除外されなかった第3座標値の中から第3誤差が最小となる第3座標値を第3選択値として選択する。
Further, the
この後、出力部91は、第1選択部71、第2選択部73、第3選択部75によってそれぞれ選択された第1選択値、第2選択値、第3選択値に基づいて、検出部40による検出対象となっている物標の位置及び角度を推定する。その他、出力部91は、推定した物標の位置及び角度に基づいて、車両の位置及び向きを推定する。
After that, the
[自己位置推定装置の処理手順]
次に、本実施形態に係る自己位置推定装置による自己位置推定の処理手順を、図7のフローチャートを参照して説明する。図7に示す本実施形態の自己位置推定処理では、ステップS104が追加されたことが、図2に示す第1実施形態の自己位置推定処理と相違している。
[Processing procedure of the self-position estimation device]
Next, a processing procedure for self-position estimation by the self-position estimation device according to this embodiment will be described with reference to the flowchart of FIG. The self-position estimation process of the present embodiment shown in FIG. 7 differs from the self-position estimation process of the first embodiment shown in FIG. 2 in that step S104 is added.
ステップS104において、検出部評価部150は、複数の検出部40の中で、継続して誤差を有する検出部40を特定し、特定された検出部40を第1-第3選択部71-75にそれぞれ出力する。以下、ステップS104で実行される検出部の特定処理を、図8のフローチャートを参照して説明する。
In step S104, the detection
図8に示すように、プロファイル作成部152は、ステップS201において、複数の検出部40ごとに車両の車両座標系において速度を算出し、ステップS203において、所定期間内に算出された複数の速度を記憶してプロファイルを作成する。また、プロファイル作成部152は、ステップS203において、基準となる速度を記憶した基準プロファイルも作成する。
As shown in FIG. 8, in step S201, the
ステップS205において、検出部特定部154は、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分を算出し、算出された差分をすべて加算して差分の和を算出する。
In step S205, the detection
ステップS207において、検出部特定部154は、算出された差分の和が第1閾値より大きくなるか否かを判定する。そして、第1閾値より大きいと判定されたプロファイルを作成するための測定結果を出力した検出部40を、継続して誤差を有する検出部であると特定する。この後、検出部特定部154は特定結果を第1-第3選択部71-75に出力する。
In step S207, the detection
こうして、誤差を有する検出部が特定されると、ステップS104で実行される検出部の特定処理は終了する。 When the detection unit having the error is thus identified, the detection unit identification processing executed in step S104 ends.
この後、図7の自己位置推定処理はステップS105-S109に進む。ステップS105-S109において、第1-第3選択部71-75は、誤差を有する検出部の特定結果を取得すると、推定部31で推定された複数の座標値の中で、誤差を有する検出部40の測定結果を用いて推定された座標値を除外する。そして、除外されなかった座標値の中から誤差が最小となる座標値を選択値として選択する。
Thereafter, the self-position estimation process of FIG. 7 proceeds to steps S105-S109. In steps S105 to S109, when the first to
こうして選択値が選択されると、ステップS111、S113の処理が実行されて、本実施形態に係る自己位置推定処理は終了する。 When the selection value is selected in this way, the processes of steps S111 and S113 are executed, and the self-position estimation process according to this embodiment ends.
[変形例1]
上述した実施形態では、車両が通常の速度で直進走行している場合について説明しているが、車両がほぼ停止しているような低速の場合や車両が旋回しているような場合には、誤差の大きさが変化する。そのため、車両が低速の場合や旋回している場合には、上述した実施形態の第1閾値を変更する必要がある。
[Modification 1]
In the above-described embodiment, the case where the vehicle is traveling straight ahead at a normal speed has been described. The magnitude of the error changes. Therefore, when the vehicle is traveling at a low speed or turning, it is necessary to change the first threshold value of the above-described embodiment.
そこで、車両の速度が所定値以下である場合には、第1閾値よりも小さい第2閾値を用いて、継続して誤差を有する検出部40を特定する。車両が低速で走行している場合には、誤差は小さくなるので、第2閾値は第1閾値よりも小さな値となる。尚、第2閾値は、車両がほぼ停止しているような低速で走行している場合に、誤差を有する検出部40を特定するために設定された閾値であり、予め実験やシミュレーションによって設定することができる。
Therefore, when the speed of the vehicle is equal to or less than a predetermined value, a second threshold value smaller than the first threshold value is used to identify the
また、車両が旋回中である場合には、第1閾値の代わりに第3閾値を用いて、継続して誤差を有する検出部40を特定する。車両が旋回中であることを判断する方法としては、車両のヨー角を検出して判断すればよい。尚、第3閾値は、車両が通常の速度で旋回している場合に、誤差を有する検出部40を特定するために設定された閾値であり、予め実験やシミュレーションによって設定することができる。
Further, when the vehicle is turning, the third threshold is used instead of the first threshold to identify the
[変形例2]
検出部40の中には安定性が低く、一時的に大きな誤差を含んだ測定結果を出力する場合がある。そのような場合には、プロファイルに記憶された速度の中に全く異なる値の速度が含まれることになる。
[Modification 2]
Some
そこで、検出部特定部154は、プロファイルに記憶された速度の中に1つでも全く異なる値の速度が含まれている場合には、そのプロファイルを作成するための測定結果を出力した検出部40を、誤差を有する検出部であると特定する。
Therefore, if the velocities stored in the profile include at least one velocity with a completely different value, the detection
具体的に、検出部特定部154は、プロファイルに記憶された速度の中で第4閾値より大きな速度があるか否かを判定する。そして、第4閾値より大きな速度を有するプロファイルがある場合には、そのプロファイルを作成するための測定結果を出力した検出部を、誤差を有する検出部であると特定する。尚、第4閾値は、大きな誤差を含んだ速度を検出するために設定された閾値なので、他の閾値よりも大きな値に設定されており、予め実験やシミュレーションによって設定することができる。
Specifically, the detection
[変形例3]
誤差を有する検出部40を特定する方法として、速度の変化率、すなわち加速度の向き(プラスかマイナスか)が異なっているかどうかを判断することによって、検出部40が誤差を有するかどうかを判断することができる。
[Modification 3]
As a method of identifying the
そこで、検出部特定部154は、プロファイルに記憶された速度についてそれぞれ加速度を算出し、基準プロファイルに記憶された速度についてもそれぞれ加速度を算出する。加速度は、前後の速度の間の変化率を求めることによって算出することができる。そして、プロファイルに記憶された速度から算出された加速度の向きと基準プロファイルから算出された加速度の向きが異なる回数が第5閾値より多いか否かを判定する。その結果、第5閾値より多い場合には、第5閾値より多いプロファイルを作成するための測定結果を出力した検出部を、誤差を有する検出部であると特定する。尚、第5閾値は、継続して誤差を有する検出部において加速度の向きに異常が発生する回数を、予め実験やシミュレーションによって検証して設定しておけばよい。
Therefore, the detection
[変形例4]
プロファイルに記憶された各速度の誤差は小さくても、誤差のある速度が多い場合には、そのようなプロファイルを作成するための測定結果を出力した検出部は誤差を有する検出部であると考えられる。
[Modification 4]
Even if the error of each speed stored in the profile is small, if there are many speeds with errors, it is considered that the detection unit that output the measurement results for creating such a profile is the detection unit with errors. be done.
そこで、検出部特定部154は、プロファイルに記憶された速度と基準プロファイルに記憶された速度とをそれぞれ比較する。そして、速度の差が所定値以上である回数が第6閾値より多い場合には、第6閾値より多いプロファイルを作成するための測定結果を出力した検出部を、誤差を有する検出部であると特定する。尚、第6閾値は、継続して誤差を有する検出部において小さな誤差が発生する回数を、予め実験やシミュレーションによって検証して設定しておけばよい。また、小さな誤差の有無を判定するための所定値は、大きな誤差を判定するための第4閾値より小さな値に設定されている。
Therefore, the
[実施形態の効果]
以上詳細に説明したように、本実施形態に係る自己位置推定方法及び自己位置推定装置は、物標の速度を算出して所定期間内に算出された複数の速度を記憶してプロファイルを作成し、さらに基準となる速度を記憶した基準プロファイルを作成する。そして、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分を算出し、算出された差分を加算して差分の和を算出する。その結果、算出された差分の和が第1閾値より大きくなる場合には、そのプロファイルを作成するための測定結果を出力した検出部を特定する。こうして検出部が特定されると、推定された複数の座標値の中で、特定された検出部の測定結果を用いて推定された座標値を除外し、誤差が最小となる座標値を選択値として選択する。
[Effects of Embodiment]
As described in detail above, the self-position estimation method and the self-position estimation device according to the present embodiment calculate the speed of a target, store a plurality of speeds calculated within a predetermined period, and create a profile. Furthermore, a reference profile is created in which reference speeds are stored. Then, the difference between the speed stored in the profile and the speed stored in the reference profile is calculated, and the calculated difference is added to calculate the sum of the differences. As a result, when the sum of the calculated differences is larger than the first threshold value, the detection unit that output the measurement result for creating the profile is specified. When the detection unit is specified in this way, the coordinate values estimated using the measurement result of the specified detection unit are excluded from the estimated multiple coordinate values, and the coordinate value with the minimum error is selected. Select as
これにより、継続して誤差を有する検出部40の測定結果を用いて推定された座標値を除外できるので、自己位置を推定するときに車両の位置及び向きを精度よく推定することができる。
As a result, the coordinate values estimated using the measurement results of the
特に、本実施形態に係る自己位置推定方法及び自己位置推定装置では、小さな誤差が継続して存在するような検出部40の測定結果を誤って選択してしまうことを防止できる。その具体例を、図7を参照して説明する。
In particular, the self-position estimation method and the self-position estimation device according to the present embodiment can prevent erroneous selection of measurement results of the
図7は、小さな誤差が継続して存在するような検出部40がある場合に、本実施形態の方法を使用した場合と使用しなかった場合の自己位置の推定結果を示している。図7に示すように、地点Aでは、本実施形態の方法を使用しないで推定した自己位置P1と、本実施形態の方法を使用して推定した自己位置P2は同じ位置にある。
FIG. 7 shows self-position estimation results when the method of the present embodiment is used and when the method of the present embodiment is not used when there is a
この後、時間が経過して地点Bの推定結果では、本実施形態の方法を使用しないで推定した自己位置P1は、本実施形態の方法を使用して推定した自己位置P2よりも前方に進んでいる。 After that, time passes and the estimation result of the point B indicates that the self-position P1 estimated without using the method of the present embodiment is ahead of the self-position P2 estimated using the method of the present embodiment. I'm in.
小さな誤差が継続して存在するような検出部40がある場合、各時点における誤差は小さいので、小さな誤差を有する検出部40の測定結果が選択されることになる。しかし、各時点における誤差は小さくても、継続して選択されて誤差が少しずつ拡大すると、地点Bの自己位置P1は、自己位置P2よりもだいぶ前方に進んでしまうことになる。
If there is a
これに対して、本実施形態の方法を使用して推定した自己位置P2は、継続して誤差を有する検出部40の測定結果を除外して推定されているので、誤差が少しずつ拡大していくことはなく、精度よく推定されている。
On the other hand, the self-position P2 estimated using the method of the present embodiment is estimated by excluding the measurement results of the
この結果、地点Cの推定結果では、本実施形態の方法を使用しないで推定した自己位置P1は交差点で他の車線へはみ出しているが、本実施形態の方法を使用して推定した自己位置P2は交差点ではみ出すことなく車線内を走行している。 As a result, in the estimation result of the point C, the self-position P1 estimated without using the method of this embodiment protrudes into another lane at the intersection, but the self-position P2 estimated using the method of this embodiment is driving in the lane without sticking out at the intersection.
したがって、本実施形態の方法を使用することにより、小さな誤差が継続して存在するような検出部40が存在している場合であっても、車両の位置及び向きを精度よく推定することができる。
Therefore, by using the method of the present embodiment, it is possible to accurately estimate the position and orientation of the vehicle even when there is a
また、本実施形態に係る自己位置推定方法及び自己位置推定装置では、車両の速度が所定値以下である場合には、第1閾値よりも小さい第2閾値を用いている。これにより、車両がほぼ停止しているような低速の場合であっても、車両の位置及び向きを精度よく推定することができる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, the second threshold smaller than the first threshold is used when the speed of the vehicle is equal to or less than a predetermined value. As a result, the position and orientation of the vehicle can be accurately estimated even when the vehicle is traveling at a low speed such that the vehicle is almost stationary.
さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置では、車両が旋回中である場合には、第1閾値の代わりに第3閾値を用いている。これにより、車両が旋回している場合であっても、車両の位置及び向きを精度よく推定することができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to this embodiment, the third threshold is used instead of the first threshold when the vehicle is turning. This makes it possible to accurately estimate the position and orientation of the vehicle even when the vehicle is turning.
また、本実施形態に係る自己位置推定方法及び自己位置推定装置では、プロファイルに記憶された速度の中で第4閾値より大きな速度がある場合には、第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した検出部を特定する。これにより、安定性が低い検出部40によって正常値とは全く異なる測定結果が出力された場合であっても、車両の位置及び向きを精度よく推定することができる。
Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, if there is a speed higher than the fourth threshold among the speeds stored in the profile, a profile having a speed higher than the fourth threshold is created. Identify the detection unit that has output the measurement result for This makes it possible to accurately estimate the position and orientation of the vehicle even when the
さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置では、プロファイルに記憶された速度についてそれぞれ加速度を算出し、基準プロファイルに記憶された速度についてそれぞれ加速度を算出する。そして、プロファイルの速度から算出された加速度の向きと基準プロファイルから算出された加速度の向きが異なる回数が第5閾値より多い場合には、第5閾値より多いプロファイルを作成するための測定結果を出力した検出部を特定する。これにより、継続して誤差を有する検出部を特定することができるので、車両の位置及び向きを精度よく推定することができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, acceleration is calculated for each velocity stored in the profile, and acceleration is calculated for each velocity stored in the reference profile. If the number of times that the direction of acceleration calculated from the speed of the profile and the direction of acceleration calculated from the reference profile differ is greater than the fifth threshold, the measurement result for creating a profile greater than the fifth threshold is output. Identify the detected part. As a result, it is possible to continuously identify the detection unit that has an error, so that the position and orientation of the vehicle can be accurately estimated.
また、本実施形態に係る自己位置推定方法及び自己位置推定装置では、プロファイルに記憶された速度と基準プロファイルに記憶された速度とをそれぞれ比較する。そして、速度の差が所定値以上である回数が第6閾値より多い場合には、第6閾値より多いプロファイルを作成するための測定結果を出力した検出部を特定する。これにより、プロファイルに記憶された各速度の誤差は小さくても誤差を含んだ速度が多い場合には、そのような測定結果を出力した検出部を特定できるので、車両の位置及び向きを精度よく推定することができる。 Also, in the self-position estimation method and the self-position estimation device according to this embodiment, the speed stored in the profile and the speed stored in the reference profile are compared. Then, if the number of times the speed difference is equal to or greater than the predetermined value is greater than the sixth threshold, the detection unit that outputs the measurement result for creating a profile greater than the sixth threshold is specified. As a result, even if the error in each speed stored in the profile is small, when there are many speeds containing errors, the detection unit that output such measurement results can be specified, so the position and orientation of the vehicle can be accurately determined. can be estimated.
上述の実施形態で示した各機能は、1又は複数の処理回路によって実装されうる。処理回路には、プログラムされたプロセッサや、電気回路などが含まれ、さらには、特定用途向けの集積回路(ASIC)のような装置や、記載された機能を実行するよう配置された回路構成要素なども含まれる。 Each function illustrated in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processors, electrical circuits, etc., as well as devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. etc. are also included.
以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。この開示の一部をなす論述および図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例および運用技術が明らかとなろう。 Although the contents of the present invention have been described above according to the embodiments, it is obvious to those skilled in the art that the present invention is not limited to these descriptions and that various modifications and improvements are possible. The discussion and drawings forming part of this disclosure should not be understood as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.
本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 Of course, the present invention includes various embodiments and the like that are not described here. Therefore, the technical scope of the present invention is defined only by the matters specifying the invention according to the scope of claims that are valid from the above description.
31 推定部
33 誤差推定部
40 検出部
71 第1選択部
73 第2選択部
75 第3選択部
91 出力部
93 誤差統合部
100 コントローラ
150 検出部評価部
152 プロファイル作成部
154 検出部特定部
31
Claims (18)
複数の前記検出部ごとに、前記車両の車両座標系において、
前記車両の前後方向に沿った前記物標の位置を第1座標値として推定し、前記第1座標値が有する誤差を第1誤差として推定し、
前記車両の幅方向に沿った前記物標の位置を第2座標値として推定し、前記第2座標値が有する誤差を第2誤差として推定し、
前記車両の前後方向を基準として前記車両から前記物標に向かう向きの角度を第3座標値として推定し、前記第3座標値が有する誤差を第3誤差として推定し、
推定された複数の第1座標値の中で第1誤差が最小となる第1座標値を、第1選択値として選択し、
推定された複数の第2座標値の中で第2誤差が最小となる第2座標値を、第2選択値として選択し、
推定された複数の第3座標値の中で第3誤差が最小となる第3座標値を、第3選択値として選択し、
前記第1選択値、前記第2選択値、前記第3選択値に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。 A self-position estimation method for estimating the position and orientation of the vehicle on map data using measurement results from a plurality of detection units that detect targets around the vehicle,
In the vehicle coordinate system of the vehicle, for each of the plurality of detection units,
estimating the position of the target along the longitudinal direction of the vehicle as a first coordinate value, estimating an error of the first coordinate value as a first error;
estimating the position of the target along the width direction of the vehicle as a second coordinate value, estimating an error of the second coordinate value as a second error;
estimating an angle of a direction from the vehicle toward the target with respect to the longitudinal direction of the vehicle as a third coordinate value, and estimating an error of the third coordinate value as a third error;
selecting, as a first selection value, a first coordinate value with the smallest first error among the estimated plurality of first coordinate values;
selecting, as a second selection value, a second coordinate value with the smallest second error among the estimated plurality of second coordinate values;
selecting the third coordinate value with the smallest third error among the estimated plurality of third coordinate values as the third selection value;
A self-position estimation method, comprising estimating the position and orientation of the vehicle based on the first selection value, the second selection value, and the third selection value.
複数の前記検出部ごとに、前記車両の車両座標系において、
前記車両の前後方向に沿った前記物標の速度を第1速度として算出し、所定期間内に算出された複数の前記第1速度を記憶してプロファイルを作成し、
前記車両の幅方向に沿った前記物標の速度を第2速度として算出し、所定期間内に算出された複数の前記第2速度を記憶してプロファイルを作成し、
前記車両の前後方向を基準として前記車両から前記物標に向かう向きの角速度を第3速度として算出し、所定期間内に算出された複数の前記第3速度を記憶してプロファイルを作成し、
基準となる速度を記憶した基準プロファイルを作成し、
前記プロファイルに記憶された前記第1速度と前記基準プロファイルに記憶された速度との差分を算出し、算出された前記差分を加算して差分の和を算出し、算出された前記差分の和が第1閾値より大きくなる場合には、前記プロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度と前記基準プロファイルに記憶された速度との差分を算出し、算出された前記差分を加算して差分の和を算出し、算出された前記差分の和が第1閾値より大きくなる場合には、前記プロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度と前記基準プロファイルに記憶された速度との差分を算出し、算出された前記差分を加算して差分の和を算出し、算出された前記差分の和が第1閾値より大きくなる場合には、前記プロファイルを作成するための測定結果を出力した前記検出部を特定し、
推定された複数の前記第1座標値の中で、特定された前記検出部の測定結果を用いて推定された第1座標値を除外して、前記第1誤差が最小となる第1座標値を前記第1選択値として選択し、
推定された複数の前記第2座標値の中で、特定された前記検出部の測定結果を用いて推定された第2座標値を除外して、前記第2誤差が最小となる第2座標値を前記第2選択値として選択し、
推定された複数の前記第3座標値の中で、特定された前記検出部の測定結果を用いて推定された第3座標値を除外して、前記第3誤差が最小となる第3座標値を前記第3選択値として選択する
ことを特徴とする自己位置推定方法。 The self-localization method according to claim 1,
In the vehicle coordinate system of the vehicle, for each of the plurality of detection units,
calculating a speed of the target along the longitudinal direction of the vehicle as a first speed, storing a plurality of the first speeds calculated within a predetermined period to create a profile;
calculating a speed of the target along the width direction of the vehicle as a second speed, storing a plurality of the second speeds calculated within a predetermined period to create a profile;
calculating an angular velocity in a direction from the vehicle toward the target with reference to the longitudinal direction of the vehicle as a third velocity, storing a plurality of the third velocities calculated within a predetermined period to create a profile;
Create a reference profile that stores the reference speed,
calculating the difference between the first speed stored in the profile and the speed stored in the reference profile, adding the calculated differences to calculate the sum of the differences, and calculating the sum of the differences If it is greater than the first threshold, identify the detection unit that outputs the measurement result for creating the profile,
calculating the difference between the second speed stored in the profile and the speed stored in the reference profile, adding the calculated differences to calculate the sum of the differences, and calculating the sum of the differences If it is greater than the first threshold, identify the detection unit that outputs the measurement result for creating the profile,
calculating the difference between the third speed stored in the profile and the speed stored in the reference profile, adding the calculated differences to calculate the sum of the differences, and calculating the sum of the calculated differences If it is greater than the first threshold, identify the detection unit that outputs the measurement result for creating the profile,
A first coordinate value that minimizes the first error by excluding the first coordinate value estimated using the specified measurement result of the detection unit, among the estimated plurality of first coordinate values. as the first selection value,
A second coordinate value that minimizes the second error by excluding a second coordinate value that is estimated using the specified measurement result of the detection unit, among the plurality of estimated second coordinate values. as the second selection value, and
A third coordinate value that minimizes the third error by excluding the third coordinate value estimated using the specified measurement result of the detection unit, among the plurality of estimated third coordinate values. as the third selection value.
前記車両の速度が所定値以下である場合には、前記第1閾値よりも小さい第2閾値を用いることを特徴とする自己位置推定方法。 The self-localization method according to claim 2,
A self-position estimation method, wherein a second threshold smaller than the first threshold is used when the speed of the vehicle is equal to or less than a predetermined value.
前記車両が旋回中である場合には、前記第1閾値の代わりに第3閾値を用いることを特徴とする自己位置推定方法。 The self-position estimation method according to claim 2 or 3,
A self-position estimation method, wherein a third threshold is used instead of the first threshold when the vehicle is turning.
前記プロファイルに記憶された前記第1速度の中で第4閾値より大きな速度がある場合には、前記第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度の中で第4閾値より大きな速度がある場合には、前記第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度の中で第4閾値より大きな速度がある場合には、前記第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した前記検出部を特定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 2 to 4,
If there is a velocity greater than a fourth threshold among the first velocities stored in the profile, the detection unit that outputs the measurement result for creating a profile having a velocity greater than the fourth threshold is specified. death,
If there is a velocity greater than a fourth threshold among the second velocities stored in the profile, the detection unit that outputs the measurement result for creating a profile having a velocity greater than the fourth threshold is specified. death,
If there is a velocity greater than a fourth threshold among the third velocities stored in the profile, the detection unit that outputs the measurement result for creating a profile having a velocity greater than the fourth threshold is specified. A self-position estimation method characterized by:
前記プロファイルに記憶された前記第1速度についてそれぞれ加速度を算出し、前記基準プロファイルに記憶された速度についてそれぞれ加速度を算出し、前記第1速度から算出された加速度の向きと前記基準プロファイルの速度から算出された加速度の向きが異なる回数が、第5閾値より多い場合には、前記第5閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度についてそれぞれ加速度を算出し、前記基準プロファイルに記憶された速度についてそれぞれ加速度を算出し、前記第2速度から算出された加速度の向きと前記基準プロファイルの速度から算出された加速度の向きが異なる回数が、第5閾値より多い場合には、前記第5閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度についてそれぞれ加速度を算出し、前記基準プロファイルに記憶された速度についてそれぞれ加速度を算出し、前記第3速度から算出された加速度の向きと前記基準プロファイルの速度から算出された加速度の向きが異なる回数が、第5閾値より多い場合には、前記第5閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 2 to 5,
calculating acceleration for each of the first velocities stored in the profile, calculating acceleration for each of the velocities stored in the reference profile, and calculating the direction of the acceleration calculated from the first velocity and the velocity of the reference profile; If the calculated number of different directions of acceleration is greater than a fifth threshold, identifying the detection unit that outputs the measurement result for creating a profile greater than the fifth threshold,
calculating acceleration for each of the second velocities stored in the profile, calculating acceleration for each of the velocities stored in the reference profile, and calculating the direction of the acceleration calculated from the second velocity and the velocity of the reference profile If the calculated number of different directions of acceleration is greater than a fifth threshold, identifying the detection unit that outputs the measurement result for creating a profile greater than the fifth threshold,
calculating acceleration for each of the third velocities stored in the profile, calculating acceleration for each of the velocities stored in the reference profile, and calculating the direction of the acceleration calculated from the third velocity and the velocity of the reference profile If the number of times that the direction of the calculated acceleration changes is greater than a fifth threshold, the detecting unit that outputs the measurement result for creating a profile that is greater than the fifth threshold is specified. estimation method.
前記プロファイルに記憶された前記第1速度と前記基準プロファイルに記憶された速度とをそれぞれ比較して、速度の差が所定値以上である回数が第6閾値より多い場合には、前記第6閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度と前記基準プロファイルに記憶された速度とをそれぞれ比較して、速度の差が所定値以上である回数が第6閾値より多い場合には、前記第6閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度と前記基準プロファイルに記憶された速度とをそれぞれ比較して、速度の差が所定値以上である回数が第6閾値より多い場合には、前記第6閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 2 to 6,
The first speed stored in the profile and the speed stored in the reference profile are compared, and if the number of times the difference in speed is equal to or greater than a predetermined value is greater than a sixth threshold, the sixth threshold is determined. Identifying the detection unit that outputs measurement results for creating more profiles,
The second speed stored in the profile is compared with the speed stored in the reference profile, and if the number of times the speed difference is equal to or greater than a predetermined value is greater than a sixth threshold, the sixth threshold is determined. Identifying the detection unit that outputs measurement results for creating more profiles,
The third speed stored in the profile is compared with the speed stored in the reference profile, and if the number of times the speed difference is equal to or greater than a predetermined value is greater than the sixth threshold, the sixth threshold is determined. A method for estimating self-location, characterized by identifying the detection unit that has output measurement results for creating more profiles.
前記第1選択値が有する前記第1誤差、
前記第2選択値が有する前記第2誤差、
前記第3選択値が有する前記第3誤差
の合計を算出する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 1 to 7,
the first error of the first selected value;
the second error of the second selected value;
A method for estimating self-location, wherein the sum of the third errors of the third selection value is calculated.
前記検出部ごとの誤差モデルを用いて、当該検出部における前記第1誤差、前記第2誤差、前記第3誤差をそれぞれ推定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 1 to 8,
A self-position estimation method, wherein the first error, the second error, and the third error in the detection unit are estimated using an error model for each detection unit.
前記検出部がカメラである場合、前記誤差モデルは、前記カメラの移動速度と発生する誤差の間の関係を実測して作成されたものである
ことを特徴とする自己位置推定方法。 The self-localization method according to claim 9,
A method for estimating self-localization, wherein when the detection unit is a camera, the error model is created by actually measuring the relationship between the moving speed of the camera and the error that occurs.
前記誤差モデルは、前記カメラの撮像距離と発生する誤差の関係を実測して作成されたものである
ことを特徴とする自己位置推定方法。 The self-position estimation method according to claim 10,
A self-position estimation method, wherein the error model is created by actually measuring the relationship between the imaging distance of the camera and the error that occurs.
前記誤差モデルは、前記カメラのレンズパラメータに基づいて計算によりモデル化して作成されたものである
ことを特徴とする自己位置推定方法。 The self-position estimation method according to claim 10 or 11,
A self-position estimation method, wherein the error model is created by modeling based on the lens parameters of the camera.
前記車両の車両モデルに基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 1 to 12,
A self-localization method, comprising estimating the position and orientation of the vehicle based on a vehicle model of the vehicle.
前記車両モデルは、オドメトリおよび前記車両に車載される衛星測位システムに基づいて実測して作成されたものである
ことを特徴とする自己位置推定方法。 The self-localization method according to claim 13,
A self-position estimation method, wherein the vehicle model is created by actual measurement based on odometry and a satellite positioning system mounted on the vehicle.
前記車両モデルと、前記検出部ごとの誤差モデルを用いて、当該検出部における前記第1誤差、前記第2誤差、前記第3誤差を推定する
ことを特徴とする自己位置推定方法。 The self-localization method according to claim 13 or 14,
A self-position estimation method, wherein the first error, the second error, and the third error in the detection unit are estimated using the vehicle model and the error model for each of the detection units.
過去の時点で選択された、前記第1選択値、前記第2選択値、前記第3選択値に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 1 to 15,
A method for estimating self-position, wherein the position and orientation of the vehicle are estimated based on the first selection value, the second selection value, and the third selection value selected at a past point in time.
前記第1選択値が有する前記第1誤差、前記第2選択値が有する前記第2誤差、前記第3選択値が有する前記第3誤差に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。 The self-position estimation method according to any one of claims 1 to 16,
estimating the position and orientation of the vehicle based on the first error of the first selection value, the second error of the second selection value, and the third error of the third selection value; A self-localization method characterized by:
コントローラと、
を備える、地図データ上での前記車両の位置及び向きを推定する自己位置推定装置であって、
前記コントローラは、
複数の前記検出部ごとに、前記車両の車両座標系において、
前記車両の前後方向に沿った前記物標の位置を第1座標値として推定し、前記第1座標値が有する誤差を第1誤差として推定し、
前記車両の幅方向に沿った前記物標の位置を第2座標値として推定し、前記第2座標値が有する誤差を第2誤差として推定し、
前記車両の前後方向を基準として前記車両から前記物標に向かう向きの角度を第3座標値として推定し、前記第3座標値が有する誤差を第3誤差として推定し、
推定された複数の第1座標値の中で第1誤差が最小となる第1座標値を、第1選択値として選択し、
推定された複数の第2座標値の中で第2誤差が最小となる第2座標値を、第2選択値として選択し、
推定された複数の第3座標値の中で第3誤差が最小となる第3座標値を、第3選択値として選択し、
前記第1選択値、前記第2選択値、前記第3選択値に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定装置。
a plurality of detection units that detect targets around the vehicle;
a controller;
A self-localization device that estimates the position and orientation of the vehicle on map data,
The controller is
In the vehicle coordinate system of the vehicle, for each of the plurality of detection units,
estimating the position of the target along the longitudinal direction of the vehicle as a first coordinate value, estimating an error of the first coordinate value as a first error;
estimating the position of the target along the width direction of the vehicle as a second coordinate value, estimating an error of the second coordinate value as a second error;
estimating an angle of a direction from the vehicle toward the target with respect to the longitudinal direction of the vehicle as a third coordinate value, and estimating an error of the third coordinate value as a third error;
selecting, as a first selection value, a first coordinate value with the smallest first error among the estimated plurality of first coordinate values;
selecting, as a second selection value, a second coordinate value with the smallest second error among the estimated plurality of second coordinate values;
selecting the third coordinate value with the smallest third error among the estimated plurality of third coordinate values as the third selection value;
A self-position estimation device, wherein the position and orientation of the vehicle are estimated based on the first selection value, the second selection value, and the third selection value.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019058581 | 2019-03-26 | ||
JP2019058581 | 2019-03-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020165945A JP2020165945A (en) | 2020-10-08 |
JP7308141B2 true JP7308141B2 (en) | 2023-07-13 |
Family
ID=72716056
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239022A Active JP7308141B2 (en) | 2019-03-26 | 2019-12-27 | Self-position estimation method and self-position estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7308141B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7392785B1 (en) | 2022-09-09 | 2023-12-06 | いすゞ自動車株式会社 | Vehicle position estimation device and vehicle position estimation method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013036856A (en) * | 2011-08-08 | 2013-02-21 | Daihatsu Motor Co Ltd | Driving support apparatus |
JP6614108B2 (en) * | 2016-11-18 | 2019-12-04 | 株式会社デンソー | Vehicle control apparatus and vehicle control method |
-
2019
- 2019-12-27 JP JP2019239022A patent/JP7308141B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2020165945A (en) | 2020-10-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108139225B (en) | Determining layout information of a motor vehicle | |
CN101793528B (en) | System and method of lane path estimation using sensor fusion | |
CN106056971B (en) | Apparatus and method for identifying surrounding vehicles | |
CN104181512B (en) | The method and apparatus of the misalignment of radar sensor for seeking vehicle | |
RU2735567C1 (en) | Method for storing movement backgrounds, method for generating motion path model, method for estimating local position and storage device for storing movement backgrounds | |
JP5614489B2 (en) | State estimation device | |
CN112204346B (en) | Method for determining the position of a vehicle | |
JP6451857B2 (en) | Method for controlling travel control device and travel control device | |
KR102570338B1 (en) | Method and system for predicting a trajectory of a target vehicle in an environment of a vehicle | |
CN111915675B (en) | Particle drift-based particle filtering point cloud positioning method, device and system thereof | |
US20200094849A1 (en) | Method for quantitatively characterizing at least one temporal sequence of an object attribute error of an object | |
KR20220024791A (en) | Method and apparatus for determining the trajectory of a vehicle | |
KR20190038739A (en) | Method for detecting the changing point of road | |
US11971257B2 (en) | Method and apparatus with localization | |
CN113175935A (en) | Method for identifying objects in a vehicle environment | |
CN110637209B (en) | Method, apparatus and computer readable storage medium having instructions for estimating a pose of a motor vehicle | |
JP7308141B2 (en) | Self-position estimation method and self-position estimation device | |
CN112572460A (en) | Method and apparatus for estimating yaw rate with high accuracy, and storage medium | |
KR102489865B1 (en) | Method for vehicle location estimation based on sensor fusion and multi filter | |
JP2021081272A (en) | Position estimating device and computer program for position estimation | |
JP6980497B2 (en) | Information processing method and information processing equipment | |
JP6819441B2 (en) | Target position estimation method and target position estimation device | |
US20230408721A1 (en) | Method and device for analyzing 3d target maneuver using line array sensor | |
JP4615954B2 (en) | Vehicle control object determination device | |
KR20190038740A (en) | Map matching method using reverse tracking map matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220802 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230428 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7308141 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |