[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7308141B2 - Self-position estimation method and self-position estimation device - Google Patents

Self-position estimation method and self-position estimation device Download PDF

Info

Publication number
JP7308141B2
JP7308141B2 JP2019239022A JP2019239022A JP7308141B2 JP 7308141 B2 JP7308141 B2 JP 7308141B2 JP 2019239022 A JP2019239022 A JP 2019239022A JP 2019239022 A JP2019239022 A JP 2019239022A JP 7308141 B2 JP7308141 B2 JP 7308141B2
Authority
JP
Japan
Prior art keywords
error
vehicle
self
profile
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019239022A
Other languages
Japanese (ja)
Other versions
JP2020165945A (en
Inventor
博幸 ▲高▼野
祐一 武田
千加夫 土谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Publication of JP2020165945A publication Critical patent/JP2020165945A/en
Application granted granted Critical
Publication of JP7308141B2 publication Critical patent/JP7308141B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、自己位置推定方法及び自己位置推定装置に関する。 The present invention relates to a self-position estimation method and a self-position estimation device.

複数の検出部によって計測した物標の位置と、学習地図上の物標の位置の距離を最小化するような二次元変換を決定することで、車両の位置と向きとを推定する自己位置推定装置が提案されている(特許文献1参照)。 Self-position estimation that estimates the position and orientation of the vehicle by determining the two-dimensional transformation that minimizes the distance between the target position measured by multiple detection units and the target position on the learning map. A device has been proposed (see Patent Document 1).

特開2015-148601号公報JP 2015-148601 A

特許文献1に記載の技術によれば、複数の検出部によって計測した車両座標系での物標の位置に基づいて、最尤推定により地図データ上での車両の位置及び向きを推定する。そのため、複数の検出部のうち一の検出部の測定誤差が大きい場合、当該一の検出部による測定結果に引きずられて、最尤推定によって求めた車両の位置及び向きの精度が低下してしまうという問題がある。 According to the technique described in Patent Document 1, the position and orientation of a vehicle on map data are estimated by maximum likelihood estimation based on the positions of targets in the vehicle coordinate system measured by a plurality of detection units. Therefore, if the measurement error of one of the plurality of detectors is large, the accuracy of the vehicle position and orientation determined by maximum likelihood estimation will be affected by the measurement result of that one detector. There is a problem.

本発明は、上記問題に鑑みてなされたものであり、その目的とするところは、複数の検出部による測定結果を組み合わせて、地図データ上での車両の位置及び向きを精度よく推定できる自己位置推定方法及び自己位置推定装置を提供することにある。 The present invention has been made in view of the above problems, and its object is to combine the measurement results of a plurality of detection units to accurately estimate the position and orientation of a vehicle on map data. An object of the present invention is to provide an estimation method and a self-position estimation device.

上述した問題を解決するために、本発明の一態様に係る自己位置推定方法及び自己位置推定装置は、車両の周囲の物標を検出する複数の検出部からの測定結果を用いて、地図データ上での車両の位置及び向きを推定する際に、車両の車両座標系において車両の前後方向、車両の幅方向にそれぞれ沿った物標の位置とそれらの誤差、車両から物標に向かう向きの角度とその誤差を、それぞれ推定し、推定された誤差が最小となる車両の前後方向に沿った物標の位置、車両の幅方向に沿った物標の位置、車両から物標に向かう向きの角度をそれぞれ選択し、選択した位置および角度に基づいて車両の位置及び向きを推定する。 In order to solve the above-described problems, a self-position estimation method and a self-position estimation device according to one aspect of the present invention use measurement results from a plurality of detection units that detect targets around a vehicle to generate map data. When estimating the position and orientation of the vehicle above, the position of the target along the longitudinal direction of the vehicle and the width direction of the vehicle in the vehicle coordinate system, their errors, and the direction from the vehicle to the target The angle and its error are estimated, and the position of the target along the front-back direction of the vehicle, the position of the target along the width direction of the vehicle, and the direction from the vehicle to the target at which the estimated error is the smallest. Each angle is selected and the position and orientation of the vehicle is estimated based on the selected position and angle.

本発明によれば、複数の検出部のうち一の検出部の測定結果が他の検出部による測定結果と比較して大きく異なってしまう場合であっても、複数の検出部による測定結果を組み合わせて、車両の位置及び向きを精度よく推定できる。 According to the present invention, even if the measurement result of one of the plurality of detection units is significantly different from the measurement results of the other detection units, the measurement results of the plurality of detection units are combined. Therefore, the position and orientation of the vehicle can be estimated with high accuracy.

図1は、本発明の第1実施形態に係る自己位置推定装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a self-position estimation device according to the first embodiment of the present invention. 図2は、本発明の第1実施形態に係る自己位置推定装置の処理手順を示すフローチャートである。FIG. 2 is a flow chart showing the processing procedure of the self-position estimation device according to the first embodiment of the present invention. 図3は、複数の検出部による検出結果と、推定される物標の位置との関係を示す模式図である。FIG. 3 is a schematic diagram showing the relationship between detection results by a plurality of detection units and estimated target positions. 図4は、本発明の第2実施形態に係る自己位置推定装置の構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of a self-position estimation device according to the second embodiment of the present invention. 図5は、本発明の第2実施形態に係る自己位置推定装置によるプロファイルの作成方法を説明するための図である。FIG. 5 is a diagram for explaining a profile creation method by the self-position estimation device according to the second embodiment of the present invention. 図6は、本発明の第2実施形態に係る自己位置推定装置による誤差を有する検出部の特定方法を説明するための図である。FIG. 6 is a diagram for explaining a method of specifying a detection unit having an error by the self-position estimation device according to the second embodiment of the present invention. 図7は、本発明の第2実施形態に係る自己位置推定装置の処理手順を示すフローチャートである。FIG. 7 is a flow chart showing the processing procedure of the self-position estimation device according to the second embodiment of the present invention. 図8は、本発明の第2実施形態に係る自己位置推定装置による検出部の特定処理の処理手順を示すフローチャートである。FIG. 8 is a flow chart showing a processing procedure of identifying processing of the detection unit by the self-position estimation device according to the second embodiment of the present invention. 図9は、本発明の第2実施形態に係る自己位置推定装置による効果を説明するための図である。FIG. 9 is a diagram for explaining the effects of the self-position estimation device according to the second embodiment of the present invention.

[第1実施形態]
次に、図面を参照して、本発明の実施の形態を詳細に説明する。説明において、同一のものには同一符号を付して重複説明を省略する。
[First embodiment]
Embodiments of the present invention will now be described in detail with reference to the drawings. In the explanation, the same reference numerals are given to the same parts, and redundant explanations are omitted.

[自己位置推定装置の構成]
図1は、本実施形態に係る自己位置推定装置の構成を示すブロック図である。図1に示すように、本実施形態に係る自己位置推定装置は、複数の検出部40と、コントローラ100とを備える。なお、自己位置推定装置は、図示しない車両に搭載される。
[Configuration of self-localization device]
FIG. 1 is a block diagram showing the configuration of the self-position estimation device according to this embodiment. As shown in FIG. 1 , the self-position estimation device according to this embodiment includes a plurality of detection units 40 and a controller 100 . Note that the self-position estimation device is mounted on a vehicle (not shown).

検出部40は、車両の位置を決定するための基準となる物標の、車両との相対的な位置関係を出力する。 The detection unit 40 outputs a relative positional relationship with the vehicle of a target that serves as a reference for determining the position of the vehicle.

検出部40の例として、車両に搭載されたカメラによって撮像した画像に基づいて、車両周囲の白線を認識する白線検出部、停止線を検出する停止線検出部などが挙げられる。この他にも、車両に搭載されたレーダあるいはライダによって道路標識や建物などの車両周囲の立体物(静止物体)を検出するランドマーク検出部、人工衛星からの電波を受信することにより、地上における車両の位置を検出する衛星測位システム(GPS)に基づく位置検出部などがある。また、検出部40としては、車両モデルから車両の位置を推定する位置推定部も含まれる。例えば、車両モデルとしては、車両の車輪速と操舵角からオドメトリを求めて車両の位置を推定するモデルが考えられる。なお、白線や停止線等の車両周囲の道路上の表示や道路標識、建物等の車両周囲の立体物等の、静止した目標物を以下では物標と記載する。 Examples of the detection unit 40 include a white line detection unit that recognizes white lines around the vehicle and a stop line detection unit that detects stop lines based on an image captured by a camera mounted on the vehicle. In addition, the radar or lidar mounted on the vehicle detects road signs, buildings, and other three-dimensional objects (stationary objects) around the vehicle (stationary objects). There is a position detection unit based on the global positioning system (GPS) for detecting the position of the vehicle. The detection unit 40 also includes a position estimation unit that estimates the position of the vehicle from the vehicle model. For example, the vehicle model may be a model that estimates the position of the vehicle by obtaining odometry from the wheel speed and steering angle of the vehicle. Stationary targets such as displays on the road around the vehicle such as white lines and stop lines, road signs, and three-dimensional objects such as buildings around the vehicle are hereinafter referred to as targets.

コントローラ100(制御部、処理部の一例)は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。コントローラ100には、自己位置推定装置として機能させるためのコンピュータプログラム(自己位置推定プログラム)がインストールされている。コンピュータプログラムを実行することにより、コントローラ100は、自己位置推定装置が備える複数の情報処理回路(31、33、71、73、75、91、93)として機能する。 The controller 100 (an example of a control unit or processing unit) is a general-purpose microcomputer including a CPU (Central Processing Unit), memory, and an input/output unit. A computer program (self-position estimation program) for functioning as a self-position estimation device is installed in the controller 100 . By executing a computer program, the controller 100 functions as a plurality of information processing circuits (31, 33, 71, 73, 75, 91, 93) included in the self-position estimation device.

なお、ここでは、ソフトウェアによって自己位置推定装置が備える複数の情報処理回路(31、33、71、73、75、91、93)を実現する例を示す。ただし、以下に示す各情報処理を実行するための専用のハードウェアを用意して、情報処理回路(31、33、71、73、75、91、93)を構成することも可能である。また、複数の情報処理回路(31、33、71、73、75、91、93)を個別のハードウェアにより構成してもよい。更に、情報処理回路(31、33、71、73、75、91、93)は、車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。 Here, an example of realizing a plurality of information processing circuits (31, 33, 71, 73, 75, 91, 93) included in the self-position estimation device by software is shown. However, it is also possible to configure the information processing circuits (31, 33, 71, 73, 75, 91, 93) by preparing dedicated hardware for executing each information processing described below. Also, the plurality of information processing circuits (31, 33, 71, 73, 75, 91, 93) may be configured by individual hardware. Furthermore, the information processing circuits (31, 33, 71, 73, 75, 91, 93) may also be used as an electronic control unit (ECU) used for other vehicle-related controls.

コントローラ100は、複数の情報処理回路(31、33、71、73、75、91、93)として、推定部31、誤差推定部33、第1選択部71、第2選択部73、第3選択部75、出力部91、誤差統合部93を備える。 The controller 100 includes, as a plurality of information processing circuits (31, 33, 71, 73, 75, 91, 93), an estimator 31, an error estimator 33, a first selector 71, a second selector 73, a third selector A unit 75 , an output unit 91 , and an error integration unit 93 are provided.

推定部31は、検出部40の出力結果に基づいて、検出部40による検出対象となっている物標の、車両座標系から見た、車両の前後方向に沿った位置、車両の幅方向に沿った位置、及び、車両の前後方向を基準として車両から物標に向かう向きの角度を推定する。なお、以下の前提として、複数の検出部40による出力結果は、同一の物標に対する出力結果であるとする。 Based on the output result of the detection unit 40, the estimation unit 31 calculates the position of the target to be detected by the detection unit 40 along the longitudinal direction of the vehicle and the position along the width direction of the vehicle as viewed from the vehicle coordinate system. and the angle of the direction from the vehicle toward the target with reference to the longitudinal direction of the vehicle. As a premise below, the output results from the plurality of detection units 40 are assumed to be the output results for the same target.

推定部31による推定は、複数ある検出部40ごとに行われる。すなわち、推定部31は、検出部40ごと、且つ、車両の前後方向の位置(第1座標値)、車両の幅方向の位置(第2座標値)、物標へ向かう向きを示す角度(第3座標値)ごとに、推定結果を出力する。 The estimation by the estimation unit 31 is performed for each of the multiple detection units 40 . That is, the estimating unit 31 determines, for each detecting unit 40, the position of the vehicle in the longitudinal direction (first coordinate value), the position of the vehicle in the width direction (second coordinate value), and the angle indicating the direction toward the target (second coordinate value). 3 coordinate values), the estimation result is output.

誤差推定部33は、検出部40の出力結果に基づいて、推定部31による出力結果に対する誤差を推定する。より具体的には、検出部40の出力結果に基づいて、検出部40ごとに、車両の前後方向の位置に含まれる誤差(第1誤差)、車両の幅方向の位置に含まれる誤差(第2誤差)、物標へ向かう向きを示す角度に含まれる誤差(第3誤差)ごとに、推定結果を出力する。 The error estimator 33 estimates an error for the output result of the estimator 31 based on the output result of the detector 40 . More specifically, based on the output result of the detection unit 40, for each detection unit 40, the error included in the position of the vehicle in the front-rear direction (first error) and the error included in the position in the width direction of the vehicle (first error) are calculated. 2 error), and an estimation result is output for each error (third error) included in the angle indicating the direction toward the target.

例えば、図3には、複数の検出部40からの出力結果として、第一の検出部40からの第一の出力結果(位置P1(X1,Y1)、誤差範囲R1)と、第二の検出部40からの第二の出力結果(位置P2(X2,Y2)、誤差範囲R2)とが示されている。推定部31による推定は複数ある検出部40ごとに行われ、推定部31は、車両の前後方向の位置(第1座標値)として「位置P1の座標値X1」「位置P2の座標値X2」を推定結果として出力している。また、推定部31は、車両の幅方向の位置(第2座標値)として「位置P1の座標値Y1」「位置P2の座標値Y2」を推定結果として出力している。 For example, FIG. 3 shows, as output results from the plurality of detection units 40, a first output result (position P1 (X1, Y1), error range R1) from the first detection unit 40, and a second detection A second output result from unit 40 (position P2 (X2, Y2), error range R2) is shown. The estimation by the estimating unit 31 is performed for each of the plurality of detecting units 40, and the estimating unit 31 sets "coordinate value X1 of position P1" and "coordinate value X2 of position P2" as the position (first coordinate value) of the vehicle in the longitudinal direction. is output as the estimation result. In addition, the estimating unit 31 outputs “coordinate value Y1 of position P1” and “coordinate value Y2 of position P2” as the positions (second coordinate values) in the width direction of the vehicle as estimation results.

また、図3では、誤差推定部33は、推定部31による推定結果「座標値X1」「座標値X2」「座標値Y1」「座標値Y2」に含まれる誤差として、「誤差ΔX1」「誤差ΔX2」「誤差ΔY1」「誤差ΔY2」を推定結果として出力している。ここで、「誤差ΔX1」「誤差ΔX2」は第1誤差であり、「誤差ΔY1」「誤差ΔY2」は第2誤差である。 Further, in FIG. 3, the error estimating unit 33 uses the "error ΔX1", "error ΔX2,” “error ΔY1,” and “error ΔY2” are output as estimation results. Here, "error ΔX1" and "error ΔX2" are first errors, and "error ΔY1" and "error ΔY2" are second errors.

図3では、第3座標値、第3誤差については明示していないが、推定部31及び誤差推定部33は、物標へ向かう向きを示す角度についても同様に推定結果を出力する。また、図3では、複数の検出部40の出力結果として2つのみが示されているが、それ以上の個数の出力結果が存在する場合であっても、推定部31及び誤差推定部33は同様に処理を行う。 Although the third coordinate value and the third error are not explicitly shown in FIG. 3, the estimating section 31 and the error estimating section 33 similarly output estimation results for the angle indicating the direction toward the target. Also, in FIG. 3, only two output results of the plurality of detection units 40 are shown. Do the same process.

なお、誤差推定部33による誤差の推定には、種々の方法が存在する。例えば、検出部40自身が出力する誤差情報に基づいて誤差を推定するものであってもよいし、検出部40ごとの特性に基づく誤差モデルに基づいて、誤差を推定するものであってもよい。また、検出部40の出力結果だけでなく、車両の走行軌跡を表現する車両モデルをコントローラ100内部に保持しておき、当該車両モデルに基づいて推定される物標の位置と、検出部40自身が出力する誤差情報、検出部40ごとの特性に基づく誤差モデルに基づいて、誤差を推定するものであってもよい。 There are various methods for estimating the error by the error estimator 33 . For example, the error may be estimated based on the error information output by the detection unit 40 itself, or the error may be estimated based on an error model based on the characteristics of each detection unit 40. . In addition to the output result of the detection unit 40, the controller 100 holds a vehicle model that expresses the travel locus of the vehicle. , and an error model based on the characteristics of each detection unit 40 may be used to estimate the error.

誤差推定部33で用いる誤差モデルには、種々のモデルが存在する。例えば、検出部40がカメラを含む場合、カメラの物標に対する移動速度と発生する誤差との関係を実測して、誤差モデルは作成されるものであってもよい。ここで、一般に、移動速度が大きくなるほど、発生する誤差は大きくなるため、移動速度の関数として、実測された誤差を評価する近似式として誤差モデルを作成することが可能である。 There are various error models used by the error estimator 33 . For example, when the detection unit 40 includes a camera, the error model may be created by actually measuring the relationship between the moving speed of the camera with respect to the target and the error that occurs. Here, in general, as the moving speed increases, the generated error increases. Therefore, it is possible to create an error model as an approximation formula for evaluating the actually measured error as a function of the moving speed.

また、カメラの物標までの撮像距離と発生する誤差の関係を実測して、誤差モデルは作成されるものであってもよい。 Also, the error model may be created by actually measuring the relationship between the imaging distance of the camera to the target and the error that occurs.

上記の他にも、カメラのレンズパラメータに基づいて計算によりカメラをモデル化し、モデル化したカメラの特性に基づいて、誤差モデルは作成されるものであってもよい。 In addition to the above, the camera may be modeled by calculation based on the lens parameters of the camera, and the error model may be created based on the characteristics of the modeled camera.

車両の走行軌跡を表現する車両モデルについても、種々のモデルが存在する。例えば、オドメトリおよび車両に車載される衛星測位システムに基づいて車両の走行軌跡を実測しておき、所定時間経過後の車両の位置を予測するモデルであってもよい。 There are also various models for vehicle models that express the travel locus of the vehicle. For example, it may be a model that predicts the position of the vehicle after a predetermined period of time by actually measuring the vehicle's travel locus based on odometry and a satellite positioning system mounted on the vehicle.

第1選択部71は、推定部31によって推定された複数の第1座標値の中で、第1誤差が最小となる第1座標値を、第1選択値として選択する。また、最小となる第1誤差を最小第1誤差として選択する。図3に示す例では、第1選択部71は、第1誤差である「誤差ΔX1」「誤差ΔX2」のうち、最小の第1誤差は「誤差ΔX1」であるので、複数の第1座標値である「座標値X1」「座標値X2」の中から、「誤差ΔX1」に対応付けられる「座標値X1」を、第1選択値として選択している。また、第1選択部71は、「誤差ΔX1」を最小第1誤差として選択している。 The first selection unit 71 selects, as a first selection value, the first coordinate value with the smallest first error among the plurality of first coordinate values estimated by the estimation unit 31 . Also, the minimum first error is selected as the minimum first error. In the example shown in FIG. 3, the first selection unit 71 selects a plurality of first coordinate values because the smallest first error is "error ΔX1" among "error ΔX1" and "error ΔX2" which are the first errors. The "coordinate value X1" associated with the "error ΔX1" is selected as the first selection value from the "coordinate value X1" and "coordinate value X2". Also, the first selection unit 71 selects “error ΔX1” as the minimum first error.

第2選択部73は、推定部31によって推定された複数の第2座標値の中で、第2誤差が最小となる第2座標値を、第2選択値として選択する。また、最小となる第2誤差を最小第2誤差として選択する。図3に示す例では、第2選択部73は、第2誤差である「誤差ΔY1」「誤差ΔY2」のうち、最小の第2誤差は「誤差ΔY2」であるので、複数の第2座標値である「座標値Y1」「座標値Y2」の中から、「誤差ΔY2」に対応付けられる「座標値Y2」を、第2選択値として選択している。また、第2選択部73は、「誤差ΔY2」を最小第2誤差として選択している。 The second selection unit 73 selects, as a second selection value, the second coordinate value with the smallest second error among the plurality of second coordinate values estimated by the estimation unit 31 . Also, the smallest second error is selected as the smallest second error. In the example shown in FIG. 3, the second selection unit 73 selects a plurality of second coordinate values because the smallest second error is the "error ΔY2" among the "error ΔY1" and the "error ΔY2" that are the second errors. "Coordinate value Y2" associated with "Error ΔY2" is selected as the second selection value from "Coordinate value Y1" and "Coordinate value Y2". Also, the second selection unit 73 selects “error ΔY2” as the minimum second error.

第3選択部75は、推定部31によって推定された複数の第3座標値の中で、第3誤差が最小となる第3座標値を、第3選択値として選択する。また、最小となる第3誤差を最小第3誤差として選択する。第3選択部75は、第1選択部71及び第2選択部73と同様に、第3選択値及び最小第3誤差を、複数の第3座標値に基づいて選択する。 The third selection unit 75 selects, as a third selection value, the third coordinate value with the smallest third error among the plurality of third coordinate values estimated by the estimation unit 31 . Also, the smallest third error is selected as the smallest third error. The third selection unit 75 selects the third selection value and the minimum third error based on a plurality of third coordinate values, similarly to the first selection unit 71 and the second selection unit 73 .

出力部91は、第1選択部71、第2選択部73、第3選択部75によってそれぞれ選択された第1選択値、第2選択値、第3選択値に基づいて、検出部40による検出対象となっている物標の位置及び角度を推定する。その他、出力部91は、推定した物標の位置及び角度に基づいて、車両の位置及び向きを推定する。すなわち、出力部91は、物標位置を含む地図データを予め記憶し、第1選択部71、第2選択部73、第3選択部75で選択された第1選択値、第2選択値、第3選択値と地図データとを照合して、地図データ上における、車両の位置及び向きを推定する。 Based on the first selection value, the second selection value, and the third selection value selected by the first selection unit 71, the second selection unit 73, and the third selection unit 75, respectively, the output unit 91 performs the detection by the detection unit 40. Estimate the position and angle of the target of interest. In addition, the output unit 91 estimates the position and orientation of the vehicle based on the estimated position and angle of the target. That is, the output unit 91 stores map data including target positions in advance, and selects the first selection value, the second selection value, The position and orientation of the vehicle on the map data are estimated by collating the third selection value with the map data.

図3に示す例では、出力部91は、第1選択値である「座標値X1」と、第2選択値である「座標値Y2」を、物標の位置PE(X1,Y2)であると推定している。 In the example shown in FIG. 3, the output unit 91 converts the first selection value "coordinate value X1" and the second selection value "coordinate value Y2" to the target position PE (X1, Y2). We estimate that

図3では、第3選択値については明示していないが、出力部91は、物標へ向かう向きを示す角度についても、第3選択値に基づいて同様に推定する。 Although the third selection value is not explicitly shown in FIG. 3, the output unit 91 similarly estimates the angle indicating the direction toward the target based on the third selection value.

誤差統合部93は、第1選択部71、第2選択部73、第3選択部75によってそれぞれ選択された最小第1誤差、最小第2誤差、最小第3誤差に基づいて、出力部91によって推定された物標の位置及び角度に関する誤差を推定する。その結果、出力部91によって推定された、地図データ上における車両の位置及び向きに関する誤差を推定する。 The error integration unit 93 outputs the Estimate the error regarding the estimated position and angle of the target. As a result, the error regarding the position and orientation of the vehicle on the map data estimated by the output unit 91 is estimated.

例えば、誤差統合部93は、推定された物標の位置及び角度に関する誤差が、最小第1誤差、最小第2誤差、最小第3誤差の合計であるとして推定する。 For example, the error integration unit 93 estimates the estimated target position and angle error as the sum of the minimum first error, the minimum second error, and the minimum third error.

[自己位置推定装置の処理手順]
次に、本実施形態に係る自己位置推定装置による自己位置推定の処理手順を、図2のフローチャートを参照して説明する。図2に示す自己位置推定の処理は、車両のイグニッションがオンされると開始し、イグニッションがオンとなっている間、繰り返し実行される。
[Processing procedure of the self-position estimation device]
Next, a processing procedure for self-position estimation by the self-position estimation device according to this embodiment will be described with reference to the flowchart of FIG. The self-position estimation process shown in FIG. 2 starts when the ignition of the vehicle is turned on, and is repeatedly executed while the ignition is on.

まず、ステップS101において、検出部40は、車両の位置を決定するための基準となる物標の、車両との相対的な位置関係を出力する。そして、推定部31は、検出部40の出力結果に基づいて、検出部40による検出対象となっている物標の、車両座標系から見た、車両の前後方向に沿った位置、車両の幅方向に沿った位置、及び、車両の前後方向を基準として車両から物標に向かう向きの角度を推定する。 First, in step S101, the detection unit 40 outputs the relative positional relationship with the vehicle of a target that serves as a reference for determining the position of the vehicle. Then, based on the output result of the detection unit 40, the estimation unit 31 determines the position of the target to be detected by the detection unit 40 along the longitudinal direction of the vehicle and the width of the vehicle as viewed from the vehicle coordinate system. The position along the direction and the angle of the orientation from the vehicle toward the target are estimated with reference to the longitudinal direction of the vehicle.

ステップS103において、誤差推定部33は、検出部40の出力結果に基づいて、推定部31による出力結果に対する誤差を推定する。 In step S<b>103 , the error estimator 33 estimates an error for the output result of the estimator 31 based on the output result of the detector 40 .

ステップS105において、第1選択部71は、推定部31によって推定された複数の第1座標値の中で、第1誤差が最小となる第1座標値を、第1選択値として選択する。また、最小となる第1誤差を最小第1誤差として選択する。 In step S<b>105 , the first selection unit 71 selects the first coordinate value with the smallest first error among the plurality of first coordinate values estimated by the estimation unit 31 as the first selection value. Also, the minimum first error is selected as the minimum first error.

ステップS107において、第2選択部73は、推定部31によって推定された複数の第2座標値の中で、第2誤差が最小となる第2座標値を、第2選択値として選択する。また、最小となる第2誤差を最小第2誤差として選択する。 In step S<b>107 , the second selection unit 73 selects the second coordinate value with the smallest second error among the plurality of second coordinate values estimated by the estimation unit 31 as the second selection value. Also, the smallest second error is selected as the smallest second error.

ステップS109において、第3選択部75は、推定部31によって推定された複数の第3座標値の中で、第3誤差が最小となる第3座標値を、第3選択値として選択する。また、最小となる第3誤差を最小第3誤差として選択する。 In step S<b>109 , the third selection unit 75 selects the third coordinate value with the smallest third error among the plurality of third coordinate values estimated by the estimation unit 31 as the third selection value. Also, the smallest third error is selected as the smallest third error.

ステップS111において、出力部91は、第1選択部71、第2選択部73、第3選択部75に基づいて、地図データ上における、車両の位置及び向きを推定する。 In step S<b>111 , the output unit 91 estimates the position and orientation of the vehicle on the map data based on the first selection unit 71 , the second selection unit 73 and the third selection unit 75 .

ステップS113において、誤差統合部93は、出力部91によって推定された、地図データ上における車両の位置及び向きに関する誤差を推定する。 In step S<b>113 , the error integration unit 93 estimates the error regarding the position and orientation of the vehicle on the map data estimated by the output unit 91 .

[実施形態の効果]
以上詳細に説明したように、本実施形態に係る自己位置推定方法及び自己位置推定装置は、車両の周囲の物標を検出する複数の検出部からの測定結果を用いて、地図データ上での車両の位置及び向きを推定する際に、複数の検出部ごとに、車両の車両座標系において、車両の前後方向に沿った物標の位置を第1座標値として推定し、第1座標値が有する誤差を第1誤差として推定し、車両の幅方向に沿った物標の位置を第2座標値として推定し、第2座標値が有する誤差を第2誤差として推定し、車両の前後方向を基準として車両から物標に向かう向きの角度を第3座標値として推定し、第3座標値が有する誤差を第3誤差として推定する。そして、推定された複数の第1座標値の中で第1誤差が最小となる第1座標値を、第1選択値として選択し、推定された複数の第2座標値の中で第2誤差が最小となる第2座標値を、第2選択値として選択し、推定された複数の第3座標値の中で第3誤差が最小となる第3座標値を、第3選択値として選択し、第1選択値、第2選択値、第3選択値に基づいて、車両の位置及び向きを推定する。
[Effects of Embodiment]
As described in detail above, the self-position estimation method and the self-position estimation device according to the present embodiment use the measurement results from a plurality of detection units that detect targets around the vehicle to determine the position on the map data. When estimating the position and orientation of the vehicle, each of the plurality of detection units estimates the position of the target along the longitudinal direction of the vehicle as a first coordinate value in the vehicle coordinate system of the vehicle. estimating the position of the target along the width direction of the vehicle as a first error, estimating the position of the target along the width direction of the vehicle as a second coordinate value, estimating the error of the second coordinate value as a second error, and estimating the longitudinal direction of the vehicle As a reference, the angle of the direction from the vehicle to the target is estimated as the third coordinate value, and the error of the third coordinate value is estimated as the third error. Then, a first coordinate value with the smallest first error among the estimated plurality of first coordinate values is selected as a first selection value, and a second error is selected among the plurality of estimated second coordinate values. is selected as the second selection value, and the third coordinate value with the minimum third error among the plurality of estimated third coordinate values is selected as the third selection value. , the first selection value, the second selection value, and the third selection value are used to estimate the position and orientation of the vehicle.

これにより、複数の検出部のうち一の検出部の測定結果が他の検出部による測定結果と比較して大きく異なってしまう場合であっても、複数の検出部による測定結果の中から、誤差が最も小さいと推定される量(車両の前後方向の位置(第1座標値)、車両の幅方向の位置(第2座標値)、物標へ向かう向きを示す角度(第3座標値))同士を組み合わせ、車両の位置及び向きを精度よく推定できる。 As a result, even if the measurement result of one of the plurality of detection units is significantly different from the measurement result of the other detection units, the error can be detected from the measurement results of the plurality of detection units. is estimated to be the smallest (position in the longitudinal direction of the vehicle (first coordinate value), position in the width direction of the vehicle (second coordinate value), angle indicating the direction toward the target (third coordinate value)) By combining them, the position and orientation of the vehicle can be estimated with high accuracy.

最尤推定による方法では、複数の検出部による複数の測定結果の中に、誤差の大きな測定結果が混入してしまう場合に、誤差の大きな測定結果に引きずられて、推定された車両の位置及び向きの精度が悪化してしまうことがある。結局のところ、最尤推定による方法は、測定結果が無限個の極限では正しい結果を与えるが、現実の測定では有限個の検出部しか利用することができないため、有限個の測定結果しか得られない。そのため、最尤推定による方法では、測定結果の誤差が問題となりうるのである。これと比較して、本実施形態による方法によれば、誤差の大きな測定結果に引きずられて、推定された車両の位置及び向きの精度が悪化してしまうことを抑制できる。 In the method using maximum likelihood estimation, when a measurement result with a large error is included in a plurality of measurement results obtained by a plurality of detection units, the estimated vehicle position and position are affected by the measurement result with a large error. Orientation accuracy may deteriorate. Ultimately, the maximum likelihood method gives correct results in the limit of infinite number of measurements, but in real measurements only a finite number of measurements are available because only a finite number of detectors are available. do not have. Therefore, the error in the measurement result can be a problem in the method based on maximum likelihood estimation. In comparison, according to the method of the present embodiment, it is possible to prevent deterioration of the accuracy of the estimated vehicle position and orientation due to measurement results with large errors.

また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、第1選択値が有する第1誤差、第2選択値が有する第2誤差、第3選択値が有する第3誤差の合計を算出するものであってもよい。これにより、推定された車両の位置及び向きについての誤差を評価することができる。また、車両モデルを介して将来の車両の位置及び向きについての誤差を評価するための基となるデータとすることができる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, the sum of the first error of the first selection value, the second error of the second selection value, and the third error of the third selection value is It may be calculated. This allows the error in the estimated vehicle position and orientation to be evaluated. It can also serve as a basis for evaluating errors in future vehicle position and orientation via a vehicle model.

さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、検出部ごとの誤差モデルを用いて、当該検出部における第1誤差、第2誤差、第3誤差をそれぞれ推定するものであってもよい。検出部毎に用意された誤差モデルを使用して誤差を推定するため、検出部毎の特性を考慮した誤差の推定を行うことができる。また、検出部が誤差モデルから離れた挙動を示した場合に、検出部が故障していること検知したり、もしくは、検出部が何らかの原因により通常の条件下で測定を行うことができていないことを検知したりできる。 Furthermore, in the self-position estimation method and self-position estimation device according to the present embodiment, the error model for each detection unit is used to estimate the first error, the second error, and the third error in the detection unit. may Since the error is estimated using the error model prepared for each detection unit, the error can be estimated in consideration of the characteristics of each detection unit. In addition, when the detection unit exhibits behavior that deviates from the error model, it is detected that the detection unit is malfunctioning, or the detection unit cannot perform measurement under normal conditions for some reason. can be detected.

また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、検出部がカメラである場合、誤差モデルは、カメラの移動速度と発生する誤差の間の関係を実測して作成されたものであってもよい。さらには、誤差モデルは、カメラの撮像距離と発生する誤差の関係を実測して作成されたものであってもよい。車両の移動に伴ってカメラに生じる誤差を、実測値に基づいて正確に評価でき、車両の位置及び向きを、より精度よく推定できる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, when the detection unit is a camera, the error model is created by actually measuring the relationship between the moving speed of the camera and the error that occurs. may be Furthermore, the error model may be created by actually measuring the relationship between the imaging distance of the camera and the error that occurs. Errors that occur in the camera as the vehicle moves can be accurately evaluated based on actual measurements, and the position and orientation of the vehicle can be estimated with higher accuracy.

さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、誤差モデルは、カメラのレンズパラメータに基づいて計算によりモデル化して作成されたものであってもよい。車両の移動に伴ってカメラに生じる誤差を、モデル化したカメラの特性に基づいて正確に評価でき、車両の位置及び向きを、より精度よく推定できる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, the error model may be created by modeling by calculation based on the lens parameters of the camera. Errors that occur in the camera as the vehicle moves can be accurately evaluated based on the modeled characteristics of the camera, and the position and orientation of the vehicle can be estimated more accurately.

また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、車両の車両モデルに基づいて、車両の位置及び向きを推定するものであってもよい。また、車両モデルは、オドメトリおよび車両に車載される衛星測位システムに基づいて実測して作成されたものであってもよい。車両モデルに基づいて推定することにより、車両の走行軌跡と推定された車両の位置及び向きとの間のズレ量を誤差の評価に利用することができ、車両の位置及び向きの推定を改善できる。 Moreover, in the self-position estimation method and the self-position estimation device according to the present embodiment, the position and orientation of the vehicle may be estimated based on the vehicle model of the vehicle. Also, the vehicle model may be created by actual measurement based on odometry and a satellite positioning system mounted on the vehicle. By estimating based on a vehicle model, the amount of deviation between the trajectory of the vehicle and the estimated position and orientation of the vehicle can be used to evaluate the error, improving the estimation of the vehicle position and orientation. .

さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、車両モデルと、検出部ごとの誤差モデルを用いて、当該検出部における第1誤差、第2誤差、第3誤差を推定するものであってもよい。検出部毎に用意された誤差モデルを使用して誤差を推定するため、検出部毎の特性を考慮した誤差の推定を行うことができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, the vehicle model and the error model for each detection unit are used to estimate the first error, the second error, and the third error in the detection unit. can be anything. Since the error is estimated using the error model prepared for each detection unit, the error can be estimated in consideration of the characteristics of each detection unit.

また、本実施形態に係る自己位置推定方法及び自己位置推定装置において、過去の時点で選択された、第1選択値、第2選択値、第3選択値に基づいて、車両の位置及び向きを推定するものであってもよい。過去の時点で選択された、第1選択値、第2選択値、第3選択値も推定に利用することで、推定に使用するデータ量を増やすことが可能となり、車両の位置及び向きを、より精度よく推定できる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, the position and orientation of the vehicle are determined based on the first selection value, the second selection value, and the third selection value selected in the past. It may be estimated. By using the first selected value, the second selected value, and the third selected value selected in the past for estimation, the amount of data used for estimation can be increased, and the position and orientation of the vehicle can be It can be estimated more accurately.

さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置において、第1選択値が有する第1誤差、第2選択値が有する第2誤差、第3選択値が有する第3誤差に基づいて、車両の位置及び向きを推定するものであってもよい。これにより、推定された車両の位置及び向きについての誤差を評価することができる。また、車両モデルを介して将来の車両の位置及び向きについての誤差を評価するための基となるデータとすることができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, based on the first error of the first selection value, the second error of the second selection value, and the third error of the third selection value, , to estimate the position and orientation of the vehicle. This allows the error in the estimated vehicle position and orientation to be evaluated. It can also serve as a basis for evaluating errors in future vehicle position and orientation via a vehicle model.

[第2実施形態]
次に、図面を参照して、本発明の実施の形態を詳細に説明する。説明において、同一のものには同一符号を付して重複説明を省略する。
[Second embodiment]
Embodiments of the present invention will now be described in detail with reference to the drawings. In the explanation, the same reference numerals are given to the same parts, and redundant explanations are omitted.

[自己位置推定装置の構成]
図4は、本実施形態に係る自己位置推定装置の構成を示すブロック図である。図4に示すように、本実施形態に係る自己位置推定装置は、検出部評価部150をさらに備えたことが第1実施形態と相違している。
[Configuration of self-localization device]
FIG. 4 is a block diagram showing the configuration of the self-position estimation device according to this embodiment. As shown in FIG. 4, the self-position estimation device according to this embodiment differs from the first embodiment in that it further includes a detection unit evaluation unit 150 .

検出部評価部150は、複数の検出部40の中から、誤差を有する検出部40を特定し、特定された検出部40を第1-第3選択部71-75にそれぞれ出力する。その結果、第1-第3選択部71-75では、特定された検出部40の測定結果を用いて推定された座標値を除外した上で、第1-第3誤差が最小となる座標値を第1-第3選択値として選択する。検出部評価部150は、プロファイル作成部152と、検出部特定部154とを備えている。 The detection unit evaluation unit 150 identifies a detection unit 40 having an error from among the plurality of detection units 40, and outputs the identified detection units 40 to the first to third selection units 71 to 75, respectively. As a result, the first to third selection units 71 to 75 remove the coordinate values estimated using the specified measurement results of the detection unit 40, and select the coordinate values that minimize the first to third errors. as the first-third selection values. The detection unit evaluation unit 150 includes a profile generation unit 152 and a detection unit identification unit 154 .

プロファイル作成部152は、複数の検出部40ごとに、車両の車両座標系において、車両の前後方向に沿った物標の速度を第1速度として算出し、所定期間内に算出された複数の第1速度を記憶してプロファイルを作成する。同様に、プロファイル作成部152は、車両の幅方向に沿った物標の速度を第2速度として算出し、所定期間内に算出された複数の第2速度を記憶してプロファイルを作成する。また、車両の前後方向を基準として車両から物標に向かう向きの角速度を第3速度として算出し、所定期間内に算出された複数の第3速度を記憶してプロファイルを作成する。さらに、プロファイル作成部152は、基準となる速度を記憶した基準プロファイルも作成する。 The profile creating unit 152 calculates, for each of the plurality of detecting units 40, the speed of the target along the longitudinal direction of the vehicle in the vehicle coordinate system of the vehicle as the first speed, and calculates the plurality of first speeds calculated within a predetermined period. 1. Memorize the speed and create a profile. Similarly, the profile creating unit 152 calculates the speed of the target along the width direction of the vehicle as a second speed, and stores a plurality of second speeds calculated within a predetermined period to create a profile. Also, the angular velocity in the direction from the vehicle toward the target is calculated as a third velocity with reference to the longitudinal direction of the vehicle, and a profile is created by storing a plurality of third velocities calculated within a predetermined period. Furthermore, the profile creation unit 152 also creates a reference profile that stores a reference speed.

プロファイル作成部152は、まず複数の検出部40ごとに、検出部40が検出対象としている物標の速度を算出する。例えば、検出部40が白線検出部である場合には白線の移動速度を算出し、検出部40がGPSに基づく車両の位置検出システムである場合には車両の速度を算出する。速度の算出方法は、検出部40によってそれぞれ異なっているが、基本的には所定時間内における物標の位置の変化量から求めることができる。そして、プロファイル作成部152は、車両の前後方向に沿った物標の速度を第1速度、車両の幅方向に沿った物標の速度を第2速度、車両の前後方向を基準として車両から物標に向かう向きの角速度を第3速度として算出する。 The profile creation unit 152 first calculates the velocity of the target object that the detection unit 40 is to detect for each of the plurality of detection units 40 . For example, when the detection unit 40 is a white line detection unit, the moving speed of the white line is calculated, and when the detection unit 40 is a vehicle position detection system based on GPS, the speed of the vehicle is calculated. The method of calculating the speed differs depending on the detection unit 40, but basically it can be obtained from the amount of change in the position of the target within a predetermined period of time. Then, the profile generator 152 determines the speed of the target along the longitudinal direction of the vehicle as the first speed, the speed of the target along the width direction of the vehicle as the second speed, and the object from the vehicle relative to the longitudinal direction of the vehicle. The angular velocity in the direction toward the target is calculated as the third velocity.

次に、プロファイル作成部152は、所定期間内に算出された複数の速度を、算出された時刻の順に並べて記録したプロファイルを作成する。例えば、プロファイルには、10秒間の間に1秒毎に算出された10個の速度が、算出された時刻の順に並べられて記憶されている。そして、プロファイル作成部152は、検出部40ごとに第1速度と第2速度と第3速度のプロファイルをそれぞれ作成する。 Next, the profile creation unit 152 creates a profile in which a plurality of speeds calculated within a predetermined period are arranged in order of calculated time and recorded. For example, in the profile, 10 velocities calculated every 1 second for 10 seconds are stored in order of calculated time. Then, the profile creation unit 152 creates profiles of the first speed, the second speed, and the third speed for each detection unit 40 .

また、プロファイル作成部152は、基準となる速度を記憶した基準プロファイルを作成する。基準プロファイルは、検出部40の中で最も安定していると考えられる検出部の測定結果を用いて算出された速度を記憶したプロファイルである。例えば、車両モデルから推定された速度を記憶したプロファイルを基準プロファイルとすることが考えられる。車両モデルとしては、車両の車輪速と操舵角から求められるオドメトリを用いることができる。車両モデルの他にもGPSによって検出された車両の位置から算出された速度を用いて基準プロファイルを作成してもよい。 Also, the profile creating unit 152 creates a reference profile that stores a reference speed. The reference profile is a profile that stores the velocity calculated using the measurement result of the detection section that is considered to be the most stable among the detection sections 40 . For example, it is conceivable to use a profile that stores the speed estimated from the vehicle model as the reference profile. As the vehicle model, odometry obtained from the wheel speed and steering angle of the vehicle can be used. Besides the vehicle model, the velocity calculated from the position of the vehicle detected by GPS may be used to create the reference profile.

次に、検出部特定部154は、プロファイルに記憶された第1速度と基準プロファイルに記憶された速度との差分を算出する。同様に、検出部特定部154は、プロファイルに記憶された第2速度と基準プロファイルに記憶された速度との差分を算出し、プロファイルに記憶された第3速度と基準プロファイルに記憶された速度との差分を算出する。そして、算出された差分を加算して差分の和を算出し、算出された差分の和が第1閾値より大きくなるか否かを判定する。その結果、算出された差分の和が第1閾値より大きくなる場合には、第1閾値より大きいと判定されたプロファイルを作成するための測定結果を出力した検出部40を、継続して誤差を有する検出部であると特定する。 Next, the detection unit specifying unit 154 calculates the difference between the first speed stored in the profile and the speed stored in the reference profile. Similarly, the detection unit specifying unit 154 calculates the difference between the second speed stored in the profile and the speed stored in the reference profile, and calculates the difference between the third speed stored in the profile and the speed stored in the reference profile. Calculate the difference between Then, the calculated differences are added to calculate the sum of the differences, and it is determined whether or not the calculated sum of the differences is greater than the first threshold. As a result, when the sum of the calculated differences becomes larger than the first threshold, the detection unit 40 that outputs the measurement result for creating the profile determined to be larger than the first threshold continues to detect the error. It is specified that the detection unit has

ここで、継続して誤差を有する検出部を特定する方法を、図5、6を参照して説明する。図5は、検出部40の測定結果から算出された速度の時間変化を示す図であり、図6は、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分の和の時間変化を示す図である。 Here, a method for identifying detectors that continuously have errors will be described with reference to FIGS. FIG. 5 is a graph showing changes over time in speed calculated from the measurement results of the detection unit 40. FIG. 6 shows changes over time in the sum of the differences between the speed stored in the profile and the speed stored in the reference profile. It is a figure which shows.

図5に示すように、プロファイル作成部152は、複数の検出部40の測定結果から検出部40ごとに速度Va、Vb、Vc、Vrを算出している。速度Vaは検出部40aの測定結果から算出された速度、速度Vbは検出部40bの測定結果から算出された速度、速度Vcは検出部40cの測定結果から算出された速度である。また、速度Vrは基準となる速度であり、図5ではオドメトリから求めた速度を基準としている。図5に示すように、速度Vaは急な減速をしており、速度Vbは緩やかに減速している。一方、速度Vc、Vrは加速している。 As shown in FIG. 5 , the profile generator 152 calculates velocities Va, Vb, Vc, and Vr for each detector 40 from the measurement results of the plurality of detectors 40 . Velocity Va is a velocity calculated from the measurement result of the detection section 40a, velocity Vb is a velocity calculated from the measurement result of the detection section 40b, and velocity Vc is a velocity calculated from the measurement result of the detection section 40c. Also, the speed Vr is a reference speed, and in FIG. 5, the speed obtained from the odometry is used as a reference. As shown in FIG. 5, the speed Va is rapidly decelerating, and the speed Vb is gently decelerating. On the other hand, the velocities Vc and Vr are accelerating.

図5において、プロファイル作成部152は、現在時刻t0より前の所定期間、例えば10秒間に算出された速度を記憶してプロファイルを作成する。図5では、速度Va、Vb、Vcのプロファイルをそれぞれ作成し、基準プロファイルとして速度Vrのプロファイルを作成する。 In FIG. 5, the profile creating unit 152 creates a profile by storing the velocity calculated for a predetermined period of time, for example, 10 seconds, before the current time t0. In FIG. 5, profiles of velocities Va, Vb, and Vc are created respectively, and a profile of velocity Vr is created as a reference profile.

こうしてプロファイルが作成されると、次に、検出部特定部154は、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分を算出する。プロファイルは、所定の時刻や所定の時間間隔で速度を記憶しているので、同一の時刻にある速度同士で差分を算出する。例えば、速度Vaの時刻t5における速度と速度Vrの時刻t5における速度の差分を算出する。そして、プロファイルに記憶されている速度のすべてについてそれぞれ差分を算出する。図5の場合では、現在時刻t0より前の10秒間の速度の差分をすべて算出する。 After the profile is created in this way, the detection unit specifying unit 154 then calculates the difference between the speed stored in the profile and the speed stored in the reference profile. Since the profile stores velocities at predetermined times and at predetermined time intervals, the difference between the velocities at the same time is calculated. For example, the difference between the velocity Va at time t5 and the velocity Vr at time t5 is calculated. Then, the difference is calculated for each of the velocities stored in the profile. In the case of FIG. 5, all the speed differences for 10 seconds before the current time t0 are calculated.

そして、検出部特定部154は、算出された差分をすべて加算して差分の和を算出し、算出した差分の和が第1閾値より大きくなるか否かを判定する。図6は、図5の速度Vaから算出した差分の和Saと、図5の速度Vbから算出した差分の和Sbと、図5の速度Vcから算出した差分の和Scを示している。尚、第1閾値は、車両が通常の速度で直進走行している場合に、継続して誤差を有する検出部を特定するために設定された閾値であり、予め実験やシミュレーションによって設定しておけばよい。 Then, the detection unit specifying unit 154 adds all the calculated differences to calculate the sum of the differences, and determines whether or not the sum of the calculated differences is greater than the first threshold. FIG. 6 shows the sum of differences Sa calculated from the velocity Va of FIG. 5, the sum of differences Sb calculated from the velocity Vb of FIG. 5, and the sum of differences Sc calculated from the velocity Vc of FIG. Note that the first threshold is a threshold that is set in order to identify detection units that continuously have an error when the vehicle is traveling straight ahead at a normal speed, and should be set in advance through experiments and simulations. Just do it.

図6に示すように、差分の和Sa、Sbは、時刻t0において第1閾値よりも大きくなっている。すなわち、プロファイルの作成期間において、速度Va、Vbは、基準となる速度Vrから継続して乖離が生じていたことが分かる。したがって、速度Va、Vbを算出した測定結果を出力した検出部40は、継続して誤差を有する検出部であると特定することができる。 As shown in FIG. 6, the sums of differences Sa and Sb are greater than the first threshold at time t0. That is, it can be seen that the velocities Va and Vb continued to deviate from the reference velocity Vr during the profile creation period. Therefore, the detection unit 40 that outputs the measurement results of calculating the velocities Va and Vb can be identified as the detection unit that continuously has an error.

一方、差分の和Scは第1閾値以下となっている。すなわち、プロファイルの作成期間において、速度Vcは、基準となる速度Vrからの乖離が常に小さいことが分かる。したがって、速度Vcを算出した測定結果を出力した検出部40は、誤差が小さい検出部であると特定することができる。 On the other hand, the sum Sc of differences is less than or equal to the first threshold. That is, it can be seen that the speed Vc always has a small deviation from the reference speed Vr during the profile creation period. Therefore, the detection unit 40 that outputs the measurement result of calculating the velocity Vc can be specified as a detection unit with a small error.

こうして誤差を有する検出部が特定されると、検出部特定部154は、特定結果を第1-第3選択部71-75に出力する。 When the detecting portion having the error is thus specified, the detecting portion specifying portion 154 outputs the specified result to the first to third selecting portions 71-75.

第1選択部71は、特定結果を取得すると、推定部31で推定された複数の第1座標値の中で、誤差を有すると特定された検出部40の測定結果を用いて推定された第1座標値を除外する。そして、除外されなかった第1座標値の中から第1誤差が最小となる第1座標値を第1選択値として選択する。 After acquiring the identification result, the first selection unit 71 selects the first coordinate value estimated using the measurement result of the detection unit 40 identified as having an error among the plurality of first coordinate values estimated by the estimation unit 31 . Exclude one coordinate value. Then, the first coordinate value with the smallest first error is selected as the first selection value from among the first coordinate values that are not excluded.

同様に、第2選択部73は、推定部31で推定された複数の第2座標値の中で、誤差を有すると特定された検出部40の測定結果を用いて推定された第2座標値を除外する。そして、除外されなかった第2座標値の中から第2誤差が最小となる第2座標値を第2選択値として選択する。 Similarly, the second selection unit 73 selects the second coordinate values estimated using the measurement result of the detection unit 40 identified as having an error among the plurality of second coordinate values estimated by the estimation unit 31. to exclude. Then, the second coordinate value with the smallest second error is selected as the second selection value from the second coordinate values that are not excluded.

また、第3選択部75は、推定部31で推定された複数の第3座標値の中で、誤差を有すると特定された検出部40の測定結果を用いて推定された第3座標値を除外する。そして、除外されなかった第3座標値の中から第3誤差が最小となる第3座標値を第3選択値として選択する。 Further, the third selection unit 75 selects the third coordinate values estimated using the measurement result of the detection unit 40 identified as having an error among the plurality of third coordinate values estimated by the estimation unit 31. exclude. Then, the third coordinate value with the smallest third error is selected as the third selection value from among the third coordinate values that are not excluded.

この後、出力部91は、第1選択部71、第2選択部73、第3選択部75によってそれぞれ選択された第1選択値、第2選択値、第3選択値に基づいて、検出部40による検出対象となっている物標の位置及び角度を推定する。その他、出力部91は、推定した物標の位置及び角度に基づいて、車両の位置及び向きを推定する。 After that, the output unit 91 outputs the detection unit Estimate the position and angle of the target to be detected by 40 . In addition, the output unit 91 estimates the position and orientation of the vehicle based on the estimated position and angle of the target.

[自己位置推定装置の処理手順]
次に、本実施形態に係る自己位置推定装置による自己位置推定の処理手順を、図7のフローチャートを参照して説明する。図7に示す本実施形態の自己位置推定処理では、ステップS104が追加されたことが、図2に示す第1実施形態の自己位置推定処理と相違している。
[Processing procedure of the self-position estimation device]
Next, a processing procedure for self-position estimation by the self-position estimation device according to this embodiment will be described with reference to the flowchart of FIG. The self-position estimation process of the present embodiment shown in FIG. 7 differs from the self-position estimation process of the first embodiment shown in FIG. 2 in that step S104 is added.

ステップS104において、検出部評価部150は、複数の検出部40の中で、継続して誤差を有する検出部40を特定し、特定された検出部40を第1-第3選択部71-75にそれぞれ出力する。以下、ステップS104で実行される検出部の特定処理を、図8のフローチャートを参照して説明する。 In step S104, the detection unit evaluation unit 150 identifies the detection units 40 that continuously have errors among the plurality of detection units 40, and selects the identified detection units 40 from the first to third selection units 71-75. , respectively. The detection unit specifying process executed in step S104 will be described below with reference to the flowchart of FIG.

図8に示すように、プロファイル作成部152は、ステップS201において、複数の検出部40ごとに車両の車両座標系において速度を算出し、ステップS203において、所定期間内に算出された複数の速度を記憶してプロファイルを作成する。また、プロファイル作成部152は、ステップS203において、基準となる速度を記憶した基準プロファイルも作成する。 As shown in FIG. 8, in step S201, the profile generator 152 calculates velocities in the vehicle coordinate system of the vehicle for each of the plurality of detectors 40, and in step S203, calculates the plurality of velocities calculated within a predetermined period. Memorize and create a profile. In step S203, the profile creation unit 152 also creates a reference profile that stores a reference speed.

ステップS205において、検出部特定部154は、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分を算出し、算出された差分をすべて加算して差分の和を算出する。 In step S205, the detection unit specifying unit 154 calculates the difference between the speed stored in the profile and the speed stored in the reference profile, adds all the calculated differences, and calculates the sum of the differences.

ステップS207において、検出部特定部154は、算出された差分の和が第1閾値より大きくなるか否かを判定する。そして、第1閾値より大きいと判定されたプロファイルを作成するための測定結果を出力した検出部40を、継続して誤差を有する検出部であると特定する。この後、検出部特定部154は特定結果を第1-第3選択部71-75に出力する。 In step S207, the detection unit specifying unit 154 determines whether or not the sum of the calculated differences is greater than the first threshold. Then, the detection unit 40 that outputs the measurement result for creating the profile that is determined to be larger than the first threshold value is identified as the detection unit that continuously has an error. After that, the detecting portion identifying portion 154 outputs the identification result to the first to third selecting portions 71-75.

こうして、誤差を有する検出部が特定されると、ステップS104で実行される検出部の特定処理は終了する。 When the detection unit having the error is thus identified, the detection unit identification processing executed in step S104 ends.

この後、図7の自己位置推定処理はステップS105-S109に進む。ステップS105-S109において、第1-第3選択部71-75は、誤差を有する検出部の特定結果を取得すると、推定部31で推定された複数の座標値の中で、誤差を有する検出部40の測定結果を用いて推定された座標値を除外する。そして、除外されなかった座標値の中から誤差が最小となる座標値を選択値として選択する。 Thereafter, the self-position estimation process of FIG. 7 proceeds to steps S105-S109. In steps S105 to S109, when the first to third selection units 71 to 75 acquire the identification result of the detection unit having the error, the first to third selection units 71 to 75 select the detection unit having the error among the multiple coordinate values estimated by the estimation unit 31. Exclude the coordinate values estimated using 40 measurements. Then, the coordinate value with the smallest error is selected as the selection value from the coordinate values that have not been excluded.

こうして選択値が選択されると、ステップS111、S113の処理が実行されて、本実施形態に係る自己位置推定処理は終了する。 When the selection value is selected in this way, the processes of steps S111 and S113 are executed, and the self-position estimation process according to this embodiment ends.

[変形例1]
上述した実施形態では、車両が通常の速度で直進走行している場合について説明しているが、車両がほぼ停止しているような低速の場合や車両が旋回しているような場合には、誤差の大きさが変化する。そのため、車両が低速の場合や旋回している場合には、上述した実施形態の第1閾値を変更する必要がある。
[Modification 1]
In the above-described embodiment, the case where the vehicle is traveling straight ahead at a normal speed has been described. The magnitude of the error changes. Therefore, when the vehicle is traveling at a low speed or turning, it is necessary to change the first threshold value of the above-described embodiment.

そこで、車両の速度が所定値以下である場合には、第1閾値よりも小さい第2閾値を用いて、継続して誤差を有する検出部40を特定する。車両が低速で走行している場合には、誤差は小さくなるので、第2閾値は第1閾値よりも小さな値となる。尚、第2閾値は、車両がほぼ停止しているような低速で走行している場合に、誤差を有する検出部40を特定するために設定された閾値であり、予め実験やシミュレーションによって設定することができる。 Therefore, when the speed of the vehicle is equal to or less than a predetermined value, a second threshold value smaller than the first threshold value is used to identify the detectors 40 that continuously have errors. When the vehicle is traveling at a low speed, the error is small, so the second threshold is a smaller value than the first threshold. The second threshold is a threshold set for identifying the detection unit 40 having an error when the vehicle is traveling at a low speed such that the vehicle is almost stopped, and is set in advance through experiments and simulations. be able to.

また、車両が旋回中である場合には、第1閾値の代わりに第3閾値を用いて、継続して誤差を有する検出部40を特定する。車両が旋回中であることを判断する方法としては、車両のヨー角を検出して判断すればよい。尚、第3閾値は、車両が通常の速度で旋回している場合に、誤差を有する検出部40を特定するために設定された閾値であり、予め実験やシミュレーションによって設定することができる。 Further, when the vehicle is turning, the third threshold is used instead of the first threshold to identify the detection unit 40 that continuously has an error. As a method of determining that the vehicle is turning, it is possible to determine by detecting the yaw angle of the vehicle. Note that the third threshold is a threshold set to identify the detection unit 40 having an error when the vehicle is turning at a normal speed, and can be set in advance through experiments or simulations.

[変形例2]
検出部40の中には安定性が低く、一時的に大きな誤差を含んだ測定結果を出力する場合がある。そのような場合には、プロファイルに記憶された速度の中に全く異なる値の速度が含まれることになる。
[Modification 2]
Some detection units 40 have low stability and may temporarily output measurement results containing large errors. In such a case, the velocities stored in the profile will contain completely different values of velocities.

そこで、検出部特定部154は、プロファイルに記憶された速度の中に1つでも全く異なる値の速度が含まれている場合には、そのプロファイルを作成するための測定結果を出力した検出部40を、誤差を有する検出部であると特定する。 Therefore, if the velocities stored in the profile include at least one velocity with a completely different value, the detection unit specifying unit 154 determines that the detection unit 40 that outputs the measurement result for creating the profile. are identified as erroneous detectors.

具体的に、検出部特定部154は、プロファイルに記憶された速度の中で第4閾値より大きな速度があるか否かを判定する。そして、第4閾値より大きな速度を有するプロファイルがある場合には、そのプロファイルを作成するための測定結果を出力した検出部を、誤差を有する検出部であると特定する。尚、第4閾値は、大きな誤差を含んだ速度を検出するために設定された閾値なので、他の閾値よりも大きな値に設定されており、予め実験やシミュレーションによって設定することができる。 Specifically, the detection unit identifying unit 154 determines whether or not there is a speed greater than the fourth threshold among the speeds stored in the profile. Then, if there is a profile having a velocity greater than the fourth threshold, the detection unit that output the measurement result for creating that profile is identified as the detection unit having an error. Note that the fourth threshold is set to a value larger than the other thresholds because it is set to detect a speed including a large error, and can be set in advance through experiments or simulations.

[変形例3]
誤差を有する検出部40を特定する方法として、速度の変化率、すなわち加速度の向き(プラスかマイナスか)が異なっているかどうかを判断することによって、検出部40が誤差を有するかどうかを判断することができる。
[Modification 3]
As a method of identifying the detection unit 40 having an error, it is determined whether the detection unit 40 has an error by determining whether the rate of change of velocity, that is, the direction of acceleration (positive or negative) is different. be able to.

そこで、検出部特定部154は、プロファイルに記憶された速度についてそれぞれ加速度を算出し、基準プロファイルに記憶された速度についてもそれぞれ加速度を算出する。加速度は、前後の速度の間の変化率を求めることによって算出することができる。そして、プロファイルに記憶された速度から算出された加速度の向きと基準プロファイルから算出された加速度の向きが異なる回数が第5閾値より多いか否かを判定する。その結果、第5閾値より多い場合には、第5閾値より多いプロファイルを作成するための測定結果を出力した検出部を、誤差を有する検出部であると特定する。尚、第5閾値は、継続して誤差を有する検出部において加速度の向きに異常が発生する回数を、予め実験やシミュレーションによって検証して設定しておけばよい。 Therefore, the detection unit specifying unit 154 calculates acceleration for each velocity stored in the profile, and also calculates acceleration for each velocity stored in the reference profile. Acceleration can be calculated by finding the rate of change between forward and backward velocities. Then, it is determined whether or not the number of times the direction of acceleration calculated from the velocity stored in the profile differs from the direction of acceleration calculated from the reference profile is greater than the fifth threshold. As a result, when the number is greater than the fifth threshold, the detection section that outputs the measurement result for creating a profile greater than the fifth threshold is specified as the detection section having the error. Note that the fifth threshold may be set by verifying in advance the number of times an abnormality in the direction of acceleration occurs in a detection unit that continuously has an error, through experiments or simulations.

[変形例4]
プロファイルに記憶された各速度の誤差は小さくても、誤差のある速度が多い場合には、そのようなプロファイルを作成するための測定結果を出力した検出部は誤差を有する検出部であると考えられる。
[Modification 4]
Even if the error of each speed stored in the profile is small, if there are many speeds with errors, it is considered that the detection unit that output the measurement results for creating such a profile is the detection unit with errors. be done.

そこで、検出部特定部154は、プロファイルに記憶された速度と基準プロファイルに記憶された速度とをそれぞれ比較する。そして、速度の差が所定値以上である回数が第6閾値より多い場合には、第6閾値より多いプロファイルを作成するための測定結果を出力した検出部を、誤差を有する検出部であると特定する。尚、第6閾値は、継続して誤差を有する検出部において小さな誤差が発生する回数を、予め実験やシミュレーションによって検証して設定しておけばよい。また、小さな誤差の有無を判定するための所定値は、大きな誤差を判定するための第4閾値より小さな値に設定されている。 Therefore, the detector identification unit 154 compares the speed stored in the profile with the speed stored in the reference profile. Then, if the number of times the speed difference is equal to or greater than the predetermined value is greater than the sixth threshold, the detection unit outputting the measurement result for creating a profile greater than the sixth threshold is determined to be the detection unit having an error. Identify. Note that the sixth threshold may be set by verifying in advance by experiment or simulation the number of times a small error occurs in a detection unit that continuously has an error. Also, the predetermined value for determining whether or not there is a small error is set to a value smaller than the fourth threshold value for determining a large error.

[実施形態の効果]
以上詳細に説明したように、本実施形態に係る自己位置推定方法及び自己位置推定装置は、物標の速度を算出して所定期間内に算出された複数の速度を記憶してプロファイルを作成し、さらに基準となる速度を記憶した基準プロファイルを作成する。そして、プロファイルに記憶された速度と基準プロファイルに記憶された速度との差分を算出し、算出された差分を加算して差分の和を算出する。その結果、算出された差分の和が第1閾値より大きくなる場合には、そのプロファイルを作成するための測定結果を出力した検出部を特定する。こうして検出部が特定されると、推定された複数の座標値の中で、特定された検出部の測定結果を用いて推定された座標値を除外し、誤差が最小となる座標値を選択値として選択する。
[Effects of Embodiment]
As described in detail above, the self-position estimation method and the self-position estimation device according to the present embodiment calculate the speed of a target, store a plurality of speeds calculated within a predetermined period, and create a profile. Furthermore, a reference profile is created in which reference speeds are stored. Then, the difference between the speed stored in the profile and the speed stored in the reference profile is calculated, and the calculated difference is added to calculate the sum of the differences. As a result, when the sum of the calculated differences is larger than the first threshold value, the detection unit that output the measurement result for creating the profile is specified. When the detection unit is specified in this way, the coordinate values estimated using the measurement result of the specified detection unit are excluded from the estimated multiple coordinate values, and the coordinate value with the minimum error is selected. Select as

これにより、継続して誤差を有する検出部40の測定結果を用いて推定された座標値を除外できるので、自己位置を推定するときに車両の位置及び向きを精度よく推定することができる。 As a result, the coordinate values estimated using the measurement results of the detection unit 40 that continuously have errors can be excluded, so the position and orientation of the vehicle can be accurately estimated when estimating the self-position.

特に、本実施形態に係る自己位置推定方法及び自己位置推定装置では、小さな誤差が継続して存在するような検出部40の測定結果を誤って選択してしまうことを防止できる。その具体例を、図7を参照して説明する。 In particular, the self-position estimation method and the self-position estimation device according to the present embodiment can prevent erroneous selection of measurement results of the detection unit 40 in which small errors continue to exist. A specific example thereof will be described with reference to FIG.

図7は、小さな誤差が継続して存在するような検出部40がある場合に、本実施形態の方法を使用した場合と使用しなかった場合の自己位置の推定結果を示している。図7に示すように、地点Aでは、本実施形態の方法を使用しないで推定した自己位置P1と、本実施形態の方法を使用して推定した自己位置P2は同じ位置にある。 FIG. 7 shows self-position estimation results when the method of the present embodiment is used and when the method of the present embodiment is not used when there is a detection unit 40 in which small errors continue to exist. As shown in FIG. 7, at point A, self-position P1 estimated without using the method of this embodiment and self-position P2 estimated using the method of this embodiment are at the same position.

この後、時間が経過して地点Bの推定結果では、本実施形態の方法を使用しないで推定した自己位置P1は、本実施形態の方法を使用して推定した自己位置P2よりも前方に進んでいる。 After that, time passes and the estimation result of the point B indicates that the self-position P1 estimated without using the method of the present embodiment is ahead of the self-position P2 estimated using the method of the present embodiment. I'm in.

小さな誤差が継続して存在するような検出部40がある場合、各時点における誤差は小さいので、小さな誤差を有する検出部40の測定結果が選択されることになる。しかし、各時点における誤差は小さくても、継続して選択されて誤差が少しずつ拡大すると、地点Bの自己位置P1は、自己位置P2よりもだいぶ前方に進んでしまうことになる。 If there is a detection unit 40 that continuously has a small error, the measurement result of the detection unit 40 having a small error will be selected because the error is small at each time point. However, even if the error at each time point is small, if the error is gradually increased due to continued selection, the self-position P1 of the point B will be far ahead of the self-position P2.

これに対して、本実施形態の方法を使用して推定した自己位置P2は、継続して誤差を有する検出部40の測定結果を除外して推定されているので、誤差が少しずつ拡大していくことはなく、精度よく推定されている。 On the other hand, the self-position P2 estimated using the method of the present embodiment is estimated by excluding the measurement results of the detection unit 40 that continuously have an error, so the error gradually expands. It is estimated with good precision.

この結果、地点Cの推定結果では、本実施形態の方法を使用しないで推定した自己位置P1は交差点で他の車線へはみ出しているが、本実施形態の方法を使用して推定した自己位置P2は交差点ではみ出すことなく車線内を走行している。 As a result, in the estimation result of the point C, the self-position P1 estimated without using the method of this embodiment protrudes into another lane at the intersection, but the self-position P2 estimated using the method of this embodiment is driving in the lane without sticking out at the intersection.

したがって、本実施形態の方法を使用することにより、小さな誤差が継続して存在するような検出部40が存在している場合であっても、車両の位置及び向きを精度よく推定することができる。 Therefore, by using the method of the present embodiment, it is possible to accurately estimate the position and orientation of the vehicle even when there is a detection unit 40 that continuously has a small error. .

また、本実施形態に係る自己位置推定方法及び自己位置推定装置では、車両の速度が所定値以下である場合には、第1閾値よりも小さい第2閾値を用いている。これにより、車両がほぼ停止しているような低速の場合であっても、車両の位置及び向きを精度よく推定することができる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, the second threshold smaller than the first threshold is used when the speed of the vehicle is equal to or less than a predetermined value. As a result, the position and orientation of the vehicle can be accurately estimated even when the vehicle is traveling at a low speed such that the vehicle is almost stationary.

さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置では、車両が旋回中である場合には、第1閾値の代わりに第3閾値を用いている。これにより、車両が旋回している場合であっても、車両の位置及び向きを精度よく推定することができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to this embodiment, the third threshold is used instead of the first threshold when the vehicle is turning. This makes it possible to accurately estimate the position and orientation of the vehicle even when the vehicle is turning.

また、本実施形態に係る自己位置推定方法及び自己位置推定装置では、プロファイルに記憶された速度の中で第4閾値より大きな速度がある場合には、第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した検出部を特定する。これにより、安定性が低い検出部40によって正常値とは全く異なる測定結果が出力された場合であっても、車両の位置及び向きを精度よく推定することができる。 Further, in the self-position estimation method and the self-position estimation device according to the present embodiment, if there is a speed higher than the fourth threshold among the speeds stored in the profile, a profile having a speed higher than the fourth threshold is created. Identify the detection unit that has output the measurement result for This makes it possible to accurately estimate the position and orientation of the vehicle even when the detection unit 40 with low stability outputs measurement results that are completely different from normal values.

さらに、本実施形態に係る自己位置推定方法及び自己位置推定装置では、プロファイルに記憶された速度についてそれぞれ加速度を算出し、基準プロファイルに記憶された速度についてそれぞれ加速度を算出する。そして、プロファイルの速度から算出された加速度の向きと基準プロファイルから算出された加速度の向きが異なる回数が第5閾値より多い場合には、第5閾値より多いプロファイルを作成するための測定結果を出力した検出部を特定する。これにより、継続して誤差を有する検出部を特定することができるので、車両の位置及び向きを精度よく推定することができる。 Furthermore, in the self-position estimation method and the self-position estimation device according to the present embodiment, acceleration is calculated for each velocity stored in the profile, and acceleration is calculated for each velocity stored in the reference profile. If the number of times that the direction of acceleration calculated from the speed of the profile and the direction of acceleration calculated from the reference profile differ is greater than the fifth threshold, the measurement result for creating a profile greater than the fifth threshold is output. Identify the detected part. As a result, it is possible to continuously identify the detection unit that has an error, so that the position and orientation of the vehicle can be accurately estimated.

また、本実施形態に係る自己位置推定方法及び自己位置推定装置では、プロファイルに記憶された速度と基準プロファイルに記憶された速度とをそれぞれ比較する。そして、速度の差が所定値以上である回数が第6閾値より多い場合には、第6閾値より多いプロファイルを作成するための測定結果を出力した検出部を特定する。これにより、プロファイルに記憶された各速度の誤差は小さくても誤差を含んだ速度が多い場合には、そのような測定結果を出力した検出部を特定できるので、車両の位置及び向きを精度よく推定することができる。 Also, in the self-position estimation method and the self-position estimation device according to this embodiment, the speed stored in the profile and the speed stored in the reference profile are compared. Then, if the number of times the speed difference is equal to or greater than the predetermined value is greater than the sixth threshold, the detection unit that outputs the measurement result for creating a profile greater than the sixth threshold is specified. As a result, even if the error in each speed stored in the profile is small, when there are many speeds containing errors, the detection unit that output such measurement results can be specified, so the position and orientation of the vehicle can be accurately determined. can be estimated.

上述の実施形態で示した各機能は、1又は複数の処理回路によって実装されうる。処理回路には、プログラムされたプロセッサや、電気回路などが含まれ、さらには、特定用途向けの集積回路(ASIC)のような装置や、記載された機能を実行するよう配置された回路構成要素なども含まれる。 Each function illustrated in the above embodiments may be implemented by one or more processing circuits. Processing circuitry includes programmed processors, electrical circuits, etc., as well as devices such as application specific integrated circuits (ASICs) and circuit components arranged to perform the described functions. etc. are also included.

以上、実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。この開示の一部をなす論述および図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施形態、実施例および運用技術が明らかとなろう。 Although the contents of the present invention have been described above according to the embodiments, it is obvious to those skilled in the art that the present invention is not limited to these descriptions and that various modifications and improvements are possible. The discussion and drawings forming part of this disclosure should not be understood as limiting the invention. Various alternative embodiments, implementations and operational techniques will become apparent to those skilled in the art from this disclosure.

本発明はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 Of course, the present invention includes various embodiments and the like that are not described here. Therefore, the technical scope of the present invention is defined only by the matters specifying the invention according to the scope of claims that are valid from the above description.

31 推定部
33 誤差推定部
40 検出部
71 第1選択部
73 第2選択部
75 第3選択部
91 出力部
93 誤差統合部
100 コントローラ
150 検出部評価部
152 プロファイル作成部
154 検出部特定部
31 estimation unit 33 error estimation unit 40 detection unit 71 first selection unit 73 second selection unit 75 third selection unit 91 output unit 93 error integration unit 100 controller 150 detection unit evaluation unit 152 profile creation unit 154 detection unit identification unit

Claims (18)

車両の周囲の物標を検出する複数の検出部からの測定結果を用いて、地図データ上での前記車両の位置及び向きを推定する自己位置推定方法であって、
複数の前記検出部ごとに、前記車両の車両座標系において、
前記車両の前後方向に沿った前記物標の位置を第1座標値として推定し、前記第1座標値が有する誤差を第1誤差として推定し、
前記車両の幅方向に沿った前記物標の位置を第2座標値として推定し、前記第2座標値が有する誤差を第2誤差として推定し、
前記車両の前後方向を基準として前記車両から前記物標に向かう向きの角度を第3座標値として推定し、前記第3座標値が有する誤差を第3誤差として推定し、
推定された複数の第1座標値の中で第1誤差が最小となる第1座標値を、第1選択値として選択し、
推定された複数の第2座標値の中で第2誤差が最小となる第2座標値を、第2選択値として選択し、
推定された複数の第3座標値の中で第3誤差が最小となる第3座標値を、第3選択値として選択し、
前記第1選択値、前記第2選択値、前記第3選択値に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。
A self-position estimation method for estimating the position and orientation of the vehicle on map data using measurement results from a plurality of detection units that detect targets around the vehicle,
In the vehicle coordinate system of the vehicle, for each of the plurality of detection units,
estimating the position of the target along the longitudinal direction of the vehicle as a first coordinate value, estimating an error of the first coordinate value as a first error;
estimating the position of the target along the width direction of the vehicle as a second coordinate value, estimating an error of the second coordinate value as a second error;
estimating an angle of a direction from the vehicle toward the target with respect to the longitudinal direction of the vehicle as a third coordinate value, and estimating an error of the third coordinate value as a third error;
selecting, as a first selection value, a first coordinate value with the smallest first error among the estimated plurality of first coordinate values;
selecting, as a second selection value, a second coordinate value with the smallest second error among the estimated plurality of second coordinate values;
selecting the third coordinate value with the smallest third error among the estimated plurality of third coordinate values as the third selection value;
A self-position estimation method, comprising estimating the position and orientation of the vehicle based on the first selection value, the second selection value, and the third selection value.
請求項1に記載の自己位置推定方法であって、
複数の前記検出部ごとに、前記車両の車両座標系において、
前記車両の前後方向に沿った前記物標の速度を第1速度として算出し、所定期間内に算出された複数の前記第1速度を記憶してプロファイルを作成し、
前記車両の幅方向に沿った前記物標の速度を第2速度として算出し、所定期間内に算出された複数の前記第2速度を記憶してプロファイルを作成し、
前記車両の前後方向を基準として前記車両から前記物標に向かう向きの角速度を第3速度として算出し、所定期間内に算出された複数の前記第3速度を記憶してプロファイルを作成し、
基準となる速度を記憶した基準プロファイルを作成し、
前記プロファイルに記憶された前記第1速度と前記基準プロファイルに記憶された速度との差分を算出し、算出された前記差分を加算して差分の和を算出し、算出された前記差分の和が第1閾値より大きくなる場合には、前記プロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度と前記基準プロファイルに記憶された速度との差分を算出し、算出された前記差分を加算して差分の和を算出し、算出された前記差分の和が第1閾値より大きくなる場合には、前記プロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度と前記基準プロファイルに記憶された速度との差分を算出し、算出された前記差分を加算して差分の和を算出し、算出された前記差分の和が第1閾値より大きくなる場合には、前記プロファイルを作成するための測定結果を出力した前記検出部を特定し、
推定された複数の前記第1座標値の中で、特定された前記検出部の測定結果を用いて推定された第1座標値を除外して、前記第1誤差が最小となる第1座標値を前記第1選択値として選択し、
推定された複数の前記第2座標値の中で、特定された前記検出部の測定結果を用いて推定された第2座標値を除外して、前記第2誤差が最小となる第2座標値を前記第2選択値として選択し、
推定された複数の前記第3座標値の中で、特定された前記検出部の測定結果を用いて推定された第3座標値を除外して、前記第3誤差が最小となる第3座標値を前記第3選択値として選択する
ことを特徴とする自己位置推定方法。
The self-localization method according to claim 1,
In the vehicle coordinate system of the vehicle, for each of the plurality of detection units,
calculating a speed of the target along the longitudinal direction of the vehicle as a first speed, storing a plurality of the first speeds calculated within a predetermined period to create a profile;
calculating a speed of the target along the width direction of the vehicle as a second speed, storing a plurality of the second speeds calculated within a predetermined period to create a profile;
calculating an angular velocity in a direction from the vehicle toward the target with reference to the longitudinal direction of the vehicle as a third velocity, storing a plurality of the third velocities calculated within a predetermined period to create a profile;
Create a reference profile that stores the reference speed,
calculating the difference between the first speed stored in the profile and the speed stored in the reference profile, adding the calculated differences to calculate the sum of the differences, and calculating the sum of the differences If it is greater than the first threshold, identify the detection unit that outputs the measurement result for creating the profile,
calculating the difference between the second speed stored in the profile and the speed stored in the reference profile, adding the calculated differences to calculate the sum of the differences, and calculating the sum of the differences If it is greater than the first threshold, identify the detection unit that outputs the measurement result for creating the profile,
calculating the difference between the third speed stored in the profile and the speed stored in the reference profile, adding the calculated differences to calculate the sum of the differences, and calculating the sum of the calculated differences If it is greater than the first threshold, identify the detection unit that outputs the measurement result for creating the profile,
A first coordinate value that minimizes the first error by excluding the first coordinate value estimated using the specified measurement result of the detection unit, among the estimated plurality of first coordinate values. as the first selection value,
A second coordinate value that minimizes the second error by excluding a second coordinate value that is estimated using the specified measurement result of the detection unit, among the plurality of estimated second coordinate values. as the second selection value, and
A third coordinate value that minimizes the third error by excluding the third coordinate value estimated using the specified measurement result of the detection unit, among the plurality of estimated third coordinate values. as the third selection value.
請求項2に記載の自己位置推定方法であって、
前記車両の速度が所定値以下である場合には、前記第1閾値よりも小さい第2閾値を用いることを特徴とする自己位置推定方法。
The self-localization method according to claim 2,
A self-position estimation method, wherein a second threshold smaller than the first threshold is used when the speed of the vehicle is equal to or less than a predetermined value.
請求項2又は3に記載の自己位置推定方法であって、
前記車両が旋回中である場合には、前記第1閾値の代わりに第3閾値を用いることを特徴とする自己位置推定方法。
The self-position estimation method according to claim 2 or 3,
A self-position estimation method, wherein a third threshold is used instead of the first threshold when the vehicle is turning.
請求項2~4のいずれか一項に記載の自己位置推定方法であって、
前記プロファイルに記憶された前記第1速度の中で第4閾値より大きな速度がある場合には、前記第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度の中で第4閾値より大きな速度がある場合には、前記第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度の中で第4閾値より大きな速度がある場合には、前記第4閾値より大きな速度を有するプロファイルを作成するための測定結果を出力した前記検出部を特定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 2 to 4,
If there is a velocity greater than a fourth threshold among the first velocities stored in the profile, the detection unit that outputs the measurement result for creating a profile having a velocity greater than the fourth threshold is specified. death,
If there is a velocity greater than a fourth threshold among the second velocities stored in the profile, the detection unit that outputs the measurement result for creating a profile having a velocity greater than the fourth threshold is specified. death,
If there is a velocity greater than a fourth threshold among the third velocities stored in the profile, the detection unit that outputs the measurement result for creating a profile having a velocity greater than the fourth threshold is specified. A self-position estimation method characterized by:
請求項2~5のいずれか一項に記載の自己位置推定方法であって、
前記プロファイルに記憶された前記第1速度についてそれぞれ加速度を算出し、前記基準プロファイルに記憶された速度についてそれぞれ加速度を算出し、前記第1速度から算出された加速度の向きと前記基準プロファイルの速度から算出された加速度の向きが異なる回数が、第5閾値より多い場合には、前記第5閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度についてそれぞれ加速度を算出し、前記基準プロファイルに記憶された速度についてそれぞれ加速度を算出し、前記第2速度から算出された加速度の向きと前記基準プロファイルの速度から算出された加速度の向きが異なる回数が、第5閾値より多い場合には、前記第5閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度についてそれぞれ加速度を算出し、前記基準プロファイルに記憶された速度についてそれぞれ加速度を算出し、前記第3速度から算出された加速度の向きと前記基準プロファイルの速度から算出された加速度の向きが異なる回数が、第5閾値より多い場合には、前記第5閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 2 to 5,
calculating acceleration for each of the first velocities stored in the profile, calculating acceleration for each of the velocities stored in the reference profile, and calculating the direction of the acceleration calculated from the first velocity and the velocity of the reference profile; If the calculated number of different directions of acceleration is greater than a fifth threshold, identifying the detection unit that outputs the measurement result for creating a profile greater than the fifth threshold,
calculating acceleration for each of the second velocities stored in the profile, calculating acceleration for each of the velocities stored in the reference profile, and calculating the direction of the acceleration calculated from the second velocity and the velocity of the reference profile If the calculated number of different directions of acceleration is greater than a fifth threshold, identifying the detection unit that outputs the measurement result for creating a profile greater than the fifth threshold,
calculating acceleration for each of the third velocities stored in the profile, calculating acceleration for each of the velocities stored in the reference profile, and calculating the direction of the acceleration calculated from the third velocity and the velocity of the reference profile If the number of times that the direction of the calculated acceleration changes is greater than a fifth threshold, the detecting unit that outputs the measurement result for creating a profile that is greater than the fifth threshold is specified. estimation method.
請求項2~6のいずれか一項に記載の自己位置推定方法であって、
前記プロファイルに記憶された前記第1速度と前記基準プロファイルに記憶された速度とをそれぞれ比較して、速度の差が所定値以上である回数が第6閾値より多い場合には、前記第6閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第2速度と前記基準プロファイルに記憶された速度とをそれぞれ比較して、速度の差が所定値以上である回数が第6閾値より多い場合には、前記第6閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定し、
前記プロファイルに記憶された前記第3速度と前記基準プロファイルに記憶された速度とをそれぞれ比較して、速度の差が所定値以上である回数が第6閾値より多い場合には、前記第6閾値より多いプロファイルを作成するための測定結果を出力した前記検出部を特定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 2 to 6,
The first speed stored in the profile and the speed stored in the reference profile are compared, and if the number of times the difference in speed is equal to or greater than a predetermined value is greater than a sixth threshold, the sixth threshold is determined. Identifying the detection unit that outputs measurement results for creating more profiles,
The second speed stored in the profile is compared with the speed stored in the reference profile, and if the number of times the speed difference is equal to or greater than a predetermined value is greater than a sixth threshold, the sixth threshold is determined. Identifying the detection unit that outputs measurement results for creating more profiles,
The third speed stored in the profile is compared with the speed stored in the reference profile, and if the number of times the speed difference is equal to or greater than a predetermined value is greater than the sixth threshold, the sixth threshold is determined. A method for estimating self-location, characterized by identifying the detection unit that has output measurement results for creating more profiles.
請求項1~7のいずれか一項に記載の自己位置推定方法であって、
前記第1選択値が有する前記第1誤差、
前記第2選択値が有する前記第2誤差、
前記第3選択値が有する前記第3誤差
の合計を算出する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 1 to 7,
the first error of the first selected value;
the second error of the second selected value;
A method for estimating self-location, wherein the sum of the third errors of the third selection value is calculated.
請求項1~8のいずれか一項に記載の自己位置推定方法であって、
前記検出部ごとの誤差モデルを用いて、当該検出部における前記第1誤差、前記第2誤差、前記第3誤差をそれぞれ推定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 1 to 8,
A self-position estimation method, wherein the first error, the second error, and the third error in the detection unit are estimated using an error model for each detection unit.
請求項9に記載の自己位置推定方法であって、
前記検出部がカメラである場合、前記誤差モデルは、前記カメラの移動速度と発生する誤差の間の関係を実測して作成されたものである
ことを特徴とする自己位置推定方法。
The self-localization method according to claim 9,
A method for estimating self-localization, wherein when the detection unit is a camera, the error model is created by actually measuring the relationship between the moving speed of the camera and the error that occurs.
請求項10に記載の自己位置推定方法であって、
前記誤差モデルは、前記カメラの撮像距離と発生する誤差の関係を実測して作成されたものである
ことを特徴とする自己位置推定方法。
The self-position estimation method according to claim 10,
A self-position estimation method, wherein the error model is created by actually measuring the relationship between the imaging distance of the camera and the error that occurs.
請求項10又は11に記載の自己位置推定方法であって、
前記誤差モデルは、前記カメラのレンズパラメータに基づいて計算によりモデル化して作成されたものである
ことを特徴とする自己位置推定方法。
The self-position estimation method according to claim 10 or 11,
A self-position estimation method, wherein the error model is created by modeling based on the lens parameters of the camera.
請求項1~12のいずれか一項に記載の自己位置推定方法であって、
前記車両の車両モデルに基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 1 to 12,
A self-localization method, comprising estimating the position and orientation of the vehicle based on a vehicle model of the vehicle.
請求項13に記載の自己位置推定方法であって、
前記車両モデルは、オドメトリおよび前記車両に車載される衛星測位システムに基づいて実測して作成されたものである
ことを特徴とする自己位置推定方法。
The self-localization method according to claim 13,
A self-position estimation method, wherein the vehicle model is created by actual measurement based on odometry and a satellite positioning system mounted on the vehicle.
請求項13又は14に記載の自己位置推定方法であって、
前記車両モデルと、前記検出部ごとの誤差モデルを用いて、当該検出部における前記第1誤差、前記第2誤差、前記第3誤差を推定する
ことを特徴とする自己位置推定方法。
The self-localization method according to claim 13 or 14,
A self-position estimation method, wherein the first error, the second error, and the third error in the detection unit are estimated using the vehicle model and the error model for each of the detection units.
請求項1~15のいずれか一項に記載の自己位置推定方法であって、
過去の時点で選択された、前記第1選択値、前記第2選択値、前記第3選択値に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 1 to 15,
A method for estimating self-position, wherein the position and orientation of the vehicle are estimated based on the first selection value, the second selection value, and the third selection value selected at a past point in time.
請求項1~16のいずれか一項に記載の自己位置推定方法であって、
前記第1選択値が有する前記第1誤差、前記第2選択値が有する前記第2誤差、前記第3選択値が有する前記第3誤差に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定方法。
The self-position estimation method according to any one of claims 1 to 16,
estimating the position and orientation of the vehicle based on the first error of the first selection value, the second error of the second selection value, and the third error of the third selection value; A self-localization method characterized by:
車両の周囲の物標を検出する複数の検出部と、
コントローラと、
を備える、地図データ上での前記車両の位置及び向きを推定する自己位置推定装置であって、
前記コントローラは、
複数の前記検出部ごとに、前記車両の車両座標系において、
前記車両の前後方向に沿った前記物標の位置を第1座標値として推定し、前記第1座標値が有する誤差を第1誤差として推定し、
前記車両の幅方向に沿った前記物標の位置を第2座標値として推定し、前記第2座標値が有する誤差を第2誤差として推定し、
前記車両の前後方向を基準として前記車両から前記物標に向かう向きの角度を第3座標値として推定し、前記第3座標値が有する誤差を第3誤差として推定し、
推定された複数の第1座標値の中で第1誤差が最小となる第1座標値を、第1選択値として選択し、
推定された複数の第2座標値の中で第2誤差が最小となる第2座標値を、第2選択値として選択し、
推定された複数の第3座標値の中で第3誤差が最小となる第3座標値を、第3選択値として選択し、
前記第1選択値、前記第2選択値、前記第3選択値に基づいて、前記車両の位置及び向きを推定する
ことを特徴とする自己位置推定装置。

a plurality of detection units that detect targets around the vehicle;
a controller;
A self-localization device that estimates the position and orientation of the vehicle on map data,
The controller is
In the vehicle coordinate system of the vehicle, for each of the plurality of detection units,
estimating the position of the target along the longitudinal direction of the vehicle as a first coordinate value, estimating an error of the first coordinate value as a first error;
estimating the position of the target along the width direction of the vehicle as a second coordinate value, estimating an error of the second coordinate value as a second error;
estimating an angle of a direction from the vehicle toward the target with respect to the longitudinal direction of the vehicle as a third coordinate value, and estimating an error of the third coordinate value as a third error;
selecting, as a first selection value, a first coordinate value with the smallest first error among the estimated plurality of first coordinate values;
selecting, as a second selection value, a second coordinate value with the smallest second error among the estimated plurality of second coordinate values;
selecting the third coordinate value with the smallest third error among the estimated plurality of third coordinate values as the third selection value;
A self-position estimation device, wherein the position and orientation of the vehicle are estimated based on the first selection value, the second selection value, and the third selection value.

JP2019239022A 2019-03-26 2019-12-27 Self-position estimation method and self-position estimation device Active JP7308141B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019058581 2019-03-26
JP2019058581 2019-03-26

Publications (2)

Publication Number Publication Date
JP2020165945A JP2020165945A (en) 2020-10-08
JP7308141B2 true JP7308141B2 (en) 2023-07-13

Family

ID=72716056

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019239022A Active JP7308141B2 (en) 2019-03-26 2019-12-27 Self-position estimation method and self-position estimation device

Country Status (1)

Country Link
JP (1) JP7308141B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392785B1 (en) 2022-09-09 2023-12-06 いすゞ自動車株式会社 Vehicle position estimation device and vehicle position estimation method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013036856A (en) * 2011-08-08 2013-02-21 Daihatsu Motor Co Ltd Driving support apparatus
JP6614108B2 (en) * 2016-11-18 2019-12-04 株式会社デンソー Vehicle control apparatus and vehicle control method

Also Published As

Publication number Publication date
JP2020165945A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
CN108139225B (en) Determining layout information of a motor vehicle
CN101793528B (en) System and method of lane path estimation using sensor fusion
CN106056971B (en) Apparatus and method for identifying surrounding vehicles
CN104181512B (en) The method and apparatus of the misalignment of radar sensor for seeking vehicle
RU2735567C1 (en) Method for storing movement backgrounds, method for generating motion path model, method for estimating local position and storage device for storing movement backgrounds
JP5614489B2 (en) State estimation device
CN112204346B (en) Method for determining the position of a vehicle
JP6451857B2 (en) Method for controlling travel control device and travel control device
KR102570338B1 (en) Method and system for predicting a trajectory of a target vehicle in an environment of a vehicle
CN111915675B (en) Particle drift-based particle filtering point cloud positioning method, device and system thereof
US20200094849A1 (en) Method for quantitatively characterizing at least one temporal sequence of an object attribute error of an object
KR20220024791A (en) Method and apparatus for determining the trajectory of a vehicle
KR20190038739A (en) Method for detecting the changing point of road
US11971257B2 (en) Method and apparatus with localization
CN113175935A (en) Method for identifying objects in a vehicle environment
CN110637209B (en) Method, apparatus and computer readable storage medium having instructions for estimating a pose of a motor vehicle
JP7308141B2 (en) Self-position estimation method and self-position estimation device
CN112572460A (en) Method and apparatus for estimating yaw rate with high accuracy, and storage medium
KR102489865B1 (en) Method for vehicle location estimation based on sensor fusion and multi filter
JP2021081272A (en) Position estimating device and computer program for position estimation
JP6980497B2 (en) Information processing method and information processing equipment
JP6819441B2 (en) Target position estimation method and target position estimation device
US20230408721A1 (en) Method and device for analyzing 3d target maneuver using line array sensor
JP4615954B2 (en) Vehicle control object determination device
KR20190038740A (en) Map matching method using reverse tracking map matching

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R150 Certificate of patent or registration of utility model

Ref document number: 7308141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150