JP7474689B2 - Object detection method and object detection device - Google Patents
Object detection method and object detection device Download PDFInfo
- Publication number
- JP7474689B2 JP7474689B2 JP2020201853A JP2020201853A JP7474689B2 JP 7474689 B2 JP7474689 B2 JP 7474689B2 JP 2020201853 A JP2020201853 A JP 2020201853A JP 2020201853 A JP2020201853 A JP 2020201853A JP 7474689 B2 JP7474689 B2 JP 7474689B2
- Authority
- JP
- Japan
- Prior art keywords
- reference point
- sensor
- observation
- point
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 42
- 238000009826 distribution Methods 0.000 claims description 93
- 238000004364 calculation method Methods 0.000 claims description 31
- 239000013598 vector Substances 0.000 claims description 30
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 11
- 239000002245 particle Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000011156 evaluation Methods 0.000 description 9
- 230000010365 information processing Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本発明は、物体検出方法及び物体検出装置に関する。 The present invention relates to an object detection method and an object detection device.
従来より、カメラ及びレーダを用いて車両の周囲に存在する物体を認識する発明が知られている(特許文献1)。特許文献1に記載された発明は、カメラ及びレーダによって検出された物体までの距離を用いて物体が同一物体であるか否かを判定する。
There are known inventions that use cameras and radar to recognize objects around a vehicle (Patent Document 1). The invention described in
しかしながら、特許文献1に記載された発明は点と点との対応評価を行っているにすぎないため、例えばバスのように大きな物体を複数のセンサで観測した場合にそれぞれのセンサから得られた大きさ、形状を含む検出結果について対応を取ることが難しい。
However, the invention described in
本発明は、上記問題に鑑みて成されたものであり、その目的は、複数のセンサを用いて物体の同一性を精度よく判定することが可能な物体検出方法及び物体検出装置を提供することである。 The present invention was made in consideration of the above problems, and its purpose is to provide an object detection method and an object detection device that can accurately determine the identity of an object using multiple sensors.
本発明の一態様に係る物体検出方法は、第1センサによって検出された物体形状を上面視で多角形近似した第1多角形状を算出し、第2センサによって検出された物体形状を上面視で多角形近似した第2多角形状を算出し、第1多角形状を構成する辺のうちで、第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点と、第2多角形状を構成する辺のうちで、第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点とに基づいて、第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する。 An object detection method according to one aspect of the present invention calculates a first polygonal shape that is a polygonal approximation of the object shape detected by a first sensor in a top view, calculates a second polygonal shape that is a polygonal approximation of the object shape detected by a second sensor in a top view, and determines whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point that is a point at a predetermined position on a first side that has the largest intersection angle between the first sensor and an end point of the side among the sides that make up the first polygonal shape, and a second reference point that is a point at a predetermined position on a second side that has the largest intersection angle between the second sensor and an end point of the side among the sides that make up the second polygonal shape.
本発明によれば、複数のセンサを用いて物体の同一性を精度よく判定することが可能となる。 The present invention makes it possible to accurately determine the identity of objects using multiple sensors.
以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, identical parts are given the same reference numerals and the description will be omitted.
図1を参照して物体検出装置1の構成例を説明する。図1に示すように、物体検出装置1は、カメラ10と、レーダ11と、ライダ12と、コントローラ20と、記憶装置13とを備える。
An example of the configuration of the
カメラ10はCCD(charge-coupled device)、CMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ10は、自車両の周囲に存在する物体(歩行者、自転車、二輪車、他車両など)、及び自車両の周囲の情報(区画線、信号機、標識、横断歩道、交差点など)を検出する。カメラ10は撮像した画像をコントローラ20に出力する。カメラ10は、単眼カメラでもよく、ステレオカメラでもよい。
The
レーダ11は自車両の周囲の物体に電波(出射波)を発射し、その反射波を測定することにより、物体までの距離及び方向を測定する。レーダ11は測定したデータをコントローラ20に出力する。レーダ11の種類は特に限定されないが例えばミリ波レーダが挙げられる。
The
ライダ12(LIDAR:Laser Imaging Detection and Ranging)も、レーダ11と同様に自車両の周囲に存在する物体までの距離及び方向を測定する。ライダ12がレーダ11と異なる点は、レーダ11が出射波として電波を用いるのに対し、ライダ12は出射波として光を用いる。ライダ12は自車両の周囲の物体に光を発射し、その反射光を測定することにより、物体までの距離及び方向を測定したり、物体の形状を認識したりする。ライダ12は測定したデータをコントローラ20に出力する。
LIDAR 12 (Laser Imaging Detection and Ranging) measures the distance and direction to objects around the vehicle, just like
カメラ10、レーダ11、及びライダ12はそれぞれ異なる方式で物体を検出する。カメラ10、レーダ11、及びライダ12は自車両に設置されるが、その設置場所は特に限定されない。また設置数も限定されない。それぞれ1つだけ設置されてもよく、それぞれ複数設置されてもよい。
The
記憶装置13はHDD(Hard Disk Drive)、SSD(Solid State Drive)などから構成される。記憶装置13にはデータベース14が格納されている。データベース14には、カメラ10、レーダ11、及びライダ12の観測誤差及び計算遅延誤差に関するデータが格納されている。
The
コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体検出装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは物体検出装置1が備える複数の情報処理回路として機能する。なおここでは、ソフトウェアによって物体検出装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路の一例として、基準辺決定部21と、基準点決定部22と、誤差分布決定部23と、距離算出部24と、割当部25と、状態更新部26とを備える。
The
基準辺決定部21はカメラ10、レーダ11、及びライダ12から物体検出に係るデータを取得する。これらのデータには観測された物体の大きさ、形状が含まれる。基準辺決定部21は物体の大きさ、形状に係るデータを用いて物体の基準辺を決定する。基準辺決定部21は決定された基準辺を示す情報を基準点決定部22に出力する。
The reference
基準点決定部22は基準辺決定部21から取得した基準辺を用いて、この基準辺上に1つの観測基準点を設定する。基準点決定部22は設定された基準点を示す情報を誤差分布決定部23に出力する。
The reference
誤差分布決定部23は基準点決定部22から取得した観測基準点と、データベース14に格納されている観測誤差及び計算遅延誤差に関するデータを用いて観測基準点の誤差分布を決定する。また誤差分布決定部23は、状態更新部26から取得した1時刻前に推定された現在の状態推定結果の平均と共分散を用いてターゲット基準点の誤差分布を決定する。
The error
距離算出部24は誤差分布決定部23から取得した誤差分布を含む観測基準点と、誤差分布を含むターゲット基準点との距離評価を行う。
The
割当部25は距離算出部24から取得した観測基準点とターゲット基準点間の距離評価結果に基づき、ターゲットに対する観測結果の対応づけを行う。また、割当部25は割り当て対象となるターゲットがない場合は新規にターゲットを追加し、ターゲットに対して観測結果が割り当てられなかった場合には、ターゲットを消去する。さらに、割当部25はターゲットに割り当てられた複数の観測情報に対し、センサ毎の信頼度(優先度)にしたがって観測情報を統合化してターゲットの代表観測ベクトルを決定する。
The
状態更新部26は割当部25から取得したターゲットの代表観測ベクトルに基づき、ターゲットの状態ベクトルの更新を行う。
The
次に図2~10を参照して、物体検出装置1の一動作例について説明する。
Next, an example of the operation of the
図2に示すステップS101において、複数の異なるセンサ、すなわち、カメラ10、レーダ11、及びライダ12によって車両の周囲の物体が検出される。それぞれのセンサから得られた物体検出結果は、物体の位置、姿勢、位置の一次微分(速度)、姿勢の一次微分(角速度)、及び大きさ(矩形の縦横の長さ)などからなる観測ベクトルとして表現される。ただし、必ずしも全てのセンサが全ての情報を計測できるとは限らず、観測できる情報であっても計測原理の違いに起因する信頼度(計測誤差分布)の違いがある。
In step S101 shown in FIG. 2, objects around the vehicle are detected by multiple different sensors, namely, the
例えば、カメラ10が単眼カメラである場合において、単眼カメラから得られた検出結果では物体の幅は精度よく計測されるが、物体の奥行きに関しては精度は低い。また視線方向の位置精度は低いが、水平方向の位置精度(方位角)は高いという特徴がある。
For example, when the
またレーダ11がミリ波レーダから得られた検出結果では視線方向(出射波の出射方向)の位置精度が高く、水平方向の位置精度が低いという特徴がある。さらに、ライダ12から得られた検出結果では物体の幅と奥行きが精度よく計測される一方で、視線方向、水平方向の位置精度も高いという特徴がある。しかし、センサと観測対象物体との相対位置によっては物体の幅と奥行きが観測できるとは限らないため、物体の観測データが逐次変化するという特徴がある。
The detection results obtained by the
このようにセンサと観測対象との相対位置に応じて物体に関する観測データが逐次変化しても、計測原理の異なるセンサ間の計測精度の違いを考慮しつつ、観測結果とターゲット間との対応を統一的に評価するために、ステップS103、105、107において観測結果に対する観測基準点の決定、及び観測誤差分布の割り当てを行う。 Even if the observation data about the object changes sequentially depending on the relative positions of the sensor and the object being observed, in order to uniformly evaluate the correspondence between the observation results and the target while taking into account the difference in measurement accuracy between sensors with different measurement principles, the observation reference point for the observation results is determined and an observation error distribution is assigned in steps S103, 105, and 107.
ステップS103において、基準辺決定部21は、カメラ10、レーダ11、及びライダ12から取得した物体の大きさ、形状(矩形)を含む検出結果に基づいて基準辺を決定する。基準辺について図3を参照して説明する。
In step S103, the reference
図3に示す例において、基準辺の決定においてはカメラ10、レーダ11、及びライダ12から見た矩形物体領域30に関して、センサ側の2辺が対象となる。センサ点との矩形物体領域30の端点をそれぞれ結ぶ線(視線方向)に対して、交差角の大きい辺を第1基準辺L1、交差角の小さい辺を第2基準辺L2とする。この場合において基準辺決定部21は第1基準辺L1を基準辺として決定する。θ1は、矩形物体領域30の端点(右下の点)において、視線方向と第1基準辺L1に係る延長線40とがなす角である。またθ2は、矩形物体領域30の端点(左上の点)において、視線方向と第2基準辺L2に係る延長線41とがなす角である。θ1>θ2である。センサ側に近い2辺を対象とする理由は、センサ側に近い2辺のほうがセンサ側に遠い2辺と比較しセンサ精度が高いからである。基準辺はセンサから見て面積が広い部分に関する辺と表現されてもよい。
In the example shown in FIG. 3, the two sides on the sensor side of the
図2に示すステップS105において、基準点決定部22は、基準辺決定部21によって決定された第1基準辺L1上の任意の点を観測基準点とする。本実施形態では図4に示すように、第1基準辺L1の中点が観測基準点50として決定される。ただし、上述したように観測基準点は中点に限定されるものではなく、第1基準辺L1上の点であればどこでもよい。観測基準点は各センサから取得した観測ベクトルの平均もしくは観測ベクトルの平均と共分散を用いて決定される。
In step S105 shown in FIG. 2, the reference
図2に示すステップS107において、誤差分布決定部23は、基準点決定部22から取得した観測基準点50と、データベース14から取得した観測誤差分布および計算遅延誤差分布とを用いて観測基準点の誤差分布を決定する。
In step S107 shown in FIG. 2, the error
ここで、観測誤差分布はセンサ毎の異なる観測原理によって生じる観測誤差を共分散行列によって表現したものである。観測基準点にセンサ毎の観測誤差に関する共分散行列を設定し、各観測基準点の許容誤差とする。例えば図5に示すようにセンサ点と観測基準点とを結ぶ直線方向(視線方向)、及びこの視線方向に直交する方向(水平方向)に誤差分布を設定する。これにより観測誤差分布が決定される。図5の符号50は、ライダ12の観測基準点を示し、符号51はカメラ10の観測基準点を示す。符号60はライダ12によって検出された物体形状を上面視で多角形近似した多角形状を示し、符号61はカメラ10によって検出された物体形状を上面視で多角形近似した多角形状を示す。このような多角形状はコントローラ20によって算出される。
Here, the observation error distribution is a representation of the observation error caused by the different observation principles for each sensor, expressed by a covariance matrix. A covariance matrix for the observation error for each sensor is set at the observation reference point, and is set as the allowable error for each observation reference point. For example, as shown in FIG. 5, an error distribution is set in the direction of a straight line (line of sight) connecting the sensor point and the observation reference point, and in the direction perpendicular to this line of sight (horizontal direction). This determines the observation error distribution. In FIG. 5,
図5に示す符号L3はライダ12から見た視線方向ベクトルを示し、符号L4はカメラ10から見た視線方向ベクトルを示す。符号50aはライダ12の観測誤差分布を示し、符号51aはカメラ10の観測誤差分布を示す。図5に示す例では、観測誤差分布によってカメラ10による視線方向の位置精度が低く、水平方向の位置精度が高いことが示されている一方、ライダ12による位置精度は視線方向、水平方向共に高いことが示されている。
In Figure 5, symbol L3 indicates the line of sight vector as seen by the
一方、計算遅延誤差分布はセンサ毎の異なる計算処理周期によって生じる観測誤差を共分散行列によって表現したものである。観測基準点にセンサ毎の計算遅延誤差に関する共分散行列を設定し、各観測基準点の許容誤差とする。例えば図6に示すように、各観測の速度ベクトル方向、及び直交方向に誤差分布を設定する。これにより計算遅延誤差分布が決定される。図6に示す符号L5はライダ12に対する速度ベクトルを示し、符号L6はカメラ10に対する速度ベクトルを示す。符号50bはライダ12の計算遅延誤差分布を示し、符号51bはカメラ10の計算遅延誤差分布を示す。
On the other hand, the calculation delay error distribution is a representation of the observation error caused by the different calculation processing cycles for each sensor, expressed by a covariance matrix. A covariance matrix related to the calculation delay error for each sensor is set at the observation reference point, and this is set as the allowable error for each observation reference point. For example, as shown in Figure 6, an error distribution is set in the velocity vector direction and the orthogonal direction for each observation. This determines the calculation delay error distribution. Reference L5 in Figure 6 indicates the velocity vector for the
最終的な観測基準点の誤差分布は、図7に示すように正規分布の加法性にしたがい、観測誤差分布、計算遅延誤差分布を合成して決定することができる。図7において、観測基準点51の誤差分布51cは、観測誤差分布51aと計算遅延誤差分布51bとを合成することによって決定される。なお誤差分布51cはカメラ10の誤差分布を示すものであり、図示は省略するがレーダ11及びライダ12の誤差分布も同様の合成によって決定される。
The final error distribution of the observation reference point can be determined by combining the observation error distribution and the calculation delay error distribution according to the additivity of the normal distribution as shown in Figure 7. In Figure 7, the
このように各観測点の存在確率分布を正規分布として表現することにより、各センサの計測原理に起因する観測誤差、及び計算負荷の大小に起因する計算遅延を反映して観測基準点の存在を確率的に表現することができる。例えば、任意の観測点1の観測誤差を反映した正規確率分布を式1で表現したとする。
By expressing the existence probability distribution of each observation point as a normal distribution in this way, it is possible to probabilistically express the existence of the observation reference point, reflecting the observation error due to the measurement principle of each sensor and the calculation delay due to the magnitude of the calculation load. For example, suppose that the normal probability distribution reflecting the observation error of an
ここでμ1は観測点の平均であり、Σ11は観測点の共分散行列である。 where μ 1 is the mean of the observation points and Σ 11 is the covariance matrix of the observation points.
任意の観測点1の計算遅延誤差を反映した正規確率分布を式2で表現したとする。
Let us assume that the normal probability distribution reflecting the calculation delay error at an
ここで、Σ12は観測点の共分散行列である。 Here, Σ 12 is the covariance matrix of the observation points.
最終的な観測点1の正規確率分布は式3で表現される。
The final normal probability distribution for
なお、各センサ内で観測結果の状態推定が行われ、状態推定結果の事後確率分布が得られる場合には、この値をもって各観測点の存在確率分布としてもよい。ここでいう状態推定とはトラッキングを意味する。 In addition, if state estimation of the observation results is performed within each sensor and a posterior probability distribution of the state estimation results is obtained, this value may be used as the existence probability distribution of each observation point. State estimation here means tracking.
また、データベース14に格納されている観測誤差分布は、観測対象の正解値が判明している環境でそれぞれのセンサの計測値を取得し、正解値と計測値との誤差を計算することにより求められる。また、計算遅延誤差分布も同様に観測対象の正解値が判明している環境で、それぞれのセンサの持つ計測及び計算に要する時間を計測することによって求められる。
The observation error distribution stored in
さらにステップS107において、誤差分布決定部23は、状態更新部26から得られた1時刻前に計算された現在時刻に対する状態推定結果の平均と共分散を用いてターゲット基準点、及び誤差分布を決定する。ターゲット基準点について説明する。現在から見て1時刻前を「時刻t-1」と定義し、現在を「時刻t」と定義する。この場合本実施形態において、コントローラ20は時刻t-1の時点において、将来の時刻tの状態量を予測する。このような予測は、時刻t-1の時点における位置、姿勢、速度などが1時刻後にどのように変化するかといった観点に基づいて行われる。このとき予測された観測基準点が「ターゲット基準点」である。すなわちターゲット基準点は、現在のカメラ10、レーダ11、及びライダ12の観測結果に基づく観測基準点とは異なる。
Furthermore, in step S107, the error
ステップS109で、距離算出部24は、誤差分布決定部23から取得した誤差分布を含む観測基準点と、誤差分布を含むターゲット基準点との距離評価を行う。この距離評価について図8~9を参照して説明する。図8の符号d1はターゲット基準点71と観測基準点51との距離を示す。図8の符号d2はターゲット基準点71と観測基準点55との距離を示す。観測基準点とターゲット基準点が共に誤差分布を含む場合には、正規分布間の距離の評価となるため、観測基準点の確率分布をp(x)、ターゲット基準点の確率分布をq(x)とすると、例えばKLダイバージェンスを距離尺度として用いることができる(式4)。
In step S109, the
なお、基準点間距離の算出は必ずしも正規分布間の距離である必要はなく、例えば観測基準点とターゲット基準点のどちらかが正規分布の平均で表される場合には、点と正規分布の距離となるため、点で表現された観測基準点をxj、距離を算出する対象の正規分布をN(μi、Σi)とすると、例えばマハラノビス距離を距離尺度として用いることができる(式5)。 Note that the distance between reference points does not necessarily have to be the distance between normal distributions. For example, if either the observation reference point or the target reference point is represented by the average of a normal distribution, the distance will be the distance between the point and the normal distribution. Therefore, if the observation reference point represented by a point is x j and the normal distribution to which the distance is to be calculated is N(μ i , Σ i ), then, for example, the Mahalanobis distance can be used as the distance measure (Equation 5).
また、観測基準点とターゲット基準点の双方が正規分布の平均で表される場合には、点と点の距離となるため、点で表現された観測基準点をそれぞれxi、xjすると、例えば2乗誤差を距離尺度として用いることができる(式6)。 In addition, when both the observation reference point and the target reference point are expressed by the mean of a normal distribution, the distance is between points. Therefore, if the observation reference points expressed as points are x i and x j , respectively, the squared error, for example, can be used as the distance measure (Equation 6).
ステップS111において、割当部25は、距離算出部24から取得した観測基準点とターゲット基準点間の距離評価結果に基づき、ターゲットに対する観測結果の対応づけを行う。各センサから得られた観測基準点に関し、ターゲット基準点からの距離が最小となる観測基準点について、その距離が閾値以下である場合にターゲットに対して観測基準点を割り当てる処理を行う。例えば、ターゲット基準点jに対し、観測基準点iを割り当てることを考える場合、下記の式7に表される条件を満たすように観測基準点iを選択する。
In step S111, the
具体的に図9を参照して説明すると、ターゲット基準点71からの距離が最小となる観測基準点は観測基準点51である。ターゲット基準点71と観測基準点51との距離は閾値以下であるため、ターゲット70に対して観測基準点51が割り当てられる。図9に示す例では、カメラ10の観測基準点51を割り当てたケースを説明したが、レーダ11及びライダ12の観測基準点も同様に割り当てられる。このように各センサの観測基準点がターゲット基準点に割り当てられた場合、コントローラ20は各センサによって検出された物体は同一物体であると判定する。なお図9においてカメラ10の別の観測基準点55はターゲット基準点81に割り当てられることを示す。
Specifically, referring to FIG. 9, the observation reference point with the smallest distance from the
このように1つのターゲット基準点に対しては同一センサ(図9ではカメラ10)から得られた観測基準点を2つ以上割り当てることはなく、同一センサから割り当てられる観測結果は最大でも1つのみとする。また、割り当て対象となるターゲットがない場合は観測基準点の値を初期値として新規にターゲットを追加し、ターゲットに対して1つも観測結果が割り当てられないまま一定時間経過した場合にターゲットを消去する。
In this way, two or more observation reference points obtained from the same sensor (
さらにステップS111において、ターゲットに割り当てられた複数の観測結果に対し、センサ毎の信頼度(優先度)にしたがって観測情報を統合化してターゲットの代表観測ベクトルを決定する。センサ毎の信頼度は、ターゲットに割当てられた観測基準点の誤差分布を評価し、分散が小さくなるほどセンサの信頼度を高くすることによって決定することができる。図10を参照して代表観測ベクトルについて説明する。図10の符号L7が代表観測ベクトルである。符号52はレーダ11の観測基準点を示し、符号62はレーダ11によって検出された物体形状を上面視で多角形近似した多角形状を示す。図10に示すように、カメラ10の視線方向の位置の誤差分布がライダ12の視線方向の位置の誤差分布よりも大きく、カメラ10の水平方向の位置の誤差分布がライダ12の水平方向の位置の誤差分布より小さい場合には、視線方向の位置に関してはライダ12の計測結果を用い、水平方向の位置に関してはカメラ10の計測結果を用いる。このようにターゲット70に割り当てられた観測基準点の誤差分布を評価して優先度を決定することで観測情報を統合化し、代表観測ベクトルL7を決定することができる。
Furthermore, in step S111, for the multiple observation results assigned to the target, the observation information is integrated according to the reliability (priority) of each sensor to determine a representative observation vector of the target. The reliability of each sensor can be determined by evaluating the error distribution of the observation reference point assigned to the target and increasing the reliability of the sensor as the variance decreases. The representative observation vector will be described with reference to FIG. 10. Reference symbol L7 in FIG. 10 is the representative observation vector.
ステップS113において、状態更新部26は、割当部25から取得したターゲット70の代表観測ベクトルL7に基づき、ターゲット70の状態ベクトルの更新を行う。状態更新には、拡張カルマンフィルタ(EKF)、パーティクルフィルタなど既知の状態空間モデルが用いられる。
In step S113, the
(作用効果)
以上説明したように、本実施形態に係る物体検出装置1によれば、以下の作用効果が得られる。
(Action and Effect)
As described above, the
コントローラ20は、各センサによって検出された物体形状を上面視で多角形近似した多角形状を算出する。センサがカメラ10であれば多角形状(第1多角形状)は図5において符号61で示される。あるいはセンサがライダ12であれば多角形状(第2多角形状)は図5において符号60で示される。コントローラ20は、第1多角形状を構成する辺のうちで、第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点(例えば観測基準点51)と、第2多角形状を構成する辺のうちで、第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点(例えば観測基準点50)とに基づいて、第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する。このように観測対象物体の大きさ、形状を含む検出結果について、各センサから最も観測可能性の高い面を基準辺とし、基準辺上の点を基準点とするため、各センサに対する観測対象物体の相対位置が変化しても観測できる情報を用いて各センサから得られた観測情報間の対応を精度よく評価することが可能となる。これにより複数のセンサを用いて物体の同一性を精度よく判定することが可能となる。
The
第1センサは例えばカメラ10であり、カメラ10は第1所定範囲を撮像し、撮像された画像から第1所定範囲に存在する物体を検出する。第2センサは例えばレーダ11またはライダ12であり、第1所定範囲に重複する第2所定範囲に出射波を出射し、出射波に対する反射波に基づいて第2所定範囲に存在する物体を検出する。なおカメラ10、レーダ11、及びライダ12の全てのセンサを用いて物体の同一性を判定してもよい。
The first sensor is, for example, a
コントローラ20は、各センサから取得した観測ベクトルの平均もしくは観測ベクトルの平均と共分散を用いて観測基準点を決定する。コントローラ20は、観測誤差分布と計算遅延誤差分布を合成して観測基準点の誤差分布を決定する。これによりセンサ毎の観測誤差特性、計算遅延特性を反映した共分散行列を各観測点に設定できるため、特性の異なるセンサから得られた観測点間でも複数観測結果間の対応を精度よく評価することができる。
The
コントローラ20は観測基準点にセンサ毎の観測誤差に関する共分散行列を設定する。
またコントローラ20はセンサ点と観測基準点とを結ぶ直線方向、及び直線方向に直交する方向に誤差分布を設定する。カメラ10であれば視線方向(直線方向)の誤差を大きく、方位角方向の誤差を小さく、レーダ11であれば視線方向の誤差を小さく、方位角方向の誤差を大きく、ライダ12であれば視線方向および方位角方向の誤差を小さく、というように計測原理の異なるセンサ毎に異なる誤差分布を設定できるため、単一の評価方法に依存することなく、センサの種類が増えても共通の枠組みで複数観測結果間の対応を評価することができる。
The
The
コントローラ20は、観測基準点にセンサ毎の計算遅延誤差に関する共分散行列を設定する。またコントローラ20は、センサ点の速度ベクトル方向及び速度ベクトル方向に直交する方向に誤差分布を設定する。カメラ10、レーダ11、ライダ12など、異なる計算周期で物体検出を行うセンサの計算遅延に起因する誤差分布を個別に設定できるため、単一の評価方法に依存することなく、センサの種類が増えても共通の枠組みで複数観測結果間の対応を評価することができる。
The
コントローラ20は、1時刻前に推定された、現在の観測基準点を示すターゲット基準点と、観測基準点を用いて第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する。これにより複数のセンサを用いて物体の同一性を精度よく判定することが可能となる。
The
コントローラは、状態推定結果の平均もしくは状態推定結果の平均と共分散を用いてターゲット基準点を推定する。コントローラ20は、拡張カルマンフィルタ、パーティクルフィルタなどを用いてターゲット基準点の平均及び共分散を決定する。複数のセンサから得られた観測結果を束ねるターゲットについて、逐次状態推定結果の信頼度を反映した事後分布を用いて共分散行列をターゲット基準点に設定できるため、ターゲットに対する観測基準点の距離を精度よく評価することができる。これにより、ターゲットの追加または削除を適切なタイミングで行いながら、観測情報のグルーピングとトラッキングを精度よく行うことができる。
The controller estimates the target reference point using the average of the state estimation results or the average and covariance of the state estimation results. The
コントローラ20は、観測基準点とターゲット基準点との距離に関し、それぞれの平均もしくは平均と共分散の両方を用いて算出する。またコントローラ20は、観測基準点とターゲット基準点との距離に関し、正規分布と正規分布のKLダイバージェンスを用いて算出してもよい。またコントローラ20は、観測基準点とターゲット基準点との距離に関し、観測基準点と正規分布のマハラノビス距離を用いて算出してもよい。コントローラ20は、観測基準点とターゲット基準点との距離に関し、観測基準点と観測基準点の2乗誤差を用いて算出してもよい。観測基準点と観測基準点の間の距離評価を行うだけでなく、観測基準点の許容誤差とターゲット基準点の許容誤差を反映した距離評価が行えるため、センサの観測誤差及びトラッキングの信頼度を反映して、観測基準点とターゲット基準点の距離評価を行うことができる。
The
コントローラ20は、ターゲットに割り当てられた複数の観測結果に対し、観測基準点の誤差分布を評価することによって決定された優先度にしたがって観測情報を統合化してターゲットの代表観測ベクトルを決定する。観測基準点の誤差分布において、誤差の小さな観測情報を複数の種類のセンサから選択的に統合することが可能になるため、信頼性の高い観測ベクトルをターゲットに対する代表観測ベクトルとすることができる。
The
上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。 Each of the functions described in the above embodiments may be implemented by one or more processing circuits. Processing circuits include programmed processing devices, such as processors that include electrical circuitry. Processing circuits also include devices, such as application specific integrated circuits (ASICs) or circuit components, arranged to perform the described functions.
上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 As described above, an embodiment of the present invention has been described, but the descriptions and drawings that form part of this disclosure should not be understood as limiting this invention. Various alternative embodiments, examples, and operating techniques will become apparent to those skilled in the art from this disclosure.
1 物体検出装置
10 カメラ
11 レーダ
12 ライダ
13 記憶装置
14 データベース
20 コントローラ
21 基準辺決定部
22 基準点決定部
23 誤差分布決定部
24 距離算出部
25 割当部
26 状態更新部
Reference Signs List 1: Object detection device 10: Camera 11: Radar 12: Lidar 13: Storage device 14: Database 20: Controller 21: Reference side determination unit 22: Reference point determination unit 23: Error distribution determination unit 24: Distance calculation unit 25: Assignment unit 26: State update unit
Claims (17)
前記コントローラは、
前記第1センサによって検出された物体形状を上面視で多角形近似した第1多角形状を算出し、
前記第2センサによって検出された物体形状を上面視で多角形近似した第2多角形状を算出し、
前記第1多角形状を構成する辺のうちで、前記第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点と、前記第2多角形状を構成する辺のうちで、前記第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点とに基づいて、前記第1センサによって検出された物体と前記第2センサによって検出された物体とが同一物体であるか否かを判定する
ことを特徴とする物体検出方法。 1. An object detection method comprising: a first sensor that detects an object around a vehicle; a second sensor that detects the object in a manner different from that of the first sensor; and a controller that processes data detected by the first sensor and the second sensor,
The controller:
calculating a first polygonal shape by approximating the object shape detected by the first sensor as a polygon in a top view;
calculating a second polygonal shape by approximating the object shape detected by the second sensor as a polygon in a top view;
An object detection method characterized by determining whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point which is a point at a predetermined position on a first side among the sides that constitute the first polygonal shape, which has the largest intersection angle with a line segment connecting the first sensor and an end point of the side, and a second reference point which is a point at a predetermined position on a second side among the sides that constitute the second polygonal shape, which has the largest intersection angle with a line segment connecting the second sensor and an end point of the side.
前記第2センサは、前記第1所定範囲に重複する第2所定範囲に出射波を出射し、出射波に対する反射波に基づいて前記第2所定範囲に存在する物体を検出する
ことを特徴とする請求項1に記載の物体検出方法。 The first sensor captures an image of a first predetermined range and detects an object present within the first predetermined range from the captured image;
The object detection method according to claim 1 , wherein the second sensor emits an outgoing wave into a second predetermined range that overlaps with the first predetermined range, and detects an object present in the second predetermined range based on a reflected wave of the outgoing wave.
ことを特徴とする請求項1または2に記載の物体検出方法。 The object detection method according to claim 1 or 2, characterized in that the controller determines the first reference point and the second reference point using an average of observation vectors acquired from each sensor or the average and covariance of the observation vectors.
ことを特徴とする請求項1~3のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 1 to 3, characterized in that the controller determines the error distribution of the first reference point and the second reference point by combining an observation error distribution and a calculation delay error distribution.
ことを特徴とする請求項4に記載の物体検出方法。 The object detection method according to claim 4 , wherein the controller sets a covariance matrix relating to an observation error for each sensor to the first reference point and the second reference point.
ことを特徴とする請求項5に記載の物体検出方法。 The object detection method described in claim 5, characterized in that the controller sets an error distribution in a straight line direction connecting the sensor point and the first reference point and in a direction perpendicular to the straight line direction, and sets an error distribution in a straight line direction connecting the sensor point and the second reference point and in a direction perpendicular to the straight line direction.
ことを特徴とする請求項4~6のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 4 to 6, characterized in that the controller sets a covariance matrix relating to a calculation delay error for each sensor to the first reference point and the second reference point.
ことを特徴とする請求項7に記載の物体検出方法。 8. The object detection method according to claim 7, wherein the controller sets an error distribution in a velocity vector direction of the sensor point and in a direction perpendicular to the velocity vector direction.
ことを特徴とする請求項1~8のいずれか1項に記載の物体検出方法。 The object detection method described in any one of claims 1 to 8, characterized in that the controller determines whether the object detected by the first sensor and the object detected by the second sensor are the same object using a target reference point indicating a current observation reference point estimated one time ago, the first reference point, and the second reference point.
ことを特徴とする請求項9に記載の物体検出方法。 The method of claim 9 , wherein the controller estimates the target reference point using an average of state estimation results or an average and covariance of the state estimation results.
ことを特徴とする請求項9に記載の物体検出方法。 The method of claim 9 , wherein the controller determines the mean and covariance of the target reference points using an extended Kalman filter or a particle filter.
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point using their respective averages or averages and covariances.
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point, using a normal distribution and a KL divergence of a normal distribution.
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point, using a Mahalanobis distance between a reference point and a normal distribution.
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。 The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point, using the squared error between the reference points.
ターゲットに割り当てられた複数の観測結果に対し、前記第一基準点及び前記第二基準点の誤差分布を評価することによって決定された優先度にしたがって観測情報を統合化し、
前記ターゲットの代表観測ベクトルを決定する
ことを特徴とする請求項1~15のいずれか1項に記載の物体検出方法。 The controller:
Integrating the observation information according to a priority determined by evaluating the error distribution of the first reference point and the second reference point for a plurality of observation results assigned to a target;
The method according to any one of claims 1 to 15, further comprising determining a representative observation vector of the target.
前記第1センサとは異なる方式で前記物体を検出する第2センサと、
前記第1センサ及び前記第2センサによって検出されたデータを処理するコントローラと、を備え、
前記コントローラは、
前記第1センサによって検出された物体形状を上面視で多角形近似した第1多角形状を算出し、
前記第2センサによって検出された物体形状を上面視で多角形近似した第2多角形状を算出し、
前記第1多角形状を構成する辺のうちで、前記第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点と、前記第2多角形状を構成する辺のうちで、前記第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点とに基づいて、前記第1センサによって検出された物体と前記第2センサで検出された物体とが同一物体であるか否かを判定する
ことを特徴とする物体検出装置。 A first sensor for detecting objects around the vehicle;
a second sensor that detects the object in a manner different from that of the first sensor;
a controller for processing data detected by the first sensor and the second sensor;
The controller:
calculating a first polygonal shape by approximating the object shape detected by the first sensor as a polygon in a top view;
calculating a second polygonal shape by approximating the object shape detected by the second sensor as a polygon in a top view;
an object detection device which determines whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point which is a point at a predetermined position on a first side which, among the sides constituting the first polygonal shape, forms the largest intersection angle with a line segment connecting the first sensor and an end point of the side, and a second reference point which is a point at a predetermined position on a second side which, among the sides constituting the second polygonal shape, forms the largest intersection angle with a line segment connecting the second sensor and an end point of the side.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020201853A JP7474689B2 (en) | 2020-12-04 | 2020-12-04 | Object detection method and object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020201853A JP7474689B2 (en) | 2020-12-04 | 2020-12-04 | Object detection method and object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022089449A JP2022089449A (en) | 2022-06-16 |
JP7474689B2 true JP7474689B2 (en) | 2024-04-25 |
Family
ID=81989539
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020201853A Active JP7474689B2 (en) | 2020-12-04 | 2020-12-04 | Object detection method and object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7474689B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010256040A (en) | 2009-04-21 | 2010-11-11 | Toyota Motor Corp | Vehicle detecting device |
US20130242284A1 (en) | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
JP2015219858A (en) | 2014-05-21 | 2015-12-07 | 本田技研工業株式会社 | Object recognition device and vehicle |
JP2016148514A (en) | 2015-02-10 | 2016-08-18 | 国立大学法人金沢大学 | Mobile object tracking method and mobile object tracking device |
JP2017181450A (en) | 2016-03-31 | 2017-10-05 | 株式会社デンソー | Object recognition device and object recognition method |
JP2018005390A (en) | 2016-06-29 | 2018-01-11 | 日産自動車株式会社 | Object tracking method and object tracking apparatus |
WO2019159494A1 (en) | 2018-02-13 | 2019-08-22 | 住友電気工業株式会社 | Information generation device, information generation method, computer program and on-board device |
JP2020052897A (en) | 2018-09-28 | 2020-04-02 | 株式会社デンソーテン | Target detection device and target detection method |
-
2020
- 2020-12-04 JP JP2020201853A patent/JP7474689B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010256040A (en) | 2009-04-21 | 2010-11-11 | Toyota Motor Corp | Vehicle detecting device |
US20130242284A1 (en) | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS |
JP2015219858A (en) | 2014-05-21 | 2015-12-07 | 本田技研工業株式会社 | Object recognition device and vehicle |
JP2016148514A (en) | 2015-02-10 | 2016-08-18 | 国立大学法人金沢大学 | Mobile object tracking method and mobile object tracking device |
JP2017181450A (en) | 2016-03-31 | 2017-10-05 | 株式会社デンソー | Object recognition device and object recognition method |
JP2018005390A (en) | 2016-06-29 | 2018-01-11 | 日産自動車株式会社 | Object tracking method and object tracking apparatus |
WO2019159494A1 (en) | 2018-02-13 | 2019-08-22 | 住友電気工業株式会社 | Information generation device, information generation method, computer program and on-board device |
JP2020052897A (en) | 2018-09-28 | 2020-04-02 | 株式会社デンソーテン | Target detection device and target detection method |
Also Published As
Publication number | Publication date |
---|---|
JP2022089449A (en) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3196668B1 (en) | Object tracking system with radar/vision fusion for automated vehicles | |
CN104035439B (en) | BAYESIAN NETWORK TO TRACK OBJECTS USING SCAN POINTS USING MULTIPLE LiDAR SENSORS | |
CN111201448B (en) | Method and device for generating an inverted sensor model and method for identifying obstacles | |
JP5835243B2 (en) | Target recognition device | |
US20200086871A1 (en) | Control device, scanning system, control method, and program | |
US9794519B2 (en) | Positioning apparatus and positioning method regarding a position of mobile object | |
US11328516B2 (en) | Apparatus and method for associating sensor data in vehicle | |
CN111060125B (en) | Collision detection method and device, computer equipment and storage medium | |
CN109828250B (en) | Radar calibration method, calibration device and terminal equipment | |
WO2019208271A1 (en) | Electronic control device, and computation method | |
US20230162395A1 (en) | Point-Cloud Processing | |
CN114730004A (en) | Object recognition device and object recognition method | |
CN111612378A (en) | Potential collision risk prediction method and device and computer equipment | |
JP6740470B2 (en) | Measuring device, measuring method and program | |
US11993289B2 (en) | Vehicle control system and vehicle control method | |
JP7366695B2 (en) | Object recognition method and object recognition device | |
JP7474689B2 (en) | Object detection method and object detection device | |
CN112689842B (en) | Target detection method and device | |
CN106885567B (en) | Inertial navigation cooperation positioning method and positioning equipment | |
JP7401273B2 (en) | Mobile body control device and method | |
US20220075053A1 (en) | Method and apparatus for sensor data fusion for a vehicle | |
CN111295566B (en) | Object recognition device and object recognition method | |
CN111596288B (en) | Method and device for measuring speed, vehicle-mounted terminal and vehicle-mounted speed measuring system | |
CN117940800A (en) | Method for resolving angular ambiguity in a radar network | |
CN117677862A (en) | Pseudo image point identification method, terminal equipment and computer readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230807 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240415 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7474689 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |