[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7474689B2 - Object detection method and object detection device - Google Patents

Object detection method and object detection device Download PDF

Info

Publication number
JP7474689B2
JP7474689B2 JP2020201853A JP2020201853A JP7474689B2 JP 7474689 B2 JP7474689 B2 JP 7474689B2 JP 2020201853 A JP2020201853 A JP 2020201853A JP 2020201853 A JP2020201853 A JP 2020201853A JP 7474689 B2 JP7474689 B2 JP 7474689B2
Authority
JP
Japan
Prior art keywords
reference point
sensor
observation
point
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020201853A
Other languages
Japanese (ja)
Other versions
JP2022089449A (en
Inventor
邦昭 野田
健文 後藤
貴都 黒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2020201853A priority Critical patent/JP7474689B2/en
Publication of JP2022089449A publication Critical patent/JP2022089449A/en
Application granted granted Critical
Publication of JP7474689B2 publication Critical patent/JP7474689B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は、物体検出方法及び物体検出装置に関する。 The present invention relates to an object detection method and an object detection device.

従来より、カメラ及びレーダを用いて車両の周囲に存在する物体を認識する発明が知られている(特許文献1)。特許文献1に記載された発明は、カメラ及びレーダによって検出された物体までの距離を用いて物体が同一物体であるか否かを判定する。 There are known inventions that use cameras and radar to recognize objects around a vehicle (Patent Document 1). The invention described in Patent Document 1 uses the distance to an object detected by the camera and radar to determine whether the object is the same object.

特開2015-31607号公報JP 2015-31607 A

しかしながら、特許文献1に記載された発明は点と点との対応評価を行っているにすぎないため、例えばバスのように大きな物体を複数のセンサで観測した場合にそれぞれのセンサから得られた大きさ、形状を含む検出結果について対応を取ることが難しい。 However, the invention described in Patent Document 1 only evaluates the correspondence between points, so when a large object such as a bus is observed by multiple sensors, it is difficult to determine the correspondence between the detection results, including the size and shape, obtained from each sensor.

本発明は、上記問題に鑑みて成されたものであり、その目的は、複数のセンサを用いて物体の同一性を精度よく判定することが可能な物体検出方法及び物体検出装置を提供することである。 The present invention was made in consideration of the above problems, and its purpose is to provide an object detection method and an object detection device that can accurately determine the identity of an object using multiple sensors.

本発明の一態様に係る物体検出方法は、第1センサによって検出された物体形状を上面視で多角形近似した第1多角形状を算出し、第2センサによって検出された物体形状を上面視で多角形近似した第2多角形状を算出し、第1多角形状を構成する辺のうちで、第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点と、第2多角形状を構成する辺のうちで、第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点とに基づいて、第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する。 An object detection method according to one aspect of the present invention calculates a first polygonal shape that is a polygonal approximation of the object shape detected by a first sensor in a top view, calculates a second polygonal shape that is a polygonal approximation of the object shape detected by a second sensor in a top view, and determines whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point that is a point at a predetermined position on a first side that has the largest intersection angle between the first sensor and an end point of the side among the sides that make up the first polygonal shape, and a second reference point that is a point at a predetermined position on a second side that has the largest intersection angle between the second sensor and an end point of the side among the sides that make up the second polygonal shape.

本発明によれば、複数のセンサを用いて物体の同一性を精度よく判定することが可能となる。 The present invention makes it possible to accurately determine the identity of objects using multiple sensors.

図1は、本発明の実施形態に係る物体検出装置1の構成図である。FIG. 1 is a configuration diagram of an object detection device 1 according to an embodiment of the present invention. 図2は、物体検出装置1の一動作例を説明するフローチャートである。FIG. 2 is a flowchart illustrating an example of the operation of the object detection device 1. 図3は、基準辺の決定方法の一例を説明する図である。FIG. 3 is a diagram for explaining an example of a method for determining a reference side. 図4は、観測基準点の決定方法の一例を説明する図である。FIG. 4 is a diagram for explaining an example of a method for determining an observation reference point. 図5は、観測誤差分布の一例を説明する図である。FIG. 5 is a diagram illustrating an example of the observation error distribution. 図6は、計算遅延誤差分布の一例を説明する図である。FIG. 6 is a diagram illustrating an example of a calculation delay error distribution. 図7は、観測誤差分布と計算遅延誤差分布との合成方法の一例を説明する図である。FIG. 7 is a diagram for explaining an example of a method for combining the observation error distribution and the calculation delay error distribution. 図8は、距離評価の一例を説明する図である。FIG. 8 is a diagram illustrating an example of distance evaluation. 図9は、基準点割り当ての一例を説明する図である。FIG. 9 is a diagram illustrating an example of reference point allocation. 図10は、代表観測ベクトルの一例を説明する図である。FIG. 10 is a diagram illustrating an example of a representative observation vector.

以下、本発明の実施形態について、図面を参照して説明する。図面の記載において同一部分には同一符号を付して説明を省略する。 Embodiments of the present invention will be described below with reference to the drawings. In the description of the drawings, identical parts are given the same reference numerals and the description will be omitted.

図1を参照して物体検出装置1の構成例を説明する。図1に示すように、物体検出装置1は、カメラ10と、レーダ11と、ライダ12と、コントローラ20と、記憶装置13とを備える。 An example of the configuration of the object detection device 1 will be described with reference to FIG. 1. As shown in FIG. 1, the object detection device 1 includes a camera 10, a radar 11, a lidar 12, a controller 20, and a storage device 13.

カメラ10はCCD(charge-coupled device)、CMOS(complementary metal oxide semiconductor)などの撮像素子を有する。カメラ10は、自車両の周囲に存在する物体(歩行者、自転車、二輪車、他車両など)、及び自車両の周囲の情報(区画線、信号機、標識、横断歩道、交差点など)を検出する。カメラ10は撮像した画像をコントローラ20に出力する。カメラ10は、単眼カメラでもよく、ステレオカメラでもよい。 The camera 10 has an imaging element such as a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). The camera 10 detects objects around the vehicle (pedestrians, bicycles, motorcycles, other vehicles, etc.) and information about the vehicle's surroundings (division lines, traffic lights, signs, pedestrian crossings, intersections, etc.). The camera 10 outputs the captured images to the controller 20. The camera 10 may be a monocular camera or a stereo camera.

レーダ11は自車両の周囲の物体に電波(出射波)を発射し、その反射波を測定することにより、物体までの距離及び方向を測定する。レーダ11は測定したデータをコントローラ20に出力する。レーダ11の種類は特に限定されないが例えばミリ波レーダが挙げられる。 The radar 11 emits radio waves (emission waves) to objects around the vehicle and measures the reflected waves to measure the distance and direction to the objects. The radar 11 outputs the measured data to the controller 20. There are no particular limitations on the type of radar 11, but examples include millimeter wave radar.

ライダ12(LIDAR:Laser Imaging Detection and Ranging)も、レーダ11と同様に自車両の周囲に存在する物体までの距離及び方向を測定する。ライダ12がレーダ11と異なる点は、レーダ11が出射波として電波を用いるのに対し、ライダ12は出射波として光を用いる。ライダ12は自車両の周囲の物体に光を発射し、その反射光を測定することにより、物体までの距離及び方向を測定したり、物体の形状を認識したりする。ライダ12は測定したデータをコントローラ20に出力する。 LIDAR 12 (Laser Imaging Detection and Ranging) measures the distance and direction to objects around the vehicle, just like radar 11. LIDAR 12 differs from radar 11 in that radar 11 uses radio waves as its emitted waves, whereas LIDAR 12 uses light as its emitted waves. LIDAR 12 emits light to objects around the vehicle and measures the reflected light to measure the distance and direction to the objects and recognize the shape of the objects. LIDAR 12 outputs the measured data to controller 20.

カメラ10、レーダ11、及びライダ12はそれぞれ異なる方式で物体を検出する。カメラ10、レーダ11、及びライダ12は自車両に設置されるが、その設置場所は特に限定されない。また設置数も限定されない。それぞれ1つだけ設置されてもよく、それぞれ複数設置されてもよい。 The camera 10, radar 11, and lidar 12 each detect objects using a different method. The camera 10, radar 11, and lidar 12 are installed on the vehicle, but the installation locations are not particularly limited. There is also no limit to the number of installations. Only one of each may be installed, or multiple of each may be installed.

記憶装置13はHDD(Hard Disk Drive)、SSD(Solid State Drive)などから構成される。記憶装置13にはデータベース14が格納されている。データベース14には、カメラ10、レーダ11、及びライダ12の観測誤差及び計算遅延誤差に関するデータが格納されている。 The storage device 13 is composed of a hard disk drive (HDD), a solid state drive (SSD), etc. The storage device 13 stores a database 14. The database 14 stores data on the observation errors and calculation delay errors of the camera 10, the radar 11, and the lidar 12.

コントローラ20は、CPU(中央処理装置)、メモリ、及び入出力部を備える汎用のマイクロコンピュータである。マイクロコンピュータには、物体検出装置1として機能させるためのコンピュータプログラムがインストールされている。コンピュータプログラムを実行することにより、マイクロコンピュータは物体検出装置1が備える複数の情報処理回路として機能する。なおここでは、ソフトウェアによって物体検出装置1が備える複数の情報処理回路を実現する例を示すが、もちろん以下に示す各情報処理を実行するための専用のハードウェアを用意して情報処理回路を構成することも可能である。また複数の情報処理回路を個別のハードウェアにより構成してもよい。コントローラ20は、複数の情報処理回路の一例として、基準辺決定部21と、基準点決定部22と、誤差分布決定部23と、距離算出部24と、割当部25と、状態更新部26とを備える。 The controller 20 is a general-purpose microcomputer equipped with a CPU (Central Processing Unit), memory, and input/output units. A computer program for functioning as the object detection device 1 is installed in the microcomputer. By executing the computer program, the microcomputer functions as the multiple information processing circuits equipped in the object detection device 1. Note that here, an example is shown in which the multiple information processing circuits equipped in the object detection device 1 are realized by software, but it is of course possible to configure the information processing circuits by preparing dedicated hardware for executing each information process shown below. The multiple information processing circuits may also be configured by individual hardware. The controller 20 includes a reference side determination unit 21, a reference point determination unit 22, an error distribution determination unit 23, a distance calculation unit 24, an allocation unit 25, and a state update unit 26 as an example of the multiple information processing circuits.

基準辺決定部21はカメラ10、レーダ11、及びライダ12から物体検出に係るデータを取得する。これらのデータには観測された物体の大きさ、形状が含まれる。基準辺決定部21は物体の大きさ、形状に係るデータを用いて物体の基準辺を決定する。基準辺決定部21は決定された基準辺を示す情報を基準点決定部22に出力する。 The reference edge determination unit 21 acquires data related to object detection from the camera 10, radar 11, and lidar 12. This data includes the size and shape of the observed object. The reference edge determination unit 21 determines the reference edge of the object using the data related to the size and shape of the object. The reference edge determination unit 21 outputs information indicating the determined reference edge to the reference point determination unit 22.

基準点決定部22は基準辺決定部21から取得した基準辺を用いて、この基準辺上に1つの観測基準点を設定する。基準点決定部22は設定された基準点を示す情報を誤差分布決定部23に出力する。 The reference point determination unit 22 uses the reference edge acquired from the reference edge determination unit 21 to set one observation reference point on this reference edge. The reference point determination unit 22 outputs information indicating the set reference point to the error distribution determination unit 23.

誤差分布決定部23は基準点決定部22から取得した観測基準点と、データベース14に格納されている観測誤差及び計算遅延誤差に関するデータを用いて観測基準点の誤差分布を決定する。また誤差分布決定部23は、状態更新部26から取得した1時刻前に推定された現在の状態推定結果の平均と共分散を用いてターゲット基準点の誤差分布を決定する。 The error distribution determination unit 23 determines the error distribution of the observation reference point using the observation reference point acquired from the reference point determination unit 22 and data related to the observation error and calculation delay error stored in the database 14. The error distribution determination unit 23 also determines the error distribution of the target reference point using the average and covariance of the current state estimation result estimated one time ago acquired from the state update unit 26.

距離算出部24は誤差分布決定部23から取得した誤差分布を含む観測基準点と、誤差分布を含むターゲット基準点との距離評価を行う。 The distance calculation unit 24 evaluates the distance between the observation reference point including the error distribution obtained from the error distribution determination unit 23 and the target reference point including the error distribution.

割当部25は距離算出部24から取得した観測基準点とターゲット基準点間の距離評価結果に基づき、ターゲットに対する観測結果の対応づけを行う。また、割当部25は割り当て対象となるターゲットがない場合は新規にターゲットを追加し、ターゲットに対して観測結果が割り当てられなかった場合には、ターゲットを消去する。さらに、割当部25はターゲットに割り当てられた複数の観測情報に対し、センサ毎の信頼度(優先度)にしたがって観測情報を統合化してターゲットの代表観測ベクトルを決定する。 The allocation unit 25 associates the observation results with the targets based on the distance evaluation results between the observation reference points and the target reference points obtained from the distance calculation unit 24. If there is no target to which an assignment can be made, the allocation unit 25 adds a new target, and if no observation results have been assigned to the target, it deletes the target. Furthermore, the allocation unit 25 integrates the observation information assigned to the target according to the reliability (priority) of each sensor, and determines the representative observation vector of the target.

状態更新部26は割当部25から取得したターゲットの代表観測ベクトルに基づき、ターゲットの状態ベクトルの更新を行う。 The state update unit 26 updates the state vector of the target based on the representative observation vector of the target obtained from the allocation unit 25.

次に図2~10を参照して、物体検出装置1の一動作例について説明する。 Next, an example of the operation of the object detection device 1 will be described with reference to Figures 2 to 10.

図2に示すステップS101において、複数の異なるセンサ、すなわち、カメラ10、レーダ11、及びライダ12によって車両の周囲の物体が検出される。それぞれのセンサから得られた物体検出結果は、物体の位置、姿勢、位置の一次微分(速度)、姿勢の一次微分(角速度)、及び大きさ(矩形の縦横の長さ)などからなる観測ベクトルとして表現される。ただし、必ずしも全てのセンサが全ての情報を計測できるとは限らず、観測できる情報であっても計測原理の違いに起因する信頼度(計測誤差分布)の違いがある。 In step S101 shown in FIG. 2, objects around the vehicle are detected by multiple different sensors, namely, the camera 10, the radar 11, and the lidar 12. The object detection results obtained from each sensor are expressed as an observation vector consisting of the object's position, attitude, first derivative of the position (velocity), first derivative of the attitude (angular velocity), and size (length and width of a rectangle). However, not all sensors can necessarily measure all information, and even for information that can be observed, there are differences in reliability (measurement error distribution) due to differences in measurement principles.

例えば、カメラ10が単眼カメラである場合において、単眼カメラから得られた検出結果では物体の幅は精度よく計測されるが、物体の奥行きに関しては精度は低い。また視線方向の位置精度は低いが、水平方向の位置精度(方位角)は高いという特徴がある。 For example, when the camera 10 is a monocular camera, the detection results obtained from the monocular camera accurately measure the width of the object, but the accuracy of the depth of the object is low. Also, the positional accuracy in the line of sight is low, but the positional accuracy in the horizontal direction (azimuth angle) is high.

またレーダ11がミリ波レーダから得られた検出結果では視線方向(出射波の出射方向)の位置精度が高く、水平方向の位置精度が低いという特徴がある。さらに、ライダ12から得られた検出結果では物体の幅と奥行きが精度よく計測される一方で、視線方向、水平方向の位置精度も高いという特徴がある。しかし、センサと観測対象物体との相対位置によっては物体の幅と奥行きが観測できるとは限らないため、物体の観測データが逐次変化するという特徴がある。 The detection results obtained by the radar 11 using a millimeter wave radar are characterized by high positional accuracy in the line of sight (the direction in which the emitted wave is emitted) and low positional accuracy in the horizontal direction. Furthermore, the detection results obtained by the lidar 12 are characterized by accurate measurement of the width and depth of an object, while also having high positional accuracy in the line of sight and horizontal directions. However, because it is not always possible to observe the width and depth of an object depending on the relative positions of the sensor and the object being observed, the observation data for the object changes successively.

このようにセンサと観測対象との相対位置に応じて物体に関する観測データが逐次変化しても、計測原理の異なるセンサ間の計測精度の違いを考慮しつつ、観測結果とターゲット間との対応を統一的に評価するために、ステップS103、105、107において観測結果に対する観測基準点の決定、及び観測誤差分布の割り当てを行う。 Even if the observation data about the object changes sequentially depending on the relative positions of the sensor and the object being observed, in order to uniformly evaluate the correspondence between the observation results and the target while taking into account the difference in measurement accuracy between sensors with different measurement principles, the observation reference point for the observation results is determined and an observation error distribution is assigned in steps S103, 105, and 107.

ステップS103において、基準辺決定部21は、カメラ10、レーダ11、及びライダ12から取得した物体の大きさ、形状(矩形)を含む検出結果に基づいて基準辺を決定する。基準辺について図3を参照して説明する。 In step S103, the reference side determination unit 21 determines the reference side based on the detection results including the size and shape (rectangle) of the object obtained from the camera 10, the radar 11, and the lidar 12. The reference side will be described with reference to FIG. 3.

図3に示す例において、基準辺の決定においてはカメラ10、レーダ11、及びライダ12から見た矩形物体領域30に関して、センサ側の2辺が対象となる。センサ点との矩形物体領域30の端点をそれぞれ結ぶ線(視線方向)に対して、交差角の大きい辺を第1基準辺L1、交差角の小さい辺を第2基準辺L2とする。この場合において基準辺決定部21は第1基準辺L1を基準辺として決定する。θ1は、矩形物体領域30の端点(右下の点)において、視線方向と第1基準辺L1に係る延長線40とがなす角である。またθ2は、矩形物体領域30の端点(左上の点)において、視線方向と第2基準辺L2に係る延長線41とがなす角である。θ1>θ2である。センサ側に近い2辺を対象とする理由は、センサ側に近い2辺のほうがセンサ側に遠い2辺と比較しセンサ精度が高いからである。基準辺はセンサから見て面積が広い部分に関する辺と表現されてもよい。 In the example shown in FIG. 3, the two sides on the sensor side of the rectangular object area 30 seen from the camera 10, the radar 11, and the lidar 12 are targeted in determining the reference side. The side with the larger crossing angle with respect to the line (line of sight direction) connecting the sensor point and the end points of the rectangular object area 30 is set as the first reference side L1, and the side with the smaller crossing angle is set as the second reference side L2. In this case, the reference side determination unit 21 determines the first reference side L1 as the reference side. θ1 is the angle between the line of sight direction and the extension line 40 of the first reference side L1 at the end point (point on the lower right) of the rectangular object area 30. Also, θ2 is the angle between the line of sight direction and the extension line 41 of the second reference side L2 at the end point (point on the upper left) of the rectangular object area 30. θ1>θ2. The reason why the two sides closer to the sensor side are targeted is because the sensor accuracy is higher for the two sides closer to the sensor side than for the two sides farther from the sensor side. The reference side may be expressed as a side related to a part having a larger area as seen from the sensor.

図2に示すステップS105において、基準点決定部22は、基準辺決定部21によって決定された第1基準辺L1上の任意の点を観測基準点とする。本実施形態では図4に示すように、第1基準辺L1の中点が観測基準点50として決定される。ただし、上述したように観測基準点は中点に限定されるものではなく、第1基準辺L1上の点であればどこでもよい。観測基準点は各センサから取得した観測ベクトルの平均もしくは観測ベクトルの平均と共分散を用いて決定される。 In step S105 shown in FIG. 2, the reference point determination unit 22 sets an arbitrary point on the first reference side L1 determined by the reference side determination unit 21 as the observation reference point. In this embodiment, as shown in FIG. 4, the midpoint of the first reference side L1 is determined as the observation reference point 50. However, as described above, the observation reference point is not limited to the midpoint, and may be any point on the first reference side L1. The observation reference point is determined using the average of the observation vectors acquired from each sensor or the average and covariance of the observation vectors.

図2に示すステップS107において、誤差分布決定部23は、基準点決定部22から取得した観測基準点50と、データベース14から取得した観測誤差分布および計算遅延誤差分布とを用いて観測基準点の誤差分布を決定する。 In step S107 shown in FIG. 2, the error distribution determination unit 23 determines the error distribution of the observation reference point using the observation reference point 50 acquired from the reference point determination unit 22 and the observation error distribution and calculation delay error distribution acquired from the database 14.

ここで、観測誤差分布はセンサ毎の異なる観測原理によって生じる観測誤差を共分散行列によって表現したものである。観測基準点にセンサ毎の観測誤差に関する共分散行列を設定し、各観測基準点の許容誤差とする。例えば図5に示すようにセンサ点と観測基準点とを結ぶ直線方向(視線方向)、及びこの視線方向に直交する方向(水平方向)に誤差分布を設定する。これにより観測誤差分布が決定される。図5の符号50は、ライダ12の観測基準点を示し、符号51はカメラ10の観測基準点を示す。符号60はライダ12によって検出された物体形状を上面視で多角形近似した多角形状を示し、符号61はカメラ10によって検出された物体形状を上面視で多角形近似した多角形状を示す。このような多角形状はコントローラ20によって算出される。 Here, the observation error distribution is a representation of the observation error caused by the different observation principles for each sensor, expressed by a covariance matrix. A covariance matrix for the observation error for each sensor is set at the observation reference point, and is set as the allowable error for each observation reference point. For example, as shown in FIG. 5, an error distribution is set in the direction of a straight line (line of sight) connecting the sensor point and the observation reference point, and in the direction perpendicular to this line of sight (horizontal direction). This determines the observation error distribution. In FIG. 5, reference numeral 50 indicates the observation reference point of the lidar 12, and reference numeral 51 indicates the observation reference point of the camera 10. Reference numeral 60 indicates a polygonal shape obtained by approximating the object shape detected by the lidar 12 from a top view, and reference numeral 61 indicates a polygonal shape obtained by approximating the object shape detected by the camera 10 from a top view. Such polygonal shapes are calculated by the controller 20.

図5に示す符号L3はライダ12から見た視線方向ベクトルを示し、符号L4はカメラ10から見た視線方向ベクトルを示す。符号50aはライダ12の観測誤差分布を示し、符号51aはカメラ10の観測誤差分布を示す。図5に示す例では、観測誤差分布によってカメラ10による視線方向の位置精度が低く、水平方向の位置精度が高いことが示されている一方、ライダ12による位置精度は視線方向、水平方向共に高いことが示されている。 In Figure 5, symbol L3 indicates the line of sight vector as seen by the LIDAR 12, and symbol L4 indicates the line of sight vector as seen by the camera 10. Symbol 50a indicates the observation error distribution of the LIDAR 12, and symbol 51a indicates the observation error distribution of the camera 10. In the example shown in Figure 5, the observation error distribution indicates that the positional accuracy of the line of sight by the camera 10 is low and the positional accuracy in the horizontal direction is high, while the positional accuracy of the LIDAR 12 is high in both the line of sight and horizontal directions.

一方、計算遅延誤差分布はセンサ毎の異なる計算処理周期によって生じる観測誤差を共分散行列によって表現したものである。観測基準点にセンサ毎の計算遅延誤差に関する共分散行列を設定し、各観測基準点の許容誤差とする。例えば図6に示すように、各観測の速度ベクトル方向、及び直交方向に誤差分布を設定する。これにより計算遅延誤差分布が決定される。図6に示す符号L5はライダ12に対する速度ベクトルを示し、符号L6はカメラ10に対する速度ベクトルを示す。符号50bはライダ12の計算遅延誤差分布を示し、符号51bはカメラ10の計算遅延誤差分布を示す。 On the other hand, the calculation delay error distribution is a representation of the observation error caused by the different calculation processing cycles for each sensor, expressed by a covariance matrix. A covariance matrix related to the calculation delay error for each sensor is set at the observation reference point, and this is set as the allowable error for each observation reference point. For example, as shown in Figure 6, an error distribution is set in the velocity vector direction and the orthogonal direction for each observation. This determines the calculation delay error distribution. Reference L5 in Figure 6 indicates the velocity vector for the LIDAR 12, and reference L6 indicates the velocity vector for the camera 10. Reference 50b indicates the calculation delay error distribution for the LIDAR 12, and reference 51b indicates the calculation delay error distribution for the camera 10.

最終的な観測基準点の誤差分布は、図7に示すように正規分布の加法性にしたがい、観測誤差分布、計算遅延誤差分布を合成して決定することができる。図7において、観測基準点51の誤差分布51cは、観測誤差分布51aと計算遅延誤差分布51bとを合成することによって決定される。なお誤差分布51cはカメラ10の誤差分布を示すものであり、図示は省略するがレーダ11及びライダ12の誤差分布も同様の合成によって決定される。 The final error distribution of the observation reference point can be determined by combining the observation error distribution and the calculation delay error distribution according to the additivity of the normal distribution as shown in Figure 7. In Figure 7, the error distribution 51c of the observation reference point 51 is determined by combining the observation error distribution 51a and the calculation delay error distribution 51b. Note that the error distribution 51c indicates the error distribution of the camera 10, and although not shown, the error distributions of the radar 11 and lidar 12 are also determined by a similar combination.

このように各観測点の存在確率分布を正規分布として表現することにより、各センサの計測原理に起因する観測誤差、及び計算負荷の大小に起因する計算遅延を反映して観測基準点の存在を確率的に表現することができる。例えば、任意の観測点1の観測誤差を反映した正規確率分布を式1で表現したとする。 By expressing the existence probability distribution of each observation point as a normal distribution in this way, it is possible to probabilistically express the existence of the observation reference point, reflecting the observation error due to the measurement principle of each sensor and the calculation delay due to the magnitude of the calculation load. For example, suppose that the normal probability distribution reflecting the observation error of an arbitrary observation point 1 is expressed by Equation 1.

Figure 0007474689000001
Figure 0007474689000001

ここでμは観測点の平均であり、Σ11は観測点の共分散行列である。 where μ 1 is the mean of the observation points and Σ 11 is the covariance matrix of the observation points.

任意の観測点1の計算遅延誤差を反映した正規確率分布を式2で表現したとする。 Let us assume that the normal probability distribution reflecting the calculation delay error at an arbitrary observation point 1 is expressed by Equation 2.

Figure 0007474689000002
Figure 0007474689000002

ここで、Σ12は観測点の共分散行列である。 Here, Σ 12 is the covariance matrix of the observation points.

最終的な観測点1の正規確率分布は式3で表現される。 The final normal probability distribution for observation point 1 is expressed by equation 3.

Figure 0007474689000003
Figure 0007474689000003

なお、各センサ内で観測結果の状態推定が行われ、状態推定結果の事後確率分布が得られる場合には、この値をもって各観測点の存在確率分布としてもよい。ここでいう状態推定とはトラッキングを意味する。 In addition, if state estimation of the observation results is performed within each sensor and a posterior probability distribution of the state estimation results is obtained, this value may be used as the existence probability distribution of each observation point. State estimation here means tracking.

また、データベース14に格納されている観測誤差分布は、観測対象の正解値が判明している環境でそれぞれのセンサの計測値を取得し、正解値と計測値との誤差を計算することにより求められる。また、計算遅延誤差分布も同様に観測対象の正解値が判明している環境で、それぞれのセンサの持つ計測及び計算に要する時間を計測することによって求められる。 The observation error distribution stored in database 14 is obtained by acquiring the measurement values of each sensor in an environment where the correct value of the observation target is known, and calculating the error between the correct value and the measurement value. Similarly, the calculation delay error distribution is obtained by measuring the time required for measurement and calculation of each sensor in an environment where the correct value of the observation target is known.

さらにステップS107において、誤差分布決定部23は、状態更新部26から得られた1時刻前に計算された現在時刻に対する状態推定結果の平均と共分散を用いてターゲット基準点、及び誤差分布を決定する。ターゲット基準点について説明する。現在から見て1時刻前を「時刻t-1」と定義し、現在を「時刻t」と定義する。この場合本実施形態において、コントローラ20は時刻t-1の時点において、将来の時刻tの状態量を予測する。このような予測は、時刻t-1の時点における位置、姿勢、速度などが1時刻後にどのように変化するかといった観点に基づいて行われる。このとき予測された観測基準点が「ターゲット基準点」である。すなわちターゲット基準点は、現在のカメラ10、レーダ11、及びライダ12の観測結果に基づく観測基準点とは異なる。 Furthermore, in step S107, the error distribution determination unit 23 determines the target reference point and the error distribution using the average and covariance of the state estimation result for the current time calculated one time ago, obtained from the state update unit 26. The target reference point will be explained. One time ago from the present is defined as "time t-1", and the present is defined as "time t". In this case, in this embodiment, the controller 20 predicts the state quantity of the future time t at the time t-1. Such prediction is made based on the viewpoint of how the position, attitude, speed, etc. at the time t-1 will change one time later. The predicted observation reference point at this time is the "target reference point". In other words, the target reference point is different from the observation reference point based on the current observation results of the camera 10, the radar 11, and the lidar 12.

ステップS109で、距離算出部24は、誤差分布決定部23から取得した誤差分布を含む観測基準点と、誤差分布を含むターゲット基準点との距離評価を行う。この距離評価について図8~9を参照して説明する。図8の符号dはターゲット基準点71と観測基準点51との距離を示す。図8の符号dはターゲット基準点71と観測基準点55との距離を示す。観測基準点とターゲット基準点が共に誤差分布を含む場合には、正規分布間の距離の評価となるため、観測基準点の確率分布をp(x)、ターゲット基準点の確率分布をq(x)とすると、例えばKLダイバージェンスを距離尺度として用いることができる(式4)。 In step S109, the distance calculation unit 24 performs a distance evaluation between the observation reference point including the error distribution acquired from the error distribution determination unit 23 and the target reference point including the error distribution. This distance evaluation will be described with reference to Figs. 8 to 9. Reference d1 in Fig. 8 indicates the distance between the target reference point 71 and the observation reference point 51. Reference d2 in Fig. 8 indicates the distance between the target reference point 71 and the observation reference point 55. When the observation reference point and the target reference point both include error distributions, the evaluation is of the distance between normal distributions. Therefore, if the probability distribution of the observation reference point is p(x) and the probability distribution of the target reference point is q(x), then, for example, the KL divergence can be used as the distance measure (Equation 4).

Figure 0007474689000004
Figure 0007474689000004

なお、基準点間距離の算出は必ずしも正規分布間の距離である必要はなく、例えば観測基準点とターゲット基準点のどちらかが正規分布の平均で表される場合には、点と正規分布の距離となるため、点で表現された観測基準点をx、距離を算出する対象の正規分布をN(μ、Σ)とすると、例えばマハラノビス距離を距離尺度として用いることができる(式5)。 Note that the distance between reference points does not necessarily have to be the distance between normal distributions. For example, if either the observation reference point or the target reference point is represented by the average of a normal distribution, the distance will be the distance between the point and the normal distribution. Therefore, if the observation reference point represented by a point is x j and the normal distribution to which the distance is to be calculated is N(μ i , Σ i ), then, for example, the Mahalanobis distance can be used as the distance measure (Equation 5).

Figure 0007474689000005
Figure 0007474689000005

また、観測基準点とターゲット基準点の双方が正規分布の平均で表される場合には、点と点の距離となるため、点で表現された観測基準点をそれぞれx、xすると、例えば2乗誤差を距離尺度として用いることができる(式6)。 In addition, when both the observation reference point and the target reference point are expressed by the mean of a normal distribution, the distance is between points. Therefore, if the observation reference points expressed as points are x i and x j , respectively, the squared error, for example, can be used as the distance measure (Equation 6).

Figure 0007474689000006
Figure 0007474689000006

ステップS111において、割当部25は、距離算出部24から取得した観測基準点とターゲット基準点間の距離評価結果に基づき、ターゲットに対する観測結果の対応づけを行う。各センサから得られた観測基準点に関し、ターゲット基準点からの距離が最小となる観測基準点について、その距離が閾値以下である場合にターゲットに対して観測基準点を割り当てる処理を行う。例えば、ターゲット基準点jに対し、観測基準点iを割り当てることを考える場合、下記の式7に表される条件を満たすように観測基準点iを選択する。 In step S111, the allocation unit 25 associates the observation results with the target based on the distance evaluation result between the observation reference point and the target reference point obtained from the distance calculation unit 24. For the observation reference points obtained from each sensor, a process of allocating an observation reference point to the target if the distance from the target reference point to the observation reference point that is the shortest is equal to or less than a threshold. For example, when considering allocating observation reference point i to target reference point j, the allocation unit 25 selects observation reference point i so as to satisfy the condition expressed in the following formula 7.

Figure 0007474689000007
Figure 0007474689000007

具体的に図9を参照して説明すると、ターゲット基準点71からの距離が最小となる観測基準点は観測基準点51である。ターゲット基準点71と観測基準点51との距離は閾値以下であるため、ターゲット70に対して観測基準点51が割り当てられる。図9に示す例では、カメラ10の観測基準点51を割り当てたケースを説明したが、レーダ11及びライダ12の観測基準点も同様に割り当てられる。このように各センサの観測基準点がターゲット基準点に割り当てられた場合、コントローラ20は各センサによって検出された物体は同一物体であると判定する。なお図9においてカメラ10の別の観測基準点55はターゲット基準点81に割り当てられることを示す。 Specifically, referring to FIG. 9, the observation reference point with the smallest distance from the target reference point 71 is the observation reference point 51. Since the distance between the target reference point 71 and the observation reference point 51 is equal to or less than the threshold, the observation reference point 51 is assigned to the target 70. In the example shown in FIG. 9, the case where the observation reference point 51 of the camera 10 is assigned has been described, but the observation reference points of the radar 11 and the lidar 12 are assigned in a similar manner. When the observation reference points of each sensor are assigned to the target reference point in this manner, the controller 20 determines that the objects detected by each sensor are the same object. Note that FIG. 9 shows that another observation reference point 55 of the camera 10 is assigned to the target reference point 81.

このように1つのターゲット基準点に対しては同一センサ(図9ではカメラ10)から得られた観測基準点を2つ以上割り当てることはなく、同一センサから割り当てられる観測結果は最大でも1つのみとする。また、割り当て対象となるターゲットがない場合は観測基準点の値を初期値として新規にターゲットを追加し、ターゲットに対して1つも観測結果が割り当てられないまま一定時間経過した場合にターゲットを消去する。 In this way, two or more observation reference points obtained from the same sensor (camera 10 in Figure 9) are not assigned to one target reference point, and only one observation result is assigned from the same sensor at most. Also, if there is no target to assign, a new target is added with the value of the observation reference point as the initial value, and if a certain amount of time has passed without any observation result being assigned to the target, the target is deleted.

さらにステップS111において、ターゲットに割り当てられた複数の観測結果に対し、センサ毎の信頼度(優先度)にしたがって観測情報を統合化してターゲットの代表観測ベクトルを決定する。センサ毎の信頼度は、ターゲットに割当てられた観測基準点の誤差分布を評価し、分散が小さくなるほどセンサの信頼度を高くすることによって決定することができる。図10を参照して代表観測ベクトルについて説明する。図10の符号L7が代表観測ベクトルである。符号52はレーダ11の観測基準点を示し、符号62はレーダ11によって検出された物体形状を上面視で多角形近似した多角形状を示す。図10に示すように、カメラ10の視線方向の位置の誤差分布がライダ12の視線方向の位置の誤差分布よりも大きく、カメラ10の水平方向の位置の誤差分布がライダ12の水平方向の位置の誤差分布より小さい場合には、視線方向の位置に関してはライダ12の計測結果を用い、水平方向の位置に関してはカメラ10の計測結果を用いる。このようにターゲット70に割り当てられた観測基準点の誤差分布を評価して優先度を決定することで観測情報を統合化し、代表観測ベクトルL7を決定することができる。 Furthermore, in step S111, for the multiple observation results assigned to the target, the observation information is integrated according to the reliability (priority) of each sensor to determine a representative observation vector of the target. The reliability of each sensor can be determined by evaluating the error distribution of the observation reference point assigned to the target and increasing the reliability of the sensor as the variance decreases. The representative observation vector will be described with reference to FIG. 10. Reference symbol L7 in FIG. 10 is the representative observation vector. Reference symbol 52 indicates the observation reference point of the radar 11, and reference symbol 62 indicates a polygonal shape that approximates the object shape detected by the radar 11 in a top view. As shown in FIG. 10, if the error distribution of the position in the line of sight of the camera 10 is larger than the error distribution of the position in the line of sight of the lidar 12 and the error distribution of the horizontal position of the camera 10 is smaller than the error distribution of the horizontal position of the lidar 12, the measurement result of the lidar 12 is used for the position in the line of sight, and the measurement result of the camera 10 is used for the horizontal position. In this way, by evaluating the error distribution of the observation reference points assigned to the target 70 and determining the priority, the observation information can be integrated and a representative observation vector L7 can be determined.

ステップS113において、状態更新部26は、割当部25から取得したターゲット70の代表観測ベクトルL7に基づき、ターゲット70の状態ベクトルの更新を行う。状態更新には、拡張カルマンフィルタ(EKF)、パーティクルフィルタなど既知の状態空間モデルが用いられる。 In step S113, the state update unit 26 updates the state vector of the target 70 based on the representative observation vector L7 of the target 70 acquired from the allocation unit 25. A known state space model such as an extended Kalman filter (EKF) or a particle filter is used for the state update.

(作用効果)
以上説明したように、本実施形態に係る物体検出装置1によれば、以下の作用効果が得られる。
(Action and Effect)
As described above, the object detection device 1 according to this embodiment provides the following advantageous effects.

コントローラ20は、各センサによって検出された物体形状を上面視で多角形近似した多角形状を算出する。センサがカメラ10であれば多角形状(第1多角形状)は図5において符号61で示される。あるいはセンサがライダ12であれば多角形状(第2多角形状)は図5において符号60で示される。コントローラ20は、第1多角形状を構成する辺のうちで、第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点(例えば観測基準点51)と、第2多角形状を構成する辺のうちで、第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点(例えば観測基準点50)とに基づいて、第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する。このように観測対象物体の大きさ、形状を含む検出結果について、各センサから最も観測可能性の高い面を基準辺とし、基準辺上の点を基準点とするため、各センサに対する観測対象物体の相対位置が変化しても観測できる情報を用いて各センサから得られた観測情報間の対応を精度よく評価することが可能となる。これにより複数のセンサを用いて物体の同一性を精度よく判定することが可能となる。 The controller 20 calculates a polygonal shape that approximates the object shape detected by each sensor in a top view. If the sensor is a camera 10, the polygonal shape (first polygonal shape) is indicated by reference numeral 61 in FIG. 5. Alternatively, if the sensor is a lidar 12, the polygonal shape (second polygonal shape) is indicated by reference numeral 60 in FIG. 5. The controller 20 determines whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point (e.g., observation reference point 51) that is a point at a predetermined position on a first side that has the largest intersection angle between the first sensor and the end point of the side among the sides that constitute the first polygonal shape, and a second reference point (e.g., observation reference point 50) that is a point at a predetermined position on a second side that has the largest intersection angle between the second sensor and the end point of the side among the sides that constitute the second polygonal shape. In this way, for detection results including the size and shape of the observed object, the surface that is most likely to be observed from each sensor is set as the reference edge, and a point on the reference edge is set as the reference point, so it is possible to accurately evaluate the correspondence between the observation information obtained from each sensor using information that can be observed even if the relative position of the observed object to each sensor changes. This makes it possible to accurately determine the identity of objects using multiple sensors.

第1センサは例えばカメラ10であり、カメラ10は第1所定範囲を撮像し、撮像された画像から第1所定範囲に存在する物体を検出する。第2センサは例えばレーダ11またはライダ12であり、第1所定範囲に重複する第2所定範囲に出射波を出射し、出射波に対する反射波に基づいて第2所定範囲に存在する物体を検出する。なおカメラ10、レーダ11、及びライダ12の全てのセンサを用いて物体の同一性を判定してもよい。 The first sensor is, for example, a camera 10, which captures an image of a first predetermined range and detects an object present in the first predetermined range from the captured image. The second sensor is, for example, a radar 11 or a lidar 12, which emits an outgoing wave into a second predetermined range that overlaps with the first predetermined range and detects an object present in the second predetermined range based on the reflected wave of the outgoing wave. Note that the identity of an object may be determined using all of the sensors, the camera 10, the radar 11, and the lidar 12.

コントローラ20は、各センサから取得した観測ベクトルの平均もしくは観測ベクトルの平均と共分散を用いて観測基準点を決定する。コントローラ20は、観測誤差分布と計算遅延誤差分布を合成して観測基準点の誤差分布を決定する。これによりセンサ毎の観測誤差特性、計算遅延特性を反映した共分散行列を各観測点に設定できるため、特性の異なるセンサから得られた観測点間でも複数観測結果間の対応を精度よく評価することができる。 The controller 20 determines the observation reference point using the average of the observation vectors obtained from each sensor or the average and covariance of the observation vectors. The controller 20 determines the error distribution of the observation reference point by combining the observation error distribution and the calculation delay error distribution. This makes it possible to set a covariance matrix that reflects the observation error characteristics and calculation delay characteristics of each sensor at each observation point, making it possible to accurately evaluate the correspondence between multiple observation results even between observation points obtained from sensors with different characteristics.

コントローラ20は観測基準点にセンサ毎の観測誤差に関する共分散行列を設定する。
またコントローラ20はセンサ点と観測基準点とを結ぶ直線方向、及び直線方向に直交する方向に誤差分布を設定する。カメラ10であれば視線方向(直線方向)の誤差を大きく、方位角方向の誤差を小さく、レーダ11であれば視線方向の誤差を小さく、方位角方向の誤差を大きく、ライダ12であれば視線方向および方位角方向の誤差を小さく、というように計測原理の異なるセンサ毎に異なる誤差分布を設定できるため、単一の評価方法に依存することなく、センサの種類が増えても共通の枠組みで複数観測結果間の対応を評価することができる。
The controller 20 sets a covariance matrix relating to the observation error for each sensor at the observation reference point.
The controller 20 also sets an error distribution in the direction of a line connecting the sensor point and the observation reference point, and in a direction perpendicular to the line direction. Since a different error distribution can be set for each sensor with a different measurement principle, such as a large error in the line of sight (line direction) and a small error in the azimuth angle direction for the camera 10, a small error in the line of sight direction and a large error in the azimuth angle direction for the radar 11, and a small error in the line of sight direction and an large error in the azimuth angle direction for the lidar 12, it is possible to evaluate the correspondence between multiple observation results within a common framework even if the number of sensor types increases, without relying on a single evaluation method.

コントローラ20は、観測基準点にセンサ毎の計算遅延誤差に関する共分散行列を設定する。またコントローラ20は、センサ点の速度ベクトル方向及び速度ベクトル方向に直交する方向に誤差分布を設定する。カメラ10、レーダ11、ライダ12など、異なる計算周期で物体検出を行うセンサの計算遅延に起因する誤差分布を個別に設定できるため、単一の評価方法に依存することなく、センサの種類が増えても共通の枠組みで複数観測結果間の対応を評価することができる。 The controller 20 sets a covariance matrix for the calculation delay error for each sensor at the observation reference point. The controller 20 also sets an error distribution in the velocity vector direction of the sensor point and in a direction perpendicular to the velocity vector direction. Since it is possible to individually set the error distribution caused by the calculation delay of sensors that perform object detection with different calculation periods, such as the camera 10, radar 11, and lidar 12, it is possible to evaluate the correspondence between multiple observation results within a common framework even if the number of sensor types increases, without relying on a single evaluation method.

コントローラ20は、1時刻前に推定された、現在の観測基準点を示すターゲット基準点と、観測基準点を用いて第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する。これにより複数のセンサを用いて物体の同一性を精度よく判定することが可能となる。 The controller 20 uses a target reference point that indicates the current observation reference point estimated one time ago and the observation reference point to determine whether the object detected by the first sensor and the object detected by the second sensor are the same object. This makes it possible to accurately determine the identity of objects using multiple sensors.

コントローラは、状態推定結果の平均もしくは状態推定結果の平均と共分散を用いてターゲット基準点を推定する。コントローラ20は、拡張カルマンフィルタ、パーティクルフィルタなどを用いてターゲット基準点の平均及び共分散を決定する。複数のセンサから得られた観測結果を束ねるターゲットについて、逐次状態推定結果の信頼度を反映した事後分布を用いて共分散行列をターゲット基準点に設定できるため、ターゲットに対する観測基準点の距離を精度よく評価することができる。これにより、ターゲットの追加または削除を適切なタイミングで行いながら、観測情報のグルーピングとトラッキングを精度よく行うことができる。 The controller estimates the target reference point using the average of the state estimation results or the average and covariance of the state estimation results. The controller 20 determines the average and covariance of the target reference point using an extended Kalman filter, a particle filter, or the like. For targets that combine observation results obtained from multiple sensors, a covariance matrix can be set for the target reference point using a posterior distribution that reflects the reliability of the sequential state estimation results, so that the distance of the observation reference point to the target can be evaluated with high accuracy. This allows for accurate grouping and tracking of observation information while adding or deleting targets at appropriate times.

コントローラ20は、観測基準点とターゲット基準点との距離に関し、それぞれの平均もしくは平均と共分散の両方を用いて算出する。またコントローラ20は、観測基準点とターゲット基準点との距離に関し、正規分布と正規分布のKLダイバージェンスを用いて算出してもよい。またコントローラ20は、観測基準点とターゲット基準点との距離に関し、観測基準点と正規分布のマハラノビス距離を用いて算出してもよい。コントローラ20は、観測基準点とターゲット基準点との距離に関し、観測基準点と観測基準点の2乗誤差を用いて算出してもよい。観測基準点と観測基準点の間の距離評価を行うだけでなく、観測基準点の許容誤差とターゲット基準点の許容誤差を反映した距離評価が行えるため、センサの観測誤差及びトラッキングの信頼度を反映して、観測基準点とターゲット基準点の距離評価を行うことができる。 The controller 20 calculates the distance between the observation reference point and the target reference point using their respective averages or both the average and covariance. The controller 20 may also calculate the distance between the observation reference point and the target reference point using a normal distribution and the KL divergence of the normal distribution. The controller 20 may also calculate the distance between the observation reference point and the target reference point using the Mahalanobis distance of the observation reference point and the normal distribution. The controller 20 may calculate the distance between the observation reference point and the target reference point using the squared error between the observation reference point and the observation reference point. In addition to evaluating the distance between the observation reference point and the observation reference point, the controller 20 can also perform a distance evaluation that reflects the allowable error of the observation reference point and the allowable error of the target reference point, so that the controller 20 can evaluate the distance between the observation reference point and the target reference point while reflecting the observation error of the sensor and the reliability of tracking.

コントローラ20は、ターゲットに割り当てられた複数の観測結果に対し、観測基準点の誤差分布を評価することによって決定された優先度にしたがって観測情報を統合化してターゲットの代表観測ベクトルを決定する。観測基準点の誤差分布において、誤差の小さな観測情報を複数の種類のセンサから選択的に統合することが可能になるため、信頼性の高い観測ベクトルをターゲットに対する代表観測ベクトルとすることができる。 The controller 20 integrates the observation information according to a priority determined by evaluating the error distribution of the observation reference point for multiple observation results assigned to the target, and determines a representative observation vector for the target. Since it becomes possible to selectively integrate observation information with small errors from multiple types of sensors in the error distribution of the observation reference point, a highly reliable observation vector can be used as the representative observation vector for the target.

上述の実施形態に記載される各機能は、1または複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置等のプログラムされた処理装置を含む。処理回路は、また、記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や回路部品等の装置を含む。 Each of the functions described in the above embodiments may be implemented by one or more processing circuits. Processing circuits include programmed processing devices, such as processors that include electrical circuitry. Processing circuits also include devices, such as application specific integrated circuits (ASICs) or circuit components, arranged to perform the described functions.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。 As described above, an embodiment of the present invention has been described, but the descriptions and drawings that form part of this disclosure should not be understood as limiting this invention. Various alternative embodiments, examples, and operating techniques will become apparent to those skilled in the art from this disclosure.

1 物体検出装置
10 カメラ
11 レーダ
12 ライダ
13 記憶装置
14 データベース
20 コントローラ
21 基準辺決定部
22 基準点決定部
23 誤差分布決定部
24 距離算出部
25 割当部
26 状態更新部
Reference Signs List 1: Object detection device 10: Camera 11: Radar 12: Lidar 13: Storage device 14: Database 20: Controller 21: Reference side determination unit 22: Reference point determination unit 23: Error distribution determination unit 24: Distance calculation unit 25: Assignment unit 26: State update unit

Claims (17)

車両の周囲の物体を検出する第1センサと、前記第1センサとは異なる方式で前記物体を検出する第2センサと、前記第1センサ及び前記第2センサによって検出されたデータを処理するコントローラを備える物体検出方法であって、
前記コントローラは、
前記第1センサによって検出された物体形状を上面視で多角形近似した第1多角形状を算出し、
前記第2センサによって検出された物体形状を上面視で多角形近似した第2多角形状を算出し、
前記第1多角形状を構成する辺のうちで、前記第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点と、前記第2多角形状を構成する辺のうちで、前記第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点とに基づいて、前記第1センサによって検出された物体と前記第2センサによって検出された物体とが同一物体であるか否かを判定する
ことを特徴とする物体検出方法。
1. An object detection method comprising: a first sensor that detects an object around a vehicle; a second sensor that detects the object in a manner different from that of the first sensor; and a controller that processes data detected by the first sensor and the second sensor,
The controller:
calculating a first polygonal shape by approximating the object shape detected by the first sensor as a polygon in a top view;
calculating a second polygonal shape by approximating the object shape detected by the second sensor as a polygon in a top view;
An object detection method characterized by determining whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point which is a point at a predetermined position on a first side among the sides that constitute the first polygonal shape, which has the largest intersection angle with a line segment connecting the first sensor and an end point of the side, and a second reference point which is a point at a predetermined position on a second side among the sides that constitute the second polygonal shape, which has the largest intersection angle with a line segment connecting the second sensor and an end point of the side.
前記第1センサは、第1所定範囲を撮像し、撮像された画像から前記第1所定範囲に存在する物体を検出し、
前記第2センサは、前記第1所定範囲に重複する第2所定範囲に出射波を出射し、出射波に対する反射波に基づいて前記第2所定範囲に存在する物体を検出する
ことを特徴とする請求項1に記載の物体検出方法。
The first sensor captures an image of a first predetermined range and detects an object present within the first predetermined range from the captured image;
The object detection method according to claim 1 , wherein the second sensor emits an outgoing wave into a second predetermined range that overlaps with the first predetermined range, and detects an object present in the second predetermined range based on a reflected wave of the outgoing wave.
前記コントローラは、各センサから取得した観測ベクトルの平均もしくは前記観測ベクトルの平均と共分散を用いて前記第一基準点及び前記第二基準点を決定する
ことを特徴とする請求項1または2に記載の物体検出方法。
The object detection method according to claim 1 or 2, characterized in that the controller determines the first reference point and the second reference point using an average of observation vectors acquired from each sensor or the average and covariance of the observation vectors.
前記コントローラは、観測誤差分布と計算遅延誤差分布を合成して前記第一基準点及び前記第二基準点の誤差分布を決定する
ことを特徴とする請求項1~3のいずれか1項に記載の物体検出方法。
The object detection method according to any one of claims 1 to 3, characterized in that the controller determines the error distribution of the first reference point and the second reference point by combining an observation error distribution and a calculation delay error distribution.
前記コントローラは、前記第一基準点及び前記第二基準点にセンサ毎の観測誤差に関する共分散行列を設定する
ことを特徴とする請求項4に記載の物体検出方法。
The object detection method according to claim 4 , wherein the controller sets a covariance matrix relating to an observation error for each sensor to the first reference point and the second reference point.
前記コントローラは、センサ点と前記第一基準点とを結ぶ直線方向、及び前記直線方向に直交する方向に誤差分布を設定し、センサ点と前記第二基準点とを結ぶ直線方向、及び前記直線方向に直交する方向に誤差分布を設定する
ことを特徴とする請求項5に記載の物体検出方法。
The object detection method described in claim 5, characterized in that the controller sets an error distribution in a straight line direction connecting the sensor point and the first reference point and in a direction perpendicular to the straight line direction, and sets an error distribution in a straight line direction connecting the sensor point and the second reference point and in a direction perpendicular to the straight line direction.
前記コントローラは、前記第一基準点及び前記第二基準点にセンサ毎の計算遅延誤差に関する共分散行列を設定する
ことを特徴とする請求項4~6のいずれか1項に記載の物体検出方法。
The object detection method according to any one of claims 4 to 6, characterized in that the controller sets a covariance matrix relating to a calculation delay error for each sensor to the first reference point and the second reference point.
前記コントローラは、センサ点の速度ベクトル方向及び前記速度ベクトル方向に直交する方向に誤差分布を設定する
ことを特徴とする請求項7に記載の物体検出方法。
8. The object detection method according to claim 7, wherein the controller sets an error distribution in a velocity vector direction of the sensor point and in a direction perpendicular to the velocity vector direction.
前記コントローラは、1時刻前に推定された、現在の観測基準点を示すターゲット基準点と、前記第一基準点及び前記第二基準点を用いて前記第1センサによって検出された物体と第2センサによって検出された物体とが同一物体であるか否かを判定する
ことを特徴とする請求項1~8のいずれか1項に記載の物体検出方法。
The object detection method described in any one of claims 1 to 8, characterized in that the controller determines whether the object detected by the first sensor and the object detected by the second sensor are the same object using a target reference point indicating a current observation reference point estimated one time ago, the first reference point, and the second reference point.
前記コントローラは、状態推定結果の平均もしくは前記状態推定結果の平均と共分散を用いて前記ターゲット基準点を推定する
ことを特徴とする請求項9に記載の物体検出方法。
The method of claim 9 , wherein the controller estimates the target reference point using an average of state estimation results or an average and covariance of the state estimation results.
前記コントローラは、拡張カルマンフィルタもしくはパーティクルフィルタを用いて前記ターゲット基準点の平均及び共分散を決定する
ことを特徴とする請求項9に記載の物体検出方法。
The method of claim 9 , wherein the controller determines the mean and covariance of the target reference points using an extended Kalman filter or a particle filter.
前記コントローラは、前記第一基準点と前記ターゲット基準点との距離、及び前記第二基準点と前記ターゲット基準点との距離に関し、それぞれの平均もしくは平均と共分散を用いて算出する
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。
The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point using their respective averages or averages and covariances.
前記コントローラは、前記第一基準点と前記ターゲット基準点との距離、及び前記第二基準点と前記ターゲット基準点との距離に関し、正規分布と正規分布のKLダイバージェンスを用いて算出する
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。
The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point, using a normal distribution and a KL divergence of a normal distribution.
前記コントローラは、前記第一基準点と前記ターゲット基準点との距離、及び前記第二基準点と前記ターゲット基準点との距離に関し、基準点と正規分布のマハラノビス距離を用いて算出する
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。
The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point, using a Mahalanobis distance between a reference point and a normal distribution.
前記コントローラは、前記第一基準点と前記ターゲット基準点との距離、及び前記第二基準点と前記ターゲット基準点との距離に関し、基準点と基準点の2乗誤差を用いて算出する
ことを特徴とする請求項9~11のいずれか1項に記載の物体検出方法。
The object detection method according to any one of claims 9 to 11, characterized in that the controller calculates the distance between the first reference point and the target reference point, and the distance between the second reference point and the target reference point, using the squared error between the reference points.
前記コントローラは、
ターゲットに割り当てられた複数の観測結果に対し、前記第一基準点及び前記第二基準点の誤差分布を評価することによって決定された優先度にしたがって観測情報を統合化し、
前記ターゲットの代表観測ベクトルを決定する
ことを特徴とする請求項1~15のいずれか1項に記載の物体検出方法。
The controller:
Integrating the observation information according to a priority determined by evaluating the error distribution of the first reference point and the second reference point for a plurality of observation results assigned to a target;
The method according to any one of claims 1 to 15, further comprising determining a representative observation vector of the target.
車両の周囲の物体を検出する第1センサと、
前記第1センサとは異なる方式で前記物体を検出する第2センサと、
前記第1センサ及び前記第2センサによって検出されたデータを処理するコントローラと、を備え、
前記コントローラは、
前記第1センサによって検出された物体形状を上面視で多角形近似した第1多角形状を算出し、
前記第2センサによって検出された物体形状を上面視で多角形近似した第2多角形状を算出し、
前記第1多角形状を構成する辺のうちで、前記第1センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第一辺上の、予め定められた位置の点である第一基準点と、前記第2多角形状を構成する辺のうちで、前記第2センサと辺の端点とを結ぶ線分とが成す交差角度が最も大きくなる第二辺上の、予め定められた位置の点である第二基準点とに基づいて、前記第1センサによって検出された物体と前記第2センサで検出された物体とが同一物体であるか否かを判定する
ことを特徴とする物体検出装置。
A first sensor for detecting objects around the vehicle;
a second sensor that detects the object in a manner different from that of the first sensor;
a controller for processing data detected by the first sensor and the second sensor;
The controller:
calculating a first polygonal shape by approximating the object shape detected by the first sensor as a polygon in a top view;
calculating a second polygonal shape by approximating the object shape detected by the second sensor as a polygon in a top view;
an object detection device which determines whether the object detected by the first sensor and the object detected by the second sensor are the same object based on a first reference point which is a point at a predetermined position on a first side which, among the sides constituting the first polygonal shape, forms the largest intersection angle with a line segment connecting the first sensor and an end point of the side, and a second reference point which is a point at a predetermined position on a second side which, among the sides constituting the second polygonal shape, forms the largest intersection angle with a line segment connecting the second sensor and an end point of the side.
JP2020201853A 2020-12-04 2020-12-04 Object detection method and object detection device Active JP7474689B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020201853A JP7474689B2 (en) 2020-12-04 2020-12-04 Object detection method and object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020201853A JP7474689B2 (en) 2020-12-04 2020-12-04 Object detection method and object detection device

Publications (2)

Publication Number Publication Date
JP2022089449A JP2022089449A (en) 2022-06-16
JP7474689B2 true JP7474689B2 (en) 2024-04-25

Family

ID=81989539

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020201853A Active JP7474689B2 (en) 2020-12-04 2020-12-04 Object detection method and object detection device

Country Status (1)

Country Link
JP (1) JP7474689B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256040A (en) 2009-04-21 2010-11-11 Toyota Motor Corp Vehicle detecting device
US20130242284A1 (en) 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2015219858A (en) 2014-05-21 2015-12-07 本田技研工業株式会社 Object recognition device and vehicle
JP2016148514A (en) 2015-02-10 2016-08-18 国立大学法人金沢大学 Mobile object tracking method and mobile object tracking device
JP2017181450A (en) 2016-03-31 2017-10-05 株式会社デンソー Object recognition device and object recognition method
JP2018005390A (en) 2016-06-29 2018-01-11 日産自動車株式会社 Object tracking method and object tracking apparatus
WO2019159494A1 (en) 2018-02-13 2019-08-22 住友電気工業株式会社 Information generation device, information generation method, computer program and on-board device
JP2020052897A (en) 2018-09-28 2020-04-02 株式会社デンソーテン Target detection device and target detection method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256040A (en) 2009-04-21 2010-11-11 Toyota Motor Corp Vehicle detecting device
US20130242284A1 (en) 2012-03-15 2013-09-19 GM Global Technology Operations LLC METHODS AND APPARATUS OF FUSING RADAR/CAMERA OBJECT DATA AND LiDAR SCAN POINTS
JP2015219858A (en) 2014-05-21 2015-12-07 本田技研工業株式会社 Object recognition device and vehicle
JP2016148514A (en) 2015-02-10 2016-08-18 国立大学法人金沢大学 Mobile object tracking method and mobile object tracking device
JP2017181450A (en) 2016-03-31 2017-10-05 株式会社デンソー Object recognition device and object recognition method
JP2018005390A (en) 2016-06-29 2018-01-11 日産自動車株式会社 Object tracking method and object tracking apparatus
WO2019159494A1 (en) 2018-02-13 2019-08-22 住友電気工業株式会社 Information generation device, information generation method, computer program and on-board device
JP2020052897A (en) 2018-09-28 2020-04-02 株式会社デンソーテン Target detection device and target detection method

Also Published As

Publication number Publication date
JP2022089449A (en) 2022-06-16

Similar Documents

Publication Publication Date Title
EP3196668B1 (en) Object tracking system with radar/vision fusion for automated vehicles
CN104035439B (en) BAYESIAN NETWORK TO TRACK OBJECTS USING SCAN POINTS USING MULTIPLE LiDAR SENSORS
CN111201448B (en) Method and device for generating an inverted sensor model and method for identifying obstacles
JP5835243B2 (en) Target recognition device
US20200086871A1 (en) Control device, scanning system, control method, and program
US9794519B2 (en) Positioning apparatus and positioning method regarding a position of mobile object
US11328516B2 (en) Apparatus and method for associating sensor data in vehicle
CN111060125B (en) Collision detection method and device, computer equipment and storage medium
CN109828250B (en) Radar calibration method, calibration device and terminal equipment
WO2019208271A1 (en) Electronic control device, and computation method
US20230162395A1 (en) Point-Cloud Processing
CN114730004A (en) Object recognition device and object recognition method
CN111612378A (en) Potential collision risk prediction method and device and computer equipment
JP6740470B2 (en) Measuring device, measuring method and program
US11993289B2 (en) Vehicle control system and vehicle control method
JP7366695B2 (en) Object recognition method and object recognition device
JP7474689B2 (en) Object detection method and object detection device
CN112689842B (en) Target detection method and device
CN106885567B (en) Inertial navigation cooperation positioning method and positioning equipment
JP7401273B2 (en) Mobile body control device and method
US20220075053A1 (en) Method and apparatus for sensor data fusion for a vehicle
CN111295566B (en) Object recognition device and object recognition method
CN111596288B (en) Method and device for measuring speed, vehicle-mounted terminal and vehicle-mounted speed measuring system
CN117940800A (en) Method for resolving angular ambiguity in a radar network
CN117677862A (en) Pseudo image point identification method, terminal equipment and computer readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240415

R150 Certificate of patent or registration of utility model

Ref document number: 7474689

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150