[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

WO2020235466A1 - 車両制御システム及び車両制御方法 - Google Patents

車両制御システム及び車両制御方法 Download PDF

Info

Publication number
WO2020235466A1
WO2020235466A1 PCT/JP2020/019403 JP2020019403W WO2020235466A1 WO 2020235466 A1 WO2020235466 A1 WO 2020235466A1 JP 2020019403 W JP2020019403 W JP 2020019403W WO 2020235466 A1 WO2020235466 A1 WO 2020235466A1
Authority
WO
WIPO (PCT)
Prior art keywords
error
vehicle control
sensor
control system
target
Prior art date
Application number
PCT/JP2020/019403
Other languages
English (en)
French (fr)
Inventor
広 土田
尚登 青木
栗山 哲
茂規 早瀬
Original Assignee
日立オートモティブシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日立オートモティブシステムズ株式会社 filed Critical 日立オートモティブシステムズ株式会社
Priority to US17/609,562 priority Critical patent/US11993289B2/en
Priority to DE112020002037.1T priority patent/DE112020002037T5/de
Priority to JP2021520761A priority patent/JP7181997B2/ja
Publication of WO2020235466A1 publication Critical patent/WO2020235466A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level

Definitions

  • the present invention relates to a vehicle control system that estimates the state of an object using information on the object detected by different types of sensors.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2018-97765
  • a radar target indicating an object detected by a radar and an image target indicating an object detected by an imaging device are generated from the same object.
  • the radar target and the image target are integrated to generate a fusion target.
  • the position of the image target used to generate the fusion target in the width direction of the own vehicle is calculated as the lateral position
  • the moving speed of the own vehicle in the width direction is calculated as the lateral speed.
  • the fusion target is not generated because the radar target is acquired but the image target is not acquired
  • the lateral position and lateral speed of the image target used for generating the fusion target are determined.
  • An object detection device that generates a temporary fusion target using a radar target acquired by a radar target acquisition unit is described (see summary).
  • a constant value is used for the observation error of the sensor (radar, imaging device), so that the grouping of the target whose position is estimated from the plurality of sensor values is mistaken, and one object is present in a plurality of objects. It may be mistakenly recognized as an object of.
  • the recognition accuracy may be lowered as a whole because the observation value of the sensor with high accuracy is not selected and the recognition result of the sensor is not integrated.
  • the error of the sensor differs depending on the environment of the outside world, and the influence of the outside world is not taken into consideration.
  • the vehicle control system is provided with an integrated unit that estimates the position, speed, and error information of the target existing in the outside world based on the information from the sensor that acquires the information of the outside world of the own vehicle.
  • the integrated unit estimates an error of the detection result from the detection result of the sensor that detects the outside world of the vehicle, determines the association of the detection results of the plurality of the sensors, and makes the association. It is characterized by integrating the detection results and calculating the error of the position and speed of the target.
  • FIG. 1 is a configuration diagram of a vehicle control system according to an embodiment of the present invention.
  • the vehicle control system of the present embodiment includes the own vehicle behavior recognition sensor D001, the outside world recognition sensor group D002, the positioning system D003, the map unit D004, the input communication network D005, the sensor recognition integrated device D006, the automatic driving plan judgment device D007, and the actuator group. It has D008.
  • the own vehicle behavior recognition sensor D001 includes a gyro sensor, a wheel speed sensor, a steering angle sensor, an acceleration sensor, etc. mounted on the vehicle, and each represents the behavior of the own vehicle, such as yaw rate, wheel speed, steering angle, and acceleration. To measure.
  • the outside world recognition sensor group D002 detects vehicles, people, white lines on roads, signs, etc. outside the own vehicle, and recognizes the information.
  • the positioning system D003 measures the position of the own vehicle.
  • An example of what is used as the positioning system D003 is a satellite positioning system.
  • the map unit D004 selects and outputs map information around the own vehicle.
  • the input communication network D005 acquires information from various information acquisition devices and sends the information to the sensor recognition integrated device D006.
  • the input communication network D005 CAN (Control Area Network), Ethernet, wireless communication, etc., which are networks generally used in in-vehicle systems, are used.
  • the sensor recognition integration device D006 acquires own vehicle behavior information, sensor object information, sensor road information, positioning information, and map information from the input communication network D005, integrates them as information around the own vehicle, and automatically drives a plan judgment device D007. Output to.
  • the automatic operation plan determination device D007 receives the information from the input communication network D005 and the information around the own vehicle from the sensor recognition integrated device D006, plans and determines how to move the own vehicle, and sets the actuator group D008. Output instruction information.
  • the actuator group D008 operates the actuator according to the above command information.
  • the sensor recognition integration device D006 of the present embodiment has an information storage unit D009, a sensor object information integration unit D010, and a vehicle peripheral information integration unit D011.
  • the information storage unit D009 stores information from the input communication network D005 (for example, sensor data measured by the external world recognition sensor group D002), and provides the information to the sensor object information integration unit D010 and the vehicle peripheral information integration unit D011. ..
  • the sensor object information integration unit D010 acquires sensor object information from the information storage unit D009, integrates the same object information detected by a plurality of sensors as the same object, and outputs the integrated object information to the vehicle peripheral information integration unit D011.
  • the vehicle peripheral information integration unit D011 acquires the vehicle behavior information, sensor road information, positioning information, and map information from the information storage unit D009, and integrates them as the vehicle peripheral information and automatically. Output to the operation plan determination device D007.
  • the sensor recognition integrated device D006 is composed of a computer (microcomputer) including an arithmetic unit, a memory, and an input / output device.
  • the arithmetic unit includes a processor and executes a program stored in memory. A part of the processing performed by the arithmetic unit by executing the program may be executed by another arithmetic unit (for example, hardware such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit)).
  • FPGA Field Programmable Gate Array
  • ASIC Application Specific Integrated Circuit
  • the memory includes ROM and RAM which are non-volatile storage elements.
  • the ROM stores an invariant program (for example, BIOS) and the like.
  • RAM is a high-speed and volatile storage element such as DRAM (Dynamic Random Access Memory) and a non-volatile storage element such as SRAM (Static Random Access Memory), and is a program executed by an arithmetic unit and execution of a program. Stores data that is sometimes used.
  • the program executed by the arithmetic unit is stored in a non-volatile storage element which is a non-temporary storage medium of the sensor recognition integrated device D006.
  • the input / output device is an interface for transmitting the processing contents of the sensor recognition integrated device D006 to the outside and receiving data from the outside according to a predetermined protocol.
  • FIG. 2 is a flowchart showing the entire integrated process of this embodiment.
  • the information storage unit D009 stores sensor data.
  • the sensor data is information on an object (target) recognized by various sensors (radar, camera, sonar, etc.) of the external world recognition sensor group D002, and is relative to the recognized object in addition to data on the distance and direction to the object. Includes position, relative velocity, and relative position / velocity data.
  • the relative position / velocity can be represented by a range in which the object exists with a predetermined probability at a predetermined time (for example, a Gaussian distribution type error ellipse).
  • the Gaussian distribution type error ellipse can be represented by the covariance matrix shown in the following equation, and may be represented by another format.
  • the range of existence of an object may be represented by a general distribution other than the Gaussian distribution estimated using a particle filter.
  • the covariance matrix shown in the following equation is composed of an element showing the position correlation, an element showing the velocity correlation, and an element showing the position and velocity correlation.
  • the memory of the sensor object information integration unit D010 stores tracking data indicating the trajectory of the object recognized by various sensors of the external recognition sensor group D002.
  • the sensor object information integration unit D010 estimates the error of the sensor data (S1).
  • This error includes the type of sensor, the position of the object recognized within the recognition range (for example, the error is large if the distance to the object is long, and the error is small for the object recognized in the center of the recognition range). It is determined by the external environment (brightness of the outside world, visibility, rainfall, snowfall, temperature, etc.). Further, when the coordinate systems of the sensor data output by the various sensors of the external world recognition sensor group D002 are different, the error of the sensor data is estimated after converting the plurality of sensor data into one common coordinate system. The details of the error estimation process (S1) will be described later.
  • the sensor object information integration unit D010 updates the prediction data of the tracking data (S2). For example, assuming that the object represented by the tracking data makes a constant velocity linear motion from the previously recognized point without changing the moving direction and velocity, the position of the object at the next time is predicted, and the tracking data is obtained. Update. The details of the prediction data update process (S1) will be described later.
  • the sensor object information integration unit D010 executes a grouping process for grouping the data representing one object among the predicted position using the tracking data and the observation position using the sensor data (S3). For example, the overlap between the error range of the predicted position using the tracking data and the error range of the observed position using the sensor data is determined, and the predicted position and the observed position where the error ranges overlap are grouped as data representing the same object. To do. The details of the grouping process (S3) will be described later.
  • the sensor object information integration unit D010 integrates the observation results using the data determined in the group representing the same object (S4). For example, the predicted positions and observation positions grouped as data representing the same object are weighted averages in consideration of the error of each predicted position and the observation position, and the integrated position of the objects is calculated.
  • the integrated position is output as a fusion result, and the tracking data is further updated (S5).
  • FIG. 3 is a flowchart of the prediction update process of step S2 of FIG. 2, and FIG. 4 is a diagram for explaining the process in each step.
  • the velocity is represented by an arrow
  • the position is represented by a position on the figure
  • the position / relative velocity is represented by an error ellipse.
  • the sensor object information integration unit D010 acquires the first relative velocity Vr_t1_t1, the first relative position X_t1_t1, and the first relative position / relative velocity Pr_t1_t1 of the object around the vehicle at a predetermined time t1 (S21).
  • the relative speed, relative position, and relative position / relative speed are generally represented by a tracking coordinate system (also referred to as a relative coordinate system) based on the vehicle center position of the own vehicle, and the position of the sensor that measures the sensor data. It may be expressed in a coordinate system based on.
  • the sensor object information integration unit D010 converts the relative velocity data of the tracking coordinate system into the absolute velocity data of the stationary coordinate system. For example, using the first relative position X_t1_t1, the first relative velocity Vr_t1_t1 and the first relative position / relative velocity Pr_t1_t1 in the acquired tracking coordinate system are set to the first absolute velocity Va_t1_t1 and the first relative position / absolute velocity in the stationary coordinate system. It is converted to Pa_t1_t1 (S22).
  • the sensor object information integration unit D010 derives the position at time t2 from the position at time t1. For example, with the vehicle position O_t1_t1 as the origin, the first absolute velocity Va_t1_t1 at time t1, the first relative position X_t1_t1 and the first relative position / absolute velocity Pa_t1_t1, the second absolute velocity Va_t2_t1 at time t2, the second relative position X_t2_t1 and It is converted to the second relative position / absolute velocity Pa_t2_t1 (S23).
  • the sensor object information integration unit D010 updates the origin position of the coordinate system from the time t1 to the time t2, that is, updates the coordinate system at the time t1 to the coordinate system at the time t2.
  • the second relative position X_t2_t1 the second absolute velocity Va_t2_t1 and the second relative position / absolute velocity Pa_t2_t1 of the object whose origin is the vehicle position O_t1_t1 at time t1
  • the object whose origin is the vehicle position O_t2_t1 at time t2 It is updated to the second relative position X_t2_t2, the second absolute velocity Va_t2_t2, and the second relative position / absolute velocity Pa_t2_t2 (S24).
  • the measured values of the vehicle speed and yaw rate of the own vehicle are used. Since the measured values of the vehicle speed and the yaw rate include an error, the error range indicated by the second relative position / absolute speed Pa_t2_t2 may be increased in consideration of the error of the vehicle speed and the error of the yaw rate.
  • the sensor object information integration unit D010 converts the absolute velocity data of the stationary coordinate system into the relative velocity data of the tracking coordinate system. For example, using the second relative position X_t2_t2, in the updated coordinate system, the second absolute velocity Va_t2_t2 and the second relative position / absolute velocity Pa_t2_t2 in the stationary coordinate system, the second relative velocity Vr_t2_t2 and the second in the following coordinate system. Convert to relative position / relative velocity Pr_t2_t2 (S25).
  • the relative position / relative velocity (error range) can be calculated more accurately, the grouping performance of the sensor data of the target can be improved, and the judgment performance of the operation plan can be improved. .. Also,
  • the error range of the observed value of the sensor is set to a constant value, and the error range of the predicted update is also a constant value.
  • the error range of the observed value of the sensor A, the error range of the observed value of the sensor B, and the error range of the prediction update result overlap. Therefore, the three targets observed at the observation point 1 are integrated into one and recognized as one object.
  • the three error ranges overlap, but the error range of the observed value of the sensor A and the error range of the predicted update result overlap, and the error range of the observed value of the sensor B and the predicted update result.
  • the three targets are combined into one. It is integrated and recognized as one object.
  • the three targets observed at the observation point 2 are not integrated into one and are recognized as three objects.
  • FIG. 6 is a diagram illustrating the grouping process (S3) of this embodiment.
  • the grouping process is executed using the error range calculated according to the type of the sensor.
  • Sensor A is, for example, a radar that measures the distance and direction to a target, and although the error in the distance direction (vertical direction), which is the direction from the sensor to the target, is small, the rotation direction (horizontal direction) perpendicular to the distance direction ) Is large.
  • the sensor B is, for example, a camera that photographs the outside world, and has a small error in the rotation direction (horizontal direction) but a large error in the distance direction (vertical direction). Therefore, the error range is drawn in consideration of the error characteristics depending on the type of sensor, as shown in FIG.
  • the error range of the observed value of the sensor A and the error range of the observed value of the sensor B are obtained at the observation point 1 as described above (FIG. 5). Since the error range of the prediction update result overlaps, the three targets observed at the observation point 1 are integrated into one and recognized as one object.
  • the observation point 2 the error range of the observed value of the sensor A and the error range of the predicted update result overlap, and the error range of the observed value of the sensor B and the error range of the predicted update result overlap.
  • the three targets observed at observation point 2 are integrated into one and recognized as one object.
  • the error is calculated according to the type and characteristics of the sensor and the error range is set. Therefore, the targets observed by the plurality of sensors can be accurately integrated into one. It can be recognized as one object. That is, the accuracy of the grouping process is improved, and the position of the object outside the vehicle can be accurately observed, so that the vehicle can be controlled accurately.
  • the error may be calculated according to the observation result of the sensor. Therefore, the sensor object information integration unit D010 may determine the error range by using a function with the observation result (for example, the distance to the target) as a parameter. Further, the error range may be determined by using a preset error table instead of the function.
  • the error of the sensor is larger at the detection end than at the center of the detection range. Therefore, it is preferable to reduce the error of the target detected at the center of the detection range and increase the error of the detected target as it approaches the end of the detection displacement.
  • Radar which is a type of sensor, has a small error in the distance direction (vertical direction) and a large error in the rotation direction (horizontal direction), but the error range differs depending on the distance to the target. That is, the error in the rotation direction (horizontal direction) increases in proportion to the distance, and the error in the distance direction (vertical direction) is almost the same regardless of the distance. Further, in a radar having a range switching function, the error in the rotation direction (horizontal direction) becomes large on the wide angle side (short distance side), and the error in the distance direction (vertical direction) is almost the same regardless of the range.
  • a camera which is a type of sensor, has a small error in the rotation direction (horizontal direction) and a large error in the distance direction (vertical direction), but the error range differs depending on the distance to the target. That is, the error in the rotation direction (horizontal direction) increases in proportion to the distance, and the error in the distance direction (vertical direction) increases in proportion to the square of the distance.
  • the error of the sensor is calculated according to the position of the observed target and the error range is set, so that the error of the observed value of the sensor can be accurately obtained.
  • the error is increased, the error is changed depending on the detection direction of the target, the error of the target near the end of the detection range is increased, and the error is increased on the wide-angle side. Therefore, an appropriate error range can be used for the grouping process. Therefore, the targets observed by the plurality of sensors can be accurately integrated and recognized as one object. That is, the accuracy of the grouping process is improved, and the position of the object outside the vehicle can be accurately observed, so that the vehicle can be controlled accurately.
  • the error may be calculated according to the environment of the outside world.
  • the error of the sensor is small in fine weather and large in rainy weather.
  • a camera which is a type of sensor, has a small error in the daytime when the illuminance in the outside world is high, and a large error in the nighttime when the illuminance in the outside world is low.
  • the error is calculated according to the environment outside the vehicle, a more accurate error can be calculated, the accuracy of the grouping process is improved, and the vehicle can be controlled accurately.
  • the present invention is not limited to the above-described examples, but includes various modifications and equivalent configurations within the scope of the attached claims.
  • the above-described examples have been described in detail in order to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to those having all the described configurations.
  • a part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • the configuration of another embodiment may be added to the configuration of one embodiment.
  • other configurations may be added / deleted / replaced with respect to a part of the configurations of each embodiment.
  • each of the above-described configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them by, for example, an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
  • Information such as programs, tables, and files that realize each function can be stored in a memory, a hard disk, a storage device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • SSD Solid State Drive
  • a recording medium such as an IC card, an SD card, or a DVD.
  • control lines and information lines indicate those that are considered necessary for explanation, and do not necessarily indicate all the control lines and information lines that are necessary for implementation. In practice, it can be considered that almost all configurations are interconnected.
  • D001 own vehicle behavior recognition sensor D002 external world recognition sensor group, D003 positioning system, D004 map unit, D005 input communication network, D006 sensor recognition integrated device, D007 automatic operation plan judgment device, D008 actuator group, D009 information storage unit, D010 sensor Object Information Integration Department, D011 Own Vehicle Peripheral Information Integration Department

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

センサの観測値の誤差を正確に求めて、グルーピング処理の精度を向上する。 車両制御システムであって、自車の外界の情報を取得するセンサからの情報に基づいて、外界に存在する物標の位置、速度及びそれらの誤差の情報を推定する統合部を備え、前記統合部は、前記センサの特性に従って、車両の外界を検知するセンサの検知結果から、前記検知結果の誤差を推定し、複数の前記センサの検知結果の対応付けを判定し、前記対応付けられた検知結果を統合して、物標の位置及び速度の誤差を計算する。

Description

車両制御システム及び車両制御方法
 本発明は、異なる種類のセンサが検知した物体の情報を用いて物体の状態を推定する車両制御システムに関する。
 本技術分野の背景技術として、以下の先行技術がある。特許文献1(特開2018-97765号公報)には、レーダが検出した物体を示すレーダ物標と、撮影装置が検出した物体を示す画像物標とが同一の物体から生成されたものである場合には、レーダ物標と画像物標とを統合してフュージョン物標を生成する。そしてフュージョン物標の生成に使用した画像物標の自車両の幅方向の位置を横位置、自車両の幅方向への移動速度を横速度として算出する。そして、レーダ物標が取得される一方で画像物標が取得されなくなることでフュージョン物標が生成されなくなった場合には、フュージョン物標の生成に使用した画像物標の横位置及び横速度と、レーダ物標取得部が取得したレーダ物標とを用いて仮フュージョン物標を生成する物体検出装置が記載されている(要約参照)。
特開2018-97765号公報
 特許文献1に記載された技術では、センサ(レーダ、撮影装置)の観測誤差に一定値を用いるので、複数のセンサ値から位置が推定される物標のグルーピングを誤って、一つの物体が複数の物体であると誤認識することがある。また、センサの種類によって誤差の傾向が異なるが、精度が高いセンサの観測値を選択してセンサの認識結果を統合しておらず、全体として認識精度が低下することがある。さらに、外界の環境によって、センサの誤差が異なり、外界の影響も考慮されていない。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、車両制御システムであって、自車の外界の情報を取得するセンサからの情報に基づいて、外界に存在する物標の位置、速度及びそれらの誤差の情報を推定する統合部を備え、前記統合部は、前記センサの特性に従って、車両の外界を検知するセンサの検知結果から、前記検知結果の誤差を推定し、複数の前記センサの検知結果の対応付けを判定し、前記対応付けられた検知結果を統合して、物標の位置及び速度の誤差を計算することを特徴とする。
 本発明の一態様によれば、センサの観測値の誤差を正確に求めて、グルーピング処理の精度を向上できる。前述した以外の課題、構成及び効果は、以下の実施例の説明によって明らかにされる。
本発明の実施例の車両制御システムの構成図である。 本実施例の統合処理の全体を示すフローチャートである。 ステップS2の予測更新処理のフローチャートである。 ステップS2における処理を説明する図である。 従来のグルーピング処理(S3)を説明する図である。 グルーピング処理(S3)を説明する図である。
 以下、図面を用いて実施例を説明する。
 図1は、本発明の一実施の形態の車両制御システムの構成図である。
 本実施形態の車両制御システムは、自車挙動認識センサD001、外界認識センサ群D002、測位システムD003、地図ユニットD004、入力通信網D005、センサ認識統合装置D006、自動運転計画判断装置D007及びアクチュエータ群D008を有する。自車挙動認識センサD001は、車両に搭載されているジャイロセンサ、車輪速度センサ、舵角センサ、加速度センサ等を含み、それぞれ、自車の挙動を表す、ヨーレート、車輪速度、舵角、加速度等を計測する。外界認識センサ群D002は、自車両の外にある車両、人、道路の白線、標識などを検知して、それらの情報を認識する。車両、人などの物体については、位置、速度、物体種別を認識する。道路の白線については、位置を含めたその形状を認識する。表式については、位置、標識の内容を認識する。外界認識センサ群D002は、レーダ、カメラ、ソナーなどのセンサが用いられる。センサの構成・個数には特に制限はない。測位システムD003は、自車両の位置を測定する。測位システムD003として用いられるものの一例として、衛星測位システムがある。地図ユニットD004は、自車周辺の地図情報を選別し出力する。入力通信網D005は、各種情報取得装置からの情報を取得し、その情報をセンサ認識統合装置D006に送る。入力通信網D005は、車載システムで一般的に使用されているネットワークであるCAN(Controller Area Network)や、Ethernet、無線通信などが利用される。センサ認識統合装置D006は、入力通信網D005から自車挙動情報、センサ物体情報、センサ道路情報、測位情報、地図情報を取得し、それらを自車周辺情報として統合し、自動運転計画判断装置D007に出力する。自動運転計画判断装置D007は、入力通信網D005からの情報と、センサ認識統合装置D006からの自車周辺情報を受信し、自車両をどのように移動するか計画・判断し、アクチュエータ群D008に命令情報を出力する。アクチュエータ群D008は、前記の命令情報に従ってアクチュエータを動作させる。
 本実施形態のセンサ認識統合装置D006は、情報記憶部D009、センサ物体情報統合部D010及び自車周辺情報統合部D011を有する。情報記憶部D009は、入力通信網D005からの情報(例えば、外界認識センサ群D002が測定したセンサデータ)を記憶し、センサ物体情報統合部D010と自車周辺情報統合部D011に情報を提供する。センサ物体情報統合部D010は、情報記憶部D009からセンサ物体情報を取得し、複数のセンサで検知した同一物体の情報を同じものとして統合し、統合物体情報として自車周辺情報統合部D011に出力する。自車周辺情報統合部D011は、前記統合物体情報と、情報記憶部D009からの自車挙動情報、センサ道路情報、測位情報、地図情報を取得し、それらを自車周辺情報として統合して自動運転計画判断装置D007に出力する。
 センサ認識統合装置D006は、演算装置、メモリ及び入出力装置を含む計算機(マイコン)によって構成される。
 演算装置は、プロセッサを含み、メモリに格納されたプログラムを実行する。演算装置がプログラムを実行して行う処理の一部を、他の演算装置(例えば、FPGA(Field Programable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェア)で実行してもよい。
 メモリは、不揮発性の記憶素子であるROM及びRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子、及びSRAM(Static Random Access Memory)のような不揮発性の記憶素子であり、演算装置が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。演算装置が実行するプログラムは、センサ認識統合装置D006の非一時的記憶媒体である不揮発性の記憶素子に格納される。
 入出力装置は、所定のプロトコルに従って、センサ認識統合装置D006による処理内容を外部に送信したり、外部からデータを受信するインターフェースである。
 図2は、本実施例の統合処理の全体を示すフローチャートである。
 情報記憶部D009は、センサデータを格納する。センサデータは、外界認識センサ群D002の各種センサ(レーダ、カメラ、ソナーなど)が認識した物体(物標)の情報であり、物体までの距離及び方向のデータの他、認識された物体の相対位置、相対速度、及び相対位置・速度のデータを含む。相対位置・速度は、所定時刻において、当該物体が所定の確率で存在する範囲(例えば、ガウス分布型の誤差楕円)で表すことができる。ガウス分布型の誤差楕円は下式に示す共分散行列で表すことができ、他の形式で表してもよい。例えば、他の形式として、物体の存在範囲は、粒子フィルタを用いて推定されるガウス分布以外の一般の分布で表してもよい。
 下式に示す共分散行列は、位置の相関を示す要素と、速度の相関を示す要素と、位置と速度の相関を示す要素とで構成されている。
Figure JPOXMLDOC01-appb-M000001
 センサ物体情報統合部D010のメモリは、外界認識センサ群D002の各種センサが認識した物体の軌跡を示すトラッキングデータを格納する。
 統合処理では、まず、センサ物体情報統合部D010が、センサデータの誤差を推定する(S1)。この誤差は、センサの種類や、認識範囲内で認識された物体の位置(例えば、物体までの距離が遠ければ誤差が大きく、認識範囲の中心に認識された物体は誤差が小さい等)や、外部環境(外界の明るさ、視程、降雨、降雪、気温など)によって定められている。また、外界認識センサ群D002の各種センサが出力するセンサデータの座標系が異なる場合、複数のセンサデータを一つの共通座標系に変換した後に、センサデータの誤差を推定する。誤差推定処理(S1)の詳細は後述する。
 一方、センサ物体情報統合部D010は、トラッキングデータの予測データを更新する
(S2)。例えば、トラッキングデータで表される物体が、前回認識された地点から移動方向と速度を変えずに等速直線運動をすると仮定して、次の時刻の当該物体の位置を予測し、トラッキングデータを更新する。予測データ更新処理(S1)の詳細は後述する。
 そして、センサ物体情報統合部D010は、トラッキングデータを用いた予測位置と、センサデータを用いた観測位置のうち、一つの物体を表すデータを一纏めにするグルーピング処理を実行する(S3)。例えば、トラッキングデータを用いた予測位置の誤差範囲と、センサデータを用いた観測位置の誤差範囲との重なりを判定し、誤差範囲が重なっている予測位置及び観測位置を同じ物体を表すデータとしてグルーピングする。グルーピング処理(S3)の詳細は後述する。
 その後、センサ物体情報統合部D010は、同じ物体を表すグループに判定されたデータを用いて、観測結果を統合する(S4)。例えば、同じ物体を表すデータとしてグルーピングされた予測位置及び観測位置を、各予測位置及び観測位置の誤差を考慮した重み付け平均を計算し、物体の統合された位置を計算する。
 その後、統合された位置をフュージョン結果として出力し、さらにトラッキングデータを更新する(S5)。
 図3は、図2のステップS2の予測更新処理のフローチャートであり、図4は、各ステップにおける処理を説明する図である。図4において、速度は矢印で表され、位置は図上の位置で表され、位置・相対速度は誤差楕円で表される。
 まず、センサ物体情報統合部D010は、所定時刻t1における車両周囲の物体の第1相対速度Vr_t1_t1、第1相対位置X_t1_t1及び第1相対位置・相対速度Pr_t1_t1を取得する(S21)。この相対速度、相対位置及び相対位置・相対速度は、一般に自車の車両中心位置を基準とした追従座標系(相対座標系とも称する)で表されるが、当該センサデータを測定したセンサの位置を基準とした座標系で表してもよい。
 次に、センサ物体情報統合部D010は、追従座標系の相対速度データを静止座標系の絶対速度データに変換する。例えば、第1相対位置X_t1_t1を用いて、取得した追従座標系における第1相対速度Vr_t1_t1及び第1相対位置・相対速度Pr_t1_t1を、静止座標系における第1絶対速度Va_t1_t1及び第1相対位置・絶対速度Pa_t1_t1に変換する(S22)。
 その後、センサ物体情報統合部D010は、時刻t1の位置から時刻t2の位置を導出する。例えば、車両の位置O_t1_t1を原点として、時刻t1における第1絶対速度Va_t1_t1、第1相対位置X_t1_t1及び第1相対位置・絶対速度Pa_t1_t1を、時刻t2における第2絶対速度Va_t2_t1、第2相対位置X_t2_t1及び第2相対位置・絶対速度Pa_t2_t1に変換する(S23)。
 その後、センサ物体情報統合部D010は、座標系の原点位置を時刻t1から時刻t2に更新、すなわち時刻t1の座標系から時刻t2の座標系へ更新する。例えば、時刻t1における車両の位置O_t1_t1を原点とした物体の第2相対位置X_t2_t1、第2絶対速度Va_t2_t1及び第2相対位置・絶対速度Pa_t2_t1を、時刻t2における車両の位置O_t2_t1を原点とした物体の第2相対位置X_t2_t2、第2絶対速度Va_t2_t2及び第2相対位置・絶対速度Pa_t2_t2に更新する(S24)。
 時刻t1における原点位置O_t1_t1から時刻t2における原点位置O_t2_t1への変換は、自車の車速及びヨーレートの測定値(すなわち旋回動作)が使用される。
車速及びヨーレートの測定値には誤差が含まれるので、この車速の誤差、ヨーレートの誤差を考慮して、第2相対位置・絶対速度Pa_t2_t2が示す誤差範囲を大きくしてもよい。
 その後、センサ物体情報統合部D010は、静止座標系の絶対速度データを追従座標系の相対速度データに変換する。例えば、第2相対位置X_t2_t2を用いて、更新された座標系において、静止座標系における第2絶対速度Va_t2_t2及び第2相対位置・絶対速度Pa_t2_t2を、追従座標系における第2相対速度Vr_t2_t2及び第2相対位置・相対速度Pr_t2_t2へ変換する(S25)。
 このように、本実施例の予測更新処理によると、相対位置・相対速度(誤差範囲)をより正確に計算でき、物標のセンサデータのグルーピング性能が向上し、運転計画の判定性能を向上できる。また、
 次に、グルーピング処理(S3)の詳細を説明する。
 例えば、図5に示す場合、すなわち、センサA及びセンサBの観測値と予測更新結果とが得られており、センサの観測値の誤差範囲を一定値として、さらに予測更新の誤差範囲も一定値とする場合を考える。観測点1においては、センサAの観測値の誤差範囲とセンサBの観測値の誤差範囲と予測更新結果の誤差範囲とが重なっている。このため、観測点1で観測されている三つの物標は一つに統合されて一つの物体として認識される。なお、図示した観測点1では、三つの誤差範囲が重なっているが、センサAの観測値の誤差範囲と予測更新結果の誤差範囲とが重なり、センサBの観測値の誤差範囲と予測更新結果の誤差範囲とが重なる、すなわち、センサAの観測値の誤差範囲とセンサBの観測値の誤差範囲とが、予測更新結果の誤差範囲を介して重なる場合も、三つの物標は一つに統合されて一つの物体として認識される。一方、観測点2においては、センサAの観測値の誤差範囲とセンサBの観測値の誤差範囲と予測更新結果の誤差範囲とのいずれも重なっていない。
このため、観測点2で観測される三つの物標は一つに統合されず三つの物体として認識される。
 図6は、本実施例のグルーピング処理(S3)を説明する図である。本実施例では、センサの種類に応じて計算された誤差範囲を用いてグルーピング処理を実行する。センサAは、例えば物標までの距離及び方向を測定するレーダであり、センサから物標への向きである距離方向(縦方向)の誤差は小さいが、距離方向と垂直な回転方向(横方向)の誤差は大きい。一方、センサBは、例えば外界を撮影するカメラであり、回転方向(横方向)の誤差は小さいが、距離方向(縦方向)の誤差は大きい。このため、センサの種類による誤差特性を考慮して誤差範囲を描くと図6に示すようになる。このように計算された誤差範囲を用いてグルーピング処理を実行すると、観測点1においては、前述(図5)と同様に、センサAの観測値の誤差範囲とセンサBの観測値の誤差範囲と予測更新結果の誤差範囲とが重なっているので、観測点1で観測されている三つの物標は一つに統合されて一つの物体として認識される。一方、観測点2においては、センサAの観測値の誤差範囲と予測更新結果の誤差範囲とが重なっており、センサBの観測値の誤差範囲と予測更新結果の誤差範囲とが重なっているので、観測点2で観測される三つの物標は一つに統合されて一つの物体として認識される。
 本実施例の誤差推定処理(S1)では、センサの種類や特性に応じて誤差を計算して、誤差範囲を設定するので、複数のセンサで観測された物標を正確に統合して、一つの物体として認識できる。すなわち、グルーピング処理の精度が向上し、車外の物体の位置を正確に観測できることから、車両を正確に制御できる。
 また、本実施例では、センサの観測結果に応じて誤差を計算してもよい。このため、センサ物体情報統合部D010は、観測結果(例えば、物標までの距離)をパラメータとした関数を用いて誤差範囲を定めるとよい。また、関数ではなく、予め設定された誤差テーブルを用いて誤差範囲を定めてもよい。
 例えば、一般にセンサは検知範囲の中心部より検知端の方が誤差が大きい。このため、検知範囲の中心部に検知された物標の誤差を小さくし、検知変位の端部に近づくほど検知された物標の誤差を大きくするとよい。
 また、センサの一種であるレーダは、距離方向(縦方向)の誤差は小さく、回転方向(横方向)の誤差は大きいが、物標までの距離によって誤差範囲が異なる。すなわち、回転方向(横方向)の誤差は距離に比例して大きくなり、距離方向(縦方向)の誤差は距離によらずほぼ同じである。また、レンジ切替機能を有するレーダでは、回転方向(横方向)の誤差は広角側(短距離側)で大きくなり、距離方向(縦方向)の誤差はレンジによらずほぼ同じである。
 また、センサの一種であるカメラは、回転方向(横方向)の誤差は小さく、距離方向(縦方向)の誤差は大きいが、物標までの距離によって誤差範囲が異なる。すなわち、回転方向(横方向)の誤差は距離に比例して大きくなり、距離方向(縦方向)の誤差は距離の二乗に比例して大きくなる。
 このように、本実施例では、観測された物標の位置に応じてセンサの誤差を計算して、誤差範囲を設定するので、センサの観測値の誤差を正確に求めることができる。特に、物標までの距離が大きいと誤差を大きくし、物標の検知方向によって誤差を変え、検知範囲の端部に近い物標の誤差を大きくし、広角側で誤差を大きくする。このため、グルーピング処理に適確な誤差範囲を使用できる。よって、複数のセンサで観測された物標を正確に統合して、一つの物体として認識できる。すなわち、グルーピング処理の精度が向上し、車外の物体の位置を正確に観測できることから、車両を正確に制御できる。
 また、本実施例では、外界の環境に応じて誤差を計算してもよい。例えば、センサの誤差は、晴天では小さく、雨天では大きくなる。また、センサの一種であるカメラは、外界の照度が高い昼間の誤差は小さく、外界の照度が低い夜間の誤差は大きくなる。
 このように、本実施例では、車外の環境に応じて誤差を計算するので、より適確な誤差を計算でき、グルーピング処理の精度が向上し、車両を正確に制御できる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。
また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。
D001 自車挙動認識センサ、D002 外界認識センサ群、D003 測位システム、D004 地図ユニット、D005 入力通信網、D006 センサ認識統合装置、D007 自動運転計画判断装置、D008 アクチュエータ群、D009 情報記憶部、D010 センサ物体情報統合部、D011 自車周辺情報統合部

Claims (10)

  1.  車両制御システムであって、
     自車の外界の情報を取得するセンサからの情報に基づいて、外界に存在する物標の位置、速度及びそれらの誤差の情報を推定する統合部を備え、
     前記統合部は、
     前記センサの特性に従って、車両の外界を検知するセンサの検知結果から、前記検知結果の誤差を推定し、
     複数の前記センサの検知結果の対応付けを判定し、
     前記対応付けられた検知結果を統合して、物標の位置及び速度の誤差を計算することを特徴とする車両制御システム。
  2.  請求項1に記載の車両制御システムであって、
     前記誤差は、確率分布で表されることを特徴とする車両制御システム。
  3.  請求項1に記載の車両制御システムであって、
     前記統合部は、
     前記センサの検知結果を用いずに、前記物標の第1の時刻の位置、速度及びそれらの誤差から、前記第1の時刻より後の第2の時刻の前記物標の位置、速度及びそれらの誤差を予測し、
     前記複数のセンサの検知結果と前記物標の予測位置との対応付けを判定し、
     前記対応付けられた検知結果と前記物標の予測位置とを統合して、物標の位置及び速度の誤差を計算することを特徴とする車両制御システム。
  4.  請求項1に記載の車両制御システムであって、
     前記統合部は、複数の前記センサの検知結果を一つの座標系に変換した後に、前記検知結果の各々の誤差を推定することを特徴とする車両制御システム。
  5.  請求項1に記載の車両制御システムであって、
     前記統合部は、前記物標の位置に従って、前記検知結果の誤差を推定することを特徴とする車両制御システム。
  6.  請求項5に記載の車両制御システムであって、
     前記統合部は、前記物標までの距離が大きくなるに従って、前記検知結果の誤差が増加するように誤差を推定することを特徴とする車両制御システム。
  7.  請求項6に記載の車両制御システムであって、
     前記統合部は、前記検知結果の誤差が前記物標までの距離の二乗に比例するように誤差を推定することを特徴とする車両制御システム。
  8.  請求項1に記載の車両制御システムであって、
     前記統合部は、前記センサの検知範囲の端部に近づくに従って、前記検知結果の誤差が増加するように誤差を推定することを特徴とする車両制御システム。
  9.  請求項1に記載の車両制御システムであって、
     前記統合部は、前記センサの特性が広角側に変化するに従って、前記検知結果の誤差が増加するように誤差を推定することを特徴とする車両制御システム。
  10.  車両制御システムが実行する車両制御方法であって、
     前記車両制御システムは、自車の外界の情報を取得するセンサからの情報に基づいて、外界に存在する物標の位置、速度及びそれらの誤差の情報を推定する統合部を有し、
     前記方法は、
     前記統合部が、前記センサの特性に従って、車両の外界を検知するセンサの検知結果から、前記検知結果の誤差を推定し、
     前記統合部が、複数の前記センサの検知結果の対応付けを判定し、
     前記統合部が、前記対応付けられた検知結果を統合して、物標の位置及び速度の誤差を計算することを特徴とする車両制御方法。
PCT/JP2020/019403 2019-05-23 2020-05-15 車両制御システム及び車両制御方法 WO2020235466A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/609,562 US11993289B2 (en) 2019-05-23 2020-05-15 Vehicle control system and vehicle control method
DE112020002037.1T DE112020002037T5 (de) 2019-05-23 2020-05-15 Fahrzeugsteuersystem und Fahrzeugsteuerverfahren
JP2021520761A JP7181997B2 (ja) 2019-05-23 2020-05-15 車両制御システム及び車両制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-096642 2019-05-23
JP2019096642 2019-05-23

Publications (1)

Publication Number Publication Date
WO2020235466A1 true WO2020235466A1 (ja) 2020-11-26

Family

ID=73458917

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/019403 WO2020235466A1 (ja) 2019-05-23 2020-05-15 車両制御システム及び車両制御方法

Country Status (4)

Country Link
US (1) US11993289B2 (ja)
JP (1) JP7181997B2 (ja)
DE (1) DE112020002037T5 (ja)
WO (1) WO2020235466A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157350A1 (ja) * 2022-02-15 2023-08-24 日立Astemo株式会社 物標算出方法、演算装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12012127B2 (en) * 2019-10-26 2024-06-18 Zoox, Inc. Top-down view object detection and tracking
KR20230011696A (ko) * 2021-07-14 2023-01-25 (주)스마트레이더시스템 레이더를 이용한 타겟 검출 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (ja) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd 車両用外界認識装置
US20060287824A1 (en) * 2005-01-29 2006-12-21 American Gnc Corporation Interruption free navigator
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2016224669A (ja) * 2015-05-29 2016-12-28 株式会社デンソー 運転支援装置、運転支援方法
JP2017220157A (ja) * 2016-06-10 2017-12-14 三菱電機株式会社 物体認識処理装置、物体認識処理方法および自動運転システム
JP2018097765A (ja) * 2016-12-16 2018-06-21 株式会社デンソー 物体検出装置、及び物体検出方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4405940A (en) * 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
EP0631683B1 (en) * 1992-03-20 2001-08-01 Commonwealth Scientific And Industrial Research Organisation An object monitoring system
KR100228068B1 (ko) * 1996-08-30 1999-12-01 김태구 센서의 오차보정방법
ES2252373T3 (es) * 2001-11-23 2006-05-16 Oerlikon Contraves Ag Procedimiento y dispositivo para evaluar los errores de punteria de un sistema de arma y uso del dispositivo.
DE102011087339A1 (de) * 2011-11-29 2012-11-15 Siemens Aktiengesellschaft Verfahren zum Erkennen eines Messfehlers sowie Einrichtung für ein Fahrzeug
WO2017002258A1 (ja) * 2015-07-02 2017-01-05 三菱電機株式会社 経路予測装置
JP6643215B2 (ja) * 2016-09-29 2020-02-12 株式会社デンソー 他車線監視装置
JP7007632B2 (ja) * 2017-08-03 2022-01-24 住友電気工業株式会社 検知装置、検知方法および検知プログラム
JP7018277B2 (ja) * 2017-09-14 2022-02-10 株式会社デンソー 物体検出装置、物体検出方法及び車両制御システム
WO2020235467A1 (ja) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 車両制御システム及び車両制御方法
US20220227387A1 (en) * 2019-07-03 2022-07-21 Hitachi Astemo, Ltd. Vehicle control device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004038640A (ja) * 2002-07-04 2004-02-05 Nissan Motor Co Ltd 車両用外界認識装置
US20060287824A1 (en) * 2005-01-29 2006-12-21 American Gnc Corporation Interruption free navigator
JP2010276529A (ja) * 2009-05-29 2010-12-09 Panasonic Corp 物体同定装置および物体同定方法
JP2016224669A (ja) * 2015-05-29 2016-12-28 株式会社デンソー 運転支援装置、運転支援方法
JP2017220157A (ja) * 2016-06-10 2017-12-14 三菱電機株式会社 物体認識処理装置、物体認識処理方法および自動運転システム
JP2018097765A (ja) * 2016-12-16 2018-06-21 株式会社デンソー 物体検出装置、及び物体検出方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157350A1 (ja) * 2022-02-15 2023-08-24 日立Astemo株式会社 物標算出方法、演算装置

Also Published As

Publication number Publication date
JPWO2020235466A1 (ja) 2020-11-26
US11993289B2 (en) 2024-05-28
DE112020002037T5 (de) 2022-03-24
JP7181997B2 (ja) 2022-12-01
US20220227396A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
WO2020235466A1 (ja) 車両制御システム及び車両制御方法
CN112009484B (zh) 用于确定驾驶辅助数据的方法和系统
US10369993B2 (en) Method and device for monitoring a setpoint trajectory to be traveled by a vehicle for being collision free
JP7190261B2 (ja) 位置推定装置
KR102541560B1 (ko) 객체 인식 방법 및 장치
JP2022087821A (ja) データ融合方法及び装置
CN117056153A (zh) 校准和验证驾驶员辅助系统和/或自动驾驶系统的方法、系统和计算机程序产品
CN111226135A (zh) 用于确定自主驾驶车辆的多个传感器中的传感器的阻挡的方法、系统和计算机程序产品
CN111216707A (zh) 用于控制车辆的自主驾驶的设备和方法
US11100344B2 (en) Image-based three-dimensional lane detection
EP3467545A1 (en) Object classification
CN110745145B (zh) 用于adas的多传感器管理系统
JP7194275B2 (ja) 車両制御システム及び車両制御方法
US20210224616A1 (en) System and method for fusion recognition using active stick filter
US11435191B2 (en) Method and device for determining a highly precise position and for operating an automated vehicle
CN117387647A (zh) 融合车载传感器数据与道路传感器数据的道路规划方法
JP7312856B2 (ja) センサデータを処理するための方法および装置
US20220227358A1 (en) Map-based target heading disambiguation
JP7326429B2 (ja) センサの画像区間の選択方法
CN110998238A (zh) 用于确定高精度位置和用于运行自动化车辆的方法和设备
US20220414151A1 (en) Method for Operating a Surroundings Sensing Device with Grid-Based Evaluation and with Fusion, and Surroundings Sensing Device
JP6861911B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Simon et al. Extracting sensor models from a scene based simulation
KR20190070235A (ko) 비전 기반 위치 추정 기법을 이용한 6-자유도 상대 변위 추정 방법 및 그 장치
US20240104895A1 (en) Data selection

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20808919

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021520761

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20808919

Country of ref document: EP

Kind code of ref document: A1