[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7492453B2 - Vehicle recognition system and method - Google Patents

Vehicle recognition system and method Download PDF

Info

Publication number
JP7492453B2
JP7492453B2 JP2020219640A JP2020219640A JP7492453B2 JP 7492453 B2 JP7492453 B2 JP 7492453B2 JP 2020219640 A JP2020219640 A JP 2020219640A JP 2020219640 A JP2020219640 A JP 2020219640A JP 7492453 B2 JP7492453 B2 JP 7492453B2
Authority
JP
Japan
Prior art keywords
dirt
vehicle
lidar
value
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020219640A
Other languages
Japanese (ja)
Other versions
JP2022104429A (en
Inventor
周作 野田
裕央 高山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2020219640A priority Critical patent/JP7492453B2/en
Priority to CN202111181928.0A priority patent/CN114690162A/en
Publication of JP2022104429A publication Critical patent/JP2022104429A/en
Application granted granted Critical
Publication of JP7492453B2 publication Critical patent/JP7492453B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両用認識システムおよび認識方法に関する。 The present invention relates to a vehicle recognition system and a recognition method.

近年、車両を自動的に制御することについて研究が進められている。車両の自動制御では、車両に取り付けられるLIDAR(Light Detection and Ranging)を用いて、車両から車両周辺の物体までの距離を検出することが行われる。LIDARは、光(或いは光に近い波長の電磁波)を照射して、その散乱光を測定し、発光から受光までの時間に基づいて対象までの距離を計測するものである。そのため、光の照射部や散乱光の受光部に汚れが付着すると計測性能が低下する可能性がある。特許文献1には、距離の計測範囲が変化した場合に、その前後における距離の計測結果に基づいて計測部に対する汚れの付着を推定する技術が記載されている。また、特許文献2には、対象部位に照射した光の反射量に基づいて対象部位に対する汚れの付着を推定する技術が記載されている。また、特許文献3には、距離測定に成功したときに、受光信号のレベルに基づいてレンズ系に対する汚れの付着を推定する技術が記載されている。 In recent years, research has been conducted into automatically controlling vehicles. In automatic vehicle control, a LIDAR (Light Detection and Ranging) attached to the vehicle is used to detect the distance from the vehicle to objects around the vehicle. LIDAR irradiates light (or electromagnetic waves with a wavelength close to that of light), measures the scattered light, and measures the distance to the target based on the time from light emission to light reception. Therefore, if dirt adheres to the light irradiating part or the scattered light receiving part, the measurement performance may be reduced. Patent Document 1 describes a technology that estimates the adhesion of dirt to the measurement part based on the distance measurement results before and after a change in the distance measurement range. Patent Document 2 describes a technology that estimates the adhesion of dirt to a target part based on the amount of reflection of light irradiated to the target part. Patent Document 3 describes a technology that estimates the adhesion of dirt to a lens system based on the level of a light receiving signal when distance measurement is successful.

特開2016-70796号公報JP 2016-70796 A 特開平9-211108号公報Japanese Patent Application Laid-Open No. 9-211108 特開平1-169386号公報Japanese Patent Application Laid-Open No. 1-169386

しかしながら、従来技術では、計測器の汚れ度合いに応じて車両の動作を適切に制御することができない場合があった。例えば、LIDARの汚れ度合いが軽微な場合であっても必要以上に機能が抑制されてしまう可能性があった。 However, with conventional technology, it was sometimes not possible to appropriately control the operation of the vehicle depending on the degree of contamination of the measuring device. For example, even if the degree of contamination of the LIDAR was only slight, there was a possibility that its function would be restricted more than necessary.

本発明は、このような事情を考慮してなされたものであり、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる車両用認識システムおよび認識方法を提供することを目的の一つとする。 The present invention has been made in consideration of these circumstances, and one of its objectives is to provide a vehicle recognition system and recognition method that can prevent the vehicle's control functions from being unnecessarily restricted by the adhesion of dirt to the LIDAR.

この発明に係る車両用認識システムおよび認識方法は、以下の構成を採用した。
(1):この発明の一態様に係る車両用認識システムは、光または光に近い電磁波を用いて物体を検知する車載ライダー装置であって、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出する汚れ検知部を備える車載ライダー装置と、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する汚れ判定部を備える汚れ判定装置と、を備える車両用認識システムである。
The vehicle recognition system and the recognition method according to the present invention employ the following configuration.
(1): A vehicle recognition system according to one embodiment of the present invention is an on-board LIDAR device that detects objects using light or electromagnetic waves similar to light, the on-board LIDAR device having a dirt detection unit that calculates a dirt value indicating the degree of dirt of the device based on the object detection results, for each section into which the object detection range is divided, and a dirt determination device having a dirt determination unit that determines whether or not dirt that should be removed is attached to the on-board LIDAR device, based on the dirt values calculated for each of the sections.

(2):上記(1)の態様において、前記汚れ検知部は、前記車載ライダー装置による前記物体の検知距離および検知点に基づいて前記汚れ値を算出するものである。 (2): In the above aspect (1), the dirt detection unit calculates the dirt value based on the detection distance and detection point of the object by the vehicle-mounted LIDAR device.

(3):上記(1)または(2)の態様において、前記セクションは、前記車載ライダー装置を中心として前記検知範囲を水平方向または垂直方向に複数の領域に分割したものであり、前記汚れ判定部は、前記セクションごとに測定された前記汚れ値と、前記セクションごとに設定された閾値とを比較することにより、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定するものである。 (3): In the above aspect (1) or (2), the sections are obtained by dividing the detection range into a plurality of regions in the horizontal or vertical direction with the vehicle-mounted LIDAR device at the center, and the dirt determination unit determines whether or not dirt that should be removed is attached to the vehicle-mounted LIDAR device by comparing the dirt value measured for each section with a threshold value set for each section.

(4):上記(1)から(3)のいずれか1つの態様において、複数の前記セクションのうち、車両の前方または後方に対応するセクションにはその他の領域よりも低い閾値が設定され、前記車両の横方向に対応するセクションにはその他の領域よりも高い閾値が設定されるものである。 (4): In any one of the above aspects (1) to (3), a lower threshold is set for the section corresponding to the front or rear of the vehicle among the multiple sections, and a higher threshold is set for the section corresponding to the lateral direction of the vehicle, compared to the other areas.

(5):上記(1)から(4)のいずれか1つの態様において、前記物体の検知結果に基づいて車両の運転支援または自動運転を制御する自動運転制御装置をさらに備え、前記自動運転制御装置は、前記汚れ判定部の判定結果に基づいて、前記車載ライダー装置に除去されるべき汚れが付着していることを報知する報知部を備えるものである。 (5): In any one of the above aspects (1) to (4), an automatic driving control device is further provided that controls driving assistance or automatic driving of the vehicle based on the object detection result, and the automatic driving control device is provided with a notification unit that notifies the vehicle-mounted LIDAR device that dirt that should be removed is attached based on the judgment result of the dirt judgment unit.

(6):上記(5)の態様において、前記自動運転制御装置は、前記運転支援または前記自動運転を制御する制御部をさらに備え、前記制御部は、前記汚れ判定部の判定結果に基づいて前記運転支援または前記自動運転の可否を判定するものである。 (6): In the above aspect (5), the automatic driving control device further includes a control unit that controls the driving assistance or the automatic driving, and the control unit determines whether or not the driving assistance or the automatic driving is possible based on the determination result of the contamination determination unit.

(7):この発明の一態様に係る認識方法は、光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、汚れ判定装置が、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、認識方法である。 (7): A recognition method according to one aspect of the present invention is a recognition method in which an in-vehicle LIDAR device that detects an object using light or electromagnetic waves similar to light calculates a dirt value indicating the degree of dirt on the device based on the detection result of the object for each section obtained by dividing the detection range of the object into multiple sections, and a dirt determination device determines whether or not dirt that should be removed is attached to the in-vehicle LIDAR device based on the dirt value calculated for each of the multiple sections.

(1)~(7)によれば、光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、汚れ判定装置が、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定することにより、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる。 According to (1) to (7), an in-vehicle LIDAR device that detects objects using light or electromagnetic waves similar to light calculates a dirt value indicating the degree of dirt of the device for each section obtained by dividing the detection range of the object into a plurality of sections based on the detection result of the object, and a dirt determination device determines whether or not dirt that should be removed is attached to the in-vehicle LIDAR device based on the dirt value calculated for each of the plurality of sections, thereby preventing the control function of the vehicle from being unnecessarily suppressed due to the attachment of dirt to the LIDAR.

第1実施形態に係る車両制御装置を利用した車両システムの構成図である。1 is a configuration diagram of a vehicle system using a vehicle control device according to a first embodiment. 第1実施形態に係る第1制御部および第2制御部の機能構成図である。FIG. 2 is a functional configuration diagram of a first control unit and a second control unit according to the first embodiment. 第1実施形態の車両システムにおいて自車両に搭載されるLIDARの検知範囲の一例を示す図である。FIG. 2 is a diagram showing an example of a detection range of a LIDAR mounted on a host vehicle in the vehicle system of the first embodiment. 第1実施形態の車両システムにおいて自車両に搭載されるLIDARの検知範囲の一例を示す図である。FIG. 2 is a diagram showing an example of a detection range of a LIDAR mounted on a host vehicle in the vehicle system of the first embodiment. 第1実施形態における閾値情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of threshold information in the first embodiment. 第2実施形態に係る車両制御装置を利用した車両システムの構成図である。FIG. 11 is a configuration diagram of a vehicle system using a vehicle control device according to a second embodiment. 第2実施形態における条件情報の一例を示す図である。FIG. 11 is a diagram illustrating an example of condition information according to the second embodiment. 第2実施形態の物体認識装置において、汚れ判定部が汚れフラグを管理する方法の一例を示すフローチャートである。13 is a flowchart illustrating an example of a method by which a dirt determination unit manages a dirt flag in an object recognition device according to a second embodiment.

以下、図面を参照し、本発明の車両用認識システムおよび認識方法の実施形態について説明する。 Below, an embodiment of the vehicle recognition system and recognition method of the present invention will be described with reference to the drawings.

<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両制御装置を利用した車両システム1Aの構成図である。車両システム1Aが搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
First Embodiment
[overall structure]
1 is a configuration diagram of a vehicle system 1A using a vehicle control device according to a first embodiment. The vehicle on which the vehicle system 1A is mounted is, for example, a two-wheeled, three-wheeled, or four-wheeled vehicle, and its drive source is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination of these. The electric motor operates using electric power generated by a generator connected to the internal combustion engine, or discharged electric power from a secondary battery or a fuel cell.

車両システム1Aは、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14Aと、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。 The vehicle system 1A includes, for example, a camera 10, a radar device 12, a LIDAR (Light Detection and Ranging) 14A, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, a navigation device 50, an MPU (Map Positioning Unit) 60, a driving operator 80, an automatic driving control device 100, a driving force output device 200, a brake device 210, and a steering device 220. These devices and equipment are connected to each other by multiple communication lines such as a CAN (Controller Area Network) communication line, serial communication lines, wireless communication networks, etc. Note that the configuration shown in FIG. 1 is merely an example, and some of the configuration may be omitted, or other configurations may be added.

カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1Aが搭載される車両(以下、自車両)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両の周辺を撮像する。カメラ10は、ステレオカメラであってもよい。 The camera 10 is, for example, a digital camera that uses a solid-state imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The camera 10 is attached to any location of the vehicle (hereinafter, the host vehicle) in which the vehicle system 1A is mounted. When capturing an image of the front, the camera 10 is attached to the top of the front windshield, the back of the rearview mirror, or the like. The camera 10, for example, periodically and repeatedly captures images of the surroundings of the host vehicle. The camera 10 may be a stereo camera.

レーダ装置12は、自車両の周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両の任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。 The radar device 12 emits radio waves such as millimeter waves around the vehicle and detects radio waves reflected by objects (reflected waves) to detect at least the position (distance and direction) of the object. The radar device 12 is attached to any location on the vehicle. The radar device 12 may detect the position and speed of an object using the FM-CW (Frequency Modulated Continuous Wave) method.

LIDAR14Aは、自車両の周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。例えば、LIDAR14Aは、赤外光を照射する。LIDAR14Aは、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14Aは、自車両の任意の箇所に取り付けられる。 The LIDAR 14A irradiates light (or electromagnetic waves with a wavelength close to that of light) around the vehicle and measures the scattered light. For example, the LIDAR 14A irradiates infrared light. The LIDAR 14A detects the distance to the target based on the time between emitting and receiving the light. The irradiated light is, for example, a pulsed laser light. The LIDAR 14A can be attached to any location on the vehicle.

また、本実施形態におけるLIDAR14Aは、上記の基本的な機能(以下「LIDAR機能」という。)に加えて、発光部または受光部に付着した汚れ(以下「LIDAR汚れ」という。)を検知する機能と、各LIDAR14Aについて汚れの程度を判断し、汚れフラグを出力する機能とを有する。汚れフラグは、各LIDAR14AがLIDAR汚れの除去を必要とする状態(以下「汚れ状態」という。)にあるか否かを示すフラグである。これらの機能を実現するため、本実施形態におけるLIDAR14Aは、汚れ検知部151および汚れ判定部152Aを備えるとともに、閾値情報153を記憶している。 In addition to the above basic functions (hereinafter referred to as "LIDAR functions"), the LIDAR 14A in this embodiment has a function to detect dirt attached to the light-emitting unit or the light-receiving unit (hereinafter referred to as "LIDAR dirt"), and a function to determine the degree of dirt for each LIDAR 14A and output a dirt flag. The dirt flag is a flag that indicates whether or not each LIDAR 14A is in a state that requires removal of LIDAR dirt (hereinafter referred to as "dirty state"). To realize these functions, the LIDAR 14A in this embodiment is equipped with a dirt detection unit 151 and a dirt determination unit 152A, and stores threshold information 153.

汚れ検知部151および汚れ判定部152Aは、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ検知部151および汚れ判定部152Aの一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めLIDAR14AのHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでLIDAR14AのHDDやフラッシュメモリにインストールされてもよい。 The dirt detection unit 151 and the dirt determination unit 152A are realized, for example, by a hardware processor such as a CPU executing a program (software). In addition, part or all of the dirt detection unit 151 and the dirt determination unit 152A may be realized by hardware (including circuitry) such as an LSI, ASIC, FPGA, or GPU, or may be realized by a combination of software and hardware. The program may be stored in advance in a storage device (storage device having a non-transient storage medium) such as an HDD or flash memory of the LIDAR 14A, or may be stored in a removable storage medium such as a DVD or CD-ROM, and installed in the HDD or flash memory of the LIDAR 14A by mounting the storage medium (non-transient storage medium) in a drive device.

汚れ検知部151は、LIDAR機能による距離(反射点)の検知結果と、距離検知の際に観測された反射光の強度(以下「反射強度」という。)とに基づいてLIDAR汚れを検知するものである。なお、反射点は「検知点」の一例である。 The dirt detection unit 151 detects LIDAR dirt based on the distance (reflection point) detection results using the LIDAR function and the intensity of reflected light observed during distance detection (hereinafter referred to as "reflection intensity"). Note that the reflection point is an example of a "detection point."

汚れ検知部151は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ検知部151は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めLIDAR14AのHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでLIDAR14AのHDDやフラッシュメモリにインストールされてもよい。LIDAR14Aは「車載ライダー装置」の一例である。 The dirt detection unit 151 is realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). The dirt detection unit 151 may be realized by hardware (including circuitry) such as an LSI (Large Scale Integration), an ASIC (Application Specific Integrated Circuit), an FPGA (Field-Programmable Gate Array), or a GPU (Graphics Processing Unit), or may be realized by collaboration between software and hardware. The program may be stored in advance in a storage device (storage device having a non-transient storage medium) such as an HDD or flash memory of the LIDAR 14A, or may be stored in a removable storage medium such as a DVD or CD-ROM, and may be installed in the HDD or flash memory of the LIDAR 14A by mounting the storage medium (non-transient storage medium) in a drive device. The LIDAR 14A is an example of an "on-vehicle LIDAR device".

具体的には、汚れ検知部151は、LIDAR機能による検知結果と、反射強度とに基づいてLIDAR汚れの度合いを示す指標値(以下「汚れ値」という。)を算出する。なお、汚れ値は、LIDAR汚れの度合いを示すものであればどのような値であってもよいし、どのような方法で算出されてもよい。例えば、汚れ検知部151は、LIDAR14A近傍の反射点の数、反射点までの距離、および反射強度に基づいて汚れ値を算出する。汚れ検知部151は、LIDAR14Aの水平方向の検知範囲を所定数に分割した領域ごとに汚れ値を算出する。以下では、検知範囲を分割した所定数に分割した各領域をセクションといい、本実施形態では、各LIDAR14Aの検知範囲を10個のセクションに分割する場合について説明する。汚れ検知部151は、算出した汚れ値を汚れ判定部152Aに通知する。 Specifically, the dirt detection unit 151 calculates an index value (hereinafter referred to as a "dirt value") indicating the degree of LIDAR dirt based on the detection result by the LIDAR function and the reflection intensity. The dirt value may be any value indicating the degree of LIDAR dirt, and may be calculated by any method. For example, the dirt detection unit 151 calculates the dirt value based on the number of reflection points near the LIDAR 14A, the distance to the reflection points, and the reflection intensity. The dirt detection unit 151 calculates the dirt value for each region obtained by dividing the horizontal detection range of the LIDAR 14A into a predetermined number. In the following, each region obtained by dividing the detection range into a predetermined number is called a section, and in this embodiment, a case will be described in which the detection range of each LIDAR 14A is divided into 10 sections. The dirt detection unit 151 notifies the dirt determination unit 152A of the calculated dirt value.

汚れ判定部152Aは、汚れ検知部151から通知された汚れ値と閾値情報153とを比較することにより、LIDAR14Aが汚れ状態にあるか否かを判定する。ここで、閾値情報153は、LIDAR14Aが汚れ状態にあるか否かを判定する際に用いられる情報であり、汚れ値の閾値を示す情報である。以下、この判定を「汚れ判定」という。汚れ判定部152Aは、汚れ判定の結果に応じて汚れフラグを更新し、更新した汚れフラグの値を物体認識装置16に通知する。例えば、汚れ判定部152Aは、LIDAR14Aが汚れ状態にあると判定した場合に汚れフラグを立て(汚れフラグの値を1にする)、LIDAR14Aが汚れ状態にないと判定した場合に汚れフラグを下げる(汚れフラグの値を0にする)。 The dirt determination unit 152A compares the dirt value notified from the dirt detection unit 151 with the threshold information 153 to determine whether the LIDAR 14A is in a dirty state. Here, the threshold information 153 is information used when determining whether the LIDAR 14A is in a dirty state, and is information indicating the threshold value of the dirt value. Hereinafter, this determination is referred to as "dirt determination." The dirt determination unit 152A updates the dirt flag according to the result of the dirt determination, and notifies the object recognition device 16 of the updated dirt flag value. For example, the dirt determination unit 152A sets the dirt flag when it determines that the LIDAR 14A is in a dirty state (sets the dirt flag value to 1), and lowers the dirt flag when it determines that the LIDAR 14A is not in a dirty state (sets the dirt flag value to 0).

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14Aのうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、LIDAR14Aから通知された汚れフラグの値を自動運転制御装置100に通知する。 The object recognition device 16 performs sensor fusion processing on the detection results from some or all of the camera 10, the radar device 12, and the LIDAR 14A to recognize the position, type, speed, etc. of the object. The object recognition device 16 outputs the recognition result to the autonomous driving control device 100. The object recognition device 16 also notifies the autonomous driving control device 100 of the value of the dirt flag notified by the LIDAR 14A.

通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両の周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。 The communication device 20 communicates with other vehicles in the vicinity of the vehicle using, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), or DSRC (Dedicated Short Range Communication), or communicates with various server devices via a wireless base station.

HMI30は、自車両の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。例えば、HMI30は、自動運転制御装置100の指示により、LIDAR14Aが汚れ状態にあることを報知する動作(以下「汚れ報知動作」という。)を行う。例えば、HMI30は、LIDAR汚れの除去を促すメッセージの表示や音声出力などの動作を汚れ報知動作として行う。 The HMI 30 presents various information to the vehicle occupants and accepts input operations by the occupants. The HMI 30 includes various display devices, speakers, buzzers, touch panels, switches, keys, etc. For example, the HMI 30 performs an operation to notify the driver that the LIDAR 14A is dirty (hereinafter referred to as a "dirt notification operation") in response to an instruction from the automatic driving control device 100. For example, the HMI 30 performs an operation such as displaying a message or outputting a voice to encourage the driver to remove LIDAR dirt as the dirt notification operation.

車両センサ40は、自車両の速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両の向きを検出する方位センサ等を含む。 The vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects acceleration, a yaw rate sensor that detects the angular velocity around a vertical axis, and a direction sensor that detects the direction of the vehicle.

ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両の位置を特定する。自車両の位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両の位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。 The navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a route determination unit 53. The navigation device 50 holds first map information 54 in a storage device such as a HDD (Hard Disk Drive) or a flash memory. The GNSS receiver 51 identifies the position of the vehicle based on a signal received from a GNSS satellite. The position of the vehicle may be identified or complemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40. The navigation HMI 52 includes a display device, a speaker, a touch panel, a key, and the like. The navigation HMI 52 may be partially or entirely shared with the above-mentioned HMI 30. The route determination unit 53 determines, for example, a route (hereinafter, a route on a map) from the position of the vehicle identified by the GNSS receiver 51 (or any input position) to a destination input by the occupant using the navigation HMI 52, by referring to the first map information 54. The first map information 54 is, for example, information in which road shapes are expressed by links indicating roads and nodes connected by the links. The first map information 54 may also include road curvature and POI (Point Of Interest) information. The route on the map is output to the MPU 60. The navigation device 50 may perform route guidance using the navigation HMI 52 based on the route on the map. The navigation device 50 may be realized by the functions of a terminal device such as a smartphone or tablet terminal owned by the occupant. The navigation device 50 may transmit the current position and destination to a navigation server via the communication device 20 and obtain a route equivalent to the route on the map from the navigation server.

MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両が、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。 The MPU 60 includes, for example, a recommended lane determination unit 61, and stores second map information 62 in a storage device such as an HDD or flash memory. The recommended lane determination unit 61 divides the route on the map provided by the navigation device 50 into a number of blocks (for example, every 100 m in the vehicle travel direction), and determines a recommended lane for each block by referring to the second map information 62. The recommended lane determination unit 61 determines, for example, which lane from the left the vehicle should travel in. When there is a branch point on the route on the map, the recommended lane determination unit 61 determines the recommended lane so that the vehicle can travel a reasonable route to proceed to the branch point.

第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。 The second map information 62 is map information with higher accuracy than the first map information 54. The second map information 62 includes, for example, information on the center of lanes or information on lane boundaries. The second map information 62 may also include road information, traffic regulation information, address information (address and zip code), facility information, telephone number information, and the like. The second map information 62 may be updated at any time by the communication device 20 communicating with other devices.

運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステアリングホイール、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。 The driving operators 80 include, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, an irregular steering wheel, a joystick, and other operators. The driving operators 80 are fitted with sensors that detect the amount of operation or the presence or absence of operation, and the detection results are output to the automatic driving control device 100, or some or all of the driving force output device 200, the brake device 210, and the steering device 220.

自動運転制御装置100は、自車両の自動運転(運転支援を含む)を制御する装置である。自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、報知制御部180とを備える。第1制御部120、第2制御部160、および報知制御部180は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。なお、HMI30と報知制御部180を組み合わせたものが「報知部」の一例である。 The automatic driving control device 100 is a device that controls automatic driving (including driving assistance) of the vehicle. The automatic driving control device 100 includes, for example, a first control unit 120, a second control unit 160, and a notification control unit 180. The first control unit 120, the second control unit 160, and the notification control unit 180 are each realized by, for example, a hardware processor such as a CPU executing a program (software). In addition, some or all of these components may be realized by hardware (including circuitry) such as an LSI, ASIC, FPGA, or GPU, or may be realized by cooperation between software and hardware. The program may be stored in advance in a storage device (storage device having a non-transient storage medium) such as an HDD or flash memory of the automatic driving control device 100, or may be stored in a removable storage medium such as a DVD or CD-ROM, and may be installed in the HDD or flash memory of the automatic driving control device 100 by attaching the storage medium (non-transient storage medium) to a drive device. The combination of the HMI 30 and the notification control unit 180 is an example of an "notification unit."

図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。 FIG. 2 is a functional configuration diagram of the first control unit 120 and the second control unit 160. The first control unit 120 includes, for example, a recognition unit 130 and an action plan generation unit 140. The first control unit 120 realizes, for example, a function based on AI (Artificial Intelligence) and a function based on a pre-given model in parallel. For example, the function of "recognizing an intersection" may be realized by executing recognition of an intersection by deep learning or the like and recognition based on pre-given conditions (such as traffic lights and road markings that can be pattern matched) in parallel, and scoring both and evaluating them comprehensively. This ensures the reliability of autonomous driving.

認識部130は、カメラ10、レーダ装置12、およびLIDAR14Aから物体認識装置16を介して入力された情報に基づいて、自車両の周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両の代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。 The recognition unit 130 recognizes the position, speed, acceleration, and other states of objects around the vehicle based on information input from the camera 10, the radar device 12, and the LIDAR 14A via the object recognition device 16. The position of an object is recognized as a position on an absolute coordinate system with a representative point of the vehicle (such as the center of gravity or the center of the drive shaft) as the origin, and is used for control. The position of an object may be represented by a representative point such as the center of gravity or a corner of the object, or may be represented by a represented area. The "state" of an object may include the acceleration or jerk of the object, or the "behavioral state" (for example, whether or not the object is changing lanes or is about to change lanes).

また、認識部130は、例えば、自車両が走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両の周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両の位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。 The recognition unit 130 also recognizes, for example, the lane in which the vehicle is traveling (driving lane). For example, the recognition unit 130 recognizes the driving lane by comparing the pattern of road dividing lines (for example, an arrangement of solid lines and dashed lines) obtained from the second map information 62 with the pattern of road dividing lines around the vehicle recognized from the image captured by the camera 10. Note that the recognition unit 130 may recognize the driving lane by recognizing road boundaries (road boundaries) including road dividing lines, shoulders, curbs, medians, guardrails, etc., in addition to road dividing lines. In this recognition, the position of the vehicle obtained from the navigation device 50 and the processing results by the INS may be taken into account. The recognition unit 130 also recognizes stop lines, obstacles, red lights, toll booths, and other road phenomena.

認識部130は、走行車線を認識する際に、走行車線に対する自車両の位置や姿勢を認識する。認識部130は、例えば、自車両の基準点の車線中央からの乖離、および自車両の進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両の相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両の基準点の位置などを、走行車線に対する自車両の相対位置として認識してもよい。 When recognizing the driving lane, the recognition unit 130 recognizes the position and attitude of the host vehicle relative to the driving lane. For example, the recognition unit 130 may recognize the deviation of the host vehicle's reference point from the center of the lane and the angle with respect to a line connecting the centers of the lanes in the host vehicle's traveling direction as the relative position and attitude of the host vehicle relative to the driving lane. Alternatively, the recognition unit 130 may recognize the position of the host vehicle's reference point relative to either side end of the driving lane (a road dividing line or a road boundary) as the relative position of the host vehicle relative to the driving lane.

行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両の周辺状況に対応できるように、自車両が自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両の到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。 In principle, the action plan generation unit 140 drives the recommended lane determined by the recommended lane determination unit 61, and further generates a target trajectory along which the vehicle will automatically (without the driver's operation) drive in the future so that the vehicle can respond to the surrounding conditions of the vehicle. The target trajectory includes, for example, a speed element. For example, the target trajectory is expressed as a sequence of points (trajectory points) to be reached by the vehicle. The trajectory points are points to be reached by the vehicle at each predetermined driving distance (for example, about several meters) along the road, and separately, the target speed and target acceleration for each predetermined sampling time (for example, about a few tenths of a second) are generated as part of the target trajectory. The trajectory points may also be the positions to be reached by the vehicle at each sampling time for each predetermined sampling time. In this case, the information on the target speed and target acceleration is expressed as the interval between the trajectory points.

行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。 The behavior plan generation unit 140 may set an autonomous driving event when generating the target trajectory. Autonomous driving events include a constant speed driving event, a low speed following driving event, a lane change event, a branching event, a merging event, and a takeover event. The behavior plan generation unit 140 generates a target trajectory according to the activated event.

第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両が通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。 The second control unit 160 controls the driving force output device 200, the brake device 210, and the steering device 220 so that the vehicle passes through the target trajectory generated by the action plan generation unit 140 at the scheduled time.

なお、第1制御部120または第2制御部160は、汚れ判定部152Aの判定結果に基づいて運転支援または自動運転の可否を判定し、その判定結果に基づいて運転支援または自動運転に関する処理の実行、一時停止、停止、再開、終了等を判定するように構成されてもよい。 The first control unit 120 or the second control unit 160 may be configured to determine whether driving assistance or automatic driving is possible based on the determination result of the dirt determination unit 152A, and to determine whether to execute, temporarily suspend, stop, resume, end, etc., processing related to driving assistance or automatic driving based on the determination result.

図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両の前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。 Returning to FIG. 2, the second control unit 160 includes, for example, an acquisition unit 162, a speed control unit 164, and a steering control unit 166. The acquisition unit 162 acquires information on the target trajectory (trajectory points) generated by the action plan generation unit 140 and stores it in a memory (not shown). The speed control unit 164 controls the driving force output device 200 or the brake device 210 based on the speed element associated with the target trajectory stored in the memory. The steering control unit 166 controls the steering device 220 according to the curvature of the target trajectory stored in the memory. The processing of the speed control unit 164 and the steering control unit 166 is realized, for example, by a combination of feedforward control and feedback control. As an example, the steering control unit 166 executes a combination of feedforward control according to the curvature of the road ahead of the vehicle and feedback control based on the deviation from the target trajectory.

図1に戻り、報知制御部180は、物体認識装置16を介してLIDAR14Aから通知される汚れフラグの値に応じて、HMI30に汚れ報知動作を指示する機能を有する。例えば、報知制御部180は、汚れフラグの値として1が通知された場合に、HMI30に対して汚れ報知動作を指示し、汚れフラグの値として0が通知された場合には、HMI30に対して汚れ報知動作を指示しない。 Returning to FIG. 1, the notification control unit 180 has a function of instructing the HMI 30 to perform a dirt notification operation according to the value of the dirt flag notified by the LIDAR 14A via the object recognition device 16. For example, when the notification control unit 180 is notified of a dirt flag value of 1, it instructs the HMI 30 to perform a dirt notification operation, and when the notification control unit 180 is notified of a dirt flag value of 0, it does not instruct the HMI 30 to perform a dirt notification operation.

走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。 The driving force output device 200 outputs a driving force (torque) to the drive wheels for the vehicle to travel. The driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, and a transmission, and an ECU (Electronic Control Unit) that controls these. The ECU controls the above configuration according to information input from the second control unit 160 or information input from the driving operator 80.

ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。 The brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU. The brake ECU controls the electric motor according to information input from the second control unit 160 or information input from the driving operation unit 80, so that a brake torque corresponding to the braking operation is output to each wheel. The brake device 210 may include a backup mechanism that transmits hydraulic pressure generated by operating the brake pedal included in the driving operation unit 80 to the cylinder via a master cylinder. Note that the brake device 210 is not limited to the configuration described above, and may be an electronically controlled hydraulic brake device that controls an actuator according to information input from the second control unit 160 to transmit hydraulic pressure from the master cylinder to the cylinder.

ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。 The steering device 220 includes, for example, a steering ECU and an electric motor. The electric motor changes the direction of the steered wheels by, for example, applying a force to a rack and pinion mechanism. The steering ECU drives the electric motor according to information input from the second control unit 160 or information input from the driving operator 80, to change the direction of the steered wheels.

図3Aおよび図3Bは、第1実施形態の車両システム1Aにおいて自車両Mに搭載されるLIDAR14Aの検知範囲の一例を示す図である。図3Aおよび図3Bは、自車両Mの前右部、前左部、後中央部、後右部、後左部にそれぞれ1つずつ設けられた、計5つのLIDAR14Aの検知範囲を示している。図3Aにおいて、LIDAR14A-FRは前右部のLIDAR14Aを表し、LIDAR14A-FLは前左部のLIDARを表す。また、図3Bにおいて、LIDAR14A-RRは後右部のLIDARを表し、LIDAR14A-RLは後左部のLIDAR14Aを表し、LIDAR14A-RCは後中央部のLIDAR14Aを表す。なお以下では、図3Aおよび図3Bを区別しない場合、両者をまとめて図3という場合がある。 3A and 3B are diagrams showing an example of the detection range of the LIDAR 14A mounted on the vehicle M in the vehicle system 1A of the first embodiment. FIG. 3A and FIG. 3B show the detection ranges of a total of five LIDARs 14A, one each provided in the front right, front left, rear center, rear right, and rear left of the vehicle M. In FIG. 3A, LIDAR 14A-FR represents the LIDAR 14A in the front right portion, and LIDAR 14A-FL represents the LIDAR in the front left portion. Also, in FIG. 3B, LIDAR 14A-RR represents the LIDAR in the rear right portion, LIDAR 14A-RL represents the LIDAR 14A in the rear left portion, and LIDAR 14A-RC represents the LIDAR 14A in the rear center portion. In the following, when there is no distinction between FIG. 3A and FIG. 3B, both may be collectively referred to as FIG. 3.

図3において、検知範囲DR-FR、DR-FL、DR-RR、DR-RL、DR-RCは、それぞれ、前右部、前左部、後中央部、後右部、後左部のLIDAR14A-FR、LIDAR14A-FL、LIDAR14A-RR、LIDAR14A-RL、LIDAR14A-RCの検知範囲を表している。 In Figure 3, the detection ranges DR-FR, DR-FL, DR-RR, DR-RL, and DR-RC represent the detection ranges of LIDAR14A-FR, LIDAR14A-FL, LIDAR14A-RR, LIDAR14A-RL, and LIDAR14A-RC in the front right, front left, rear center, rear right, and rear left, respectively.

なお、上述のとおり、本実施形態の車両システム1Aにおいて、汚れ値の算出は、各LIDAR14Aの検知範囲を10分割したセクションごとに行われる。具体的には、検出範囲DR-FRはセクションFR01~FR10に分割され、検出範囲DR-FLはセクションFL01~FL10に分割され、検出範囲DR-RRはセクションRR01~RR10に分割され、検出範囲DR-RLはセクションRL01~RL10に分割され、検出範囲DR-RCはセクションRC01~RC10に分割される。 As described above, in the vehicle system 1A of this embodiment, the contamination value is calculated for each of the 10 sections obtained by dividing the detection range of each LIDAR 14A. Specifically, the detection range DR-FR is divided into sections FR01 to FR10, the detection range DR-FL is divided into sections FL01 to FL10, the detection range DR-RR is divided into sections RR01 to RR10, the detection range DR-RL is divided into sections RL01 to RL10, and the detection range DR-RC is divided into sections RC01 to RC10.

ところで、車両の自動運転制御においては、一般に、自車両Mの真正面、真後ろ、および左右斜め後方における距離検知が重要となり、これらの方向の距離検知に関しては他の領域よりも比較的に高い検知精度が求められる。このため、これらの方向の検知に使用されるLIDAR14Aについては、汚れの度合いが比較的軽度であるうちにLIDAR汚れが解消されることが望ましい。そこで、本実施形態の車両システム1Aでは、各検出範囲のセクションごとに汚れ判定の閾値を設定する。これにより、局所的なLIDAR汚れが検出可能になるとともに、優先度の高いセクションのLIDAR汚れを比較的早い段階で検出することが可能となる。 In the case of autonomous vehicle driving control, distance detection directly in front of the vehicle M, directly behind the vehicle M, and diagonally to the left and right is generally important, and relatively higher detection accuracy is required for distance detection in these directions than in other areas. For this reason, it is desirable to eliminate LIDAR dirt from the LIDAR 14A used for detection in these directions while the degree of dirt is still relatively light. Therefore, in the vehicle system 1A of this embodiment, a dirt judgment threshold is set for each section of each detection range. This makes it possible to detect localized LIDAR dirt and to detect LIDAR dirt in high-priority sections at a relatively early stage.

なお、図3に例示した各LIDAR14Aの検知範囲の向きや、各検知範囲を構成するセクションの数などは一例であり、必要に応じて図3と異なる態様に変更されてもよい。また、自車両Mに設置されるLIDAR14Aの数や設置位置も図3と異なる態様に変更されてよい。例えば、検知範囲は11以上のセクションに分割されてもよいし、9以下のセクションに分割されてもよい。また、検知範囲は水平方向だけでなく垂直方向に分割されてもよいし、垂直方向にのみ分割されてもよい。また、例えば、複数のLIDAR14Aは、それぞれの検知範囲が所定の軸(例えば、車両の中心軸や進行方向)に対して左右対称または上下対称となるように設けられてもよいし、非対称となるように設けられてもよい。 The orientation of the detection range of each LIDAR 14A illustrated in FIG. 3 and the number of sections constituting each detection range are merely examples, and may be changed to a different form from FIG. 3 as necessary. The number and installation positions of the LIDAR 14A installed on the vehicle M may also be changed to a different form from FIG. 3. For example, the detection range may be divided into 11 or more sections, or into 9 or fewer sections. The detection range may be divided not only horizontally but also vertically, or may be divided only vertically. For example, the multiple LIDARs 14A may be provided so that their respective detection ranges are symmetrical left-right or up-down with respect to a predetermined axis (for example, the central axis or traveling direction of the vehicle), or may be provided so that they are asymmetrical.

図4は、第1実施形態における閾値情報153の一例を示す図である。例えば、閾値情報153は、図4に示されるように、各セクションのセクションIDと、各セクションの汚れ判定における汚れ値の閾値との対応関係を示すテーブルとしてLIDAR14Aに記憶される。図4は、自車両Mの前左部に設置されたLIDAR14A-FLについての閾値情報の一例として閾値情報153-FLを示し、自車両Mの前右部に設置されたLIDAR14A-FRについての閾値情報の一例として閾値情報153-FRを示す。また、図4は、自車両Mの後左部に設置されたLIDAR14A-RLについての閾値情報の一例として閾値情報153-RLを示し、自車両Mの後中央部に設置されたLIDAR14A-RCについての閾値情報の一例として閾値情報153-RCを示し、自車両Mの後右部に設置されたLIDAR14A-RRについての閾値情報の一例として閾値情報153-RRを示す。図4の例において、セクションIDの値は図3に記載したセクションIDと対応している。 FIG. 4 is a diagram showing an example of threshold information 153 in the first embodiment. For example, as shown in FIG. 4, threshold information 153 is stored in LIDAR 14A as a table showing the correspondence between the section ID of each section and the dirt value threshold in the dirt determination of each section. FIG. 4 shows threshold information 153-FL as an example of threshold information for LIDAR 14A-FL installed in the front left part of the vehicle M, and shows threshold information 153-FR as an example of threshold information for LIDAR 14A-FR installed in the front right part of the vehicle M. FIG. 4 also shows threshold information 153-RL as an example of threshold information for LIDAR 14A-RL installed in the rear left part of the vehicle M, shows threshold information 153-RC as an example of threshold information for LIDAR 14A-RC installed in the rear center part of the vehicle M, and shows threshold information 153-RR as an example of threshold information for LIDAR 14A-RR installed in the rear right part of the vehicle M. In the example of Figure 4, the section ID values correspond to the section IDs shown in Figure 3.

上述のとおり、自車両Mの自動運転制御においては、自車両Mの前方正面と、後方正面および左右斜め後方とにおける距離検知が重要となる。そのため、閾値情報153-FLの例では、自車両Mの前方正面に対応するセクションFL03~FL06の閾値が他のセクションに対して相対的に低い50%に設定されている。同様に、閾値情報153-FRの例では、自車両Mの前方正面に対応するセクションFR05~FR08の閾値が他のセクションに対して相対的に低い50%に設定されている。 As described above, in the autonomous driving control of the host vehicle M, it is important to detect distances in the front, rear, and diagonally rearward directions of the host vehicle M. Therefore, in the example of threshold information 153-FL, the thresholds for sections FL03 to FL06 corresponding to the front of the host vehicle M are set to 50%, which is relatively low compared to the other sections. Similarly, in the example of threshold information 153-FR, the thresholds for sections FR05 to FR08 corresponding to the front of the host vehicle M are set to 50%, which is relatively low compared to the other sections.

一方、閾値情報153-RLの例では、自車両Mの左斜め後方に対応するセクションRL06~RL08の閾値が他のセクションに対して相対的に低い60%に設定されている。同様に、閾値情報153-RCの例では、自車両Mの後方正面に対応するセクションRC04~RC07の閾値が他のセクションに対して相対的に低い50%に設定されている。同様に、閾値情報153-RRの例では、自車両Mの右斜め後方に対応するセクションRR03~RR05の閾値が他のセクションに対して相対的に低い60%に設定されている。 On the other hand, in the example of threshold information 153-RL, the thresholds for sections RL06 to RL08 corresponding to the left diagonal rear of the host vehicle M are set to 60%, which is relatively low compared to the other sections. Similarly, in the example of threshold information 153-RC, the thresholds for sections RC04 to RC07 corresponding to the front rear of the host vehicle M are set to 50%, which is relatively low compared to the other sections. Similarly, in the example of threshold information 153-RR, the thresholds for sections RR03 to RR05 corresponding to the right diagonal rear of the host vehicle M are set to 60%, which is relatively low compared to the other sections.

このように、複数のセクションのうち、自車両Mの前方または後方に対応するセクション(例えば、セクションFL03~FL06、FR05~FR08、RC04~RC07、RL06~RL08、RR03~RR05)には、同じ検知範囲の中で、その他の領域よりも低い閾値が設定され、前記車両の横方向(例えば、セクションFL03~FL06、FR05~FR08、RC04~RC07、RL06~RL08、RR03~RR05以外のセクション)のセクションにはその他の領域よりも高い閾値が設定される。 In this way, of the multiple sections, a lower threshold is set for the sections that correspond to the front or rear of the vehicle M (e.g., sections FL03-FL06, FR05-FR08, RC04-RC07, RL06-RL08, RR03-RR05) than for other areas within the same detection range, and a higher threshold is set for the sections to the side of the vehicle (e.g., sections other than sections FL03-FL06, FR05-FR08, RC04-RC07, RL06-RL08, RR03-RR05) than for other areas.

この場合、自動運転制御装置100において、汚れ判定部152Aは、各LIDAR14Aについてセクションごとに通知された汚れ値(以下「測定値」という。)を、それぞれのセクションに設定された閾値と比較する。汚れ判定部152Aは、測定値が閾値以上となっているセクションが存在する場合、当該セクションを検知範囲内に有するLIDAR14Aについて汚れフラグを立てて自動運転制御装置100に通知する。この通知を受けた自動運転制御装置100では、報知制御部180が当該LIDAR14Aについて汚れ報知動作を行うことをHMI30に指示する。 In this case, in the automatic driving control device 100, the dirt determination unit 152A compares the dirt value (hereinafter referred to as "measurement value") notified for each section of each LIDAR 14A with the threshold value set for each section. If there is a section where the measurement value is equal to or greater than the threshold value, the dirt determination unit 152A sets a dirt flag for the LIDAR 14A that has that section within its detection range and notifies the automatic driving control device 100. In the automatic driving control device 100 that receives this notification, the notification control unit 180 instructs the HMI 30 to perform a dirt notification operation for that LIDAR 14A.

例えば、図4の例において、セクションFL05における汚れ値として55%が測定された場合、汚れ判定部152Aは、測定値がセクションFL05の閾値50%以上であることから、セクションFOL05を検知範囲に有するLIDAR14A-FLについて汚れフラグを立てて自動運転制御装置100に通知する。この通知を受けた自動運転制御装置100では、報知制御部180がLIDAR14A-FLについて汚れ報知動作を行うことをHMI30に指示する。 For example, in the example of FIG. 4, if a dirt value of 55% is measured for section FL05, the dirt determination unit 152A will set a dirt flag for LIDAR14A-FL, which has section FL05 in its detection range, and notify the automatic driving control device 100, since the measured value is equal to or greater than the threshold value of 50% for section FL05. In the automatic driving control device 100 that receives this notification, the notification control unit 180 instructs the HMI 30 to perform a dirt notification operation for LIDAR14A-FL.

このように構成された第1実施形態の車両システム1Aは、自車両に搭載された各LIDAR14Aが、水平方向の検知範囲を所定数に分割したセクションごとに汚れ値を算出し、自動運転制御装置100が、セクションごとに算出された汚れ値と、対応するセクションに設定された汚れ値の閾値とに基づいて、各LIDAR14Aについて汚れ報知動作を行うか否かを判定する。このような構成を備えることにより、実施形態の車両システム1Aは、局所的なLIDAR汚れを検出するとともに、各セクションの優先度に応じたタイミングでLIDAR汚れを検出することができる。すなわち、実施形態の車両システム1Aによれば、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる。 In the vehicle system 1A of the first embodiment configured in this manner, each LIDAR 14A mounted on the vehicle calculates a dirt value for each section obtained by dividing the horizontal detection range into a predetermined number of sections, and the automatic driving control device 100 determines whether or not to perform a dirt notification operation for each LIDAR 14A based on the dirt value calculated for each section and the dirt value threshold value set for the corresponding section. With this configuration, the vehicle system 1A of the embodiment can detect localized LIDAR dirt and can detect LIDAR dirt at a timing according to the priority of each section. In other words, the vehicle system 1A of the embodiment can prevent the control function of the vehicle from being unnecessarily suppressed due to the adhesion of dirt to the LIDAR.

<第2実施形態>
図5は、第2実施形態に係る車両制御装置を利用した車両システム1Bの構成図である。車両システム1Bは、LIDAR14Aに代えてLIDAR14Bを備える点において第1実施形態の車両システム1Aと異なる。また、LIDAR14Bは、汚れ判定部152Aに代えて汚れ判定部152Bを備える点、および閾値情報153に代えて条件情報154を記憶している点において第1実施形態のLIDAR14Aと異なる。その他の車両システム1Bの構成は車両システム1Aと同様である。そのため、図5においては、図1と同じ符号を付すことにより、それらの同様の構成についての説明を省略する。
Second Embodiment
FIG. 5 is a configuration diagram of a vehicle system 1B using a vehicle control device according to the second embodiment. The vehicle system 1B differs from the vehicle system 1A of the first embodiment in that the vehicle system 1B includes a LIDAR 14B instead of the LIDAR 14A. The LIDAR 14B also differs from the LIDAR 14A of the first embodiment in that the LIDAR 14B includes a dirt determination unit 152B instead of the dirt determination unit 152A, and that the condition information 154 is stored instead of the threshold information 153. The other configurations of the vehicle system 1B are the same as those of the vehicle system 1A. Therefore, in FIG. 5, the same reference numerals as those in FIG. 1 are used, and the description of the similar configurations will be omitted.

汚れ判定部152Bは、第1実施形態の汚れ判定部152Aが汚れ検知部151から通知される汚れ値と閾値との比較結果に基づいて汚れフラグを管理したのに対し、閾値との比較結果に加えて、汚れ値の変動状況に基づいて汚れフラグを管理する点で汚れ判定部152Aと異なる。具体的には、汚れ判定部152Bは、条件情報154により定義された複数の判定条件による汚れ判定の結果に基づいて汚れフラグを管理する。 The dirt determination unit 152B differs from the dirt determination unit 152A in that, whereas the dirt determination unit 152A of the first embodiment managed the dirt flag based on the comparison result between the dirt value notified from the dirt detection unit 151 and a threshold value, the dirt determination unit 152B manages the dirt flag based on the fluctuation status of the dirt value in addition to the comparison result with the threshold value. Specifically, the dirt determination unit 152B manages the dirt flag based on the result of the dirt determination according to multiple determination conditions defined by the condition information 154.

図6は、第2実施形態における条件情報154の一例を示す図である。例えば、条件情報154には、汚れ判定に用いられる複数の判定条件の名称(条件名)と、判定条件の内容(条件内容)と、判定条件の種別(条件種別)とが対応づけて登録される。例えば、図6の条件情報154の例では、汚れフラグを立てる条件(フラグON条件)として、汚れ閾値条件、および汚れ揺らぎ条件が登録され、汚れフラグを下げる条件(フラグOFF条件)として、復旧条件が設定されている。各フラグON条件、およびフラグOFF条件の詳細は、以下のとおりである。 Figure 6 is a diagram showing an example of condition information 154 in the second embodiment. For example, the condition information 154 registers the names (condition names) of multiple judgment conditions used in the dirt judgment, the contents (condition contents) of the judgment conditions, and the types (condition types) of the judgment conditions in association with each other. For example, in the example of condition information 154 in Figure 6, a dirt threshold condition and a dirt fluctuation condition are registered as conditions for setting a dirt flag (flag ON condition), and a recovery condition is set as a condition for lowering the dirt flag (flag OFF condition). Details of each flag ON condition and flag OFF condition are as follows:

[汚れ閾値条件]
汚れ閾値条件は、LIDAR14Bに付着したもの(汚れ)の量が一定量を超えたか否かを判定する条件である。一般に、車両が低温環境で高速走行している場合、LIDAR14Bの表面の水滴が露のように短時間付着する場合がある。そのため、このような状況では、一時的に汚れ値が上昇することがあるため、この状態を汚れ状態として誤検知する可能性がある。また、車両が発進した直後の低速走行状態では、降雨による水滴がLIDAR14Bの表面にとどまる可能性が低く、基本的に汚れ値が閾値を超えることがない。そこで、本実施形態では、汚れ値が、閾値を超えてから閾値を下回ることなく所定時間(例えば300秒)を経過した場合に判定結果を真とする条件を汚れ値条件とする。以下、汚れ閾値条件を判定する際の上記所定時間を判定時間という。
[Contamination threshold condition]
The dirt threshold condition is a condition for determining whether or not the amount of dirt adhering to the LIDAR 14B exceeds a certain amount. In general, when a vehicle is traveling at high speed in a low-temperature environment, water droplets on the surface of the LIDAR 14B may adhere for a short time like dew. Therefore, in such a situation, the dirt value may temporarily increase, and this state may be erroneously detected as a dirty state. In addition, in a low-speed traveling state immediately after the vehicle starts, the possibility that water droplets due to rainfall will remain on the surface of the LIDAR 14B is low, and the dirt value basically does not exceed the threshold. Therefore, in this embodiment, a condition for determining that the judgment result is true when a predetermined time (e.g., 300 seconds) has passed since the dirt value exceeded the threshold without falling below the threshold is set as the dirt value condition. Hereinafter, the above-mentioned predetermined time when determining the dirt threshold condition is referred to as the judgment time.

[汚れ値ゆらぎ条件]
汚れ値ゆらぎ条件は、LIDAR汚れが、拭き取られる必要のある汚れであるか否かを判定する条件である。具体的には、汚れ値ゆらぎ条件は、汚れ値が閾値を超えた状態で経過した過去の判定時間(例えば300秒)における汚れ値のゆらぎの大きさが所定の割合未満(例えば最大値と最小値の差が10%未満)である場合に判定結果を真とする条件である。これは、拭き取られる必要のある汚れの一例として、オイルと砂の混合物をLIDAR14Bの表面に付着させた場合、判定時間が経過するまでに汚れ値のゆらぎの大きさが10%を超える場合があり、判定時間を長くとりすぎると拭き取られる必要のある汚れを検知することができなくなる恐れがあるという知見が得られたことによるものである。また、通常、LIDAR汚れを拭き取るために自車両を停車させるには数分程度の時間が必要となることから、判定時間を例えば300秒程度としても差し支えない。
[Conditions for fluctuation of dirt value]
The dirt value fluctuation condition is a condition for determining whether the LIDAR dirt is dirt that needs to be wiped off. Specifically, the dirt value fluctuation condition is a condition for determining that the judgment result is true when the magnitude of the dirt value fluctuation in the past judgment time (e.g., 300 seconds) that has elapsed in a state in which the dirt value has exceeded the threshold value is less than a predetermined ratio (e.g., the difference between the maximum value and the minimum value is less than 10%). This is due to the fact that, as an example of dirt that needs to be wiped off, when a mixture of oil and sand is attached to the surface of the LIDAR 14B, the magnitude of the dirt value fluctuation may exceed 10% before the judgment time has elapsed, and if the judgment time is too long, it may become impossible to detect dirt that needs to be wiped off. In addition, since it usually takes several minutes to stop the vehicle in order to wipe off the LIDAR dirt, the judgment time may be, for example, about 300 seconds.

[復旧条件]
上述のとおり、復旧条件は、フラグON条件を満たしているときに上げられた汚れフラグを下げてよいか否かを判定するための条件である。そのため、復旧条件は、自車両が汚れ状態にないことを判定することができる条件である必要がある。そこで、本実施形態では、全てのセクションにおいて汚れ値が閾値(例えば30%)以下となっている場合に判定結果を真とする条件を復旧条件とする。この場合の閾値は、LIDAR14Bの表面に検知性能に影響しない傷や汚れが残っている場合であっても汚れフラグを下げられるようにすること、汚れフラグのONおよびOFFが頻繁に繰り返されないようにすることを考慮して設計されるとよい。
[Recovery conditions]
As described above, the restoration condition is a condition for determining whether or not the dirt flag that is raised when the flag ON condition is satisfied may be lowered. Therefore, the restoration condition needs to be a condition that can determine that the vehicle is not in a dirty state. Therefore, in this embodiment, the restoration condition is a condition that determines that the determination result is true when the dirt value is equal to or less than a threshold value (e.g., 30%) in all sections. In this case, the threshold value may be designed in consideration of being able to lower the dirt flag even if scratches or dirt that do not affect the detection performance remain on the surface of the LIDAR 14B, and being able to prevent the dirt flag from being frequently turned ON and OFF.

図7は、第2実施形態のLIDAR14Bにおいて、汚れ判定部152Bが汚れフラグを管理する方法の一例を示すフローチャートである。ここでは、汚れフラグは各LIDAR14Bについてそれぞれ管理されるものとし、ある1つのLIDAR14Bの汚れフラグを管理する処理の流れについて説明する。まず、汚れ判定部152Bは、全セクションの汚れ値が汚れ値条件を満たしているか否かを判定する(ステップS101)。ここで、全てのセクションの汚れ値が汚れ値条件を満たしていると判定した場合、汚れ判定部152Bは、全てのセクションの汚れ値が汚れ値ゆらぎ条件を満たしているか否かを判定する(ステップS102)。ここで、全てのセクションの汚れ値が汚れ値ゆらぎ条件を満たしていると判定した場合、汚れ判定部152Bは、汚れフラグを立てる(ステップS103)。 Figure 7 is a flowchart showing an example of a method in which the dirt determination unit 152B manages dirt flags in the LIDAR 14B of the second embodiment. Here, it is assumed that dirt flags are managed for each LIDAR 14B, and the process flow for managing the dirt flag of one LIDAR 14B will be described. First, the dirt determination unit 152B determines whether the dirt values of all sections satisfy the dirt value condition (step S101). If it is determined that the dirt values of all sections satisfy the dirt value condition, the dirt determination unit 152B determines whether the dirt values of all sections satisfy the dirt value fluctuation condition (step S102). If it is determined that the dirt values of all sections satisfy the dirt value fluctuation condition, the dirt determination unit 152B sets a dirt flag (step S103).

一方、ステップS101において、いずれかのセクションの汚れ値が汚れ値条件を満たしていないと判定した場合、又は、ステップS102において、いずれかのセクションの汚れ値が汚れ値ゆらぎ条件を満たしていないと判定した場合、汚れ判定部152Bは、復旧条件が満たされているか否かを判定する(ステップS104)。ここで、復旧条件が満たされていると判定した場合、汚れ判定部152Bは、汚れフラグを下げ(ステップS105)、ステップS101に処理を戻す。一方、ステップS104において、復旧条件が満たされていないと判定した場合、汚れ判定部152Bは、汚れフラグを下げることなくステップS101に処理を戻す。 On the other hand, if it is determined in step S101 that the dirt value of any section does not satisfy the dirt value condition, or if it is determined in step S102 that the dirt value of any section does not satisfy the dirt value fluctuation condition, the dirt determination unit 152B determines whether the restoration condition is satisfied (step S104). If it is determined that the restoration condition is satisfied, the dirt determination unit 152B lowers the dirt flag (step S105) and returns the process to step S101. On the other hand, if it is determined in step S104 that the restoration condition is not satisfied, the dirt determination unit 152B returns the process to step S101 without lowering the dirt flag.

このように構成された第2実施形態の車両システム1Bは、LIDAR14Bが、各LIDAR14Bが汚れ状態にあるか否かを、汚れ値に関する条件を含む複数の条件の組み合わせで判定する汚れ判定部152Bを備える。このような構成を備えることにより、実施形態の車両システム1Bは、LIDAR14Bが汚れ状態にあるか否かをより精度良く判定することが可能となる。すなわち、実施形態の車両システム1Bによれば、LIDAR汚れによって自車両の制御機能が必要以上に抑制されないようにすることが可能となる。 The vehicle system 1B of the second embodiment configured in this manner includes a dirt determination unit 152B that determines whether each LIDAR 14B is in a dirty state by combining multiple conditions including conditions related to the dirt value. By being configured in this manner, the vehicle system 1B of the embodiment can more accurately determine whether the LIDAR 14B is in a dirty state. In other words, the vehicle system 1B of the embodiment can prevent the control function of the host vehicle from being unnecessarily suppressed due to LIDAR dirt.

<変形例>
第1実施形態において、汚れ判定部152Aおよび閾値情報153は物体認識装置16または自動運転制御装置100に備えられてもよい。同様に、汚れ判定部152Bおよび条件情報154は物体認識装置16または自動運転制御装置100に備えられてもよい。
<Modification>
In the first embodiment, the dirt determination unit 152A and the threshold information 153 may be provided in the object recognition device 16 or the automatic driving control device 100. Similarly, the dirt determination unit 152B and the condition information 154 may be provided in the object recognition device 16 or the automatic driving control device 100.

物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14A(または14B、以下同様)の検出結果等(汚れ値を含む)をそのまま自動運転制御装置100に出力してよい。また、車両システム1A(または1B、以下同様)から物体認識装置16が省略されてもよい。 The object recognition device 16 may output the detection results (including the dirt value) of the camera 10, the radar device 12, and the LIDAR 14A (or 14B, the same below) directly to the autonomous driving control device 100. Also, the object recognition device 16 may be omitted from the vehicle system 1A (or 1B, the same below).

第1制御部120および第2制御部160において、認識部130や行動計画生成部140、取得部162、速度制御部164、または操舵制御部166等の各機能部は、物体認識装置16を介してLIDAR14Aから通知される汚れフラグの値に基づいて処理を分岐または変更するように構成されてもよい。同様に、物体認識装置16も、LIDAR14Aから通知される汚れフラグの値に基づいて処理を分岐または変更するように構成されてもよい。例えば、第1制御部120および第2制御部160は、通知された汚れフラグによっていずれかのLIDAR14Aが汚れ状態にあることが認識された場合、自車両の自動運転に関する動作を縮退させるように構成されてもよい。また、自動運転制御装置100は、通知された汚れフラグをナビゲーション装置50やMUP60等の他の装置に通知してもよい。この場合、他の装置は、汚れフラグの値に基づいて自装置の処理を分岐または変更するように構成されてもよい。 In the first control unit 120 and the second control unit 160, each functional unit such as the recognition unit 130, the action plan generation unit 140, the acquisition unit 162, the speed control unit 164, or the steering control unit 166 may be configured to branch or change the processing based on the value of the dirt flag notified from the LIDAR 14A via the object recognition device 16. Similarly, the object recognition device 16 may also be configured to branch or change the processing based on the value of the dirt flag notified from the LIDAR 14A. For example, the first control unit 120 and the second control unit 160 may be configured to degenerate the operation related to the automatic driving of the host vehicle when it is recognized that any of the LIDARs 14A is in a dirty state based on the notified dirt flag. In addition, the automatic driving control device 100 may notify other devices such as the navigation device 50 and the MUP 60 of the notified dirt flag. In this case, the other devices may be configured to branch or change the processing of their own devices based on the value of the dirt flag.

報知制御部180は、HMI30以外の装置に汚れ報知動作を行わせてもよいし、自身で汚れ報知動作を行ってもよい。例えば、報知制御部180は、LIDAR汚れを報知する対象のユーザ宛てに電子メールを送信してもよいし、当該ユーザが使用する端末装置にメッセージ通知を行ってもよい。 The notification control unit 180 may cause a device other than the HMI 30 to perform the dirt notification operation, or may perform the dirt notification operation itself. For example, the notification control unit 180 may send an email to a user who is to be notified of LIDAR dirt, or may send a message notification to a terminal device used by that user.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 The above describes the form for carrying out the present invention using an embodiment, but the present invention is not limited to such an embodiment, and various modifications and substitutions can be made without departing from the spirit of the present invention.

1A,1B…車両システム、10…カメラ、12…レーダ装置、14A,14B…LIDAR(Light Detection and Ranging)、151…汚れ検知部、152A,152B…汚れ判定部、153…閾値情報、154…条件情報、16…物体認識装置、20…通信装置、30…HMI(Human Machine Interface)、40…車両センサ、50…ナビゲーション装置、51…GNSS(Global Navigation Satellite System)受信機、52…ナビHMI、53…経路決定部、54…第1地図情報、60…MPU(Map Positioning Unit)、61…推奨車線決定部、62…第2地図情報、80…運転操作子、100…自動運転制御装置、100-1…通信コントローラ、100-2…CPU(Central Processing Unit)、100-3…RAM(Random Access Memory)、100-4…ROM(Read Only Memory)、100-5…記憶装置、100-5a…プログラム、100-6…ドライブ装置、120…第1制御部、130…認識部、140…行動計画生成部、160…第2制御部、164…速度制御部、166…操舵制御部、180…報知制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置 1A, 1B...vehicle system, 10...camera, 12...radar device, 14A, 14B...LIDAR (Light Detection and Ranging), 151...dirt detection unit, 152A, 152B...dirt determination unit, 153...threshold information, 154...condition information, 16...object recognition device, 20...communication device, 30...HMI (Human Machine Interface), 40...vehicle sensor, 50...navigation device, 51...GNSS (Global Navigation Satellite System) receiver, 52...navigation HMI, 53...route determination unit, 54...first map information, 60...MPU (Map Positioning Unit), 61...recommended lane determination unit, 62...second map information, 80...driving operator, 100...automatic driving control device, 100-1...communication controller, 100-2...CPU (Central Processing Unit), 100-3...RAM (Random Access Memory), 100-4...ROM (Read Only Memory), 100-5...storage device, 100-5a...program, 100-6...drive device, 120...first control unit, 130...recognition unit, 140...action plan generation unit, 160...second control unit, 164...speed control unit, 166...steering control unit, 180...notification control unit, 200...driving force output device, 210...brake device, 220...steering device

Claims (5)

光または光に近い電磁波を用いて物体を検知する、車両の前方左右、後方左右、および後方正面の5箇所に設置される複数の車載ライダー装置であって、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出する汚れ検知部を備える前記複数の車載ライダー装置と、
複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する汚れ判定部を備える汚れ判定装置と、
を備え、
前記セクションは、前記車載ライダー装置を中心として、水平方向および垂直方向のうち少なくとも水平方向に前記検知範囲を複数の領域に分割したものであり、複数の前記セクションのうち、車両の前方または後方に対応するセクションには第1閾値が設定され、前記車両の横方向に対応するセクションには前記第1閾値よりも大きい第2閾値が設定され、前記前方左右および前記後方正面の車載ライダー装置の第2閾値には、前記後方左右の車載ライダー装置の第2閾値よりも低い値が設定され、
前記汚れ判定部は、前記セクションごとに測定された前記汚れ値と、前記セクションごとに設定された閾値とを比較することにより、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、
車両用認識システム。
A plurality of vehicle-mounted LIDAR devices are installed at five locations on the front left and right sides, the rear left and right sides, and the rear front of a vehicle, and detect objects using light or electromagnetic waves similar to light, the plurality of vehicle-mounted LIDAR devices each having a dirt detection unit that calculates a dirt value indicating a degree of dirt of the vehicle-mounted LIDAR device for each section obtained by dividing a detection range of the object into a plurality of sections based on the detection result of the object;
A dirt determination device including a dirt determination unit that determines whether or not dirt to be removed is attached to the on-board LIDAR device based on the dirt values calculated for each of the multiple sections;
Equipped with
The sections are obtained by dividing the detection range into a plurality of regions in at least the horizontal direction of the horizontal and vertical directions with the vehicle-mounted LIDAR device at the center, and among the plurality of sections, a first threshold value is set in a section corresponding to the front or rear of the vehicle, a second threshold value larger than the first threshold value is set in a section corresponding to the lateral direction of the vehicle , and a value lower than the second threshold value of the vehicle-mounted LIDAR devices on the left and right front and the front rear is set for the second threshold value of the vehicle-mounted LIDAR devices on the left and right rear;
The dirt determination unit determines whether or not dirt that should be removed is attached to the on-board LIDAR device by comparing the dirt value measured for each section with a threshold value set for each section.
Vehicle recognition system.
前記汚れ検知部は、前記車載ライダー装置から、前記車載ライダー装置によって前記物体が検知された検知点までの距離と、前記距離の検知に関し前記検知点において前記物体により反射された前記光または前記電磁波の強度に基づいて前記汚れ値を算出する、
請求項1に記載の車両用認識システム。
The dirt detection unit calculates the dirt value based on a distance from the in-vehicle LIDAR device to a detection point at which the object is detected by the in-vehicle LIDAR device and an intensity of the light or the electromagnetic wave reflected by the object at the detection point in relation to the detection of the distance.
The vehicle recognition system according to claim 1 .
前記物体の検知結果に基づいて車両の運転支援または自動運転を制御する自動運転制御装置をさらに備え、
前記自動運転制御装置は、
前記汚れ判定部の判定結果に基づいて、前記車載ライダー装置に除去されるべき汚れが付着していることを報知する報知部を備える、
請求項1または2のいずれか一項に記載の車両用認識システム。
The vehicle further includes an automatic driving control device that controls driving assistance or automatic driving of the vehicle based on the detection result of the object,
The automatic driving control device includes:
and a notification unit that notifies the vehicle-mounted LIDAR device that dirt to be removed is attached to the vehicle-mounted LIDAR device based on a determination result of the dirt determination unit.
A recognition system for a vehicle according to claim 1 or 2.
前記自動運転制御装置は、前記運転支援または前記自動運転を制御する制御部をさらに備え、
前記制御部は、前記汚れ判定部の判定結果に基づいて前記運転支援または前記自動運転の可否を判定する、
請求項3に記載の車両用認識システム。
The automatic driving control device further includes a control unit that controls the driving assistance or the automatic driving,
The control unit determines whether or not the driving assistance or the automatic driving is possible based on a determination result of the dirt determination unit.
The vehicle recognition system according to claim 3.
光または光に近い電磁波を用いて物体を検知する、車両の前方左右、後方左右、および後方正面の5箇所に設置される複数の車載ライダー装置が、
前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、
汚れ判定装置が、
複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、
認識方法であって、
前記セクションは、前記車載ライダー装置を中心として、水平方向および垂直方向のうち少なくとも水平方向に前記検知範囲を複数の領域に分割したものであり、複数の前記セクションのうち、車両の前方または後方に対応するセクションには第1閾値が設定され、前記車両の横方向に対応するセクションには前記第1閾値よりも大きい第2閾値が設定され、前記前方左右および前記後方正面の車載ライダー装置の第2閾値には、前記後方左右の車載ライダー装置の第2閾値よりも低い値が設定され、
前記車載ライダー装置が、前記セクションごとに測定された前記汚れ値と、前記セクションごとに設定された閾値とを比較することにより、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、
認識方法。
A plurality of vehicle-mounted LIDAR devices that detect objects using light or electromagnetic waves close to light are installed at five locations on the front left and right, rear left and right, and rear front of the vehicle .
Calculating a dirt value indicating a degree of dirt on the device itself based on the object detection result for each of a plurality of sections obtained by dividing the object detection range;
The dirt detection device
determining whether or not dirt that should be removed is attached to the vehicle-mounted LIDAR device based on the dirt value calculated for each of the multiple sections;
A method of recognition comprising:
The sections are obtained by dividing the detection range into a plurality of regions in at least the horizontal direction of the horizontal and vertical directions with the vehicle-mounted LIDAR device at the center, and among the plurality of sections, a first threshold value is set in a section corresponding to the front or rear of the vehicle, a second threshold value larger than the first threshold value is set in a section corresponding to the lateral direction of the vehicle , and a value lower than the second threshold value of the vehicle-mounted LIDAR devices on the left and right front and the front rear is set for the second threshold value of the vehicle-mounted LIDAR devices on the left and right rear;
The vehicle-mounted LIDAR device compares the dirt value measured for each section with a threshold value set for each section to determine whether or not dirt that should be removed is attached to the vehicle-mounted LIDAR device.
How to recognize.
JP2020219640A 2020-12-28 2020-12-28 Vehicle recognition system and method Active JP7492453B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020219640A JP7492453B2 (en) 2020-12-28 2020-12-28 Vehicle recognition system and method
CN202111181928.0A CN114690162A (en) 2020-12-28 2021-10-11 Vehicle identification system and identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020219640A JP7492453B2 (en) 2020-12-28 2020-12-28 Vehicle recognition system and method

Publications (2)

Publication Number Publication Date
JP2022104429A JP2022104429A (en) 2022-07-08
JP7492453B2 true JP7492453B2 (en) 2024-05-29

Family

ID=82136198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020219640A Active JP7492453B2 (en) 2020-12-28 2020-12-28 Vehicle recognition system and method

Country Status (2)

Country Link
JP (1) JP7492453B2 (en)
CN (1) CN114690162A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010094A (en) 2003-06-20 2005-01-13 Denso Corp Object recognition apparatus for vehicle
JP2019015692A (en) 2017-07-11 2019-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Adhered substance detection method, adhered substance learning method, adhered substance detection device, adhered substance learning device, adhered substance detection system, and program
JP2020076589A (en) 2018-11-06 2020-05-21 日本電産モビリティ株式会社 Object detection device
US20200166649A1 (en) 2018-11-26 2020-05-28 Continental Automotive Systems, Inc. Adverse weather condition detection system with lidar sensor

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068249A1 (en) * 2013-11-08 2015-05-14 株式会社日立製作所 Autonomous driving vehicle and autonomous driving system
JP6578589B2 (en) * 2017-11-27 2019-09-25 本田技研工業株式会社 Vehicle control device, vehicle control method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010094A (en) 2003-06-20 2005-01-13 Denso Corp Object recognition apparatus for vehicle
JP2019015692A (en) 2017-07-11 2019-01-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Adhered substance detection method, adhered substance learning method, adhered substance detection device, adhered substance learning device, adhered substance detection system, and program
JP2020076589A (en) 2018-11-06 2020-05-21 日本電産モビリティ株式会社 Object detection device
US20200166649A1 (en) 2018-11-26 2020-05-28 Continental Automotive Systems, Inc. Adverse weather condition detection system with lidar sensor

Also Published As

Publication number Publication date
CN114690162A (en) 2022-07-01
JP2022104429A (en) 2022-07-08

Similar Documents

Publication Publication Date Title
CN111731321B (en) Vehicle control device, vehicle control method, and storage medium
CN110053617B (en) Vehicle control device, vehicle control method, and storage medium
JP6641583B2 (en) Vehicle control device, vehicle control method, and program
CN110254427B (en) Vehicle control device, vehicle control method, and storage medium
US20190278286A1 (en) Vehicle control device, vehicle control method, and storage medium
JP7345349B2 (en) Vehicle control device, vehicle control method, and program
JP2020147139A (en) Vehicle control device, vehicle control method, and program
JP2022139009A (en) Drive support device, drive support method, and program
US11273825B2 (en) Vehicle control device, vehicle control method, and storage medium
US20190161090A1 (en) Vehicle control device, vehicle control method, and recording medium
JP7046289B1 (en) Vehicle controls, vehicle systems, vehicle control methods, and programs
US11628862B2 (en) Vehicle control device, vehicle control method, and storage medium
CN115140086A (en) Vehicle control device, vehicle control method, and storage medium
JP7473370B2 (en) Vehicle control device, vehicle control method, and program
CN112141097A (en) Vehicle control device, vehicle control method, and storage medium
JP7470157B2 (en) Vehicle control device, vehicle control method, and program
JP7376634B2 (en) Vehicle control device, vehicle control method, and program
JP7492453B2 (en) Vehicle recognition system and method
JP2023036593A (en) Vehicular recognition device, vehicle control system, vehicular recognition method and program
CN115147689A (en) Identification device, vehicle system, identification method, and storage medium
JP7410848B2 (en) Vehicle recognition system and recognition method
JP2022044236A (en) Vehicle control device, vehicle control method, and program
JP7450436B2 (en) Vehicle control device, vehicle control method, and program
US20240182024A1 (en) Vehicle control device, vehicle control method, and storage medium
US20220203989A1 (en) Vehicle control device, vehicle control method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240517

R150 Certificate of patent or registration of utility model

Ref document number: 7492453

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150