JP7492453B2 - Vehicle recognition system and method - Google Patents
Vehicle recognition system and method Download PDFInfo
- Publication number
- JP7492453B2 JP7492453B2 JP2020219640A JP2020219640A JP7492453B2 JP 7492453 B2 JP7492453 B2 JP 7492453B2 JP 2020219640 A JP2020219640 A JP 2020219640A JP 2020219640 A JP2020219640 A JP 2020219640A JP 7492453 B2 JP7492453 B2 JP 7492453B2
- Authority
- JP
- Japan
- Prior art keywords
- dirt
- vehicle
- lidar
- value
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 15
- 238000001514 detection method Methods 0.000 claims description 78
- 230000006870 function Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000005259 measurement Methods 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 6
- 230000001052 transient effect Effects 0.000 description 6
- 238000011109 contamination Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 101710187795 60S ribosomal protein L15 Proteins 0.000 description 1
- 101150080148 RR10 gene Proteins 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S2007/4975—Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両用認識システムおよび認識方法に関する。 The present invention relates to a vehicle recognition system and a recognition method.
近年、車両を自動的に制御することについて研究が進められている。車両の自動制御では、車両に取り付けられるLIDAR(Light Detection and Ranging)を用いて、車両から車両周辺の物体までの距離を検出することが行われる。LIDARは、光(或いは光に近い波長の電磁波)を照射して、その散乱光を測定し、発光から受光までの時間に基づいて対象までの距離を計測するものである。そのため、光の照射部や散乱光の受光部に汚れが付着すると計測性能が低下する可能性がある。特許文献1には、距離の計測範囲が変化した場合に、その前後における距離の計測結果に基づいて計測部に対する汚れの付着を推定する技術が記載されている。また、特許文献2には、対象部位に照射した光の反射量に基づいて対象部位に対する汚れの付着を推定する技術が記載されている。また、特許文献3には、距離測定に成功したときに、受光信号のレベルに基づいてレンズ系に対する汚れの付着を推定する技術が記載されている。 In recent years, research has been conducted into automatically controlling vehicles. In automatic vehicle control, a LIDAR (Light Detection and Ranging) attached to the vehicle is used to detect the distance from the vehicle to objects around the vehicle. LIDAR irradiates light (or electromagnetic waves with a wavelength close to that of light), measures the scattered light, and measures the distance to the target based on the time from light emission to light reception. Therefore, if dirt adheres to the light irradiating part or the scattered light receiving part, the measurement performance may be reduced. Patent Document 1 describes a technology that estimates the adhesion of dirt to the measurement part based on the distance measurement results before and after a change in the distance measurement range. Patent Document 2 describes a technology that estimates the adhesion of dirt to a target part based on the amount of reflection of light irradiated to the target part. Patent Document 3 describes a technology that estimates the adhesion of dirt to a lens system based on the level of a light receiving signal when distance measurement is successful.
しかしながら、従来技術では、計測器の汚れ度合いに応じて車両の動作を適切に制御することができない場合があった。例えば、LIDARの汚れ度合いが軽微な場合であっても必要以上に機能が抑制されてしまう可能性があった。 However, with conventional technology, it was sometimes not possible to appropriately control the operation of the vehicle depending on the degree of contamination of the measuring device. For example, even if the degree of contamination of the LIDAR was only slight, there was a possibility that its function would be restricted more than necessary.
本発明は、このような事情を考慮してなされたものであり、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる車両用認識システムおよび認識方法を提供することを目的の一つとする。 The present invention has been made in consideration of these circumstances, and one of its objectives is to provide a vehicle recognition system and recognition method that can prevent the vehicle's control functions from being unnecessarily restricted by the adhesion of dirt to the LIDAR.
この発明に係る車両用認識システムおよび認識方法は、以下の構成を採用した。
(1):この発明の一態様に係る車両用認識システムは、光または光に近い電磁波を用いて物体を検知する車載ライダー装置であって、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出する汚れ検知部を備える車載ライダー装置と、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する汚れ判定部を備える汚れ判定装置と、を備える車両用認識システムである。
The vehicle recognition system and the recognition method according to the present invention employ the following configuration.
(1): A vehicle recognition system according to one embodiment of the present invention is an on-board LIDAR device that detects objects using light or electromagnetic waves similar to light, the on-board LIDAR device having a dirt detection unit that calculates a dirt value indicating the degree of dirt of the device based on the object detection results, for each section into which the object detection range is divided, and a dirt determination device having a dirt determination unit that determines whether or not dirt that should be removed is attached to the on-board LIDAR device, based on the dirt values calculated for each of the sections.
(2):上記(1)の態様において、前記汚れ検知部は、前記車載ライダー装置による前記物体の検知距離および検知点に基づいて前記汚れ値を算出するものである。 (2): In the above aspect (1), the dirt detection unit calculates the dirt value based on the detection distance and detection point of the object by the vehicle-mounted LIDAR device.
(3):上記(1)または(2)の態様において、前記セクションは、前記車載ライダー装置を中心として前記検知範囲を水平方向または垂直方向に複数の領域に分割したものであり、前記汚れ判定部は、前記セクションごとに測定された前記汚れ値と、前記セクションごとに設定された閾値とを比較することにより、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定するものである。 (3): In the above aspect (1) or (2), the sections are obtained by dividing the detection range into a plurality of regions in the horizontal or vertical direction with the vehicle-mounted LIDAR device at the center, and the dirt determination unit determines whether or not dirt that should be removed is attached to the vehicle-mounted LIDAR device by comparing the dirt value measured for each section with a threshold value set for each section.
(4):上記(1)から(3)のいずれか1つの態様において、複数の前記セクションのうち、車両の前方または後方に対応するセクションにはその他の領域よりも低い閾値が設定され、前記車両の横方向に対応するセクションにはその他の領域よりも高い閾値が設定されるものである。 (4): In any one of the above aspects (1) to (3), a lower threshold is set for the section corresponding to the front or rear of the vehicle among the multiple sections, and a higher threshold is set for the section corresponding to the lateral direction of the vehicle, compared to the other areas.
(5):上記(1)から(4)のいずれか1つの態様において、前記物体の検知結果に基づいて車両の運転支援または自動運転を制御する自動運転制御装置をさらに備え、前記自動運転制御装置は、前記汚れ判定部の判定結果に基づいて、前記車載ライダー装置に除去されるべき汚れが付着していることを報知する報知部を備えるものである。 (5): In any one of the above aspects (1) to (4), an automatic driving control device is further provided that controls driving assistance or automatic driving of the vehicle based on the object detection result, and the automatic driving control device is provided with a notification unit that notifies the vehicle-mounted LIDAR device that dirt that should be removed is attached based on the judgment result of the dirt judgment unit.
(6):上記(5)の態様において、前記自動運転制御装置は、前記運転支援または前記自動運転を制御する制御部をさらに備え、前記制御部は、前記汚れ判定部の判定結果に基づいて前記運転支援または前記自動運転の可否を判定するものである。 (6): In the above aspect (5), the automatic driving control device further includes a control unit that controls the driving assistance or the automatic driving, and the control unit determines whether or not the driving assistance or the automatic driving is possible based on the determination result of the contamination determination unit.
(7):この発明の一態様に係る認識方法は、光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、汚れ判定装置が、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、認識方法である。 (7): A recognition method according to one aspect of the present invention is a recognition method in which an in-vehicle LIDAR device that detects an object using light or electromagnetic waves similar to light calculates a dirt value indicating the degree of dirt on the device based on the detection result of the object for each section obtained by dividing the detection range of the object into multiple sections, and a dirt determination device determines whether or not dirt that should be removed is attached to the in-vehicle LIDAR device based on the dirt value calculated for each of the multiple sections.
(1)~(7)によれば、光または光に近い電磁波を用いて物体を検知する車載ライダー装置が、前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、汚れ判定装置が、複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定することにより、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる。 According to (1) to (7), an in-vehicle LIDAR device that detects objects using light or electromagnetic waves similar to light calculates a dirt value indicating the degree of dirt of the device for each section obtained by dividing the detection range of the object into a plurality of sections based on the detection result of the object, and a dirt determination device determines whether or not dirt that should be removed is attached to the in-vehicle LIDAR device based on the dirt value calculated for each of the plurality of sections, thereby preventing the control function of the vehicle from being unnecessarily suppressed due to the attachment of dirt to the LIDAR.
以下、図面を参照し、本発明の車両用認識システムおよび認識方法の実施形態について説明する。 Below, an embodiment of the vehicle recognition system and recognition method of the present invention will be described with reference to the drawings.
<第1実施形態>
[全体構成]
図1は、第1実施形態に係る車両制御装置を利用した車両システム1Aの構成図である。車両システム1Aが搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
First Embodiment
[overall structure]
1 is a configuration diagram of a
車両システム1Aは、例えば、カメラ10と、レーダ装置12と、LIDAR(Light Detection and Ranging)14Aと、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
The
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1Aが搭載される車両(以下、自車両)の任意の箇所に取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両の周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
The
レーダ装置12は、自車両の周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両の任意の箇所に取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
The
LIDAR14Aは、自車両の周辺に光(或いは光に近い波長の電磁波)を照射し、散乱光を測定する。例えば、LIDAR14Aは、赤外光を照射する。LIDAR14Aは、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。LIDAR14Aは、自車両の任意の箇所に取り付けられる。 The LIDAR 14A irradiates light (or electromagnetic waves with a wavelength close to that of light) around the vehicle and measures the scattered light. For example, the LIDAR 14A irradiates infrared light. The LIDAR 14A detects the distance to the target based on the time between emitting and receiving the light. The irradiated light is, for example, a pulsed laser light. The LIDAR 14A can be attached to any location on the vehicle.
また、本実施形態におけるLIDAR14Aは、上記の基本的な機能(以下「LIDAR機能」という。)に加えて、発光部または受光部に付着した汚れ(以下「LIDAR汚れ」という。)を検知する機能と、各LIDAR14Aについて汚れの程度を判断し、汚れフラグを出力する機能とを有する。汚れフラグは、各LIDAR14AがLIDAR汚れの除去を必要とする状態(以下「汚れ状態」という。)にあるか否かを示すフラグである。これらの機能を実現するため、本実施形態におけるLIDAR14Aは、汚れ検知部151および汚れ判定部152Aを備えるとともに、閾値情報153を記憶している。
In addition to the above basic functions (hereinafter referred to as "LIDAR functions"), the LIDAR 14A in this embodiment has a function to detect dirt attached to the light-emitting unit or the light-receiving unit (hereinafter referred to as "LIDAR dirt"), and a function to determine the degree of dirt for each LIDAR 14A and output a dirt flag. The dirt flag is a flag that indicates whether or not each LIDAR 14A is in a state that requires removal of LIDAR dirt (hereinafter referred to as "dirty state"). To realize these functions, the LIDAR 14A in this embodiment is equipped with a
汚れ検知部151および汚れ判定部152Aは、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ検知部151および汚れ判定部152Aの一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めLIDAR14AのHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでLIDAR14AのHDDやフラッシュメモリにインストールされてもよい。
The
汚れ検知部151は、LIDAR機能による距離(反射点)の検知結果と、距離検知の際に観測された反射光の強度(以下「反射強度」という。)とに基づいてLIDAR汚れを検知するものである。なお、反射点は「検知点」の一例である。
The
汚れ検知部151は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、汚れ検知部151は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めLIDAR14AのHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることでLIDAR14AのHDDやフラッシュメモリにインストールされてもよい。LIDAR14Aは「車載ライダー装置」の一例である。
The
具体的には、汚れ検知部151は、LIDAR機能による検知結果と、反射強度とに基づいてLIDAR汚れの度合いを示す指標値(以下「汚れ値」という。)を算出する。なお、汚れ値は、LIDAR汚れの度合いを示すものであればどのような値であってもよいし、どのような方法で算出されてもよい。例えば、汚れ検知部151は、LIDAR14A近傍の反射点の数、反射点までの距離、および反射強度に基づいて汚れ値を算出する。汚れ検知部151は、LIDAR14Aの水平方向の検知範囲を所定数に分割した領域ごとに汚れ値を算出する。以下では、検知範囲を分割した所定数に分割した各領域をセクションといい、本実施形態では、各LIDAR14Aの検知範囲を10個のセクションに分割する場合について説明する。汚れ検知部151は、算出した汚れ値を汚れ判定部152Aに通知する。
Specifically, the
汚れ判定部152Aは、汚れ検知部151から通知された汚れ値と閾値情報153とを比較することにより、LIDAR14Aが汚れ状態にあるか否かを判定する。ここで、閾値情報153は、LIDAR14Aが汚れ状態にあるか否かを判定する際に用いられる情報であり、汚れ値の閾値を示す情報である。以下、この判定を「汚れ判定」という。汚れ判定部152Aは、汚れ判定の結果に応じて汚れフラグを更新し、更新した汚れフラグの値を物体認識装置16に通知する。例えば、汚れ判定部152Aは、LIDAR14Aが汚れ状態にあると判定した場合に汚れフラグを立て(汚れフラグの値を1にする)、LIDAR14Aが汚れ状態にないと判定した場合に汚れフラグを下げる(汚れフラグの値を0にする)。
The dirt determination unit 152A compares the dirt value notified from the
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14Aのうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を自動運転制御装置100に出力する。また、物体認識装置16は、LIDAR14Aから通知された汚れフラグの値を自動運転制御装置100に通知する。
The
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両の周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
The
HMI30は、自車両の乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。例えば、HMI30は、自動運転制御装置100の指示により、LIDAR14Aが汚れ状態にあることを報知する動作(以下「汚れ報知動作」という。)を行う。例えば、HMI30は、LIDAR汚れの除去を促すメッセージの表示や音声出力などの動作を汚れ報知動作として行う。
The
車両センサ40は、自車両の速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両の向きを検出する方位センサ等を含む。
The
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備える。ナビゲーション装置50は、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両の位置を特定する。自車両の位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両の位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。地図上経路は、MPU60に出力される。ナビゲーション装置50は、地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから地図上経路と同等の経路を取得してもよい。
The
MPU60は、例えば、推奨車線決定部61を含み、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された地図上経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、左から何番目の車線を走行するといった決定を行う。推奨車線決定部61は、地図上経路に分岐箇所が存在する場合、自車両が、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
The
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20が他装置と通信することにより、随時、アップデートされてよい。
The
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステアリングホイール、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
The driving
自動運転制御装置100は、自車両の自動運転(運転支援を含む)を制御する装置である。自動運転制御装置100は、例えば、第1制御部120と、第2制御部160と、報知制御部180とを備える。第1制御部120、第2制御部160、および報知制御部180は、それぞれ、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め自動運転制御装置100のHDDやフラッシュメモリなどの記憶装置(非一過性の記憶媒体を備える記憶装置)に格納されていてもよいし、DVDやCD-ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体(非一過性の記憶媒体)がドライブ装置に装着されることで自動運転制御装置100のHDDやフラッシュメモリにインストールされてもよい。なお、HMI30と報知制御部180を組み合わせたものが「報知部」の一例である。
The automatic
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、行動計画生成部140とを備える。第1制御部120は、例えば、AI(Artificial Intelligence;人工知能)による機能と、予め与えられたモデルによる機能とを並行して実現する。例えば、「交差点を認識する」機能は、ディープラーニング等による交差点の認識と、予め与えられた条件(パターンマッチング可能な信号、道路標示などがある)に基づく認識とが並行して実行され、双方に対してスコア付けして総合的に評価することで実現されてよい。これによって、自動運転の信頼性が担保される。
FIG. 2 is a functional configuration diagram of the
認識部130は、カメラ10、レーダ装置12、およびLIDAR14Aから物体認識装置16を介して入力された情報に基づいて、自車両の周辺にある物体の位置、および速度、加速度等の状態を認識する。物体の位置は、例えば、自車両の代表点(重心や駆動軸中心など)を原点とした絶対座標上の位置として認識され、制御に使用される。物体の位置は、その物体の重心やコーナー等の代表点で表されてもよいし、表現された領域で表されてもよい。物体の「状態」とは、物体の加速度やジャーク、あるいは「行動状態」(例えば車線変更をしている、またはしようとしているか否か)を含んでもよい。
The
また、認識部130は、例えば、自車両が走行している車線(走行車線)を認識する。例えば、認識部130は、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両の周辺の道路区画線のパターンとを比較することで、走行車線を認識する。なお、認識部130は、道路区画線に限らず、道路区画線や路肩、縁石、中央分離帯、ガードレールなどを含む走路境界(道路境界)を認識することで、走行車線を認識してもよい。この認識において、ナビゲーション装置50から取得される自車両の位置やINSによる処理結果が加味されてもよい。また、認識部130は、一時停止線、障害物、赤信号、料金所、その他の道路事象を認識する。
The
認識部130は、走行車線を認識する際に、走行車線に対する自車両の位置や姿勢を認識する。認識部130は、例えば、自車両の基準点の車線中央からの乖離、および自車両の進行方向の車線中央を連ねた線に対してなす角度を、走行車線に対する自車両の相対位置および姿勢として認識してもよい。これに代えて、認識部130は、走行車線のいずれかの側端部(道路区画線または道路境界)に対する自車両の基準点の位置などを、走行車線に対する自車両の相対位置として認識してもよい。
When recognizing the driving lane, the
行動計画生成部140は、原則的には推奨車線決定部61により決定された推奨車線を走行し、更に、自車両の周辺状況に対応できるように、自車両が自動的に(運転者の操作に依らずに)将来走行する目標軌道を生成する。目標軌道は、例えば、速度要素を含んでいる。例えば、目標軌道は、自車両の到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両の到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両の到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
In principle, the action
行動計画生成部140は、目標軌道を生成するにあたり、自動運転のイベントを設定してよい。自動運転のイベントには、定速走行イベント、低速追従走行イベント、車線変更イベント、分岐イベント、合流イベント、テイクオーバーイベントなどがある。行動計画生成部140は、起動させたイベントに応じた目標軌道を生成する。
The behavior
第2制御部160は、行動計画生成部140によって生成された目標軌道を、予定の時刻通りに自車両が通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。
The
なお、第1制御部120または第2制御部160は、汚れ判定部152Aの判定結果に基づいて運転支援または自動運転の可否を判定し、その判定結果に基づいて運転支援または自動運転に関する処理の実行、一時停止、停止、再開、終了等を判定するように構成されてもよい。
The
図2に戻り、第2制御部160は、例えば、取得部162と、速度制御部164と、操舵制御部166とを備える。取得部162は、行動計画生成部140により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させる。速度制御部164は、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。操舵制御部166は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。速度制御部164および操舵制御部166の処理は、例えば、フィードフォワード制御とフィードバック制御との組み合わせにより実現される。一例として、操舵制御部166は、自車両の前方の道路の曲率に応じたフィードフォワード制御と、目標軌道からの乖離に基づくフィードバック制御とを組み合わせて実行する。
Returning to FIG. 2, the
図1に戻り、報知制御部180は、物体認識装置16を介してLIDAR14Aから通知される汚れフラグの値に応じて、HMI30に汚れ報知動作を指示する機能を有する。例えば、報知制御部180は、汚れフラグの値として1が通知された場合に、HMI30に対して汚れ報知動作を指示し、汚れフラグの値として0が通知された場合には、HMI30に対して汚れ報知動作を指示しない。
Returning to FIG. 1, the
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECU(Electronic Control Unit)とを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
The driving
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
The
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
The
図3Aおよび図3Bは、第1実施形態の車両システム1Aにおいて自車両Mに搭載されるLIDAR14Aの検知範囲の一例を示す図である。図3Aおよび図3Bは、自車両Mの前右部、前左部、後中央部、後右部、後左部にそれぞれ1つずつ設けられた、計5つのLIDAR14Aの検知範囲を示している。図3Aにおいて、LIDAR14A-FRは前右部のLIDAR14Aを表し、LIDAR14A-FLは前左部のLIDARを表す。また、図3Bにおいて、LIDAR14A-RRは後右部のLIDARを表し、LIDAR14A-RLは後左部のLIDAR14Aを表し、LIDAR14A-RCは後中央部のLIDAR14Aを表す。なお以下では、図3Aおよび図3Bを区別しない場合、両者をまとめて図3という場合がある。
3A and 3B are diagrams showing an example of the detection range of the
図3において、検知範囲DR-FR、DR-FL、DR-RR、DR-RL、DR-RCは、それぞれ、前右部、前左部、後中央部、後右部、後左部のLIDAR14A-FR、LIDAR14A-FL、LIDAR14A-RR、LIDAR14A-RL、LIDAR14A-RCの検知範囲を表している。 In Figure 3, the detection ranges DR-FR, DR-FL, DR-RR, DR-RL, and DR-RC represent the detection ranges of LIDAR14A-FR, LIDAR14A-FL, LIDAR14A-RR, LIDAR14A-RL, and LIDAR14A-RC in the front right, front left, rear center, rear right, and rear left, respectively.
なお、上述のとおり、本実施形態の車両システム1Aにおいて、汚れ値の算出は、各LIDAR14Aの検知範囲を10分割したセクションごとに行われる。具体的には、検出範囲DR-FRはセクションFR01~FR10に分割され、検出範囲DR-FLはセクションFL01~FL10に分割され、検出範囲DR-RRはセクションRR01~RR10に分割され、検出範囲DR-RLはセクションRL01~RL10に分割され、検出範囲DR-RCはセクションRC01~RC10に分割される。
As described above, in the
ところで、車両の自動運転制御においては、一般に、自車両Mの真正面、真後ろ、および左右斜め後方における距離検知が重要となり、これらの方向の距離検知に関しては他の領域よりも比較的に高い検知精度が求められる。このため、これらの方向の検知に使用されるLIDAR14Aについては、汚れの度合いが比較的軽度であるうちにLIDAR汚れが解消されることが望ましい。そこで、本実施形態の車両システム1Aでは、各検出範囲のセクションごとに汚れ判定の閾値を設定する。これにより、局所的なLIDAR汚れが検出可能になるとともに、優先度の高いセクションのLIDAR汚れを比較的早い段階で検出することが可能となる。
In the case of autonomous vehicle driving control, distance detection directly in front of the vehicle M, directly behind the vehicle M, and diagonally to the left and right is generally important, and relatively higher detection accuracy is required for distance detection in these directions than in other areas. For this reason, it is desirable to eliminate LIDAR dirt from the
なお、図3に例示した各LIDAR14Aの検知範囲の向きや、各検知範囲を構成するセクションの数などは一例であり、必要に応じて図3と異なる態様に変更されてもよい。また、自車両Mに設置されるLIDAR14Aの数や設置位置も図3と異なる態様に変更されてよい。例えば、検知範囲は11以上のセクションに分割されてもよいし、9以下のセクションに分割されてもよい。また、検知範囲は水平方向だけでなく垂直方向に分割されてもよいし、垂直方向にのみ分割されてもよい。また、例えば、複数のLIDAR14Aは、それぞれの検知範囲が所定の軸(例えば、車両の中心軸や進行方向)に対して左右対称または上下対称となるように設けられてもよいし、非対称となるように設けられてもよい。
The orientation of the detection range of each
図4は、第1実施形態における閾値情報153の一例を示す図である。例えば、閾値情報153は、図4に示されるように、各セクションのセクションIDと、各セクションの汚れ判定における汚れ値の閾値との対応関係を示すテーブルとしてLIDAR14Aに記憶される。図4は、自車両Mの前左部に設置されたLIDAR14A-FLについての閾値情報の一例として閾値情報153-FLを示し、自車両Mの前右部に設置されたLIDAR14A-FRについての閾値情報の一例として閾値情報153-FRを示す。また、図4は、自車両Mの後左部に設置されたLIDAR14A-RLについての閾値情報の一例として閾値情報153-RLを示し、自車両Mの後中央部に設置されたLIDAR14A-RCについての閾値情報の一例として閾値情報153-RCを示し、自車両Mの後右部に設置されたLIDAR14A-RRについての閾値情報の一例として閾値情報153-RRを示す。図4の例において、セクションIDの値は図3に記載したセクションIDと対応している。
FIG. 4 is a diagram showing an example of
上述のとおり、自車両Mの自動運転制御においては、自車両Mの前方正面と、後方正面および左右斜め後方とにおける距離検知が重要となる。そのため、閾値情報153-FLの例では、自車両Mの前方正面に対応するセクションFL03~FL06の閾値が他のセクションに対して相対的に低い50%に設定されている。同様に、閾値情報153-FRの例では、自車両Mの前方正面に対応するセクションFR05~FR08の閾値が他のセクションに対して相対的に低い50%に設定されている。 As described above, in the autonomous driving control of the host vehicle M, it is important to detect distances in the front, rear, and diagonally rearward directions of the host vehicle M. Therefore, in the example of threshold information 153-FL, the thresholds for sections FL03 to FL06 corresponding to the front of the host vehicle M are set to 50%, which is relatively low compared to the other sections. Similarly, in the example of threshold information 153-FR, the thresholds for sections FR05 to FR08 corresponding to the front of the host vehicle M are set to 50%, which is relatively low compared to the other sections.
一方、閾値情報153-RLの例では、自車両Mの左斜め後方に対応するセクションRL06~RL08の閾値が他のセクションに対して相対的に低い60%に設定されている。同様に、閾値情報153-RCの例では、自車両Mの後方正面に対応するセクションRC04~RC07の閾値が他のセクションに対して相対的に低い50%に設定されている。同様に、閾値情報153-RRの例では、自車両Mの右斜め後方に対応するセクションRR03~RR05の閾値が他のセクションに対して相対的に低い60%に設定されている。 On the other hand, in the example of threshold information 153-RL, the thresholds for sections RL06 to RL08 corresponding to the left diagonal rear of the host vehicle M are set to 60%, which is relatively low compared to the other sections. Similarly, in the example of threshold information 153-RC, the thresholds for sections RC04 to RC07 corresponding to the front rear of the host vehicle M are set to 50%, which is relatively low compared to the other sections. Similarly, in the example of threshold information 153-RR, the thresholds for sections RR03 to RR05 corresponding to the right diagonal rear of the host vehicle M are set to 60%, which is relatively low compared to the other sections.
このように、複数のセクションのうち、自車両Mの前方または後方に対応するセクション(例えば、セクションFL03~FL06、FR05~FR08、RC04~RC07、RL06~RL08、RR03~RR05)には、同じ検知範囲の中で、その他の領域よりも低い閾値が設定され、前記車両の横方向(例えば、セクションFL03~FL06、FR05~FR08、RC04~RC07、RL06~RL08、RR03~RR05以外のセクション)のセクションにはその他の領域よりも高い閾値が設定される。 In this way, of the multiple sections, a lower threshold is set for the sections that correspond to the front or rear of the vehicle M (e.g., sections FL03-FL06, FR05-FR08, RC04-RC07, RL06-RL08, RR03-RR05) than for other areas within the same detection range, and a higher threshold is set for the sections to the side of the vehicle (e.g., sections other than sections FL03-FL06, FR05-FR08, RC04-RC07, RL06-RL08, RR03-RR05) than for other areas.
この場合、自動運転制御装置100において、汚れ判定部152Aは、各LIDAR14Aについてセクションごとに通知された汚れ値(以下「測定値」という。)を、それぞれのセクションに設定された閾値と比較する。汚れ判定部152Aは、測定値が閾値以上となっているセクションが存在する場合、当該セクションを検知範囲内に有するLIDAR14Aについて汚れフラグを立てて自動運転制御装置100に通知する。この通知を受けた自動運転制御装置100では、報知制御部180が当該LIDAR14Aについて汚れ報知動作を行うことをHMI30に指示する。
In this case, in the automatic
例えば、図4の例において、セクションFL05における汚れ値として55%が測定された場合、汚れ判定部152Aは、測定値がセクションFL05の閾値50%以上であることから、セクションFOL05を検知範囲に有するLIDAR14A-FLについて汚れフラグを立てて自動運転制御装置100に通知する。この通知を受けた自動運転制御装置100では、報知制御部180がLIDAR14A-FLについて汚れ報知動作を行うことをHMI30に指示する。
For example, in the example of FIG. 4, if a dirt value of 55% is measured for section FL05, the dirt determination unit 152A will set a dirt flag for LIDAR14A-FL, which has section FL05 in its detection range, and notify the automatic
このように構成された第1実施形態の車両システム1Aは、自車両に搭載された各LIDAR14Aが、水平方向の検知範囲を所定数に分割したセクションごとに汚れ値を算出し、自動運転制御装置100が、セクションごとに算出された汚れ値と、対応するセクションに設定された汚れ値の閾値とに基づいて、各LIDAR14Aについて汚れ報知動作を行うか否かを判定する。このような構成を備えることにより、実施形態の車両システム1Aは、局所的なLIDAR汚れを検出するとともに、各セクションの優先度に応じたタイミングでLIDAR汚れを検出することができる。すなわち、実施形態の車両システム1Aによれば、LIDARに対する汚れの付着によって車両の制御機能が必要以上に抑制されないようにすることができる。
In the
<第2実施形態>
図5は、第2実施形態に係る車両制御装置を利用した車両システム1Bの構成図である。車両システム1Bは、LIDAR14Aに代えてLIDAR14Bを備える点において第1実施形態の車両システム1Aと異なる。また、LIDAR14Bは、汚れ判定部152Aに代えて汚れ判定部152Bを備える点、および閾値情報153に代えて条件情報154を記憶している点において第1実施形態のLIDAR14Aと異なる。その他の車両システム1Bの構成は車両システム1Aと同様である。そのため、図5においては、図1と同じ符号を付すことにより、それらの同様の構成についての説明を省略する。
Second Embodiment
FIG. 5 is a configuration diagram of a
汚れ判定部152Bは、第1実施形態の汚れ判定部152Aが汚れ検知部151から通知される汚れ値と閾値との比較結果に基づいて汚れフラグを管理したのに対し、閾値との比較結果に加えて、汚れ値の変動状況に基づいて汚れフラグを管理する点で汚れ判定部152Aと異なる。具体的には、汚れ判定部152Bは、条件情報154により定義された複数の判定条件による汚れ判定の結果に基づいて汚れフラグを管理する。
The
図6は、第2実施形態における条件情報154の一例を示す図である。例えば、条件情報154には、汚れ判定に用いられる複数の判定条件の名称(条件名)と、判定条件の内容(条件内容)と、判定条件の種別(条件種別)とが対応づけて登録される。例えば、図6の条件情報154の例では、汚れフラグを立てる条件(フラグON条件)として、汚れ閾値条件、および汚れ揺らぎ条件が登録され、汚れフラグを下げる条件(フラグOFF条件)として、復旧条件が設定されている。各フラグON条件、およびフラグOFF条件の詳細は、以下のとおりである。
Figure 6 is a diagram showing an example of
[汚れ閾値条件]
汚れ閾値条件は、LIDAR14Bに付着したもの(汚れ)の量が一定量を超えたか否かを判定する条件である。一般に、車両が低温環境で高速走行している場合、LIDAR14Bの表面の水滴が露のように短時間付着する場合がある。そのため、このような状況では、一時的に汚れ値が上昇することがあるため、この状態を汚れ状態として誤検知する可能性がある。また、車両が発進した直後の低速走行状態では、降雨による水滴がLIDAR14Bの表面にとどまる可能性が低く、基本的に汚れ値が閾値を超えることがない。そこで、本実施形態では、汚れ値が、閾値を超えてから閾値を下回ることなく所定時間(例えば300秒)を経過した場合に判定結果を真とする条件を汚れ値条件とする。以下、汚れ閾値条件を判定する際の上記所定時間を判定時間という。
[Contamination threshold condition]
The dirt threshold condition is a condition for determining whether or not the amount of dirt adhering to the
[汚れ値ゆらぎ条件]
汚れ値ゆらぎ条件は、LIDAR汚れが、拭き取られる必要のある汚れであるか否かを判定する条件である。具体的には、汚れ値ゆらぎ条件は、汚れ値が閾値を超えた状態で経過した過去の判定時間(例えば300秒)における汚れ値のゆらぎの大きさが所定の割合未満(例えば最大値と最小値の差が10%未満)である場合に判定結果を真とする条件である。これは、拭き取られる必要のある汚れの一例として、オイルと砂の混合物をLIDAR14Bの表面に付着させた場合、判定時間が経過するまでに汚れ値のゆらぎの大きさが10%を超える場合があり、判定時間を長くとりすぎると拭き取られる必要のある汚れを検知することができなくなる恐れがあるという知見が得られたことによるものである。また、通常、LIDAR汚れを拭き取るために自車両を停車させるには数分程度の時間が必要となることから、判定時間を例えば300秒程度としても差し支えない。
[Conditions for fluctuation of dirt value]
The dirt value fluctuation condition is a condition for determining whether the LIDAR dirt is dirt that needs to be wiped off. Specifically, the dirt value fluctuation condition is a condition for determining that the judgment result is true when the magnitude of the dirt value fluctuation in the past judgment time (e.g., 300 seconds) that has elapsed in a state in which the dirt value has exceeded the threshold value is less than a predetermined ratio (e.g., the difference between the maximum value and the minimum value is less than 10%). This is due to the fact that, as an example of dirt that needs to be wiped off, when a mixture of oil and sand is attached to the surface of the
[復旧条件]
上述のとおり、復旧条件は、フラグON条件を満たしているときに上げられた汚れフラグを下げてよいか否かを判定するための条件である。そのため、復旧条件は、自車両が汚れ状態にないことを判定することができる条件である必要がある。そこで、本実施形態では、全てのセクションにおいて汚れ値が閾値(例えば30%)以下となっている場合に判定結果を真とする条件を復旧条件とする。この場合の閾値は、LIDAR14Bの表面に検知性能に影響しない傷や汚れが残っている場合であっても汚れフラグを下げられるようにすること、汚れフラグのONおよびOFFが頻繁に繰り返されないようにすることを考慮して設計されるとよい。
[Recovery conditions]
As described above, the restoration condition is a condition for determining whether or not the dirt flag that is raised when the flag ON condition is satisfied may be lowered. Therefore, the restoration condition needs to be a condition that can determine that the vehicle is not in a dirty state. Therefore, in this embodiment, the restoration condition is a condition that determines that the determination result is true when the dirt value is equal to or less than a threshold value (e.g., 30%) in all sections. In this case, the threshold value may be designed in consideration of being able to lower the dirt flag even if scratches or dirt that do not affect the detection performance remain on the surface of the
図7は、第2実施形態のLIDAR14Bにおいて、汚れ判定部152Bが汚れフラグを管理する方法の一例を示すフローチャートである。ここでは、汚れフラグは各LIDAR14Bについてそれぞれ管理されるものとし、ある1つのLIDAR14Bの汚れフラグを管理する処理の流れについて説明する。まず、汚れ判定部152Bは、全セクションの汚れ値が汚れ値条件を満たしているか否かを判定する(ステップS101)。ここで、全てのセクションの汚れ値が汚れ値条件を満たしていると判定した場合、汚れ判定部152Bは、全てのセクションの汚れ値が汚れ値ゆらぎ条件を満たしているか否かを判定する(ステップS102)。ここで、全てのセクションの汚れ値が汚れ値ゆらぎ条件を満たしていると判定した場合、汚れ判定部152Bは、汚れフラグを立てる(ステップS103)。
Figure 7 is a flowchart showing an example of a method in which the
一方、ステップS101において、いずれかのセクションの汚れ値が汚れ値条件を満たしていないと判定した場合、又は、ステップS102において、いずれかのセクションの汚れ値が汚れ値ゆらぎ条件を満たしていないと判定した場合、汚れ判定部152Bは、復旧条件が満たされているか否かを判定する(ステップS104)。ここで、復旧条件が満たされていると判定した場合、汚れ判定部152Bは、汚れフラグを下げ(ステップS105)、ステップS101に処理を戻す。一方、ステップS104において、復旧条件が満たされていないと判定した場合、汚れ判定部152Bは、汚れフラグを下げることなくステップS101に処理を戻す。
On the other hand, if it is determined in step S101 that the dirt value of any section does not satisfy the dirt value condition, or if it is determined in step S102 that the dirt value of any section does not satisfy the dirt value fluctuation condition, the
このように構成された第2実施形態の車両システム1Bは、LIDAR14Bが、各LIDAR14Bが汚れ状態にあるか否かを、汚れ値に関する条件を含む複数の条件の組み合わせで判定する汚れ判定部152Bを備える。このような構成を備えることにより、実施形態の車両システム1Bは、LIDAR14Bが汚れ状態にあるか否かをより精度良く判定することが可能となる。すなわち、実施形態の車両システム1Bによれば、LIDAR汚れによって自車両の制御機能が必要以上に抑制されないようにすることが可能となる。
The
<変形例>
第1実施形態において、汚れ判定部152Aおよび閾値情報153は物体認識装置16または自動運転制御装置100に備えられてもよい。同様に、汚れ判定部152Bおよび条件情報154は物体認識装置16または自動運転制御装置100に備えられてもよい。
<Modification>
In the first embodiment, the dirt determination unit 152A and the
物体認識装置16は、カメラ10、レーダ装置12、およびLIDAR14A(または14B、以下同様)の検出結果等(汚れ値を含む)をそのまま自動運転制御装置100に出力してよい。また、車両システム1A(または1B、以下同様)から物体認識装置16が省略されてもよい。
The
第1制御部120および第2制御部160において、認識部130や行動計画生成部140、取得部162、速度制御部164、または操舵制御部166等の各機能部は、物体認識装置16を介してLIDAR14Aから通知される汚れフラグの値に基づいて処理を分岐または変更するように構成されてもよい。同様に、物体認識装置16も、LIDAR14Aから通知される汚れフラグの値に基づいて処理を分岐または変更するように構成されてもよい。例えば、第1制御部120および第2制御部160は、通知された汚れフラグによっていずれかのLIDAR14Aが汚れ状態にあることが認識された場合、自車両の自動運転に関する動作を縮退させるように構成されてもよい。また、自動運転制御装置100は、通知された汚れフラグをナビゲーション装置50やMUP60等の他の装置に通知してもよい。この場合、他の装置は、汚れフラグの値に基づいて自装置の処理を分岐または変更するように構成されてもよい。
In the
報知制御部180は、HMI30以外の装置に汚れ報知動作を行わせてもよいし、自身で汚れ報知動作を行ってもよい。例えば、報知制御部180は、LIDAR汚れを報知する対象のユーザ宛てに電子メールを送信してもよいし、当該ユーザが使用する端末装置にメッセージ通知を行ってもよい。
The
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 The above describes the form for carrying out the present invention using an embodiment, but the present invention is not limited to such an embodiment, and various modifications and substitutions can be made without departing from the spirit of the present invention.
1A,1B…車両システム、10…カメラ、12…レーダ装置、14A,14B…LIDAR(Light Detection and Ranging)、151…汚れ検知部、152A,152B…汚れ判定部、153…閾値情報、154…条件情報、16…物体認識装置、20…通信装置、30…HMI(Human Machine Interface)、40…車両センサ、50…ナビゲーション装置、51…GNSS(Global Navigation Satellite System)受信機、52…ナビHMI、53…経路決定部、54…第1地図情報、60…MPU(Map Positioning Unit)、61…推奨車線決定部、62…第2地図情報、80…運転操作子、100…自動運転制御装置、100-1…通信コントローラ、100-2…CPU(Central Processing Unit)、100-3…RAM(Random Access Memory)、100-4…ROM(Read Only Memory)、100-5…記憶装置、100-5a…プログラム、100-6…ドライブ装置、120…第1制御部、130…認識部、140…行動計画生成部、160…第2制御部、164…速度制御部、166…操舵制御部、180…報知制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置 1A, 1B...vehicle system, 10...camera, 12...radar device, 14A, 14B...LIDAR (Light Detection and Ranging), 151...dirt detection unit, 152A, 152B...dirt determination unit, 153...threshold information, 154...condition information, 16...object recognition device, 20...communication device, 30...HMI (Human Machine Interface), 40...vehicle sensor, 50...navigation device, 51...GNSS (Global Navigation Satellite System) receiver, 52...navigation HMI, 53...route determination unit, 54...first map information, 60...MPU (Map Positioning Unit), 61...recommended lane determination unit, 62...second map information, 80...driving operator, 100...automatic driving control device, 100-1...communication controller, 100-2...CPU (Central Processing Unit), 100-3...RAM (Random Access Memory), 100-4...ROM (Read Only Memory), 100-5...storage device, 100-5a...program, 100-6...drive device, 120...first control unit, 130...recognition unit, 140...action plan generation unit, 160...second control unit, 164...speed control unit, 166...steering control unit, 180...notification control unit, 200...driving force output device, 210...brake device, 220...steering device
Claims (5)
複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する汚れ判定部を備える汚れ判定装置と、
を備え、
前記セクションは、前記車載ライダー装置を中心として、水平方向および垂直方向のうち少なくとも水平方向に前記検知範囲を複数の領域に分割したものであり、複数の前記セクションのうち、車両の前方または後方に対応するセクションには第1閾値が設定され、前記車両の横方向に対応するセクションには前記第1閾値よりも大きい第2閾値が設定され、前記前方左右および前記後方正面の車載ライダー装置の第2閾値には、前記後方左右の車載ライダー装置の第2閾値よりも低い値が設定され、
前記汚れ判定部は、前記セクションごとに測定された前記汚れ値と、前記セクションごとに設定された閾値とを比較することにより、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、
車両用認識システム。 A plurality of vehicle-mounted LIDAR devices are installed at five locations on the front left and right sides, the rear left and right sides, and the rear front of a vehicle, and detect objects using light or electromagnetic waves similar to light, the plurality of vehicle-mounted LIDAR devices each having a dirt detection unit that calculates a dirt value indicating a degree of dirt of the vehicle-mounted LIDAR device for each section obtained by dividing a detection range of the object into a plurality of sections based on the detection result of the object;
A dirt determination device including a dirt determination unit that determines whether or not dirt to be removed is attached to the on-board LIDAR device based on the dirt values calculated for each of the multiple sections;
Equipped with
The sections are obtained by dividing the detection range into a plurality of regions in at least the horizontal direction of the horizontal and vertical directions with the vehicle-mounted LIDAR device at the center, and among the plurality of sections, a first threshold value is set in a section corresponding to the front or rear of the vehicle, a second threshold value larger than the first threshold value is set in a section corresponding to the lateral direction of the vehicle , and a value lower than the second threshold value of the vehicle-mounted LIDAR devices on the left and right front and the front rear is set for the second threshold value of the vehicle-mounted LIDAR devices on the left and right rear;
The dirt determination unit determines whether or not dirt that should be removed is attached to the on-board LIDAR device by comparing the dirt value measured for each section with a threshold value set for each section.
Vehicle recognition system.
請求項1に記載の車両用認識システム。 The dirt detection unit calculates the dirt value based on a distance from the in-vehicle LIDAR device to a detection point at which the object is detected by the in-vehicle LIDAR device and an intensity of the light or the electromagnetic wave reflected by the object at the detection point in relation to the detection of the distance.
The vehicle recognition system according to claim 1 .
前記自動運転制御装置は、
前記汚れ判定部の判定結果に基づいて、前記車載ライダー装置に除去されるべき汚れが付着していることを報知する報知部を備える、
請求項1または2のいずれか一項に記載の車両用認識システム。 The vehicle further includes an automatic driving control device that controls driving assistance or automatic driving of the vehicle based on the detection result of the object,
The automatic driving control device includes:
and a notification unit that notifies the vehicle-mounted LIDAR device that dirt to be removed is attached to the vehicle-mounted LIDAR device based on a determination result of the dirt determination unit.
A recognition system for a vehicle according to claim 1 or 2.
前記制御部は、前記汚れ判定部の判定結果に基づいて前記運転支援または前記自動運転の可否を判定する、
請求項3に記載の車両用認識システム。 The automatic driving control device further includes a control unit that controls the driving assistance or the automatic driving,
The control unit determines whether or not the driving assistance or the automatic driving is possible based on a determination result of the dirt determination unit.
The vehicle recognition system according to claim 3.
前記物体の検知結果に基づいて自装置の汚れ度合いを示す汚れ値を、前記物体の検知範囲を複数に分割したセクションごとに算出し、
汚れ判定装置が、
複数の前記セクションごとに算出された前記汚れ値に基づいて、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、
認識方法であって、
前記セクションは、前記車載ライダー装置を中心として、水平方向および垂直方向のうち少なくとも水平方向に前記検知範囲を複数の領域に分割したものであり、複数の前記セクションのうち、車両の前方または後方に対応するセクションには第1閾値が設定され、前記車両の横方向に対応するセクションには前記第1閾値よりも大きい第2閾値が設定され、前記前方左右および前記後方正面の車載ライダー装置の第2閾値には、前記後方左右の車載ライダー装置の第2閾値よりも低い値が設定され、
前記車載ライダー装置が、前記セクションごとに測定された前記汚れ値と、前記セクションごとに設定された閾値とを比較することにより、前記車載ライダー装置に除去されるべき汚れが付着しているか否かを判定する、
認識方法。 A plurality of vehicle-mounted LIDAR devices that detect objects using light or electromagnetic waves close to light are installed at five locations on the front left and right, rear left and right, and rear front of the vehicle .
Calculating a dirt value indicating a degree of dirt on the device itself based on the object detection result for each of a plurality of sections obtained by dividing the object detection range;
The dirt detection device
determining whether or not dirt that should be removed is attached to the vehicle-mounted LIDAR device based on the dirt value calculated for each of the multiple sections;
A method of recognition comprising:
The sections are obtained by dividing the detection range into a plurality of regions in at least the horizontal direction of the horizontal and vertical directions with the vehicle-mounted LIDAR device at the center, and among the plurality of sections, a first threshold value is set in a section corresponding to the front or rear of the vehicle, a second threshold value larger than the first threshold value is set in a section corresponding to the lateral direction of the vehicle , and a value lower than the second threshold value of the vehicle-mounted LIDAR devices on the left and right front and the front rear is set for the second threshold value of the vehicle-mounted LIDAR devices on the left and right rear;
The vehicle-mounted LIDAR device compares the dirt value measured for each section with a threshold value set for each section to determine whether or not dirt that should be removed is attached to the vehicle-mounted LIDAR device.
How to recognize.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020219640A JP7492453B2 (en) | 2020-12-28 | 2020-12-28 | Vehicle recognition system and method |
CN202111181928.0A CN114690162A (en) | 2020-12-28 | 2021-10-11 | Vehicle identification system and identification method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020219640A JP7492453B2 (en) | 2020-12-28 | 2020-12-28 | Vehicle recognition system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022104429A JP2022104429A (en) | 2022-07-08 |
JP7492453B2 true JP7492453B2 (en) | 2024-05-29 |
Family
ID=82136198
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020219640A Active JP7492453B2 (en) | 2020-12-28 | 2020-12-28 | Vehicle recognition system and method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7492453B2 (en) |
CN (1) | CN114690162A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005010094A (en) | 2003-06-20 | 2005-01-13 | Denso Corp | Object recognition apparatus for vehicle |
JP2019015692A (en) | 2017-07-11 | 2019-01-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Adhered substance detection method, adhered substance learning method, adhered substance detection device, adhered substance learning device, adhered substance detection system, and program |
JP2020076589A (en) | 2018-11-06 | 2020-05-21 | 日本電産モビリティ株式会社 | Object detection device |
US20200166649A1 (en) | 2018-11-26 | 2020-05-28 | Continental Automotive Systems, Inc. | Adverse weather condition detection system with lidar sensor |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015068249A1 (en) * | 2013-11-08 | 2015-05-14 | 株式会社日立製作所 | Autonomous driving vehicle and autonomous driving system |
JP6578589B2 (en) * | 2017-11-27 | 2019-09-25 | 本田技研工業株式会社 | Vehicle control device, vehicle control method, and program |
-
2020
- 2020-12-28 JP JP2020219640A patent/JP7492453B2/en active Active
-
2021
- 2021-10-11 CN CN202111181928.0A patent/CN114690162A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005010094A (en) | 2003-06-20 | 2005-01-13 | Denso Corp | Object recognition apparatus for vehicle |
JP2019015692A (en) | 2017-07-11 | 2019-01-31 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Adhered substance detection method, adhered substance learning method, adhered substance detection device, adhered substance learning device, adhered substance detection system, and program |
JP2020076589A (en) | 2018-11-06 | 2020-05-21 | 日本電産モビリティ株式会社 | Object detection device |
US20200166649A1 (en) | 2018-11-26 | 2020-05-28 | Continental Automotive Systems, Inc. | Adverse weather condition detection system with lidar sensor |
Also Published As
Publication number | Publication date |
---|---|
CN114690162A (en) | 2022-07-01 |
JP2022104429A (en) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111731321B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN110053617B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6641583B2 (en) | Vehicle control device, vehicle control method, and program | |
CN110254427B (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190278286A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7345349B2 (en) | Vehicle control device, vehicle control method, and program | |
JP2020147139A (en) | Vehicle control device, vehicle control method, and program | |
JP2022139009A (en) | Drive support device, drive support method, and program | |
US11273825B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20190161090A1 (en) | Vehicle control device, vehicle control method, and recording medium | |
JP7046289B1 (en) | Vehicle controls, vehicle systems, vehicle control methods, and programs | |
US11628862B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN115140086A (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7473370B2 (en) | Vehicle control device, vehicle control method, and program | |
CN112141097A (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7470157B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7376634B2 (en) | Vehicle control device, vehicle control method, and program | |
JP7492453B2 (en) | Vehicle recognition system and method | |
JP2023036593A (en) | Vehicular recognition device, vehicle control system, vehicular recognition method and program | |
CN115147689A (en) | Identification device, vehicle system, identification method, and storage medium | |
JP7410848B2 (en) | Vehicle recognition system and recognition method | |
JP2022044236A (en) | Vehicle control device, vehicle control method, and program | |
JP7450436B2 (en) | Vehicle control device, vehicle control method, and program | |
US20240182024A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
US20220203989A1 (en) | Vehicle control device, vehicle control method, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240312 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7492453 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |