JP7027279B2 - Vehicle control devices, vehicle control methods, and programs - Google Patents
Vehicle control devices, vehicle control methods, and programs Download PDFInfo
- Publication number
- JP7027279B2 JP7027279B2 JP2018148551A JP2018148551A JP7027279B2 JP 7027279 B2 JP7027279 B2 JP 7027279B2 JP 2018148551 A JP2018148551 A JP 2018148551A JP 2018148551 A JP2018148551 A JP 2018148551A JP 7027279 B2 JP7027279 B2 JP 7027279B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- recognition result
- vehicle
- object information
- integrated recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 150
- 230000008569 process Effects 0.000 claims description 133
- 238000001514 detection method Methods 0.000 claims description 24
- 230000009471 action Effects 0.000 description 13
- 230000004927 fusion Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000001133 acceleration Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 238000002485 combustion reaction Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
- B60W30/0956—Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Image Analysis (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Image Processing (AREA)
Description
本発明は、物体認識装置、車両制御装置、物体認識方法、およびプログラムに関する。 The present invention relates to an object recognition device, a vehicle control device, an object recognition method, and a program.
従来、複数のデバイスによる出力を統合して物体を認識する技術について開示がなされている(例えば、特許文献1参照)。このような技術は、センサフュージョンと称されている。一般に、センサフュージョンによって物体が認識された場合、デバイス単体の出力に基づいて物体が認識された場合に比して、認識の信頼度が高いと言える。このため、特許文献1に記載の技術では、デバイス単体で物体が認識された場合、センサフュージョンにより物体が認識された場合に比して、車両制御の度合いを低くしている。
Conventionally, a technique for recognizing an object by integrating outputs from a plurality of devices has been disclosed (see, for example, Patent Document 1). Such a technique is called sensor fusion. In general, when an object is recognized by sensor fusion, it can be said that the recognition reliability is higher than when the object is recognized based on the output of a single device. Therefore, in the technique described in
センサフュージョンにより物体を認識する場合、信頼度が高いことの反面、デバイス単体の出力に基づいて物体を認識する場合に比して、処理の完了が遅くなることが想定される。このため、例えば、車両から遠距離にある物体に対して予備的な制御をしようとしても、センサフュージョンによる処理が確定しないため、これを行うことができない場合があった。このように、従来のセンサフュージョンの技術では、物体の認識が遅れる場合があった。 When recognizing an object by sensor fusion, the reliability is high, but on the other hand, it is expected that the completion of processing will be delayed as compared with the case of recognizing an object based on the output of a single device. For this reason, for example, even if an attempt is made to perform preliminary control on an object at a long distance from the vehicle, it may not be possible to perform this because the processing by the sensor fusion is not determined. As described above, in the conventional sensor fusion technology, the recognition of an object may be delayed.
本発明は、このような事情を考慮してなされたものであり、より迅速に速報的なセンサフュージョン結果を得ることができる物体認識装置、車両制御装置、物体認識方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides an object recognition device, a vehicle control device, an object recognition method, and a program capable of obtaining a prompt sensor fusion result more quickly. Is one of the purposes.
この発明に係る物体認識装置、車両制御装置、物体認識方法、およびプログラムは、以下の構成を採用した。
(1):この発明の一態様に係る物体認識装置は、車両に搭載される物体認識装置であって、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力する第1処理部と、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力する第2処理部と、前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識する第1統合認識部と、前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する第2統合認識部と、を備える物体認識装置である。
The object recognition device, the vehicle control device, the object recognition method, and the program according to the present invention have adopted the following configurations.
(1): The object recognition device according to one aspect of the present invention is an object recognition device mounted on a vehicle, and at least process A is performed based on the output of the first device for recognizing an object. The first processing unit that outputs the object information and outputs the object information by performing the processing B that requires more work than the processing A, and the second device for recognizing the object, the first device. Based on the output of the second device attached to the vehicle so as to have the same direction as the detection range, at least the process C is performed to output the object information, and the process requires more steps than the process C. A second processing unit that performs D and outputs object information, and a first integrated recognition unit that recognizes an object based on the object information obtained as a result of the processing A and the object information obtained as a result of the processing C. An object recognition device including an object information obtained as a result of the process B and a second integrated recognition unit for recognizing an object based on the object information obtained as a result of the process D.
(2):上記(1)の態様において、前記処理Aは、前記処理Bに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であり、且つ/または、前記処理Cは、前記処理Dに比して、前記第1デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理であるものである。 (2): In the embodiment of (1) above, the process A is a process executed for the output data with a smaller number of output cycles than the first device as compared with the process B. And / or, the process C is a process executed for the output data with a smaller number of output cycles than the first device as compared with the process D.
(3):上記(2)の態様において、前記第1デバイスはカメラであり、前記処理Aは、前処理Bに比して少ないフレーム数の画像に基づいて物体情報を生成する処理を含むものである。 (3): In the aspect of (2) above, the first device is a camera, and the process A includes a process of generating object information based on an image having a smaller number of frames than the preprocess B. ..
(4):上記(1)の態様において、前記処理Aは、前記処理Bに比して、少ない処理手順で実行される処理であり、且つ/または、前記処理Cは、前記処理Dに比して、少ない処理手順で実行される処理であるものである。 (4): In the aspect of (1) above, the process A is a process executed with a smaller number of process procedures than the process B, and / or the process C is compared with the process D. Therefore, it is a process that is executed with a small number of processing procedures.
(5):上記(4)の態様において、前記第2デバイスはLIDARであり、前記処理Cは、基準位置と物体との距離を特定し、特定した距離を前記物体情報に含めて出力する処理を含むものである。 (5): In the aspect of (4) above, the second device is a lidar, and the process C specifies a distance between a reference position and an object, and the specified distance is included in the object information and output. Is included.
(6):上記(5)の態様において、前記処理Dは、前記距離および物体のサイズを特定し、特定した距離およびサイズを前記物体情報に含めて出力する処理を含むものである。 (6): In the embodiment of the above (5), the process D includes a process of specifying the distance and the size of the object, including the specified distance and the size in the object information, and outputting the process.
(7):本発明の他の態様は、上記(1)から(6)のうちいずれかの態様の物体認識装置と、車両の速度と操舵角とのうち一方または双方を制御する運転制御部と、を備え、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第1統合認識部の認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識部による認識結果が得られた後は、前記第2統合認識部の認識結果の比率を前記第1統合認識部による認識結果よりも高くして前記物体との位置関係を調節する制御を行う、車両制御装置である。 (7): Another aspect of the present invention is the object recognition device according to any one of the above (1) to (6) and the operation control unit that controls one or both of the vehicle speed and the steering angle. And, the operation control unit controls to adjust the positional relationship with the object by using the recognition result of the first integrated recognition unit until the recognition result by the second integrated recognition unit is obtained. After the recognition result by the second integrated recognition unit is obtained, the ratio of the recognition result by the second integrated recognition unit is set higher than the recognition result by the first integrated recognition unit, and the positional relationship with the object is set. It is a vehicle control device that controls to adjust.
(8):上記(7)の態様において、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、制御程度を小さくするものである。 (8): In the aspect of (7) above, the operation control unit is compared after the recognition result by the second integrated recognition unit is obtained until the recognition result by the second integrated recognition unit is obtained. Therefore, the degree of control is reduced.
(9):上記(7)または(8)の態様において、前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第2統合認識部による認識結果が得られた後に比して、前記物体との位置関係に対する相対的な制御程度を小さくするものである。 (9): In the embodiment (7) or (8), the operation control unit can obtain the recognition result by the second integrated recognition unit until the recognition result by the second integrated recognition unit is obtained. The degree of relative control over the positional relationship with the object is reduced as compared with the latter.
(10):本発明の他の態様は、車両に搭載される物体認識装置により実行される物体認識方法であって、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力することと、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力することと、前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識することと、前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識することと、を備える物体認識方法である。 (10): Another aspect of the present invention is an object recognition method executed by an object recognition device mounted on a vehicle, at least based on the output of a first device for recognizing an object, processing A. Is performed to output the object information, and the process B, which requires more work than the process A, is performed to output the object information, and is a second device for recognizing the object, which is the first device. Based on the output of the second device attached to the vehicle so as to have the same direction as the detection range, at least the process C is performed to output the object information, and the process requires more steps than the process C. Performing D to output the object information, recognizing the object based on the object information obtained by the process A, the object information obtained by the process C, and the object information obtained by the process B. It is an object recognition method including recognizing an object based on the object information obtained by the process D.
(11):本発明の他の態様は、車両に搭載される物体認識装置のプロセッサにより実行されるプログラムであって、前記プロセッサに、物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力させると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力させ、物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力させると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力させ、前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識させ、前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識させる、プログラムである。 (11): Another aspect of the present invention is a program executed by a processor of an object recognition device mounted on a vehicle, based on the output of the first device for recognizing an object to the processor. At least, it is a second device for recognizing an object by performing process A to output object information and performing process B which requires more steps than process A to output object information. Based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the one device, at least the process C is performed to output the object information, and the number of steps is larger than that of the process C. A lot of processing D is performed to output the object information, the object is recognized based on the object information obtained by the processing A and the object information obtained by the processing C, the object information obtained by the processing B, and the processing. It is a program that recognizes an object based on the object information obtained by D.
(1)~(11)によれば、より迅速に速報的なセンサフュージョン結果を得ることができる。 According to (1) to (11), a quick sensor fusion result can be obtained more quickly.
以下、図面を参照し、本発明の物体認識装置、車両制御装置、物体認識方法、およびプログラムの実施形態について説明する。 Hereinafter, embodiments of the object recognition device, vehicle control device, object recognition method, and program of the present invention will be described with reference to the drawings.
<第1実施形態>
[車両の全体構成]
図1は、物体認識装置300を利用した第1実施形態の車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機を備える場合、電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
<First Embodiment>
[Overall configuration of vehicle]
FIG. 1 is a configuration diagram of a
車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置300と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、ナビゲーション装置50と、MPU(Map Positioning Unit)60と、運転操作子80と、自動運転制御装置100と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。カメラ10とファインダ14は、それぞれ第1デバイス、第2デバイスの一例である。
The
カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
The
レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
The
ファインダ14は、LIDAR(Light Detection and Ranging)である。ファインダ14は、自車両Mの周辺に光を照射し、散乱光を測定する。ファインダ14は、発光から受光までの時間に基づいて、対象までの距離を検出する。照射される光は、例えば、パルス状のレーザー光である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。ファインダ14は、例えば、水平方向に角度をずらしながら光を照射して散乱光を測定する。そして、ファインダ14は、散乱光を発した反射点の情報を、その時点の照射角度と対応付けて物体認識装置300に出力する。
The
物体認識装置300は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置300は、認識結果を自動運転制御装置100に出力する。また、物体認識装置300は、必要に応じて、カメラ10、レーダ装置12、およびファインダ14の検出結果をそのまま自動運転制御装置100に出力してよい。物体認識装置300の詳細については後述する。
The
通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
The
HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、各種表示装置、スピーカ、ブザー、タッチパネル、スイッチ、キーなどを含む。
The
車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。
The
ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、ナビHMI52を用いて乗員により入力された目的地までの経路(以下、地図上経路)を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。経路決定部53により決定された地図上経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された地図上経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、乗員の保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された地図上経路を取得してもよい。
The
MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。推奨車線決定部61は、経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な経路を走行できるように、推奨車線を決定する。
The
第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
The
運転操作子80は、例えば、アクセルペダル、ブレーキペダル、シフトレバー、ステアリングホイール、異形ステア、ジョイスティックその他の操作子を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御装置100、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一部または全部に出力される。
The driving
自動運転制御装置100は、例えば、第1制御部120と、第2制御部160とを備える。第1制御部120と第2制御部160は、それぞれ、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。物体認識装置300と自動運転制御装置100を合わせたものは、車両制御装置の一例である。なお、物体認識装置300が自動運転制御装置100の一機能であってもよい。
The automatic
図2は、第1制御部120および第2制御部160の機能構成図である。第1制御部120は、例えば、認識部130と、走行軌跡予測部140と、行動計画生成部150とを備える。
FIG. 2 is a functional configuration diagram of the
認識部130は、カメラ10、レーダ装置12、およびファインダ14から物体認識装置300を介して入力される情報に基づいて、自車両Mの周辺状況を認識する。認識部により認識される周辺状況には、種々の物体が含まれる。物体の位置は、例えば、まず自車両Mの代表点(センサ位置や重心、駆動軸中心など)を原点とした絶対座標上の位置として認識され、必要に応じて道路に沿った道路座標上の位置に変換されて制御に使用される。本実施形態において、認識部130は、物体に関する情報(物体情報)を専ら物体認識装置300から取得するものとする。
The
認識部130により認識される周辺状況は、道路構造や他車両の他、自車両Mと走行車線との相対位置や姿勢、自転車や歩行者の状態、一時停止線、障害物、赤信号、料金所などの道路事象、その他の情報を含んでよい。認識部130による認識結果は、走行軌跡予測部140と行動計画生成部150とに出力される。
The surrounding conditions recognized by the
行動計画生成部150は、原則的には推奨車線決定部61により決定された推奨車線を走行し、その上で、物体認識装置300または認識部130により認識された物体に接触しないように、自車両Mが将来走行する目標軌道を生成する。目標軌道は、例えば、複数の軌道点と、速度要素とを含んでいる。例えば、目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、道なり距離で所定の走行距離(例えば数[m]程度)ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
In principle, the action
第2制御部160は、行動計画生成部150によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220を制御する。第2制御部160は、例えば、行動計画生成部150により生成された目標軌道(軌道点)の情報を取得し、メモリ(不図示)に記憶させ、メモリに記憶された目標軌道に付随する速度要素に基づいて、走行駆動力出力装置200またはブレーキ装置210を制御する。また、第2制御部160は、メモリに記憶された目標軌道の曲がり具合に応じて、ステアリング装置220を制御する。このように、行動計画生成部150が、速度要素が付随した目標軌道を決定することで、自車両Mの加減速と操舵の双方が制御されることになる。
The
走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
The traveling driving
ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、第2制御部160から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
The
ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、第2制御部160から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
The
[物体認識装置、およびこれと関連する制御]
図2は、物体認識装置300の構成図である。物体認識装置300は、例えば、第1処理部310と、第2処理部320と、第1統合認識部330と、第2統合認識部340とを備える。これらの構成要素は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの機能部は、単一のプロセッサにより実現される必要はなく、複数のプロセッサにより分散処理が行われることで実現されてもよい。
[Object recognition device and related controls]
FIG. 2 is a block diagram of the
第1処理部310は、例えば、カメラ10により撮像された画像を解析し、物体情報を生成して出力する。すなわち、第1処理部310は、いわゆる画像解析部として機能する。第1処理部310は、画像内で輪郭を抽出してパターンマッチングを行うことで物体情報を生成してもよいし、ディープラーニング等で学習された分類器を用いて物体情報を生成してもよい。第1処理部310が行う処理には、少なくとも、処理Aと、処理Aよりも工数が多い処理Bとが含まれる。
The
処理Aは、例えば、kフレーム分の画像に基づいて、撮像された画像に映された物体の距離、高さ、およびサイズを導出し(取得し)、導出した内容を物体情報として出力する処理である。例えば、kは1である。 Process A is, for example, a process of deriving (acquiring) the distance, height, and size of an object projected on the captured image based on an image for k frames, and outputting the derived contents as object information. Is. For example, k is 1.
処理Bは、例えば、nフレーム分の画像に基づいて、撮像された画像に映された物体の距離、高さ、およびサイズを導出する(取得する)処理と、物体をオブジェクト化する処理と、オブジェクト化した内容を物体情報として出力する処理とを含む。例えば、nは2以上の自然数である。k<nの関係が成立するのであれば、kとnは任意の自然数であってよい。オブジェクト化とは、複数フレームに基づく処理によって導出される物体の距離や速度に基づいて、物体の種別(四輪車両、二輪車、自転車、歩行者、落下物など)を推定し、推定結果を物体の距離、高さ、およびサイズ等に対応付ける処理である。物体の速度に関しては、相対速度から自車両Mの速度を差し引いて求める必要があるが、物体認識装置300は、例えば自動運転制御装置100から自車両Mの速度を取得し、取得した情報を演算に用いる。処理Bは、カルマンフィルタなどによる近似処理を含んでもよい。
Process B includes, for example, a process of deriving (acquiring) the distance, height, and size of an object projected on the captured image based on n frames of images, and a process of converting the object into an object. Includes processing to output the objectified contents as object information. For example, n is a natural number of 2 or more. As long as the relationship of k <n holds, k and n may be arbitrary natural numbers. Objectification estimates the type of object (four-wheeled vehicle, two-wheeled vehicle, bicycle, pedestrian, falling object, etc.) based on the distance and speed of the object derived by processing based on multiple frames, and the estimation result is the object. It is a process to correspond to the distance, height, size, etc. of Regarding the speed of the object, it is necessary to subtract the speed of the own vehicle M from the relative speed, but the
第2処理部320は、例えば、ファインダ14により出力された検出結果を加工し、加工した情報に基づいて物体情報を生成して出力する。第2処理部320が行う処理には、少なくとも、処理Cと、処理Cよりも工数が多い処理Dとが含まれる。
The
処理Cは、例えば、ファインダ14により出力された検出結果に基づいて物体との距離(および方位)を取得し、物体情報として出力する処理である。
The process C is, for example, a process of acquiring a distance (and a direction) from an object based on a detection result output by the
処理Dは、例えば、ファインダ14により出力された検出結果に基づいて物体との距離(および方位)とサイズを取得する処理と、物体をオブジェクト化する処理と、オブジェクト化した内容を物体情報として出力する処理とを含む。前述したように、ファインダ14は光の照射方向を変えながら動作するように制御されているため、例えば、同程度の距離にある反射点が照射角度θ1~θ2の間に並んでいる場合、その距離に角度差の絶対値|θ2-θ1|を乗算することで、近似的に物体の横方向のサイズを得ることができる。処理Dは、そのような処理を含む。処理Dは、カルマンフィルタなどによる近似処理を含んでもよい。オブジェクト化については処理Bと同様である。
The process D is, for example, a process of acquiring the distance (and direction) and the size of the object based on the detection result output by the
処理Aの結果である物体情報(以下、物体情報A)と、処理Cの結果である物体情報(以下、物体情報C)は、第1統合認識部330に出力される。「出力」とは便宜的な表現であり、出力元から出力先への物理的な「送信」を伴う動作を指すものであってもよいし、出力先がアクセス可能なメモリの領域に書き込む動作を指すものであってもよい。 The object information (hereinafter, object information A) that is the result of the process A and the object information (hereinafter, the object information C) that is the result of the process C are output to the first integrated recognition unit 330. "Output" is a convenient expression and may refer to an operation involving physical "transmission" from the output source to the output destination, or an operation of writing to an area of memory accessible to the output destination. It may point to.
第1統合認識部330は、物体情報Aと物体情報Cとに基づいて、物体を認識する。第1統合認識部330による認識結果(第1統合認識結果)は、速報的な情報として自動運転制御装置100に出力される。第1統合認識部330は、物体情報Aに含まれる物体との距離と、物体情報Cに含まれる物体との距離の差が所定範囲内である場合に、それらの距離に物体が存在すると認識する。すなわち、第1処理部310によって、カメラ10からの1フレーム分の画像における所定距離X1の位置に何らかの物体が存在すると判定され、第2処理部320によって、ファインダ14の出力が、所定距離X1に近い位置に物体が存在することを示唆している場合、第1統合認識部330は、所定距離X1の位置に物体が存在することを示す第1統合認識結果を生成して自動運転制御装置100に出力する。
The first integrated recognition unit 330 recognizes an object based on the object information A and the object information C. The recognition result (first integrated recognition result) by the first integrated recognition unit 330 is output to the automatic
処理Bの結果である物体情報(以下、物体情報B)と、処理Dの結果である物体情報(以下、物体情報D)は、第2統合認識部340に出力される。 The object information (hereinafter, object information B) that is the result of the process B and the object information (hereinafter, the object information D) that is the result of the process D are output to the second integrated recognition unit 340.
第2統合認識部340は、物体情報Bと物体情報Dとに基づいて、物体を認識する。第2統合認識部340による認識結果(第2統合認識結果)は、第1統合認識部330の認識結果よりも信頼度の高い情報として自動運転制御装置100に出力される。第2統合認識部340は、物体Bと物体Dの双方に含まれるオブジェクト化された情報が許容範囲内で合致し、且つ物体の種別が一致する場合に、物体Bと物体Dの一致部分によって示される位置に、推定された種別の物体が存在すると認識し、認識結果を自動運転制御部100に出力する。例えば、第1処理部310によって、カメラ10からの複数フレーム分の画像における所定距離X2の位置に「車両」が存在すると判定され、第2処理部320によって、ファインダ14の出力が、所定距離X2に近い位置に「車両」が存在することを示唆している場合(例えば、物体情報に含まれる物体のサイズが、車両の横方向のサイズに合致し、且つその物体が徒歩では困難な速度で移動している場合)、第2統合認識部340は、所定距離X2の位置に「車両」が存在することを示す第2統合認識結果を生成して自動運転制御装置100に出力する。
The second integrated recognition unit 340 recognizes an object based on the object information B and the object information D. The recognition result by the second integrated recognition unit 340 (second integrated recognition result) is output to the automatic
自動運転制御装置100では、例えば、行動計画生成部150が、第1統合認識結果と第2統合認識結果とのそれぞれに基づいて、各認識結果が示す物体に接触しないように、自車両Mが将来走行する目標軌道を生成して車両制御を行う(物体との位置関係を調節する)。
In the automatic
このとき、行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第1統合認識結果を用いて物体との位置関係を調節する制御を行い、第2統合認識結果が得られた後は、第2統合認識結果の比率を第1統合認識結果よりも高くして物体との位置関係を調節する制御を行う。「比率を高くする」とは、第2統合認識結果の比率を100%、第1統合認識結果の比率を0%にすることを含む。
At this time, the action
行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第2統合認識結果が得られた後に比して、制御程度を小さくする。「制御程度を小さくする」とは、走行駆動力出力装置200、ブレーキ装置210、またはステアリング装置220に与える制御の度合いを小さくすることである。行動計画生成部150は、制御の度合いを小さくする場合、ブレーキトルクや加速トルク、ステアリング操舵角の変化量などの制御量が小さくなるように目標軌道を生成してもよいし、制御の結果として現れる加速度や減速度、旋回角などの車両挙動が小さくなるように目標軌道を生成してもよい。
The action
上記の制御程度を小さくすることは、物体との位置関係に依存しない絶対的な指針であってもよいし、物体との位置関係に依存する相対的な指針であってもよい。前者の場合、例えば、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間のブレーキトルクの上限を、第2統合認識結果が得られた後のブレーキトルクの上限よりも小さくすることで、制御程度を小さくすることが実現される。後者の場合、例えば物体と自車両MとのTTC(Time To Collision)に逆比例する傾向でブレーキトルクを決定する際に、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間のブレーキトルクを計算するためのゲインを、第2統合認識結果が得られた後に比して小さくしてもよい。また、行動計画生成部150は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、例えば、「自車両Mの速度が上限速度を超えている場合に上限速度まで減速する」といった限定的な制御(予備減速)を行ってもよい。
Reducing the degree of control described above may be an absolute guideline that does not depend on the positional relationship with the object, or may be a relative guideline that depends on the positional relationship with the object. In the former case, for example, the upper limit of the brake torque between the time when the first integrated recognition result is obtained and the time when the second integrated recognition result is obtained is set from the upper limit of the brake torque after the second integrated recognition result is obtained. By reducing the torque, it is possible to reduce the degree of control. In the latter case, for example, when the brake torque is determined in a tendency to be inversely proportional to the TTC (Time To Collision) between the object and the own vehicle M, the first integrated recognition result is obtained and then the second integrated recognition result is obtained. The gain for calculating the brake torque up to is may be smaller than after the second integrated recognition result is obtained. Further, the action
図3は、車両システム1が実行する処理によって生じる自車両Mの走行場面を例示した図である。図中、矢印Dは自車両Mの進行方向を表す。自車両Mの進行方向に関する前方には、障害物OBが存在する。デバイスの性能等によって実際の距離が変動するため、数値はあくまで一例であるが、例えば、障害物OBまで200[m]の地点で第1統合認識結果のみが得られ始める。これに応じて行動計画生成部150は、前述した予備制動などの制御を行う。また、例えば、障害物OBまで150[m]の地点で第2統合認識結果が得られ始める。これに応じて行動計画生成部150は、自車両Mと障害物OBとのTTCに応じた制動制御を行い、必要に応じて(例えば操舵による回避が不可であれば)自車両Mを停止させる。
FIG. 3 is a diagram illustrating a traveling scene of the own vehicle M caused by the processing executed by the
[処理フロー]
図4は、第1処理部310により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理では、例えば、カメラ10から1フレーム分の画像が入力される度に1ルーチンが実行される。
[Processing flow]
FIG. 4 is a flowchart showing an example of the flow of processing executed by the
まず、第1処理部310は、カメラ10から入力された画像において処理対象とする対象領域を抽出する処理を行う(ステップS100)。対象領域は、画像の左右端部や上部を除いた領域であり、自車両Mの前方を撮像した領域である。
First, the
次に、第1処理部310は、対象領域において物体抽出処理を行う(ステップS102)。本ステップの処理の詳細は前述した通りである。そして、第1処理部310は、画像において物体を検知した(抽出した)か否かを判定する(ステップS104)。なお、ここでの物体は、例えば「画像において何ピクセル以上を占める」といった条件を満たすものに絞り込まれてよい。物体を検知しなかった場合、本フローチャートの1ルーチンの処理が終了する。
Next, the
物体を検知した場合、第1処理部310は、前述した物体情報Aを生成して第1統合認識部330に出力する(ステップS106)。また、第1処理部310は、過去の直近のフレームと比較して、ステップS104で検知したと判定した物体と、過去に検知された物体との同定処理を行う(ステップS108)。この際に、第1処理部310は、物体の絶対速度やサイズを考慮して同定処理を行う。
When an object is detected, the
次に、第1処理部310は、ステップS108の処理結果を参照し、本フローチャートの処理が繰り返し実行される中で、同一の(と推定される)物体をm回連続で検知したか否かを判定する(ステップS110)。同一の物体をm回連続で検知したと判定した場合、第1処理部310は、物体情報Bを生成して第2統合認識部340に出力する(ステップS112)。
Next, the
図5は、第2処理部320により実行される処理の流れの一例を示すフローチャートである。本フローチャートの処理では、例えば、ファインダ14から反射点の情報が入力される度に1ルーチンが実行される。
FIG. 5 is a flowchart showing an example of the flow of processing executed by the
まず、第2処理部320は、ファインダ14から入力された情報に対して領域限定処理を行う(ステップS200)。領域限定処理とは、路面上の領域以外で測定された反射点を除く処理である。
First, the
次に、第2処理部320は、路上に反射点があったか否かを判定する(ステップS202)。路上に反射点があったと判定した場合、第2処理部320は、物体情報Cを生成して第1統合認識部330に出力する(ステップS204)。
Next, the
また、第2処理部320は、略同一の距離にある反射点を端から端まで検知したか否かを判定する(ステップS206)。略同一の距離にある反射点を端から端まで検知した場合、第2処理部320は、物体情報Dを生成して第2統合認識部340に出力する(ステップS208)。
Further, the
図6は、第1統合認識部330により実行される処理の流れの一例を示すフローチャートである。まず、第1統合認識部330は、物体情報Aと物体情報Cが同期して(或いは所定時間以内に)入力されたか否かを判定する(ステップS300)。物体情報Aと物体情報Cが同期して入力された場合、第1統合認識部330は、両者が合致するか否かを判定する(ステップS302)。合致するとは、例えば、両者の項目のうち所定数以上が、許容範囲内の差異に収まっていることをいう、両者が合致する場合、第1統合認識部330は、第1統合認識情報を生成し(ステップS304)、自動運転制御装置100に出力する。
FIG. 6 is a flowchart showing an example of the flow of processing executed by the first integrated recognition unit 330. First, the first integrated recognition unit 330 determines whether or not the object information A and the object information C are input in synchronization (or within a predetermined time) (step S300). When the object information A and the object information C are input in synchronization, the first integrated recognition unit 330 determines whether or not they match (step S302). "Matching" means, for example, that a predetermined number or more of both items are within the allowable range. When both are matched, the first integrated recognition unit 330 generates the first integrated recognition information. (Step S304), the output is output to the automatic
図7は、第2統合認識部340により実行される処理の流れの一例を示すフローチャートである。まず、第2統合認識部340は、物体情報Bと物体情報Dが同期して(或いは所定時間以内に)入力されたか否かを判定する(ステップS400)。物体情報Bと物体情報Dが同期して入力された場合、第2統合認識部340は、両者が合致するか否かを判定する(ステップS402)。両者が合致する場合、第2統合認識部340は、第2統合認識情報を生成し(ステップS404)、自動運転制御装置100に出力する。
FIG. 7 is a flowchart showing an example of the flow of processing executed by the second integrated recognition unit 340. First, the second integrated recognition unit 340 determines whether or not the object information B and the object information D are input in synchronization (or within a predetermined time) (step S400). When the object information B and the object information D are input in synchronization, the second integrated recognition unit 340 determines whether or not they match (step S402). When both are matched, the second integrated recognition unit 340 generates the second integrated recognition information (step S404) and outputs the second integrated recognition information to the automatic
[まとめ]
以上説明した第1実施形態の物体認識装置300によれば、より迅速に速報的なセンサフュージョン結果を得ることができる。図8~10は、距離と検知精度との関係の一例を示す図である。これらの図は、道路上に10cm立方の障害物と、15cm立法の障害物とを置いた前提で、自車両Mと障害物との距離に応じた検知率を想定したものである。
[summary]
According to the
図8は、カメラ10の出力に基づいて、第1処理部310がそれぞれのサイズの障害物を検知した確率である検知率を想定した結果を示している。ここでの「障害物を検知した」とは、「物体情報Bを生成した」ことをいう。また、図9は、ファインダ14の出力に基づいて、第2処理部320がそれぞれのサイズの障害物を検知した確率である検知率を想定した結果を示している。ここでの「障害物を検知した」とは、「物体情報Dを生成した」ことをいう。図8に示すように、特に10cm立方の障害物に関しては、距離が160m程度まで近づかないと、検知率が80%以上とならないことが想定される。また、図9に示すように、特に10cm立方の障害物に関しては、距離が180m程度まで近づかないと、そもそも物体情報Dが生成されないことが想定される。
FIG. 8 shows a result assuming a detection rate, which is the probability that the
そして、物体情報Bと物体情報Dのアンドを求めることで生成される第2統合認識情報は、図8または図9に示す検知率の立ち上がりよりも更に遅れて立ち上がることになる。この結果、特に障害物との距離が150m以上の場合に、十分な情報を自動運転制御装置100に与えることができないことが予想される。
Then, the second integrated recognition information generated by obtaining the AND of the object information B and the object information D rises further later than the rise of the detection rate shown in FIG. 8 or 9. As a result, it is expected that sufficient information cannot be given to the automatic
これに対し、図10は、実施形態による期待性能を示している。図10は、図8または図9よりも早いタイミングで生成開始される物体情報Aおよび物体情報Cに基づいて、第1統合認識部330により第1統合認識情報が生成される確率(生成率)の推移を示している。図示するように、本実施形態による第1統合認識情報の生成率は、距離が190m程度まで近づくと十分に100%に近づくことが期待される。このため、障害物との接近場面において、より早いタイミングで速報的なフュージョン結果を取得し、自動運転制御装置100に提供することができる。
On the other hand, FIG. 10 shows the expected performance according to the embodiment. FIG. 10 shows the probability (generation rate) that the first integrated recognition information is generated by the first integrated recognition unit 330 based on the object information A and the object information C that are started to be generated earlier than those in FIG. 8 or 9. Shows the transition of. As shown in the figure, the generation rate of the first integrated recognition information according to the present embodiment is expected to be sufficiently close to 100% when the distance is close to about 190 m. Therefore, in the approaching scene with an obstacle, it is possible to acquire a breaking fusion result at an earlier timing and provide it to the automatic
なお、第1デバイス、第2デバイスの一例としてカメラ10とファインダ14を例示したが、これらのうち一方または双方は、レーダ装置12或いは他の物体認識デバイスであってもよい。
Although the
<第2実施形態>
以下、第2実施形態について説明する。図11は、物体認識装置300を利用した第2実施形態の車両システム2の構成図である。第1実施形態と共通する構成要素については、第1実施形態と共通する符号を付し、詳細な説明を省略する。第2実施形態において、物体認識装置300は、自動運転制御装置100に代えて、運転支援装置400に認識結果(第1統合認識結果、および第2統合認識結果)を出力する。
<Second Embodiment>
Hereinafter, the second embodiment will be described. FIG. 11 is a configuration diagram of the
運転支援装置400は、運転者による手動運転がなされている場合に、加減速や操舵の介入制御や、運転操作子80への反力出力などの、各種の運転支援制御を行う装置である。以下の説明では、運転支援装置400は、対障害物制動制御を行うものとする。運転支援装置400は、例えば、衝突可能性判定部402と、ブレーキ操作量導出部404と、ブレーキ量決定部406とを備える。これらの機能部は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。また、これらの機能部は、単一のプロセッサにより実現される必要はなく、複数のプロセッサにより分散処理が行われることで実現されてもよい。
The driving
衝突可能性判定部402は、物体認識装置300の認識結果を参照し、自車両と物体との衝突可能性を判定する。例えば、衝突可能性判定部402は、自車両と物体との間のTTCを計算し、TTCが衝突判定閾値Tcolよりも小さい場合に、自車両と物体との衝突可能性があると判定する。
The collision
ブレーキ操作量導出部404は、運転操作子80に含まれるブレーキ踏量センサの検出結果を参照し、自車両の乗員によりなされたブレーキ操作量(或いはその結果として出力されるブレーキ量)を導出する。
The brake operation
ブレーキ量決定部406は、まず、衝突可能性判定部402による判定結果、およびその処理の過程に基づいて、物体の存在に基づくブレーキ量(対物体ブレーキ量)を決定し、ブレーキ装置210に出力する。対物体ブレーキ量は、例えば、自車両と物体との間のTTCが小さい程大きくなるように決定される。なお、対物体ブレーキ量をブレーキ操作量導出部404により導出されたブレーキ操作量に基づくブレーキ量が上回る場合、ブレーキ量決定部406は、後者のブレーキ量をブレーキ装置220に出力してもよい。また、ブレーキ量決定部406は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、第2統合認識結果が得られた後に比して、制御程度を小さくする。また、ブレーキ量決定部406は、第1統合認識結果が得られてから第2統合認識結果が得られるまでの間、例えば、「自車両Mの速度が上限速度を超えている場合に上限速度まで減速する」といった限定的な制御(予備減速)を行ってもよい。
The brake
以上説明した第2実施形態によれば、第1実施形態と同様の効果を奏することができる。 According to the second embodiment described above, the same effect as that of the first embodiment can be obtained.
上記実施形態は、以下のように表現することができる。
車両に搭載される物体認識装置であって、
プログラムを記憶した記憶装置と、
前記プログラムを実行可能なハードウェアプロセッサと、を備え、
前記ハードウェアプロセッサは、前記プログラムを実行することにより、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力し、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力し、
前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識し、
前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する、
ように構成されている物体認識装置。
The above embodiment can be expressed as follows.
An object recognition device mounted on a vehicle
A storage device that stores the program and
With a hardware processor capable of executing the program,
By executing the program, the hardware processor
Based on the output of the first device for recognizing an object, at least process A is performed to output the object information, and process B, which requires more man-hours than the process A, is performed to output the object information.
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. In addition to outputting information, processing D, which requires more man-hours than processing C, is performed to output object information.
The object is recognized based on the object information obtained as a result of the process A and the object information obtained as a result of the process C.
The object is recognized based on the object information obtained as a result of the process B and the object information obtained as a result of the process D.
An object recognition device configured as such.
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
10 カメラ
12 レーダ装置
14 ファインダ
80 運転操作子
100 自動運転制御装置
300 物体認識装置
310 第1処理部
320 第2処理部
330 第1統合認識部
340 第2統合認識部
400 運転支援装置
10
Claims (10)
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力する第1処理部と、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力する第2処理部と、
前記処理Aの結果として得られる物体情報と、前記処理Cの結果として得られる物体情報とに基づいて物体を認識する第1統合認識部と、
前記処理Bの結果として得られる物体情報と、前記処理Dの結果として得られる物体情報とに基づいて物体を認識する第2統合認識部と、
車両の速度と操舵角とのうち一方または双方を制御する運転制御部と、を備え、
前記運転制御部は、前記第2統合認識部による認識結果が得られるまでの間、前記第1統合認識部の認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識部による認識結果が得られた後は、前記第2統合認識部の認識結果の比率を前記第1統合認識部による認識結果よりも高くして前記物体との位置関係を調節する制御を行う、
車両制御装置。 A vehicle control device mounted on a vehicle.
Based on the output of the first device for recognizing an object, at least the process A is performed to output the object information, and the process B, which requires more man-hours than the process A, is performed to output the object information. 1 processing unit and
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. A second processing unit that outputs information and outputs object information by performing processing D, which requires more man-hours than processing C, and
A first integrated recognition unit that recognizes an object based on the object information obtained as a result of the process A and the object information obtained as a result of the process C.
A second integrated recognition unit that recognizes an object based on the object information obtained as a result of the process B and the object information obtained as a result of the process D.
It is equipped with a driving control unit that controls one or both of the speed and steering angle of the vehicle.
The operation control unit controls to adjust the positional relationship with the object by using the recognition result of the first integrated recognition unit until the recognition result by the second integrated recognition unit is obtained, and the second After the recognition result by the integrated recognition unit is obtained, control is performed to adjust the positional relationship with the object by making the ratio of the recognition result of the second integrated recognition unit higher than the recognition result by the first integrated recognition unit. conduct,
Vehicle control device .
且つ/または、
前記処理Cは、前記処理Dに比して、前記第2デバイスにより少ない出力サイクル数で、出力されたデータを対象として実行される処理である、
請求項1記載の車両制御装置。 The process A is a process executed for the output data with a smaller number of output cycles than the first device as compared with the process B.
And / or
The process C is a process executed for the output data with a smaller number of output cycles than the second device as compared with the process D.
The vehicle control device according to claim 1.
前記処理Aは、前処理Bに比して少ないフレーム数の画像に基づいて物体情報を生成する処理を含む、
請求項2記載の車両制御装置。 The first device is a camera.
The process A includes a process of generating object information based on an image having a smaller number of frames than the preprocess B.
The vehicle control device according to claim 2.
且つ/または、
前記処理Cは、前記処理Dに比して、少ない処理手順で実行される処理である、
請求項1記載の車両制御装置。 The process A is a process executed with a smaller process procedure than the process B.
And / or
The process C is a process executed with a smaller process procedure than the process D.
The vehicle control device according to claim 1.
前記処理Cは、前記LIDARと物体との距離を特定し、特定した距離を前記物体情報に含めて出力する処理を含む、
請求項4記載の車両制御装置。 The second device is LIDAR.
The process C includes a process of specifying a distance between the LIDAR and an object, including the specified distance in the object information, and outputting the specified distance.
The vehicle control device according to claim 4.
請求項5記載の車両制御装置。 The process D includes a process of specifying the distance and the size of the object, and including the specified distance and the size in the object information and outputting the process.
The vehicle control device according to claim 5.
請求項1から6のうちいずれか1項記載の車両制御装置。 The operation control unit reduces the degree of control until the recognition result by the second integrated recognition unit is obtained, as compared with after the recognition result by the second integrated recognition unit is obtained.
The vehicle control device according to any one of claims 1 to 6 .
請求項1から7のうちいずれか1項記載の車両制御装置。 The operation control unit is relative to the positional relationship with the object until the recognition result by the second integrated recognition unit is obtained, as compared with after the recognition result by the second integrated recognition unit is obtained. Reduce the degree of control,
The vehicle control device according to any one of claims 1 to 7 .
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力すると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力することと、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力すると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力することと、
前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識し第1統合認識結果を出力することと、
前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識し第2統合認識結果を出力することと、
車両の速度と操舵角とのうち一方または双方を制御することと、を備え、
前記制御することは、前記第2統合認識結果が得られるまでの間、前記第1統合認識結果を用いて前記物体との位置関係を調節する制御を行い、前記第2統合認識結果が得られた後は、前記第2統合認識結果の比率を前記第1統合認識結果よりも高くして前記物体との位置関係を調節する制御を行うことを含む、
車両制御方法。 A vehicle control method executed by a vehicle control device mounted on a vehicle.
Based on the output of the first device for recognizing an object, at least process A is performed to output the object information, and process B, which requires more man-hours than the process A, is performed to output the object information. When,
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. In addition to outputting information, processing D, which requires more man-hours than processing C, is performed to output object information.
Recognizing an object based on the object information obtained by the process A and the object information obtained by the process C, and outputting the first integrated recognition result .
Recognizing an object based on the object information obtained by the process B and the object information obtained by the process D, and outputting the second integrated recognition result .
To control one or both of the vehicle's speed and steering angle,
The control is to control the positional relationship with the object by using the first integrated recognition result until the second integrated recognition result is obtained, and the second integrated recognition result is obtained. After that, the control including adjusting the positional relationship with the object by making the ratio of the second integrated recognition result higher than that of the first integrated recognition result is included.
Vehicle control method .
前記プロセッサに、
物体を認識するための第1デバイスの出力に基づいて、少なくとも、処理Aを行って物体情報を出力させると共に、前記処理Aに比して工数の多い処理Bを行って物体情報を出力させ、
物体を認識するための第2デバイスであって、前記第1デバイスと同方向を検知範囲とするように前記車両に取り付けられた第2デバイスの出力に基づいて、少なくとも、処理Cを行って物体情報を出力させると共に、前記処理Cに比して工数の多い処理Dを行って物体情報を出力させ、
前記処理Aによって得られる物体情報と、前記処理Cによって得られる物体情報に基づいて物体を認識し第1統合認識結果を出力させ、
前記処理Bによって得られる物体情報と、前記処理Dによって得られる物体情報に基づいて物体を認識し第2統合認識結果を出力させ、
車両の速度と操舵角とのうち一方または双方を制御させ、
前記制御させることは、前記プロセッサに、前記第2統合認識結果が得られるまでの間、前記第1統合認識結果を用いて前記物体との位置関係を調節する制御を行わせ、前記第2統合認識結果が得られた後は、前記第2統合認識結果の比率を前記第1統合認識結果よりも高くして前記物体との位置関係を調節する制御を行わせることを含む、
プログラム。 A program executed by the processor of the vehicle control device mounted on the vehicle.
To the processor
Based on the output of the first device for recognizing an object, at least process A is performed to output the object information, and process B, which requires more man-hours than the process A, is performed to output the object information.
It is a second device for recognizing an object, and at least process C is performed based on the output of the second device attached to the vehicle so that the detection range is in the same direction as the first device. The information is output, and the object information is output by performing the process D, which requires more man-hours than the process C.
An object is recognized based on the object information obtained by the process A and the object information obtained by the process C, and the first integrated recognition result is output .
An object is recognized based on the object information obtained by the process B and the object information obtained by the process D, and the second integrated recognition result is output .
Control one or both of the vehicle speed and steering angle,
The control causes the processor to control the positional relationship with the object by using the first integrated recognition result until the second integrated recognition result is obtained, and the second integrated recognition result is obtained. After the recognition result is obtained, the ratio of the second integrated recognition result is made higher than that of the first integrated recognition result, and control for adjusting the positional relationship with the object is performed.
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018148551A JP7027279B2 (en) | 2018-08-07 | 2018-08-07 | Vehicle control devices, vehicle control methods, and programs |
CN201910715385.2A CN110816524B (en) | 2018-08-07 | 2019-08-02 | Vehicle control device, vehicle control method, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018148551A JP7027279B2 (en) | 2018-08-07 | 2018-08-07 | Vehicle control devices, vehicle control methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020024562A JP2020024562A (en) | 2020-02-13 |
JP7027279B2 true JP7027279B2 (en) | 2022-03-01 |
Family
ID=69547726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018148551A Active JP7027279B2 (en) | 2018-08-07 | 2018-08-07 | Vehicle control devices, vehicle control methods, and programs |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7027279B2 (en) |
CN (1) | CN110816524B (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112512887B (en) * | 2020-07-21 | 2021-11-30 | 华为技术有限公司 | Driving decision selection method and device |
DE112021005463T5 (en) | 2020-12-28 | 2023-08-24 | Hitachi Astemo, Ltd. | VEHICLE CONTROL SYSTEM EXTERNAL ENVIRONMENTAL DETECTION DEVICE AND VEHICLE CONTROL METHOD |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008308024A (en) | 2007-06-14 | 2008-12-25 | Toyota Motor Corp | Collision reducing device |
JP2013114606A (en) | 2011-11-30 | 2013-06-10 | Hitachi Automotive Systems Ltd | Object detection device |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5870908B2 (en) * | 2012-12-11 | 2016-03-01 | 株式会社デンソー | Vehicle collision determination device |
JP6190758B2 (en) * | 2014-05-21 | 2017-08-30 | 本田技研工業株式会社 | Object recognition device and vehicle |
JP6685008B2 (en) * | 2015-04-21 | 2020-04-22 | パナソニックIpマネジメント株式会社 | Driving support method and driving support device, driving control device, vehicle, driving support program using the same |
US10160448B2 (en) * | 2016-11-08 | 2018-12-25 | Ford Global Technologies, Llc | Object tracking using sensor fusion within a probabilistic framework |
-
2018
- 2018-08-07 JP JP2018148551A patent/JP7027279B2/en active Active
-
2019
- 2019-08-02 CN CN201910715385.2A patent/CN110816524B/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008308024A (en) | 2007-06-14 | 2008-12-25 | Toyota Motor Corp | Collision reducing device |
JP2013114606A (en) | 2011-11-30 | 2013-06-10 | Hitachi Automotive Systems Ltd | Object detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2020024562A (en) | 2020-02-13 |
CN110816524B (en) | 2022-12-06 |
CN110816524A (en) | 2020-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108688681B (en) | Vehicle control system, vehicle control method, and medium storing vehicle control program | |
CN111771234B (en) | Vehicle control system, vehicle control method, and storage medium | |
CN111201170B (en) | Vehicle control device and vehicle control method | |
US11370420B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
JPWO2018216194A1 (en) | Vehicle control system and vehicle control method | |
JP7071250B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
CN111511621B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7112374B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM | |
US20200156645A1 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN109987082B (en) | Vehicle control device, vehicle control method, and storage medium | |
JP6994982B2 (en) | Vehicle control systems, vehicle control methods, and programs | |
CN112462751A (en) | Vehicle control device, vehicle control method, and storage medium | |
JP7027279B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
US20220234599A1 (en) | Vehicle control apparatus | |
US20220080967A1 (en) | Vehicle control device, vehicle control method, and non-transitory computer readable storage medium | |
JP7225185B2 (en) | VEHICLE CONTROL DEVICE, VEHICLE CONTROL METHOD, AND PROGRAM | |
JP6796047B2 (en) | Vehicle control devices, vehicle control methods, and programs | |
US11932283B2 (en) | Vehicle control device, vehicle control method, and storage medium | |
CN116513194A (en) | Moving object control device, moving object control method, and storage medium | |
JP7028838B2 (en) | Peripheral recognition device, peripheral recognition method, and program | |
JP7012693B2 (en) | Information processing equipment, vehicle systems, information processing methods, and programs | |
CN113479204A (en) | Vehicle control device, vehicle control method, and storage medium | |
JP2022088857A (en) | Vehicle control device, vehicle control method, and program | |
CN113511220B (en) | Vehicle control device, vehicle control method, and storage medium | |
CN111717201B (en) | Vehicle system, control method for vehicle system, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220208 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220216 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7027279 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |