JP7452374B2 - Object detection device and object detection program - Google Patents
Object detection device and object detection program Download PDFInfo
- Publication number
- JP7452374B2 JP7452374B2 JP2020175974A JP2020175974A JP7452374B2 JP 7452374 B2 JP7452374 B2 JP 7452374B2 JP 2020175974 A JP2020175974 A JP 2020175974A JP 2020175974 A JP2020175974 A JP 2020175974A JP 7452374 B2 JP7452374 B2 JP 7452374B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- vehicle
- point
- sensor
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 296
- 238000005259 measurement Methods 0.000 claims description 73
- 238000000034 method Methods 0.000 claims description 35
- 230000008569 process Effects 0.000 claims description 28
- 230000006399 behavior Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 10
- 238000000605 extraction Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000002485 combustion reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000004092 self-diagnosis Methods 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、自車両に搭載されることで当該自車両の周囲に存在する物体を検知するように構成された物体検知装置、および、かかる物体検知装置により実行される物体検知プログラムに関する。 The present invention relates to an object detection device configured to be mounted on a vehicle to detect objects existing around the vehicle, and an object detection program executed by the object detection device .
特許文献1に記載の装置は、超音波センサと電子カメラとを備えている。超音波センサは、車両の両側面の後部にて、側方を向いて設置されている。超音波センサは、センサから検知領域内の対象物までの距離を検知する。電子カメラは、光軸を超音波センサの中心軸と一致させることにより超音波センサの検出領域と重複するように、車両の後部にて側方を向いて設置されている。
The device described in
特許文献1に記載の装置は、超音波センサにより対象物までの距離を測定し、駐車スペースが存在するかを判定する。また、この装置は、駐車スペースの奥行き位置を検出するために、電子カメラを用いて駐車スペースを撮影し、画像を取得する。
The device described in
この種の装置において、駐車車両等の障害物の表面に対応する、超音波センサ等の測距センサによる複数の測距点のうち、位置誤差が大きな「外れ点」が生じることがあり得る。このような「外れ点」が生じると、例えば、本来は駐車スペースが存在するにもかかわらず、かかる「外れ点」に起因する障害物の誤検知により、駐車スペースが存在しない旨の誤判定が生じることがあり得る。 In this type of device, among a plurality of distance measurement points by a distance measurement sensor such as an ultrasonic sensor that corresponds to the surface of an obstacle such as a parked vehicle, an "outlier point" with a large positional error may occur. When such an "outlier point" occurs, for example, even though a parking space actually exists, an erroneous detection of an obstacle caused by such an "outlier point" may result in a false determination that a parking space does not exist. may occur.
本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、従来よりも良好な物体検知精度を実現可能な、物体検知装置および物体検知プログラムを提供する。 The present invention has been made in view of the circumstances illustrated above. That is, the present invention provides, for example, an object detection device and an object detection program that can achieve better object detection accuracy than conventional methods.
請求項1に記載の物体検知装置(8)は、自車両(V)に搭載されることで、当該自車両の周囲に存在する物体(Vt)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する、測距点取得部(803)と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する、検知面取得部(805)と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて前記物体を検知する、物体検知部(808)と、
を備え、
前記物体検知部は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する。
請求項6に記載の物体検知プログラムは、自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された物体検知装置(8)により実行されるプログラムであって、
前記物体検知装置により実行される処理は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する処理と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する処理と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する処理と、
含み、
前記物体を検知する前記処理は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む。
The object detection device (8) according to
This object detection device is
a ranging point acquisition unit (803) that obtains a detection result of the ranging point using a ranging sensor (2) for detecting ranging points (Ps) around the own vehicle;
a sensing surface acquisition unit (805) that acquires a sensing surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
an object detection unit (808) that detects the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space around the host vehicle;
Equipped with
The object detection unit selects the ranging point used for detecting the object based on a high-precision surface (FtH), which is the detection surface with a predetermined high detection accuracy.
The object detection program according to
The process executed by the object detection device includes:
A process of acquiring a detection result of the distance measurement point using a distance measurement sensor (2) for detecting the distance measurement point (Ps) around the own vehicle;
A process of acquiring a detection surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
a process of detecting the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space surrounding the host vehicle;
including,
The process of detecting the object includes a process of selecting the ranging point used for detecting the object based on a high-precision surface (FtH), which is the detection surface with a predetermined high detection accuracy.
なお、出願書類において、各要素に括弧付きの参照符号が付される場合がある。しかしながら、この場合であっても、かかる参照符号は、各要素と後述する実施形態に記載の具体的手段との対応関係の単なる一例を示すものにすぎない。よって、本発明は、上記の参照符号の記載によって、何ら限定されるものではない。 Note that in the application documents, each element may be given a reference sign in parentheses. However, even in this case, such reference numerals merely indicate one example of the correspondence between each element and specific means described in the embodiments described later. Therefore, the present invention is not limited in any way by the description of the above reference numerals.
(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(Embodiment)
Embodiments of the present invention will be described below based on the drawings. Note that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations regarding the embodiment, understanding of the embodiment may be hindered. For this reason, the modified examples will be explained together after the series of explanations regarding the embodiment, rather than during the series of explanations.
(構成)
図1を参照すると、自車両Vは、いわゆる四輪自動車であって、平面視にて略矩形状の車体を備えている。「平面視」とは、或る物を重力作用方向と一致する視線で当該物の上方から見た場合の、当該物の外観をいう。自車両Vには、車載システム1が搭載されている。車載システム1は、自車両Vにおける各種制御(例えば駐車支援制御)を実行可能に構成されている。具体的には、車載システム1は、他車両Vtを含む、自車両Vの周囲に存在する物体を、測距センサ2および面検知センサ3の出力に基づいて検知するように構成されている。
(composition)
Referring to FIG. 1, the host vehicle V is a so-called four-wheeled vehicle and has a generally rectangular body in plan view. "Planar view" refers to the appearance of an object when viewed from above with a line of sight that coincides with the direction of gravity. The own vehicle V is equipped with an in-
測距センサ2は、自車両Vの周囲の測距点Psを検知するためのセンサ(例えば超音波センサあるいはミリ波レーダーセンサ等)であって、探査波を発信して物体による当該探査波の反射波を受信するように構成されている。すなわち、測距センサ2は、探査波および反射波の伝播時間に基づいて、測距点Psに対応する物体との距離を計測する、いわゆるTOF型センサとしての構成を有している。TOFはTime of Flightの略である。「測距点」は、物体の外表面である物体面Fb上における、測距センサ2から発信された探査波を反射したと推定される点であり、具体的には、測距センサ2からの距離が測距距離となる、検知範囲の軸中心を通る半直線上の点である。測距距離は、伝播時間に基づいて算出された、測距センサ2と測距点Psとの間の距離である。
The
自車両Vの前進走行中にて側方に駐車スペースSPを検知するための測距センサ2は、自車両Vにおける車体側面にて探査波を側方に発信するように装着されている。具体的には、かかる測距センサ2は、自車両Vにおける車体の右前部、右後部、左前部、および左後部のそれぞれに設けられている。なお、自車両Vには、当該自車両Vの前方、前側方、後方、および後側方の障害物を検知するための測距センサ2も搭載され得る。但し、以下の説明における測距センサ2は、特段の注記を設けない限り、自車両Vの前進走行中にて側方に駐車スペースSPを検知するために、車体側面に装着されたものとする。
A
面検知センサ3は、物体面Fbを検知するためのセンサである。すなわち、車載システム1は、面検知センサ3を用いて、物体面Fbに対応する検知面Ftを検知するように構成されている。本実施形態においては、面検知センサ3は、所定の視野内の物体を光学的に検知する光学センサ(例えばカメラあるいはLIDARセンサ等)としての構成を有している。LIDARはLight Detection and RangingあるいはLaser Imaging Detection and Rangingの略である。すなわち、面検知センサ3は、図中一点鎖線で示された測距センサ2の検知範囲よりも広範囲な視野内において、物体を面として検知可能に設けられている。よって、面検知センサ3は、「広角センサ」とも称され得る。「視野」は、検知範囲あるいはスキャン範囲とも称され得る。
The
自車両Vの前進走行中にて側方に駐車スペースSPを検知するための面検知センサ3は、自車両Vの側方に存在する物体を視野内に収めるように配置されている。具体的には、面検知センサ3は、車体の両側面における所定箇所(例えばドアミラーあるいはその近傍)に、1個ずつ設けられている。面検知センサ3は、その中心線Lcが、平面視にて、面検知センサ3における検知範囲の中心軸線と略平行となるように設置されている。中心線Lcは、面検知センサ3による検知範囲の軸中心を通る半直線であって、面検知センサ3がカメラである場合は光軸に対応する。
A
物体面Fbは、対向面Fbfおよび非対向面Fbsを含む。図1に示されているように、自車両Vが、縦列駐車中の複数の他車両Vtの間にて駐車スペースSPを探索中である場合、対向面Fbfは当該他車両Vtにおける車体側面であり、非対向面Fbsは当該他車両Vtにおける車体前面あるいは車体後面である。 The object plane Fb includes a facing surface Fbf and a non-facing surface Fbs. As shown in FIG. 1, when the own vehicle V is searching for a parking space SP among a plurality of other vehicles Vt parked in parallel, the facing surface Fbf is the side surface of the body of the other vehicle Vt. The non-opposed surface Fbs is the front or rear surface of the vehicle body of the other vehicle Vt.
対向面Fbfは、自車両Vあるいは自車両Vの進行中通路に対向する物体面Fbである。具体的には、対向面Fbfは、その外向法線が平面視にて自車両Vの前進走行中に面検知センサ3を通過する直視状態にて、上記の外向法線と中心線Lcとのなす角度である方位角が面検知センサ3の視野角度以内となる物体面Fbである。典型的には、対向面Fbfは、上記の方位角が0~α度となるような物体面Fbである。αは例えば45~60である。非対向面Fbsは、上記の直視状態が成立しないか、成立しても上記の方位角が面検知センサ3の視野角度を超えるような物体面Fbである。典型的には、非対向面Fbsは、対向面Fbfと実質的に直交する物体面Fbである。
The opposing surface Fbf is an object surface Fb that faces the host vehicle V or the path in which the host vehicle V is traveling. Specifically, the facing surface Fbf has an outward normal line that is the same as the above-mentioned outward normal line and the center line Lc in a direct view state where the own vehicle V passes the
図2を参照すると、車載システム1は、上述の測距センサ2および面検知センサ3に加えて、挙動センサ4と、ロケータ5と、DCM6と、ユーザインタフェース装置7と、駐車支援ECU8と、車両制御システム9と、車載ネットワーク10とを備えている。DCMはData Communication Moduleの略である。ECUはElectronic Control Unitの略である。
Referring to FIG. 2, the in-
挙動センサ4は、挙動情報、すなわち、自車両Vの運転状態あるいは運転挙動に対応する情報あるいは信号を、駐車支援ECU8および車両制御システム9に出力するように設けられている。すなわち、挙動センサ4は、シフトポジションセンサ、アクセル開度センサ、車速センサ、操舵角センサ、加速度センサ、ヨーレートセンサ、等の各種センサを総称したものである。
The
ロケータ5は、いわゆる複合測位により、自車両Vの高精度な位置情報等を取得するように構成されている。「高精度な位置情報」とは、例えば、「SAE J3016」におけるレベル2~5の高度な運転自動化レベルに利用可能な程度、具体的には、誤差が10cm未満となるような程度の位置精度を有する位置情報である。SAEはSociety of Automotive Engineersの略である。「SAE J3016」におけるレベル2,3,4,および5は、それぞれ、「高度運転支援」,「条件付自動運転」,「高度自動運転」,および「完全自動運転」と称される。
The
DCM6は、車載通信モジュールであって、LTEあるいは5G等の通信規格に準拠した無線通信により、自車両Vの周囲の基地局との間で情報通信可能に設けられている。LTEはLong Term Evolutionの略である。5Gは5th Generationの略である。具体的には、例えば、DCM6は、不図示のクラウド上に設けられたプローブサーバから最新の高精度地図情報を取得するように構成されている。
The
高精度地図情報には、数メートル程度の位置誤差に対応する従来のカーナビゲーションシステムにて用いられていた地図情報よりも、高精度な地図情報が含まれている。具体的には、高精度地図情報には、ADASIS規格等の所定の規格に準拠して、三次元道路形状情報、レーン数情報、規制情報、等の、「SAE J3016」におけるレベル2以上の運転自動化レベルに利用可能な情報が格納されている。ADASISはAdvanced Driver Assistance Systems Interface Specificationの略である。
The high-precision map information includes map information that is more accurate than the map information used in conventional car navigation systems, which can accommodate positional errors of about several meters. Specifically, high-precision map information includes three-dimensional road shape information, lane number information, regulation information, etc., in accordance with predetermined standards such as the ADASIS standard, and is required for driving at
ユーザインタフェース装置7は、自車両Vのドライバを含む乗員からの各種入力と、かかる乗員への各種情報提示のための出力とを実行可能に設けられている。具体的には、ユーザインタフェース装置7は、例えば、入力デバイス(タッチパネル等)、表示デバイス、スピーカ、マイク、等を備えている。
The
駐車支援ECU8は、図示しないCPU、ROM、RAM、不揮発性リライタブルメモリ、入出力インタフェース、等を備えた、いわゆる車載マイクロコンピュータとして構成されている。CPUはCentral Processing Unitの略である。ROMはRead Only Memoryの略である。RAMはRandom Access Memoryの略である。不揮発性リライタブルメモリは、例えば、ハードディスク、EEPROM、フラッシュROM、等である。EEPROMはElectronically Erasable and Programmable ROMの略である。ROMおよび不揮発性リライタブルメモリは、コンピュータ読み取り可能な非遷移的実体的記憶媒体に相当するものである。
The
駐車支援ECU8は、CPUがROMまたは不揮発性リライタブルメモリからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のフローチャートあるいはルーチンに対応するものが含まれている。また、RAMおよび不揮発性リライタブルメモリは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性リライタブルメモリには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。かかる各種のデータは、例えば、初期値、ルックアップテーブル、マップ、等である。
The
本発明の物体検知装置としての駐車支援ECU8は、自車両Vに搭載されることで、自車両Vの周囲に存在する他車両Vt等の物体を検知するとともに、物体検知結果に応じた駐車支援制御を実行するように構成されている。具体的には、駐車支援ECU8は、車載マイクロコンピュータ上にて実現される、以下の機能構成を有している。
The
すなわち、駐車支援ECU8は、挙動取得部801と、位置推定部802とを有している。また、駐車支援ECU8は、測距点取得部803と、検知点取得部804と、検知面取得部805と、高精度面取得部806とを有している。さらに、駐車支援ECU8は、マップ生成部807と、物体検知部808と、駐車スペース抽出部809と、駐車経路算出部810とを有している。
That is, the
図3~図5は、駐車支援ECU8による駐車支援動作、特に、駐車スペースSPの検知のための物体検知動作の概要を示す。以下、図1~図5を参照しつつ、駐車支援ECU8における上記の機能構成の各々について説明する。
3 to 5 show an overview of the parking assistance operation by the
挙動取得部801は、駐車支援動作開始時点からの自車両Vの位置を推定するために必要な挙動情報を取得するようになっている。すなわち、挙動取得部801は、挙動情報を挙動センサ4から受信して、RAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。位置推定部802は、挙動取得部801にて取得した挙動情報に基づいて、所定のXY座標系における自車両Vの位置を、推定すなわち算出するようになっている。「所定のXY座標系」は、駐車支援動作開始時点にて設定された、自車両Vの車高方向と直交する平面内の二次元座標系である。かかる所定のXY座標系を、以下単に「並進座標系」と称する。
The
測距点取得部803は、測距センサ2を用いた測距点Psの検知結果を取得するようになっている。具体的には、測距点取得部803は、位置推定部802にて推定された自車両Vの位置と、測距センサ2から受信した出力信号に含まれる測距情報とに基づいて、並進座標系における測距点Psの位置を算出するようになっている。また、測距点取得部803は、算出した測距点Psの位置を、時系列で所定個数分あるいは所定期間分、保持すなわちRAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。
The distance measurement
検知点取得部804は、図3に示されているように、面検知センサ3を用いた検知点Pdの検知結果を取得するようになっている。検知点Pdは、面検知センサ3の視野内に存在する物体の外表面である物体面Fb上のものとして検知された点である。具体的には、例えば、面検知センサ3がカメラである場合、検知点Pdは、いわゆる特徴点である。あるいは、例えば、面検知センサ3がLIDARセンサである場合、検知点Pdは、3次元座標で構成される点群データに含まれるデータ点であり、「測距点」とも称され得るものである。具体的には、本実施形態においては、検知点取得部804は、面検知センサ3に内蔵されたセンサECUによる検知点Pdの抽出結果を、面検知センサ3から受信して、保持すなわちRAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。
The detection
検知面取得部805は、図4に示されているように、面検知センサ3を用いた検知面Ftの検知結果を取得するようになっている。検知面Ftは、検知点Pdによって形成される平面または曲面であって、物体面Fbの検知結果に相当するものである。具体的には、本実施形態においては、検知面取得部805は、面検知センサ3を用いて取得された複数の検知点Pdの集合状態に基づいて、検知面Ftを取得すなわち算出あるいは推定するようになっている。
The detection
高精度面取得部806は、検知精度すなわち並進座標系における位置精度が高い検知面Ftである、高精度面FtHを取得するようになっている。高精度面FtHは、検知精度が、所定の高い精度であると想定される検知面Ftである。具体的には、本実施形態においては、高精度面取得部806は、少なくとも1つ検知された検知面Ftから、自車両Vの周囲の空間における面検知センサ3と検知面Ftとの配置関係に基づいて、高精度面FtHを取得するようになっている。高精度面FtHの取得の詳細については後述する。
The high-precision
マップ生成部807は、自車両Vの周囲の空間における物体の存在確率を示すマップMを生成するようになっている。マップMは、「存在確率マップ」とも称され得る。具体的には、マップ生成部807は、2次元配置された複数のグリッドGに並進座標系を格子状に分割して形成したマップMにおける、各グリッドGに対して、所定の割り付け条件に基づいて、物体の存在確率を割り付けるようになっている。「所定の割り付け条件」は、例えば、測距点Ps、検知点Pd、検知面Ft、および高精度面FtHの、取得結果のうちの少なくとも1つを含む。本実施形態においては、「所定の割り付け条件」は、少なくとも高精度面FtHの取得結果を含む。より詳細には、本実施形態においては、マップ生成部807は、図5を参照すると、検知点グリッドGnにおける存在確率を高く設定するとともに、面外グリッドGtにおける存在確率を低く設定するようになっている。
The
検知点グリッドGnは、測距点Psまたは検知点Pdが含まれるグリッドGである。図3~図5において、検知点Pdによる検知点グリッドGnが、図中斜線ハッチングで示されている。面外グリッドGtは、検知点Pdおよび高精度面FtHの配置状態に基づいて、面上グリッドGpの「外側」に位置すると判定されるグリッドGである。「外側」とは、面上グリッドGpに対応する物体から離隔する側をいうものとする。図5において、面外グリッドGtが、図中クロスハッチングで示されている。面上グリッドGpは、高精度面FtHが通過するグリッドGであり、典型的には、高精度面FtHが通過する検知点グリッドGnである。すなわち、マップ生成部807は、高精度面FtHに基づいて、存在確率が他の領域よりも低い低確率領域に相当する面外グリッドGtをマップMに設定するようになっている。
The detection point grid Gn is a grid G that includes distance measurement points Ps or detection points Pd. In FIGS. 3 to 5, a detection point grid Gn formed by detection points Pd is indicated by diagonal hatching in the figures. The out-of-plane grid Gt is a grid G that is determined to be located "outside" of the on-plane grid Gp based on the arrangement state of the detection point Pd and the high-precision surface FtH. The "outside" refers to the side that is separated from the object corresponding to the in-plane grid Gp. In FIG. 5, the out-of-plane grid Gt is shown by cross hatching in the figure. The surface grid Gp is a grid G through which the high-precision surface FtH passes, and is typically a detection point grid Gn through which the high-precision surface FtH passes. That is, the
物体検知部808は、測距点Psに基づいて、自車両Vの周囲の物体を検知するようになっている。具体的には、物体検知部808は、自車両Vの周囲の物体の検知に用いる測距点PsをマップMに基づいて選択し、選択した測距点Psに基づいて、並進座標系における物体の位置あるいは外形形状を推定するようになっている。「自車両Vの周囲の物体の検知に用いる測距点Ps」を、以下、「物体検知用の測距点Ps」と称する。すなわち、物体検知部808は、存在確率が所定程度以上高いグリッドGに対応する測距点Psを、物体検知用の測距点Psとして選択するようになっている。
The
本実施形態においては、物体検知部808は、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて、物体検知用の測距点Psを選択するようになっている。具体的には、物体検知部808は、高精度面FtHに基づいて、物体検知用の測距点Psを選択するようになっている。より詳細には、物体検知部808は、面外グリッドGtに対応する測距点Psを、物体検知用の測距点Psから除外するようになっている。また、物体検知部808は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、物体検知用の測距点Psを選択するようになっている。
In this embodiment, the
駐車スペース抽出部809は、物体検知部808による物体検知結果に基づいて、駐車スペースSPを抽出するようになっている。駐車経路算出部810は、駐車スペース抽出部809により抽出された駐車スペースSPに基づいて、自車両Vを駐車スペースSPに駐車するための走行経路である駐車経路を算出するようになっている。
The parking
車両制御システム9は、駆動機構および駆動制御ECUを含む駆動系システム、制動機構および制動制御ECUを含む制動系システム、操舵機構および操舵制御ECUを含む操舵系システム、等の、自車両Vにおける運転制御を実行するための構成を有している。すなわち、車両制御システム9は、駐車支援ECU8により取得された駐車スペースSPおよび駐車経路に基づいて、自車両Vが駐車スペースSPに駐車するために必要な加減速、操舵、および制動等の運転制御を実行するように構成されている。
The
測距センサ2、面検知センサ3、挙動センサ4、ロケータ5、DCM6、ユーザインタフェース装置7、駐車支援ECU8、および車両制御システム9は、車載ネットワーク10を介して互いに信号あるいは情報を授受可能に接続されている。車載ネットワーク10は、CAN(国際登録商標:国際登録番号1048262A)、FlexRay(国際登録商標)、LIN等の所定の規格に準拠するように構成されている。CAN(国際登録商標)はController Area Networkの略である。LINはLocal Interconnect Networkの略である。
The
(動作概要)
以下、駐車支援ECU8の動作概要について説明する。駐車支援ECU8は、駐車支援動作を開始するための所定の指令入力に基づいて、駐車支援動作を開始する。かかる指令入力は、例えば、自車両Vのドライバによるユーザインタフェース装置7の入力操作である。あるいは、かかる指令入力は、例えば、ロケータ5からの、自車両Vが駐車場内に進入した旨の情報の入力である。
(Operation overview)
An outline of the operation of the parking assist
所定の指令入力に応じて、駐車支援ECU8におけるCPUは、ROMまたは不揮発記憶媒体から、駐車支援動作のためのプログラムを読み出して実行する。かかるプログラムは、本発明に係る物体検知プログラムに相当する。また、かかるプログラムの実行により、本発明に係る物体検知方法が実施される。駐車支援動作開始時点は、かかるプログラムの実行開始時点、具体的には上記の指令入力時点である。かかるプログラムが実行されると、駐車支援ECU8における各機能ブロック構成は、以下の通り動作する。
In response to a predetermined command input, the CPU in the
マップ生成部807は、駐車支援動作開始時点における所定位置(例えば自車両Vの平面視における中心位置)を原点とし、自車両Vの前方をX軸正方向とし、自車両Vの右方または左方をY軸正方向とする、並進座標系を設定する。また、マップ生成部807は、格子状に2次元配列された複数のグリッドGを、並進座標系に設定する。さらに、マップ生成部807は、各グリッドGに割り付けられる存在確率を、初期値に設定する。存在確率は、値が大きくなるほど高くなる一方で値が小さくなるほど低くなるものとし、本実施形態においては、初期値は物体の存否不明を示す値「0」であり、最大値は+Ωであり、最小値は-Ωであるものとする。Ωは自然数(例えば255)である。
The
位置推定部802は、挙動取得部801にて取得した挙動情報に基づいて、並進座標系における自車両Vの位置を推定する。測距点取得部803は、測距センサ2を用いた測距点Psの検知結果を取得する。具体的には、測距点取得部803は、位置推定部802にて推定された自車両Vの位置と、測距センサ2から受信した測距情報とに基づいて、並進座標系における測距点Psの位置を算出する。また、測距点取得部803は、算出した測距点Psの位置を、時系列で所定個数分あるいは所定期間分保持する。
The
検知点取得部804は、面検知センサ3を用いた検知点Pdの検知結果を取得する。面検知センサ3がカメラである場合、検知点Pdは特徴点である。特徴点は、撮影画像中の物体の形状を特徴付ける点である。具体的には、特徴点は、撮影画像の画角すなわち画像フレーム内における、特徴的な点すなわち画素である。例えば、特徴点は、隣接する画素との間での輝度変化が大きな画素である。
The detection
検知面取得部805は、検知点Pdの集合状態、すなわち、個数および配列状態(例えば長さ)に基づいて、検知面Ftを取得する。具体的には、検知面取得部805は、N個以上且つ長さD以上の、複数の検知点Pdからなる点群を、検知面Ftとして認識する。例えば、検知面取得部805は、並進座標系における隣接点間の距離が所定距離以内となるi個の検知点Pdからなる点群を抽出する。i≧Nである場合、検知面取得部805は、i個の点群にフィットする近似曲線を最小二乗法等により算出する。そして、検知面取得部805は、かかる近似曲線の長さがD以上である場合に、かかる近似曲線を検知面Ftとする。
The sensing
高精度面取得部806は、検知精度すなわち並進座標系における位置精度が高い検知面Ftである高精度面FtHを取得する。具体的には、本実施形態においては、高精度面取得部806は、並進座標系における面検知センサ3および検知面Ftの配置関係に基づいて、高精度面FtHを取得する。以下、面検知センサ3がカメラである場合における、高精度面FtHの取得の詳細について説明する。
The high-precision
カメラである面検知センサ3による、検知点Pdの方位精度は、CMOS等の撮像素子の分解能に依存する。CMOSはComplementary MOSの略である。近年の撮像素子は分解能が非常に高い(例えば25ピクセル/deg程度)。よって、検知点Pdの方位精度は高い。
The azimuth accuracy of the detection point Pd by the
これに対し、面検知センサ3から検知点Pdまでの距離は、異なる時間に撮影された複数の画像データを用いた移動ステレオの原理により算出される。このとき、画像上の検知点Pdの位置誤差が増幅された形で、検知点Pdの距離誤差が生じる。このため、検知点Pdの距離精度は、方位精度に比して低い。
On the other hand, the distance from the
図3~図5は、自車両Vが縦列駐車する際の駐車支援動作の具体例を示す。このとき、図4を参照すると、駐車車両である他車両Vtにおける車体前面である非対向面Fbsに対応する第一検知面Ft1は、面検知センサ3から見て奥行き方向に延設されているために距離精度は問題にならない一方で、上記の通り、方位精度は高い。これに対し、かかる他車両Vtにおける車体側面である対向面Fbfに対応する第二検知面Ft2は、自車両Vの進行方向に沿って延設されているために方位精度は問題にならない一方で、上記の通り、距離精度は低い。
3 to 5 show specific examples of parking support operations when the own vehicle V parallel parks. At this time, referring to FIG. 4, the first detection surface Ft1 corresponding to the non-facing surface Fbs, which is the front surface of the vehicle body of the other vehicle Vt, which is the parked vehicle, extends in the depth direction when viewed from the
そこで、図3~図5の例においては、高精度面取得部806は、方位精度が高い第一検知面Ft1を、高精度面FtHとして選択する。具体的には、高精度面取得部806は、例えば、並進座標系における、検知面Ftと中心線Lcとのなす角度が所定の閾値角度以下である検知面Ftを、高精度面FtHとして選択する。
Therefore, in the examples of FIGS. 3 to 5, the high-precision
あるいは、高精度面取得部806は、例えば、並進座標系における、検知面Ftの延長線と当該検知面Ftの取得時点における面検知センサ3との最短距離が所定の閾値距離以下である検知面Ftを、高精度面FtHとして選択する。図4に示されている例においては、第一検知面Ft1に対応する第一延長線L1は、面検知センサ3の近くを通り、最短距離は閾値距離以下となる。これに対し、第二検知面Ft2に対応する第二延長線L2は、面検知センサ3の遠くを通り、最短距離は閾値距離を超える。よって、高精度面取得部806は、第一検知面Ft1を、高精度面FtHとして選択する。
Alternatively, the high-precision
マップ生成部807は、マップMにおける各グリッドGに対して、所定の割り付け条件に基づいて、物体の存在確率を割り付ける。具体的には、マップ生成部807は、例えば、測距点Psおよび検知点Pdが存在する検知点グリッドGnにおける存在確率に、所定の正値を加算する。
The
また、マップ生成部807は、存在確率が他の領域よりも低い低確率領域に対応する面外グリッドGtを、取得あるいは選択した高精度面FtHに基づいてマップMに設定する。具体的には、マップ生成部807は、面外グリッドGtにおける存在確率を、物体の不存在に対応する所定の負値、すなわち、絶対値が大きな負値に設定する。なお、本実施形態においては、測距点Psが存在する検知点グリッドGnが面外グリッドGtにも該当する場合は、面外グリッドGtに対する処理が優先されるものとする。
Furthermore, the
ところで、カメラまたはLIDARセンサ等である面検知センサ3は、降雨あるいは霧発生等の悪条件が発生した場合、検知精度が低下する。あるいは、面検知センサ3に何らかの異常が発生する場合があり得る。これらの場合、高精度面FtHを良好に取得することは困難となる。そこで、マップ生成部807は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、高精度面FtHを取得する。
By the way, the detection accuracy of the
物体検知部808は、マップMに基づいて、物体検知用の測距点Psを選択する。すなわち、物体検知部808は、存在確率が高いグリッドGに含まれる測距点Psを、物体検知用の測距点Psとして選択する。そして、物体検知部808は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体(例えば図3~図5に示された他車両Vt)の並進座標系における物体の位置あるいは外形形状を推定することで、当該物体を検知する。駐車スペース抽出部809は、物体検知部808による物体検知結果に基づいて、駐車スペースSPを抽出する。駐車経路算出部810は、駐車スペース抽出部809により抽出された駐車スペースSPに対応する駐車経路を算出する。
The
(動作例)
以下、本実施形態の構成による具体的な動作例について、図6に示したフローチャートを用いて説明する。なお、図6において、「ステップ」を単に「S」と略記する。
(Operation example)
Hereinafter, a specific example of operation according to the configuration of this embodiment will be described using the flowchart shown in FIG. Note that in FIG. 6, "step" is simply abbreviated as "S".
駐車支援ECU8は、所定の起動条件成立中に、図6に示されたルーチンを、所定時間間隔で繰り返し起動する。かかるルーチンが起動されると、駐車支援ECU8は、まず、ステップ601~ステップ605の処理を順に実行する。
The
ステップ601にて、駐車支援ECU8は、自車両Vの挙動情報を取得する。ステップ602にて、駐車支援ECU8は、並進座標系における自車両Vの位置を推定する。ステップ603にて、駐車支援ECU8は、測距点Psを取得する。ステップ604にて、駐車支援ECU8は、ステップ603にて取得した測距点Psに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、測距点Psに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。
In step 601,
ステップ605にて、駐車支援ECU8は、面検知センサ3が正常動作中であるか否かを判定する。具体的には、例えば、駐車支援ECU8は、面検知センサ3が自己診断中であるか否かを判定する。あるいは、駐車支援ECU8は、面検知センサ3における自己診断結果を、面検知センサ3から受信する。あるいは、例えば、駐車支援ECU8は、雨滴検知結果および霧検知結果を、挙動センサ4あるいは外部装置から受信する。かかる外部装置は、例えば、車両制御システム9、あるいは、不図示の雨滴検知センサ等である。あるいは、例えば、駐車支援ECU8は、ワイパおよびフォグランプの動作状態を受信する。そして、駐車支援ECU8は、受信した上記の情報あるいは信号に基づいて、面検知センサ3が正常動作中であるか否かを判定する。
At step 605, the parking assist
面検知センサ3が正常動作中である場合(すなわちステップ605=YES)、駐車支援ECU8は、処理をステップ606~ステップ609に進行させる。ステップ606にて、駐車支援ECU8は、面検知センサ3を用いた検知点Pdの検知結果を取得する。ステップ607にて、駐車支援ECU8は、ステップ606にて取得した検知点Pdに基づいて、検知面Ftを取得する。ステップ608にて、駐車支援ECU8は、ステップ607にて取得した検知面Ftに基づいて、高精度面FtHを取得する。
If the
ステップ609にて、駐車支援ECU8は、ステップ608の処理によって高精度面FtHが取得できたか否かを判定する。高精度面FtHが取得できた場合(すなわちステップ609=YES)、駐車支援ECU8は、処理をステップ610に進行させる。一方、高精度面FtHが取得できなかった場合(すなわちステップ609=NO)、駐車支援ECU8は、処理をステップ611に進行させる。
In step 609, the parking assist
ステップ610にて、駐車支援ECU8は、検知点Pdおよび高精度面FtHに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、検知点Pdに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。また、駐車支援ECU8は、高精度面FtHに基づいて特定あるいは設定した面外グリッドGtにおける存在確率を、物体の不存在に対応する所定の負値に設定する。
At step 610, parking assist
ステップ611にて、駐車支援ECU8は、検知点Pdに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、検知点Pdに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。
In step 611, parking assist
ステップ610またはステップ611の処理の後、駐車支援ECU8は、処理をステップ612に進行させる。また、面検知センサ3が正常動作中ではない場合(すなわちステップ605=NO)、駐車支援ECU8は、ステップ606~ステップ611の処理をスキップして、処理をステップ605からステップ612に進行させる。
After the process in step 610 or step 611, the parking assist
ステップ612にて、駐車支援ECU8は、マップMに基づいて、物体検知用の測距点Psを選択する。ステップ613にて、駐車支援ECU8は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体の位置を推定する。すなわち、駐車支援ECU8は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体を検知あるいは認識する。その後、駐車支援ECU8は、本ルーチンを一旦終了する。
At step 612, the
(効果)
本実施形態に係る駐車支援ECU8、ならびに、これによって実行される物体検知方法および物体検知プログラムによれば、以下のような効果が奏され得る。以下、本実施形態に係る駐車支援ECU8、ならびに、これによって実行される物体検知方法および物体検知プログラムを総称して、単に「本実施形態」と称する。
(effect)
According to the parking assist
(1)本実施形態においては、測距点取得部803は、自車両Vの周囲の測距点Psを検知するための測距センサ2を用いた、測距点Psの検知結果を取得する。検知面取得部805は、物体面Fbを検知するための面検知センサ3を用いた、物体面Fbの検知結果である検知面Ftを取得する。物体検知部808は、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて選択された測距点Psに基づいて、物体を検知する。
(1) In the present embodiment, the distance measurement
本実施形態によれば、測距センサ2による複数の測距点のPsうち、位置誤差が大きな「外れ点」が生じても、かかる「外れ点」に該当しない測距点Psを、検知面Ftとの位置関係に応じて選択して物体検知に用いることができる。具体的には、例えば、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて「外れ点」を特定することで、特定した「外れ点」を物体検知用の測距点Psから除外することができる。
According to the present embodiment, even if an "outlier point" with a large positional error occurs among a plurality of distance measurement points Ps by the
このように、本実施形態によれば、「外れ点」に起因する障害物の誤検知、および、かかる誤検知に伴う誤判定の発生を、良好に抑制することが可能となる。したがって、本実施形態によれば、従来よりも良好な物体検知精度を実現可能な、物体検知装置、物体検知方法、および物体検知プログラムを提供することが可能となる。 In this way, according to the present embodiment, it is possible to satisfactorily suppress the erroneous detection of an obstacle due to an "outlier point" and the occurrence of erroneous determinations associated with such erroneous detection. Therefore, according to the present embodiment, it is possible to provide an object detection device, an object detection method, and an object detection program that can achieve better object detection accuracy than conventional ones.
(2)本実施形態においては、物体検知部808は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、物体検知用の測距点Psを選択する。本実施形態によれば、検知面Ftを良好に検知可能な状況にて、かかる検知面Ftの取得結果を用いることで、物体検知用の測距点Psを良好に選択することができる。
(2) In the present embodiment, the
(3)本実施形態においては、検知面取得部805は、面検知センサ3を用いて取得された、物体面Fb上の複数の検知点Pdの、集合状態に基づいて、検知面Ftを取得する。面検知センサ3によれば、多数の検知点Pdを、ほぼ同時あるいは短時間で取得することができる。このように取得された多数の検知点Pdにおいて、一定の幅および奥行きの範囲に所定個数の点群が存在すれば、かかる点群が物体面Fbに対応する蓋然性が高いといえる。したがって、本実施形態によれば、簡易な処理により良好な精度で検知面Ftを取得することが可能となる。
(3) In the present embodiment, the sensing
(4)本実施形態においては、物体検知部808は、検知精度が所定の高い精度である検知面Ftである高精度面FtHに基づいて、物体検知用の測距点Psを選択する。本実施形態によれば、測距センサ2による複数の測距点のPsうち、位置誤差が大きな「外れ点」が生じても、かかる「外れ点」に該当しない測距点Psを、高精度面FtHに基づいて選択して物体検知に用いることができる。したがって、本実施形態によれば、「外れ点」に該当しない測距点Psを、高精度で選択することが可能となる。
(4) In the present embodiment, the
(5)本実施形態は、自車両Vの周囲の空間における物体の存在確率を示すマップMを生成するマップ生成部807を備えている。マップ生成部807は、高精度面FtHに基づいて、存在確率が他の領域よりも低い低確率領域すなわち面外グリッドGtをマップMに設定する。物体検知部808は、この低確率領域に対応する測距点Psを、物体検知用の測距点Psから除外する。
(5) The present embodiment includes a
本実施形態においては、マップMに設定した低確率領域すなわち面外グリッドGtに対応する測距点Psを「外れ点」として除外することで、物体検知用の測距点Psを選択することができる。したがって、本実施形態によれば、物体検知用の測距点Psを、高精度で選択することが可能となる。 In this embodiment, by excluding the ranging points Ps corresponding to the low probability area set in the map M, that is, the out-of-plane grid Gt, as "outlying points", it is possible to select the ranging points Ps for object detection. can. Therefore, according to the present embodiment, it is possible to select the ranging point Ps for detecting an object with high accuracy.
(6)本実施形態においては、高精度面取得部806は、自車両Vの周囲の空間における面検知センサ3および検知面Ftの配置関係に基づいて、高精度面FtHを取得する。したがって、本実施形態によれば、高精度面FtHを良好な精度で取得することが可能となる。
(6) In the present embodiment, the high-precision
(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modified example)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. Typical modified examples will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Further, in the above embodiment and the modified example, parts that are the same or equivalent to each other are given the same reference numerals. Therefore, in the following description of the modification, the description in the above embodiment may be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional explanation.
本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、適用対象である自車両Vは、四輪自動車に限定されない。具体的には、自車両Vは、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。自車両Vの種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。 The present invention is not limited to the specific device configuration shown in the above embodiments. That is, for example, the subject vehicle V to which the present invention is applied is not limited to a four-wheel vehicle. Specifically, the own vehicle V may be a three-wheeled vehicle, or a six-wheeled or eight-wheeled vehicle such as a cargo truck. The type of vehicle V may be a car equipped only with an internal combustion engine, an electric car or a fuel cell car without an internal combustion engine, or a so-called hybrid car. The shape and structure of the vehicle body are also not limited to a box shape, that is, a substantially rectangular shape in plan view.
上記実施形態において、駐車支援ECU8は、CPUがROM等からプログラムを読み出して起動する、いわゆる車載マイクロコンピュータとしての構成を有していた。しかしながら、本発明は、かかる構成に限定されない。具体的には、例えば、駐車支援ECU8の全部または一部は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。よって、駐車支援ECU8において、車載マイクロコンピュータ部分とデジタル回路部分とは併存し得る。
In the embodiment described above, the parking assist
上記実施形態にて説明した、各種の動作、手順、あるいは処理を実行可能とする、本発明に係るプログラムは、DCM6等によるV2X通信を介して、ダウンロードあるいはアップグレードされ得る。V2XはVehicle to Xの略である。あるいは、かかるプログラムは、自車両Vの製造工場、整備工場、販売店、等に設けられた端末機器を介して、ダウンロードあるいはアップグレードされ得る。かかるプログラムの格納先は、メモリーカード、光学ディスク、磁気ディスク、等であってもよい。
The program according to the present invention, which enables execution of the various operations, procedures, or processes described in the above embodiments, can be downloaded or upgraded via V2X communication using the
このように、上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされた、プロセッサおよびメモリを含む専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用論理回路によって提供された専用ハードウエアにより、実現されてもよい。 As such, each of the functional configurations and methods described above may be implemented by a dedicated computer including a processor and memory programmed to perform one or more of the functions embodied by the computer program. Alternatively, each of the functional configurations and methods described above may be implemented by dedicated hardware provided by one or more dedicated logic circuits.
あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと、一つ以上の論理回路によって構成されたハードウエアとの組み合わせにより構成された、一つ以上の専用処理装置により、実現されてもよい。 Alternatively, each of the above functional configurations and methods is configured by a combination of a processor and memory programmed to perform one or more functions, and hardware configured by one or more logic circuits. It may be implemented by one or more dedicated processing devices.
コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、上記の各機能構成および方法は、これを実現するための処理あるいは手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。 A computer program may be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium. That is, each of the functional configurations and methods described above can be expressed as a computer program including processes or procedures for realizing the same, or as a non-transitional physical storage medium storing the program.
本発明に係る物体検知装置は、上記実施形態においては、駐車支援制御装置である駐車支援ECU8として実現されていた。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、挙動取得部801~物体検知部808は、「SAE J3016」におけるレベル1~5の運転自動化レベルを実現するための、運転支援ECUあるいは自動運転ECUにて実現されてもよい。レベル1の「運転支援」には、衝突被害軽減ブレーキ、アダプティブクルーズコントロール、レーンキープアシスト、等が含まれる。
In the embodiment described above, the object detection device according to the present invention is realized as a
本発明は、上記実施形態にて示された具体的な動作態様あるいは処理態様に限定されない。すなわち、例えば、マップMを用いなくても、検知点Pdと高精度面FtHと測距点Psとの並進座標系における相対位置関係に基づいて、物体検知用の測距点Psを選択することが可能である。具体的には、かかる相対位置関係に基づけば、高精度面FtHの「外側」に位置すると判定される測距点Psを特定して、物体検知用の測距点Psから除外することが可能である。この場合、マップ生成部807は、省略される。
The present invention is not limited to the specific operational aspects or processing aspects shown in the above embodiments. That is, for example, without using the map M, the distance measurement point Ps for object detection can be selected based on the relative positional relationship in the translational coordinate system between the detection point Pd, the high-precision surface FtH, and the distance measurement point Ps. is possible. Specifically, based on this relative positional relationship, it is possible to specify the distance measuring point Ps that is determined to be located on the "outside" of the high-precision surface FtH and exclude it from the distance measuring points Ps for object detection. It is. In this case, the
測距点Psは、ある時点t(n)における測距センサ2の位置および測距距離と、時点t(n)の1つ前の時点t(n-1)における測距センサ2の位置および測距距離とに基づいて、三角測量の原理で算出された点であってもよい。すなわち、「測距点Ps」は、「反射点Ps」、「測距センサ検知点Ps」、あるいは「第一検知点Ps」とも称され得る。この場合、「検知点Pd」は、「面検知センサ検知点Pd」あるいは「第二検知点Pd」とも称され得る。
The distance measurement point Ps is determined by the position and distance measurement of the
検知面Ftの取得には、機械学習が用いられ得る。具体的には、パターンマッチング、セマンティックセグメンテーション、等が利用可能である。これにより、より高精度あるいは高速で、検知面Ftを取得することが可能となる。 Machine learning may be used to obtain the detection surface Ft. Specifically, pattern matching, semantic segmentation, etc. can be used. Thereby, it becomes possible to obtain the detection surface Ft with higher precision or higher speed.
図6に示されたフローチャートに対しては、適宜変更が可能である。具体的には、例えば、ステップ604は、省略され得る。すなわち、測距点Psは、マップMにおける存在確率に反映されなくてもよい。 The flowchart shown in FIG. 6 can be modified as appropriate. Specifically, for example, step 604 may be omitted. That is, the ranging point Ps does not need to be reflected in the existence probability in the map M.
面外グリッドGtにおける存在確率に対する処理は、物体の不存在に対応する所定の負値への設定に限定されない。すなわち、例えば、かかる処理は、所定の負値の加算であってもよい。 The processing for the existence probability in the out-of-plane grid Gt is not limited to setting it to a predetermined negative value corresponding to the absence of an object. That is, for example, such processing may be addition of a predetermined negative value.
面外グリッドGtは、高精度面FtHの外側のグリッドGに限定されない。すなわち、例えば、面検知センサ3の種類あるいは構造等によっては、すべての検知面Ftが高精度で取得される場合があり得る。具体的には、例えば、面検知センサ3が、複眼ステレオカメラ装置であったり、カメラと他のセンサとを含むフュージョンセンサであったりする場合、すべての検知面Ftが高精度で取得され得る。このような場合、面外グリッドGtは検知面Ftの外側のグリッドGとなり、高精度面取得部806は省略される。
The out-of-plane grid Gt is not limited to the grid G outside the high-precision surface FtH. That is, for example, depending on the type or structure of the
Kを閾値あるいは所定値とした場合、「K以上」と「Kを超える」とは、技術的に矛盾あるいは不都合がない限り、互換可能である。「K以下」と「K未満」とについても同様である。 When K is a threshold value or a predetermined value, "more than K" and "more than K" are interchangeable as long as there is no technical contradiction or inconvenience. The same applies to "less than K" and "less than K."
「取得」、「推定」、「検出」、「検知」、「算出」、「抽出」、「生成」、等の、相互に類似する表現は、技術的に矛盾しない範囲内において、適宜置換可能である。 Similar expressions such as "obtain", "estimate", "detect", "detect", "calculate", "extract", "generate", etc. can be replaced as appropriate within the scope of technical contradiction. It is.
上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数値に限定される場合等を除き、その特定の数値に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 It goes without saying that the elements constituting the above-described embodiments are not necessarily essential, except in cases where they are specifically specified as essential or where they are clearly considered essential in principle. In addition, when numerical values such as the number, amount, range, etc. of a component are mentioned, unless it is clearly stated that it is essential or it is clearly limited to a specific numerical value in principle, the specific numerical value The present invention is not limited thereto. Similarly, when the shape, direction, positional relationship, etc. of components, etc. is mentioned, unless it is clearly stated that it is essential, or when it is limited in principle to a specific shape, direction, positional relationship, etc. , the present invention is not limited to its shape, direction, positional relationship, etc.
変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants may be combined with each other. Furthermore, all or part of the above embodiments and all or part of the modifications may be combined with each other.
2 測距センサ
3 面検知センサ
8 駐車支援ECU(物体検知装置)
803 測距点取得部
805 検知面取得部
808 物体検知部
Ft 検知面
Ps 測距点
V 自車両
Vt 他車両
2
803 Range-finding
Claims (10)
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する、測距点取得部(803)と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する、検知面取得部(805)と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて前記物体を検知する、物体検知部(808)と、
を備え、
前記物体検知部は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する、
物体検知装置。 An object detection device (8) configured to be mounted on the own vehicle (V) to detect objects (Vt) existing around the own vehicle,
a ranging point acquisition unit (803) that obtains a detection result of the ranging point using a ranging sensor (2) for detecting ranging points (Ps) around the own vehicle;
a sensing surface acquisition unit (805) that acquires a sensing surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
an object detection unit (808) that detects the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space around the host vehicle;
Equipped with
The object detection unit selects the ranging point to be used for detecting the object based on a high-precision surface (FtH) that is the detection surface with a predetermined high detection accuracy.
Object detection device.
前記マップ生成部は、前記高精度面に基づいて、前記存在確率が他の領域よりも低い低確率領域(Gt)を前記マップに設定し、
前記物体検知部は、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外する、
請求項1に記載の物体検知装置。 further comprising a map generation unit (807) that generates a map (M) indicating the existence probability of the object in the space around the own vehicle;
The map generation unit sets, in the map, a low probability region (Gt) in which the existence probability is lower than other regions, based on the high-precision surface;
The object detection unit excludes the ranging point corresponding to the low probability area from the ranging points used for detecting the object.
The object detection device according to claim 1 .
請求項1または2に記載の物体検知装置。 further comprising a high-precision surface acquisition unit (806) that obtains the high-precision surface based on the arrangement relationship between the surface detection sensor and the detection surface in the space around the own vehicle;
The object detection device according to claim 1 or 2 .
請求項1~3のいずれか1つに記載の物体検知装置。 The object detection unit selects the ranging point to be used for detecting the object based on the detection surface detected by the surface detection sensor during normal operation.
The object detection device according to any one of claims 1 to 3.
請求項1~4のいずれか1つに記載の物体検知装置。 The sensing surface acquisition unit acquires the sensing surface based on a collective state of a plurality of sensing points (Pd) on the object surface acquired using the surface detection sensor.
The object detection device according to any one of claims 1 to 4 .
前記物体検知装置により実行される処理は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する処理と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する処理と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する処理と、
を含み、
前記物体を検知する前記処理は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む、
物体検知プログラム。 An object detection program executed by an object detection device (8) configured to be mounted on the own vehicle (V) to detect objects (Vt) existing around the own vehicle,
The process executed by the object detection device includes:
A process of acquiring a detection result of the distance measurement point using a distance measurement sensor (2) for detecting the distance measurement point (Ps) around the own vehicle;
A process of acquiring a detection surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
a process of detecting the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space surrounding the host vehicle;
including;
The process of detecting the object includes a process of selecting the ranging point used for detecting the object based on a high-precision surface (FtH) that is the detection surface with a predetermined high detection accuracy.
Object detection program.
前記物体の検知に用いる前記測距点を選択する前記処理は、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外する処理を含む、
請求項6に記載の物体検知プログラム。 A process of setting a low probability region (Gt) in which the existence probability of the object in the space around the host vehicle is lower than other regions in a map (M) indicating the existence probability, based on the high-precision surface. further including;
The process of selecting the ranging point used for detecting the object includes a process of excluding the ranging point corresponding to the low probability area from the ranging points used for detecting the object.
The object detection program according to claim 6 .
請求項6または7に記載の物体検知プログラム。 further comprising a process of acquiring the high-precision surface based on the arrangement relationship of the surface detection sensor and the detection surface in the space around the own vehicle;
The object detection program according to claim 6 or 7 .
請求項6~8のいずれか1つに記載の物体検知プログラム。 The process of detecting the object includes a process of selecting the ranging point used for detecting the object based on the detection surface detected by the surface detection sensor during normal operation.
The object detection program according to any one of claims 6 to 8 .
請求項6~9のいずれか1つに記載の物体検知プログラム。 The process of acquiring the detection plane includes a process of acquiring the detection plane based on a collective state of a plurality of detection points (Pd) on the object plane acquired using the surface detection sensor. ,
The object detection program according to any one of claims 6 to 9 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020175974A JP7452374B2 (en) | 2020-10-20 | 2020-10-20 | Object detection device and object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020175974A JP7452374B2 (en) | 2020-10-20 | 2020-10-20 | Object detection device and object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022067324A JP2022067324A (en) | 2022-05-06 |
JP7452374B2 true JP7452374B2 (en) | 2024-03-19 |
Family
ID=81390485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020175974A Active JP7452374B2 (en) | 2020-10-20 | 2020-10-20 | Object detection device and object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7452374B2 (en) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010256138A (en) | 2009-04-23 | 2010-11-11 | Canon Inc | Imaging apparatus and method for controlling the same |
JP2015212942A (en) | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | Methods and systems for object detection using laser point clouds |
JP2016085694A (en) | 2014-10-28 | 2016-05-19 | キヤノン株式会社 | Image processing device, control method of the same, and program |
WO2018159289A1 (en) | 2017-02-28 | 2018-09-07 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device, distance measurement method, and distance measurement system |
JP2018200273A (en) | 2017-05-29 | 2018-12-20 | 株式会社デンソー | Distance measurement sensor |
JP2019526056A (en) | 2016-05-18 | 2019-09-12 | オキーフェ, ジェームスO’KEEFEE, James | Dynamic steered LIDAR adapted to the shape of the vehicle |
WO2020100922A1 (en) | 2018-11-13 | 2020-05-22 | ソニーセミコンダクタソリューションズ株式会社 | Data distribution system, sensor device, and server |
WO2020170680A1 (en) | 2019-02-18 | 2020-08-27 | 株式会社小糸製作所 | Dirt detection system, lidar unit, sensing system for vehicle, and vehicle |
JP2020527500A (en) | 2017-07-06 | 2020-09-10 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Methods and equipment for calibrating external parameters of onboard sensors |
-
2020
- 2020-10-20 JP JP2020175974A patent/JP7452374B2/en active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010256138A (en) | 2009-04-23 | 2010-11-11 | Canon Inc | Imaging apparatus and method for controlling the same |
JP2015212942A (en) | 2014-04-25 | 2015-11-26 | グーグル インコーポレイテッド | Methods and systems for object detection using laser point clouds |
JP2016085694A (en) | 2014-10-28 | 2016-05-19 | キヤノン株式会社 | Image processing device, control method of the same, and program |
JP2019526056A (en) | 2016-05-18 | 2019-09-12 | オキーフェ, ジェームスO’KEEFEE, James | Dynamic steered LIDAR adapted to the shape of the vehicle |
WO2018159289A1 (en) | 2017-02-28 | 2018-09-07 | ソニーセミコンダクタソリューションズ株式会社 | Distance measurement device, distance measurement method, and distance measurement system |
JP2018200273A (en) | 2017-05-29 | 2018-12-20 | 株式会社デンソー | Distance measurement sensor |
JP2020527500A (en) | 2017-07-06 | 2020-09-10 | 華為技術有限公司Huawei Technologies Co.,Ltd. | Methods and equipment for calibrating external parameters of onboard sensors |
WO2020100922A1 (en) | 2018-11-13 | 2020-05-22 | ソニーセミコンダクタソリューションズ株式会社 | Data distribution system, sensor device, and server |
WO2020170680A1 (en) | 2019-02-18 | 2020-08-27 | 株式会社小糸製作所 | Dirt detection system, lidar unit, sensing system for vehicle, and vehicle |
Also Published As
Publication number | Publication date |
---|---|
JP2022067324A (en) | 2022-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10466714B2 (en) | Depth map estimation with stereo images | |
EP3470789A1 (en) | Autonomous driving support apparatus and method | |
JP6942712B2 (en) | Detection of partially obstructed objects using context and depth order | |
US9714034B2 (en) | Vehicle control device | |
CN110867132B (en) | Environment sensing method, device, electronic equipment and computer readable storage medium | |
US20150154458A1 (en) | Lane change determining apparatus, junction entry determining apparatus and method thereof | |
US10302754B1 (en) | Object recognition device | |
CN110979317A (en) | Fixed camera positioning | |
US20180114436A1 (en) | Lidar and vision vehicle sensing | |
CN112046481B (en) | Automatic driving device and method | |
US12085403B2 (en) | Vehicle localisation | |
CN111806421A (en) | Vehicle attitude determination system and method | |
JP7452374B2 (en) | Object detection device and object detection program | |
US20240312059A1 (en) | Robust lidar-to-camera sensor alignment | |
JP2021043164A (en) | Object detector and object detection method | |
JP2021135191A (en) | Object detection device | |
CN116295490A (en) | Vehicle positioning method and device, electronic equipment and storage medium | |
US20230025940A1 (en) | Apparatus for estimating obstacle shape and method thereof | |
US20240312058A1 (en) | Robust lidar-to-camera sensor alignment | |
JP7236556B2 (en) | Object detection device and object detection program | |
JP7334572B2 (en) | Object detection device and object detection program | |
EP4336466A2 (en) | Method and apparatus for modeling object, storage medium, and vehicle control method | |
US20240199003A1 (en) | Parking control device and method thereof | |
JP7322576B2 (en) | Information processing device, imaging device, and moving object | |
KR20230018591A (en) | Method and Apparatus for Vehicle Driving Control by Using Sensor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7452374 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |