[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7452374B2 - Object detection device and object detection program - Google Patents

Object detection device and object detection program Download PDF

Info

Publication number
JP7452374B2
JP7452374B2 JP2020175974A JP2020175974A JP7452374B2 JP 7452374 B2 JP7452374 B2 JP 7452374B2 JP 2020175974 A JP2020175974 A JP 2020175974A JP 2020175974 A JP2020175974 A JP 2020175974A JP 7452374 B2 JP7452374 B2 JP 7452374B2
Authority
JP
Japan
Prior art keywords
detection
vehicle
point
sensor
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020175974A
Other languages
Japanese (ja)
Other versions
JP2022067324A (en
Inventor
翔也 石田
秀典 田中
嘉紀 早川
明宏 貴田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2020175974A priority Critical patent/JP7452374B2/en
Publication of JP2022067324A publication Critical patent/JP2022067324A/en
Application granted granted Critical
Publication of JP7452374B2 publication Critical patent/JP7452374B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、自車両に搭載されることで当該自車両の周囲に存在する物体を検知するように構成された物体検知装置、および、かかる物体検知装置により実行される物体検知プログラムに関する。 The present invention relates to an object detection device configured to be mounted on a vehicle to detect objects existing around the vehicle, and an object detection program executed by the object detection device .

特許文献1に記載の装置は、超音波センサと電子カメラとを備えている。超音波センサは、車両の両側面の後部にて、側方を向いて設置されている。超音波センサは、センサから検知領域内の対象物までの距離を検知する。電子カメラは、光軸を超音波センサの中心軸と一致させることにより超音波センサの検出領域と重複するように、車両の後部にて側方を向いて設置されている。 The device described in Patent Document 1 includes an ultrasonic sensor and an electronic camera. The ultrasonic sensors are installed at the rear of both sides of the vehicle, facing laterally. The ultrasonic sensor detects the distance from the sensor to an object within a detection area. The electronic camera is installed at the rear of the vehicle facing sideways so that its optical axis coincides with the central axis of the ultrasonic sensor so that it overlaps the detection area of the ultrasonic sensor.

特許文献1に記載の装置は、超音波センサにより対象物までの距離を測定し、駐車スペースが存在するかを判定する。また、この装置は、駐車スペースの奥行き位置を検出するために、電子カメラを用いて駐車スペースを撮影し、画像を取得する。 The device described in Patent Document 1 uses an ultrasonic sensor to measure the distance to an object and determines whether a parking space exists. Furthermore, this device uses an electronic camera to photograph the parking space and obtain an image in order to detect the depth position of the parking space.

特開2002-170103号公報Japanese Patent Application Publication No. 2002-170103

この種の装置において、駐車車両等の障害物の表面に対応する、超音波センサ等の測距センサによる複数の測距点のうち、位置誤差が大きな「外れ点」が生じることがあり得る。このような「外れ点」が生じると、例えば、本来は駐車スペースが存在するにもかかわらず、かかる「外れ点」に起因する障害物の誤検知により、駐車スペースが存在しない旨の誤判定が生じることがあり得る。 In this type of device, among a plurality of distance measurement points by a distance measurement sensor such as an ultrasonic sensor that corresponds to the surface of an obstacle such as a parked vehicle, an "outlier point" with a large positional error may occur. When such an "outlier point" occurs, for example, even though a parking space actually exists, an erroneous detection of an obstacle caused by such an "outlier point" may result in a false determination that a parking space does not exist. may occur.

本発明は、上記に例示した事情等に鑑みてなされたものである。すなわち、本発明は、例えば、従来よりも良好な物体検知精度を実現可能な、物体検知装置および物体検知プログラムを提供する。 The present invention has been made in view of the circumstances illustrated above. That is, the present invention provides, for example, an object detection device and an object detection program that can achieve better object detection accuracy than conventional methods.

請求項1に記載の物体検知装置(8)は、自車両(V)に搭載されることで、当該自車両の周囲に存在する物体(Vt)を検知するように構成されている。
この物体検知装置は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する、測距点取得部(803)と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する、検知面取得部(805)と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて前記物体を検知する、物体検知部(808)と、
を備え、
前記物体検知部は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する
請求項6に記載の物体検知プログラムは、自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された物体検知装置(8)により実行されるプログラムであって、
前記物体検知装置により実行される処理は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する処理と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する処理と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する処理と、
み、
前記物体を検知する前記処理は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む
The object detection device (8) according to claim 1 is configured to be mounted on a host vehicle (V) to detect an object (Vt) existing around the host vehicle.
This object detection device is
a ranging point acquisition unit (803) that obtains a detection result of the ranging point using a ranging sensor (2) for detecting ranging points (Ps) around the own vehicle;
a sensing surface acquisition unit (805) that acquires a sensing surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
an object detection unit (808) that detects the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space around the host vehicle;
Equipped with
The object detection unit selects the ranging point used for detecting the object based on a high-precision surface (FtH), which is the detection surface with a predetermined high detection accuracy.
The object detection program according to claim 6 is executed by an object detection device (8) configured to be mounted on the own vehicle (V) to detect objects (Vt) existing around the own vehicle. A program that
The process executed by the object detection device includes:
A process of acquiring a detection result of the distance measurement point using a distance measurement sensor (2) for detecting the distance measurement point (Ps) around the own vehicle;
A process of acquiring a detection surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
a process of detecting the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space surrounding the host vehicle;
including,
The process of detecting the object includes a process of selecting the ranging point used for detecting the object based on a high-precision surface (FtH), which is the detection surface with a predetermined high detection accuracy.

なお、出願書類において、各要素に括弧付きの参照符号が付される場合がある。しかしながら、この場合であっても、かかる参照符号は、各要素と後述する実施形態に記載の具体的手段との対応関係の単なる一例を示すものにすぎない。よって、本発明は、上記の参照符号の記載によって、何ら限定されるものではない。 Note that in the application documents, each element may be given a reference sign in parentheses. However, even in this case, such reference numerals merely indicate one example of the correspondence between each element and specific means described in the embodiments described later. Therefore, the present invention is not limited in any way by the description of the above reference numerals.

自車両における駐車支援動作の概要を示す模式的な平面図である。FIG. 3 is a schematic plan view showing an outline of a parking assistance operation in the host vehicle. 図1に示された車載システムの概略的な機能構成を示すブロック図である。2 is a block diagram showing a schematic functional configuration of the in-vehicle system shown in FIG. 1. FIG. 図2に示された車載システムの動作例を説明するための模式的な平面図である。3 is a schematic plan view for explaining an example of the operation of the in-vehicle system shown in FIG. 2. FIG. 図2に示された車載システムの動作例を説明するための模式的な平面図である。3 is a schematic plan view for explaining an example of the operation of the in-vehicle system shown in FIG. 2. FIG. 図2に示された車載システムの動作例を説明するための模式的な平面図である。3 is a schematic plan view for explaining an example of the operation of the in-vehicle system shown in FIG. 2. FIG. 図2に示された駐車支援ECUの動作例を示すフローチャートである。3 is a flowchart showing an example of the operation of the parking assist ECU shown in FIG. 2. FIG.

(実施形態)
以下、本発明の実施形態を、図面に基づいて説明する。なお、一つの実施形態に対して適用可能な各種の変形例については、当該実施形態に関する一連の説明の途中に挿入されると、当該実施形態の理解が妨げられるおそれがある。このため、変形例については、当該実施形態に関する一連の説明の途中ではなく、その後にまとめて説明する。
(Embodiment)
Embodiments of the present invention will be described below based on the drawings. Note that if various modifications applicable to one embodiment are inserted in the middle of a series of explanations regarding the embodiment, understanding of the embodiment may be hindered. For this reason, the modified examples will be explained together after the series of explanations regarding the embodiment, rather than during the series of explanations.

(構成)
図1を参照すると、自車両Vは、いわゆる四輪自動車であって、平面視にて略矩形状の車体を備えている。「平面視」とは、或る物を重力作用方向と一致する視線で当該物の上方から見た場合の、当該物の外観をいう。自車両Vには、車載システム1が搭載されている。車載システム1は、自車両Vにおける各種制御(例えば駐車支援制御)を実行可能に構成されている。具体的には、車載システム1は、他車両Vtを含む、自車両Vの周囲に存在する物体を、測距センサ2および面検知センサ3の出力に基づいて検知するように構成されている。
(composition)
Referring to FIG. 1, the host vehicle V is a so-called four-wheeled vehicle and has a generally rectangular body in plan view. "Planar view" refers to the appearance of an object when viewed from above with a line of sight that coincides with the direction of gravity. The own vehicle V is equipped with an in-vehicle system 1. The in-vehicle system 1 is configured to be able to execute various controls (for example, parking assistance control) on the host vehicle V. Specifically, the in-vehicle system 1 is configured to detect objects existing around the own vehicle V, including other vehicles Vt, based on the outputs of the distance measurement sensor 2 and the surface detection sensor 3.

測距センサ2は、自車両Vの周囲の測距点Psを検知するためのセンサ(例えば超音波センサあるいはミリ波レーダーセンサ等)であって、探査波を発信して物体による当該探査波の反射波を受信するように構成されている。すなわち、測距センサ2は、探査波および反射波の伝播時間に基づいて、測距点Psに対応する物体との距離を計測する、いわゆるTOF型センサとしての構成を有している。TOFはTime of Flightの略である。「測距点」は、物体の外表面である物体面Fb上における、測距センサ2から発信された探査波を反射したと推定される点であり、具体的には、測距センサ2からの距離が測距距離となる、検知範囲の軸中心を通る半直線上の点である。測距距離は、伝播時間に基づいて算出された、測距センサ2と測距点Psとの間の距離である。 The distance measurement sensor 2 is a sensor (for example, an ultrasonic sensor or a millimeter wave radar sensor) for detecting a distance measurement point Ps around the own vehicle V, and is a sensor that transmits a search wave and detects the detection of the search wave by an object. The device is configured to receive reflected waves. That is, the distance measurement sensor 2 has a configuration as a so-called TOF type sensor that measures the distance to the object corresponding to the distance measurement point Ps based on the propagation time of the exploration wave and the reflected wave. TOF is an abbreviation for Time of Flight. The “distance measurement point” is a point on the object plane Fb, which is the outer surface of the object, that is estimated to have reflected the exploration wave emitted from the distance measurement sensor 2. This is the point on the half line passing through the axis center of the detection range, where the distance is the distance measurement distance. The ranging distance is the distance between the ranging sensor 2 and the ranging point Ps, which is calculated based on the propagation time.

自車両Vの前進走行中にて側方に駐車スペースSPを検知するための測距センサ2は、自車両Vにおける車体側面にて探査波を側方に発信するように装着されている。具体的には、かかる測距センサ2は、自車両Vにおける車体の右前部、右後部、左前部、および左後部のそれぞれに設けられている。なお、自車両Vには、当該自車両Vの前方、前側方、後方、および後側方の障害物を検知するための測距センサ2も搭載され得る。但し、以下の説明における測距センサ2は、特段の注記を設けない限り、自車両Vの前進走行中にて側方に駐車スペースSPを検知するために、車体側面に装着されたものとする。 A distance measuring sensor 2 for detecting a parking space SP laterally while the own vehicle V is traveling forward is mounted on the side surface of the own vehicle V so as to transmit a search wave laterally. Specifically, the distance measuring sensor 2 is provided at each of the right front part, right rear part, left front part, and left rear part of the vehicle body of the own vehicle V. Note that the own vehicle V may also be equipped with a distance measuring sensor 2 for detecting obstacles in front of the own vehicle V, on the front side, on the rear side, and on the rear side. However, unless otherwise specified, the ranging sensor 2 in the following description is assumed to be attached to the side of the vehicle body in order to detect the parking space SP on the side while the own vehicle V is traveling forward. .

面検知センサ3は、物体面Fbを検知するためのセンサである。すなわち、車載システム1は、面検知センサ3を用いて、物体面Fbに対応する検知面Ftを検知するように構成されている。本実施形態においては、面検知センサ3は、所定の視野内の物体を光学的に検知する光学センサ(例えばカメラあるいはLIDARセンサ等)としての構成を有している。LIDARはLight Detection and RangingあるいはLaser Imaging Detection and Rangingの略である。すなわち、面検知センサ3は、図中一点鎖線で示された測距センサ2の検知範囲よりも広範囲な視野内において、物体を面として検知可能に設けられている。よって、面検知センサ3は、「広角センサ」とも称され得る。「視野」は、検知範囲あるいはスキャン範囲とも称され得る。 The surface detection sensor 3 is a sensor for detecting the object surface Fb. That is, the in-vehicle system 1 is configured to use the surface detection sensor 3 to detect the detection surface Ft corresponding to the object surface Fb. In this embodiment, the surface detection sensor 3 has a configuration as an optical sensor (for example, a camera or a LIDAR sensor) that optically detects an object within a predetermined field of view. LIDAR is an abbreviation for Light Detection and Ranging or Laser Imaging Detection and Ranging. That is, the surface detection sensor 3 is provided so as to be able to detect an object as a surface within a wider field of view than the detection range of the ranging sensor 2 indicated by the dashed line in the figure. Therefore, the surface detection sensor 3 may also be referred to as a "wide-angle sensor." A "field of view" may also be referred to as a sensing range or a scanning range.

自車両Vの前進走行中にて側方に駐車スペースSPを検知するための面検知センサ3は、自車両Vの側方に存在する物体を視野内に収めるように配置されている。具体的には、面検知センサ3は、車体の両側面における所定箇所(例えばドアミラーあるいはその近傍)に、1個ずつ設けられている。面検知センサ3は、その中心線Lcが、平面視にて、面検知センサ3における検知範囲の中心軸線と略平行となるように設置されている。中心線Lcは、面検知センサ3による検知範囲の軸中心を通る半直線であって、面検知センサ3がカメラである場合は光軸に対応する。 A surface detection sensor 3 for detecting a parking space SP on the side while the host vehicle V is moving forward is arranged so that an object present on the side of the host vehicle V is included in the field of view. Specifically, one surface detection sensor 3 is provided at a predetermined location (for example, in or near a door mirror) on both sides of the vehicle body. The surface detection sensor 3 is installed so that its center line Lc is substantially parallel to the central axis of the detection range of the surface detection sensor 3 in plan view. The center line Lc is a half straight line passing through the axial center of the detection range by the surface detection sensor 3, and corresponds to the optical axis when the surface detection sensor 3 is a camera.

物体面Fbは、対向面Fbfおよび非対向面Fbsを含む。図1に示されているように、自車両Vが、縦列駐車中の複数の他車両Vtの間にて駐車スペースSPを探索中である場合、対向面Fbfは当該他車両Vtにおける車体側面であり、非対向面Fbsは当該他車両Vtにおける車体前面あるいは車体後面である。 The object plane Fb includes a facing surface Fbf and a non-facing surface Fbs. As shown in FIG. 1, when the own vehicle V is searching for a parking space SP among a plurality of other vehicles Vt parked in parallel, the facing surface Fbf is the side surface of the body of the other vehicle Vt. The non-opposed surface Fbs is the front or rear surface of the vehicle body of the other vehicle Vt.

対向面Fbfは、自車両Vあるいは自車両Vの進行中通路に対向する物体面Fbである。具体的には、対向面Fbfは、その外向法線が平面視にて自車両Vの前進走行中に面検知センサ3を通過する直視状態にて、上記の外向法線と中心線Lcとのなす角度である方位角が面検知センサ3の視野角度以内となる物体面Fbである。典型的には、対向面Fbfは、上記の方位角が0~α度となるような物体面Fbである。αは例えば45~60である。非対向面Fbsは、上記の直視状態が成立しないか、成立しても上記の方位角が面検知センサ3の視野角度を超えるような物体面Fbである。典型的には、非対向面Fbsは、対向面Fbfと実質的に直交する物体面Fbである。 The opposing surface Fbf is an object surface Fb that faces the host vehicle V or the path in which the host vehicle V is traveling. Specifically, the facing surface Fbf has an outward normal line that is the same as the above-mentioned outward normal line and the center line Lc in a direct view state where the own vehicle V passes the surface detection sensor 3 while the host vehicle V is traveling forward in a plan view. This is an object plane Fb whose azimuth angle is within the viewing angle of the surface detection sensor 3. Typically, the opposing surface Fbf is an object surface Fb whose azimuth angle is 0 to α degrees. α is, for example, 45-60. The non-opposing surface Fbs is an object surface Fb on which the above-mentioned direct viewing condition does not hold, or even if it does, the above-mentioned azimuth angle exceeds the viewing angle of the surface detection sensor 3. Typically, the non-opposing surface Fbs is an object surface Fb that is substantially orthogonal to the opposing surface Fbf.

図2を参照すると、車載システム1は、上述の測距センサ2および面検知センサ3に加えて、挙動センサ4と、ロケータ5と、DCM6と、ユーザインタフェース装置7と、駐車支援ECU8と、車両制御システム9と、車載ネットワーク10とを備えている。DCMはData Communication Moduleの略である。ECUはElectronic Control Unitの略である。 Referring to FIG. 2, the in-vehicle system 1 includes, in addition to the distance measurement sensor 2 and surface detection sensor 3 described above, a behavior sensor 4, a locator 5, a DCM 6, a user interface device 7, a parking assist ECU 8, and a vehicle It includes a control system 9 and an in-vehicle network 10. DCM is an abbreviation for Data Communication Module. ECU is an abbreviation for Electronic Control Unit.

挙動センサ4は、挙動情報、すなわち、自車両Vの運転状態あるいは運転挙動に対応する情報あるいは信号を、駐車支援ECU8および車両制御システム9に出力するように設けられている。すなわち、挙動センサ4は、シフトポジションセンサ、アクセル開度センサ、車速センサ、操舵角センサ、加速度センサ、ヨーレートセンサ、等の各種センサを総称したものである。 The behavior sensor 4 is provided to output behavior information, that is, information or signals corresponding to the driving state or behavior of the own vehicle V to the parking assist ECU 8 and the vehicle control system 9. That is, the behavior sensor 4 is a general term for various sensors such as a shift position sensor, an accelerator opening sensor, a vehicle speed sensor, a steering angle sensor, an acceleration sensor, and a yaw rate sensor.

ロケータ5は、いわゆる複合測位により、自車両Vの高精度な位置情報等を取得するように構成されている。「高精度な位置情報」とは、例えば、「SAE J3016」におけるレベル2~5の高度な運転自動化レベルに利用可能な程度、具体的には、誤差が10cm未満となるような程度の位置精度を有する位置情報である。SAEはSociety of Automotive Engineersの略である。「SAE J3016」におけるレベル2,3,4,および5は、それぞれ、「高度運転支援」,「条件付自動運転」,「高度自動運転」,および「完全自動運転」と称される。 The locator 5 is configured to obtain highly accurate position information of the own vehicle V through so-called composite positioning. "Highly accurate location information" is, for example, location accuracy that can be used for advanced driving automation levels of levels 2 to 5 in "SAE J3016", specifically, location accuracy that has an error of less than 10 cm. This is location information with . SAE stands for Society of Automotive Engineers. Levels 2, 3, 4, and 5 in "SAE J3016" are referred to as "highly automated driving," "conditionally automated driving," "highly automated driving," and "fully automated driving," respectively.

DCM6は、車載通信モジュールであって、LTEあるいは5G等の通信規格に準拠した無線通信により、自車両Vの周囲の基地局との間で情報通信可能に設けられている。LTEはLong Term Evolutionの略である。5Gは5th Generationの略である。具体的には、例えば、DCM6は、不図示のクラウド上に設けられたプローブサーバから最新の高精度地図情報を取得するように構成されている。 The DCM 6 is an in-vehicle communication module, and is installed to be able to communicate information with base stations around the own vehicle V by wireless communication compliant with communication standards such as LTE or 5G. LTE is an abbreviation for Long Term Evolution. 5G is an abbreviation for 5th Generation. Specifically, for example, the DCM 6 is configured to acquire the latest high-precision map information from a probe server provided on a cloud (not shown).

高精度地図情報には、数メートル程度の位置誤差に対応する従来のカーナビゲーションシステムにて用いられていた地図情報よりも、高精度な地図情報が含まれている。具体的には、高精度地図情報には、ADASIS規格等の所定の規格に準拠して、三次元道路形状情報、レーン数情報、規制情報、等の、「SAE J3016」におけるレベル2以上の運転自動化レベルに利用可能な情報が格納されている。ADASISはAdvanced Driver Assistance Systems Interface Specificationの略である。 The high-precision map information includes map information that is more accurate than the map information used in conventional car navigation systems, which can accommodate positional errors of about several meters. Specifically, high-precision map information includes three-dimensional road shape information, lane number information, regulation information, etc., in accordance with predetermined standards such as the ADASIS standard, and is required for driving at level 2 or higher in "SAE J3016". Information available at the automation level is stored. ADASIS stands for Advanced Driver Assistance Systems Interface Specification.

ユーザインタフェース装置7は、自車両Vのドライバを含む乗員からの各種入力と、かかる乗員への各種情報提示のための出力とを実行可能に設けられている。具体的には、ユーザインタフェース装置7は、例えば、入力デバイス(タッチパネル等)、表示デバイス、スピーカ、マイク、等を備えている。 The user interface device 7 is provided to be capable of receiving various inputs from occupants of the own vehicle V, including the driver, and outputting information for presenting various information to the occupants. Specifically, the user interface device 7 includes, for example, an input device (such as a touch panel), a display device, a speaker, a microphone, and the like.

駐車支援ECU8は、図示しないCPU、ROM、RAM、不揮発性リライタブルメモリ、入出力インタフェース、等を備えた、いわゆる車載マイクロコンピュータとして構成されている。CPUはCentral Processing Unitの略である。ROMはRead Only Memoryの略である。RAMはRandom Access Memoryの略である。不揮発性リライタブルメモリは、例えば、ハードディスク、EEPROM、フラッシュROM、等である。EEPROMはElectronically Erasable and Programmable ROMの略である。ROMおよび不揮発性リライタブルメモリは、コンピュータ読み取り可能な非遷移的実体的記憶媒体に相当するものである。 The parking assist ECU 8 is configured as a so-called in-vehicle microcomputer that includes a CPU, ROM, RAM, nonvolatile rewritable memory, input/output interface, etc. (not shown). CPU is an abbreviation for Central Processing Unit. ROM is an abbreviation for Read Only Memory. RAM is an abbreviation for Random Access Memory. Examples of the nonvolatile rewritable memory include a hard disk, EEPROM, and flash ROM. EEPROM is an abbreviation for Electronically Erasable and Programmable ROM. ROM and non-volatile rewritable memory represent computer-readable non-transitory tangible storage media.

駐車支援ECU8は、CPUがROMまたは不揮発性リライタブルメモリからプログラムを読み出して実行することで、各種の制御動作を実現可能に構成されている。このプログラムには、後述のフローチャートあるいはルーチンに対応するものが含まれている。また、RAMおよび不揮発性リライタブルメモリは、CPUがプログラムを実行する際の処理データを一時的に格納可能に構成されている。さらに、ROMおよび/または不揮発性リライタブルメモリには、プログラムの実行の際に用いられる各種のデータが、あらかじめ格納されている。かかる各種のデータは、例えば、初期値、ルックアップテーブル、マップ、等である。 The parking assist ECU 8 is configured such that the CPU can perform various control operations by reading and executing programs from the ROM or nonvolatile rewritable memory. This program includes those corresponding to the flowcharts or routines described below. Further, the RAM and the nonvolatile rewritable memory are configured to be able to temporarily store processing data when the CPU executes a program. Further, the ROM and/or nonvolatile rewritable memory prestores various data used when executing the program. Such various data include, for example, initial values, lookup tables, maps, and the like.

本発明の物体検知装置としての駐車支援ECU8は、自車両Vに搭載されることで、自車両Vの周囲に存在する他車両Vt等の物体を検知するとともに、物体検知結果に応じた駐車支援制御を実行するように構成されている。具体的には、駐車支援ECU8は、車載マイクロコンピュータ上にて実現される、以下の機能構成を有している。 The parking assistance ECU 8 as an object detection device of the present invention is installed in the own vehicle V to detect objects such as other vehicles Vt existing around the own vehicle V, and also provides parking assistance according to the object detection result. Configured to perform control. Specifically, the parking assist ECU 8 has the following functional configuration, which is realized on an on-vehicle microcomputer.

すなわち、駐車支援ECU8は、挙動取得部801と、位置推定部802とを有している。また、駐車支援ECU8は、測距点取得部803と、検知点取得部804と、検知面取得部805と、高精度面取得部806とを有している。さらに、駐車支援ECU8は、マップ生成部807と、物体検知部808と、駐車スペース抽出部809と、駐車経路算出部810とを有している。 That is, the parking assistance ECU 8 includes a behavior acquisition section 801 and a position estimation section 802. Furthermore, the parking assist ECU 8 includes a distance measurement point acquisition section 803, a detection point acquisition section 804, a detection surface acquisition section 805, and a high precision surface acquisition section 806. Furthermore, the parking assistance ECU 8 includes a map generation section 807, an object detection section 808, a parking space extraction section 809, and a parking route calculation section 810.

図3~図5は、駐車支援ECU8による駐車支援動作、特に、駐車スペースSPの検知のための物体検知動作の概要を示す。以下、図1~図5を参照しつつ、駐車支援ECU8における上記の機能構成の各々について説明する。 3 to 5 show an overview of the parking assistance operation by the parking assistance ECU 8, particularly the object detection operation for detecting the parking space SP. Each of the above functional configurations of the parking assist ECU 8 will be described below with reference to FIGS. 1 to 5.

挙動取得部801は、駐車支援動作開始時点からの自車両Vの位置を推定するために必要な挙動情報を取得するようになっている。すなわち、挙動取得部801は、挙動情報を挙動センサ4から受信して、RAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。位置推定部802は、挙動取得部801にて取得した挙動情報に基づいて、所定のXY座標系における自車両Vの位置を、推定すなわち算出するようになっている。「所定のXY座標系」は、駐車支援動作開始時点にて設定された、自車両Vの車高方向と直交する平面内の二次元座標系である。かかる所定のXY座標系を、以下単に「並進座標系」と称する。 The behavior acquisition unit 801 is configured to acquire behavior information necessary for estimating the position of the own vehicle V from the start of the parking assistance operation. That is, the behavior acquisition unit 801 receives behavior information from the behavior sensor 4 and temporarily stores it in the RAM and/or nonvolatile rewritable memory. The position estimating unit 802 estimates, that is, calculates, the position of the own vehicle V in a predetermined XY coordinate system based on the behavior information acquired by the behavior acquiring unit 801. The "predetermined XY coordinate system" is a two-dimensional coordinate system within a plane orthogonal to the vehicle height direction of the host vehicle V, which is set at the time of starting the parking assistance operation. Such a predetermined XY coordinate system will be simply referred to as a "translational coordinate system" hereinafter.

測距点取得部803は、測距センサ2を用いた測距点Psの検知結果を取得するようになっている。具体的には、測距点取得部803は、位置推定部802にて推定された自車両Vの位置と、測距センサ2から受信した出力信号に含まれる測距情報とに基づいて、並進座標系における測距点Psの位置を算出するようになっている。また、測距点取得部803は、算出した測距点Psの位置を、時系列で所定個数分あるいは所定期間分、保持すなわちRAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。 The distance measurement point acquisition unit 803 is configured to acquire the detection result of the distance measurement point Ps using the distance measurement sensor 2. Specifically, the distance measurement point acquisition unit 803 calculates the translation based on the position of the own vehicle V estimated by the position estimation unit 802 and the distance measurement information included in the output signal received from the distance measurement sensor 2. The position of the ranging point Ps in the coordinate system is calculated. Further, the ranging point acquisition unit 803 retains a predetermined number or a predetermined period of the calculated locations of the ranging points Ps in time series, that is, temporarily stores them in the RAM and/or non-volatile rewritable memory. .

検知点取得部804は、図3に示されているように、面検知センサ3を用いた検知点Pdの検知結果を取得するようになっている。検知点Pdは、面検知センサ3の視野内に存在する物体の外表面である物体面Fb上のものとして検知された点である。具体的には、例えば、面検知センサ3がカメラである場合、検知点Pdは、いわゆる特徴点である。あるいは、例えば、面検知センサ3がLIDARセンサである場合、検知点Pdは、3次元座標で構成される点群データに含まれるデータ点であり、「測距点」とも称され得るものである。具体的には、本実施形態においては、検知点取得部804は、面検知センサ3に内蔵されたセンサECUによる検知点Pdの抽出結果を、面検知センサ3から受信して、保持すなわちRAMおよび/または不揮発性リライタブルメモリに一時格納するようになっている。 The detection point acquisition unit 804 acquires the detection result of the detection point Pd using the surface detection sensor 3, as shown in FIG. The detection point Pd is a point detected on the object plane Fb, which is the outer surface of an object existing within the field of view of the surface detection sensor 3. Specifically, for example, when the surface detection sensor 3 is a camera, the detection point Pd is a so-called feature point. Alternatively, for example, when the surface detection sensor 3 is a LIDAR sensor, the detection point Pd is a data point included in point cloud data constituted by three-dimensional coordinates, and may also be referred to as a "ranging point." . Specifically, in this embodiment, the detection point acquisition unit 804 receives from the surface detection sensor 3 the extraction result of the detection point Pd by the sensor ECU built in the surface detection sensor 3, and stores it in the RAM and the /or temporarily stored in non-volatile rewritable memory.

検知面取得部805は、図4に示されているように、面検知センサ3を用いた検知面Ftの検知結果を取得するようになっている。検知面Ftは、検知点Pdによって形成される平面または曲面であって、物体面Fbの検知結果に相当するものである。具体的には、本実施形態においては、検知面取得部805は、面検知センサ3を用いて取得された複数の検知点Pdの集合状態に基づいて、検知面Ftを取得すなわち算出あるいは推定するようになっている。 The detection surface acquisition unit 805 is configured to acquire the detection result of the detection surface Ft using the surface detection sensor 3, as shown in FIG. The detection surface Ft is a plane or a curved surface formed by the detection points Pd, and corresponds to the detection result of the object surface Fb. Specifically, in the present embodiment, the sensing surface acquisition unit 805 acquires, that is, calculates or estimates the sensing surface Ft, based on the collective state of the plurality of sensing points Pd acquired using the surface detection sensor 3. It looks like this.

高精度面取得部806は、検知精度すなわち並進座標系における位置精度が高い検知面Ftである、高精度面FtHを取得するようになっている。高精度面FtHは、検知精度が、所定の高い精度であると想定される検知面Ftである。具体的には、本実施形態においては、高精度面取得部806は、少なくとも1つ検知された検知面Ftから、自車両Vの周囲の空間における面検知センサ3と検知面Ftとの配置関係に基づいて、高精度面FtHを取得するようになっている。高精度面FtHの取得の詳細については後述する。 The high-precision surface acquisition unit 806 is configured to obtain a high-precision surface FtH, which is a detection surface Ft with high detection accuracy, that is, high positional accuracy in the translational coordinate system. The high-precision surface FtH is a detection surface Ft whose detection accuracy is assumed to be a predetermined high precision. Specifically, in the present embodiment, the high-precision surface acquisition unit 806 determines the arrangement relationship between the surface detection sensor 3 and the detection surface Ft in the space around the own vehicle V from at least one detected detection surface Ft. Based on this, a high-precision surface FtH is obtained. Details of obtaining the high-precision surface FtH will be described later.

マップ生成部807は、自車両Vの周囲の空間における物体の存在確率を示すマップMを生成するようになっている。マップMは、「存在確率マップ」とも称され得る。具体的には、マップ生成部807は、2次元配置された複数のグリッドGに並進座標系を格子状に分割して形成したマップMにおける、各グリッドGに対して、所定の割り付け条件に基づいて、物体の存在確率を割り付けるようになっている。「所定の割り付け条件」は、例えば、測距点Ps、検知点Pd、検知面Ft、および高精度面FtHの、取得結果のうちの少なくとも1つを含む。本実施形態においては、「所定の割り付け条件」は、少なくとも高精度面FtHの取得結果を含む。より詳細には、本実施形態においては、マップ生成部807は、図5を参照すると、検知点グリッドGnにおける存在確率を高く設定するとともに、面外グリッドGtにおける存在確率を低く設定するようになっている。 The map generation unit 807 is configured to generate a map M indicating the probability of existence of an object in the space around the own vehicle V. Map M may also be referred to as an "existence probability map." Specifically, the map generation unit 807 generates a map M based on predetermined allocation conditions for each grid G in a map M formed by dividing the translational coordinate system into a plurality of grids G arranged two-dimensionally. The probability of the object's existence is then assigned. The "predetermined allocation condition" includes, for example, at least one of the acquisition results of the distance measurement point Ps, the detection point Pd, the detection surface Ft, and the high-precision surface FtH. In this embodiment, the "predetermined allocation condition" includes at least the acquisition result of the high-precision surface FtH. More specifically, in this embodiment, the map generation unit 807 sets the existence probability in the detection point grid Gn to be high and the existence probability in the out-of-plane grid Gt to be low, as shown in FIG. ing.

検知点グリッドGnは、測距点Psまたは検知点Pdが含まれるグリッドGである。図3~図5において、検知点Pdによる検知点グリッドGnが、図中斜線ハッチングで示されている。面外グリッドGtは、検知点Pdおよび高精度面FtHの配置状態に基づいて、面上グリッドGpの「外側」に位置すると判定されるグリッドGである。「外側」とは、面上グリッドGpに対応する物体から離隔する側をいうものとする。図5において、面外グリッドGtが、図中クロスハッチングで示されている。面上グリッドGpは、高精度面FtHが通過するグリッドGであり、典型的には、高精度面FtHが通過する検知点グリッドGnである。すなわち、マップ生成部807は、高精度面FtHに基づいて、存在確率が他の領域よりも低い低確率領域に相当する面外グリッドGtをマップMに設定するようになっている。 The detection point grid Gn is a grid G that includes distance measurement points Ps or detection points Pd. In FIGS. 3 to 5, a detection point grid Gn formed by detection points Pd is indicated by diagonal hatching in the figures. The out-of-plane grid Gt is a grid G that is determined to be located "outside" of the on-plane grid Gp based on the arrangement state of the detection point Pd and the high-precision surface FtH. The "outside" refers to the side that is separated from the object corresponding to the in-plane grid Gp. In FIG. 5, the out-of-plane grid Gt is shown by cross hatching in the figure. The surface grid Gp is a grid G through which the high-precision surface FtH passes, and is typically a detection point grid Gn through which the high-precision surface FtH passes. That is, the map generation unit 807 sets, in the map M, an out-of-plane grid Gt corresponding to a low-probability region whose existence probability is lower than other regions, based on the high-precision surface FtH.

物体検知部808は、測距点Psに基づいて、自車両Vの周囲の物体を検知するようになっている。具体的には、物体検知部808は、自車両Vの周囲の物体の検知に用いる測距点PsをマップMに基づいて選択し、選択した測距点Psに基づいて、並進座標系における物体の位置あるいは外形形状を推定するようになっている。「自車両Vの周囲の物体の検知に用いる測距点Ps」を、以下、「物体検知用の測距点Ps」と称する。すなわち、物体検知部808は、存在確率が所定程度以上高いグリッドGに対応する測距点Psを、物体検知用の測距点Psとして選択するようになっている。 The object detection unit 808 is configured to detect objects around the host vehicle V based on the distance measurement point Ps. Specifically, the object detection unit 808 selects a ranging point Ps used for detecting objects around the own vehicle V based on the map M, and detects the object in the translational coordinate system based on the selected ranging point Ps. The position or external shape of the object is estimated. "Distance measuring point Ps used for detecting objects around host vehicle V" is hereinafter referred to as "distance measuring point Ps for object detection." That is, the object detection unit 808 selects the distance measurement point Ps corresponding to the grid G whose existence probability is higher than a predetermined degree as the distance measurement point Ps for object detection.

本実施形態においては、物体検知部808は、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて、物体検知用の測距点Psを選択するようになっている。具体的には、物体検知部808は、高精度面FtHに基づいて、物体検知用の測距点Psを選択するようになっている。より詳細には、物体検知部808は、面外グリッドGtに対応する測距点Psを、物体検知用の測距点Psから除外するようになっている。また、物体検知部808は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、物体検知用の測距点Psを選択するようになっている。 In this embodiment, the object detection unit 808 selects the distance measurement point Ps for detecting an object according to the positional relationship with the detection surface Ft in the space around the own vehicle V. Specifically, the object detection unit 808 selects the distance measurement point Ps for object detection based on the high-precision surface FtH. More specifically, the object detection unit 808 excludes the distance measurement point Ps corresponding to the out-of-plane grid Gt from the distance measurement points Ps for object detection. Further, the object detection unit 808 selects a distance measurement point Ps for object detection based on the detection surface Ft detected by the surface detection sensor 3 during normal operation.

駐車スペース抽出部809は、物体検知部808による物体検知結果に基づいて、駐車スペースSPを抽出するようになっている。駐車経路算出部810は、駐車スペース抽出部809により抽出された駐車スペースSPに基づいて、自車両Vを駐車スペースSPに駐車するための走行経路である駐車経路を算出するようになっている。 The parking space extraction unit 809 extracts a parking space SP based on the object detection result by the object detection unit 808. The parking route calculation unit 810 calculates a parking route, which is a travel route for parking the host vehicle V in the parking space SP, based on the parking space SP extracted by the parking space extraction unit 809.

車両制御システム9は、駆動機構および駆動制御ECUを含む駆動系システム、制動機構および制動制御ECUを含む制動系システム、操舵機構および操舵制御ECUを含む操舵系システム、等の、自車両Vにおける運転制御を実行するための構成を有している。すなわち、車両制御システム9は、駐車支援ECU8により取得された駐車スペースSPおよび駐車経路に基づいて、自車両Vが駐車スペースSPに駐車するために必要な加減速、操舵、および制動等の運転制御を実行するように構成されている。 The vehicle control system 9 controls the operation of the host vehicle V, such as a drive system including a drive mechanism and a drive control ECU, a brake system including a brake mechanism and a brake control ECU, and a steering system including a steering mechanism and a steering control ECU. It has a configuration for executing control. That is, the vehicle control system 9 performs driving control such as acceleration/deceleration, steering, and braking necessary for the own vehicle V to park in the parking space SP based on the parking space SP and parking route acquired by the parking support ECU 8. is configured to run.

測距センサ2、面検知センサ3、挙動センサ4、ロケータ5、DCM6、ユーザインタフェース装置7、駐車支援ECU8、および車両制御システム9は、車載ネットワーク10を介して互いに信号あるいは情報を授受可能に接続されている。車載ネットワーク10は、CAN(国際登録商標:国際登録番号1048262A)、FlexRay(国際登録商標)、LIN等の所定の規格に準拠するように構成されている。CAN(国際登録商標)はController Area Networkの略である。LINはLocal Interconnect Networkの略である。 The distance sensor 2, the surface detection sensor 3, the behavior sensor 4, the locator 5, the DCM 6, the user interface device 7, the parking assist ECU 8, and the vehicle control system 9 are connected to each other via the in-vehicle network 10 so that they can send and receive signals or information. has been done. The in-vehicle network 10 is configured to comply with predetermined standards such as CAN (international registered trademark: international registration number 1048262A), FlexRay (international registered trademark), and LIN. CAN (International Registered Trademark) is an abbreviation for Controller Area Network. LIN is an abbreviation for Local Interconnect Network.

(動作概要)
以下、駐車支援ECU8の動作概要について説明する。駐車支援ECU8は、駐車支援動作を開始するための所定の指令入力に基づいて、駐車支援動作を開始する。かかる指令入力は、例えば、自車両Vのドライバによるユーザインタフェース装置7の入力操作である。あるいは、かかる指令入力は、例えば、ロケータ5からの、自車両Vが駐車場内に進入した旨の情報の入力である。
(Operation overview)
An outline of the operation of the parking assist ECU 8 will be described below. The parking assistance ECU 8 starts the parking assistance operation based on a predetermined command input for starting the parking assistance operation. Such command input is, for example, an input operation of the user interface device 7 by the driver of the own vehicle V. Alternatively, such command input is, for example, input from the locator 5 of information indicating that the own vehicle V has entered the parking lot.

所定の指令入力に応じて、駐車支援ECU8におけるCPUは、ROMまたは不揮発記憶媒体から、駐車支援動作のためのプログラムを読み出して実行する。かかるプログラムは、本発明に係る物体検知プログラムに相当する。また、かかるプログラムの実行により、本発明に係る物体検知方法が実施される。駐車支援動作開始時点は、かかるプログラムの実行開始時点、具体的には上記の指令入力時点である。かかるプログラムが実行されると、駐車支援ECU8における各機能ブロック構成は、以下の通り動作する。 In response to a predetermined command input, the CPU in the parking assistance ECU 8 reads out and executes a program for parking assistance operation from the ROM or nonvolatile storage medium. Such a program corresponds to an object detection program according to the present invention. Further, by executing this program, the object detection method according to the present invention is implemented. The parking assist operation start point is the start point of execution of the program, specifically, the point of input of the above-mentioned command. When such a program is executed, each functional block configuration in the parking assist ECU 8 operates as follows.

マップ生成部807は、駐車支援動作開始時点における所定位置(例えば自車両Vの平面視における中心位置)を原点とし、自車両Vの前方をX軸正方向とし、自車両Vの右方または左方をY軸正方向とする、並進座標系を設定する。また、マップ生成部807は、格子状に2次元配列された複数のグリッドGを、並進座標系に設定する。さらに、マップ生成部807は、各グリッドGに割り付けられる存在確率を、初期値に設定する。存在確率は、値が大きくなるほど高くなる一方で値が小さくなるほど低くなるものとし、本実施形態においては、初期値は物体の存否不明を示す値「0」であり、最大値は+Ωであり、最小値は-Ωであるものとする。Ωは自然数(例えば255)である。 The map generation unit 807 sets the predetermined position at the start of the parking assistance operation (for example, the center position of the own vehicle V in a plan view) as the origin, sets the front of the own vehicle V in the positive direction of the X-axis, and moves to the right or left of the own vehicle V. Set up a translational coordinate system with the positive Y-axis direction. Furthermore, the map generation unit 807 sets a plurality of grids G arranged two-dimensionally in a lattice shape in a translational coordinate system. Furthermore, the map generation unit 807 sets the existence probability assigned to each grid G to an initial value. The existence probability increases as the value increases, and decreases as the value decreases. In this embodiment, the initial value is "0", which indicates the presence or absence of the object is unknown, and the maximum value is +Ω. The minimum value shall be -Ω. Ω is a natural number (for example, 255).

位置推定部802は、挙動取得部801にて取得した挙動情報に基づいて、並進座標系における自車両Vの位置を推定する。測距点取得部803は、測距センサ2を用いた測距点Psの検知結果を取得する。具体的には、測距点取得部803は、位置推定部802にて推定された自車両Vの位置と、測距センサ2から受信した測距情報とに基づいて、並進座標系における測距点Psの位置を算出する。また、測距点取得部803は、算出した測距点Psの位置を、時系列で所定個数分あるいは所定期間分保持する。 The position estimation unit 802 estimates the position of the host vehicle V in the translational coordinate system based on the behavior information acquired by the behavior acquisition unit 801. The distance measurement point acquisition unit 803 acquires the detection result of the distance measurement point Ps using the distance measurement sensor 2. Specifically, the distance measurement point acquisition unit 803 performs distance measurement in the translational coordinate system based on the position of the host vehicle V estimated by the position estimation unit 802 and the distance measurement information received from the distance measurement sensor 2. Calculate the position of point Ps. Further, the ranging point acquisition unit 803 holds the calculated locations of the ranging points Ps for a predetermined number or a predetermined period in time series.

検知点取得部804は、面検知センサ3を用いた検知点Pdの検知結果を取得する。面検知センサ3がカメラである場合、検知点Pdは特徴点である。特徴点は、撮影画像中の物体の形状を特徴付ける点である。具体的には、特徴点は、撮影画像の画角すなわち画像フレーム内における、特徴的な点すなわち画素である。例えば、特徴点は、隣接する画素との間での輝度変化が大きな画素である。 The detection point acquisition unit 804 acquires the detection result of the detection point Pd using the surface detection sensor 3. When the surface detection sensor 3 is a camera, the detection point Pd is a feature point. A feature point is a point that characterizes the shape of an object in a captured image. Specifically, a feature point is a characteristic point, ie, a pixel, within the angle of view of a photographed image, ie, within an image frame. For example, a feature point is a pixel that has a large luminance change between adjacent pixels.

検知面取得部805は、検知点Pdの集合状態、すなわち、個数および配列状態(例えば長さ)に基づいて、検知面Ftを取得する。具体的には、検知面取得部805は、N個以上且つ長さD以上の、複数の検知点Pdからなる点群を、検知面Ftとして認識する。例えば、検知面取得部805は、並進座標系における隣接点間の距離が所定距離以内となるi個の検知点Pdからなる点群を抽出する。i≧Nである場合、検知面取得部805は、i個の点群にフィットする近似曲線を最小二乗法等により算出する。そして、検知面取得部805は、かかる近似曲線の長さがD以上である場合に、かかる近似曲線を検知面Ftとする。 The sensing surface acquisition unit 805 acquires the sensing surface Ft based on the gathering state of the sensing points Pd, that is, the number and arrangement state (for example, length). Specifically, the detection surface acquisition unit 805 recognizes a point group consisting of a plurality of detection points Pd, which are N or more and have a length D or more, as the detection surface Ft. For example, the detection surface acquisition unit 805 extracts a point group consisting of i detection points Pd in which the distance between adjacent points in the translational coordinate system is within a predetermined distance. If i≧N, the detection surface acquisition unit 805 calculates an approximate curve that fits the i points using the method of least squares or the like. Then, when the length of the approximate curve is greater than or equal to D, the detection surface acquisition unit 805 sets the approximate curve as the detection surface Ft.

高精度面取得部806は、検知精度すなわち並進座標系における位置精度が高い検知面Ftである高精度面FtHを取得する。具体的には、本実施形態においては、高精度面取得部806は、並進座標系における面検知センサ3および検知面Ftの配置関係に基づいて、高精度面FtHを取得する。以下、面検知センサ3がカメラである場合における、高精度面FtHの取得の詳細について説明する。 The high-precision surface acquisition unit 806 obtains a high-precision surface FtH, which is a detection surface Ft with high detection accuracy, that is, high positional accuracy in the translational coordinate system. Specifically, in this embodiment, the high-precision surface acquisition unit 806 obtains the high-precision surface FtH based on the arrangement relationship between the surface detection sensor 3 and the detection surface Ft in the translational coordinate system. Hereinafter, details of acquiring the high-precision surface FtH when the surface detection sensor 3 is a camera will be described.

カメラである面検知センサ3による、検知点Pdの方位精度は、CMOS等の撮像素子の分解能に依存する。CMOSはComplementary MOSの略である。近年の撮像素子は分解能が非常に高い(例えば25ピクセル/deg程度)。よって、検知点Pdの方位精度は高い。 The azimuth accuracy of the detection point Pd by the surface detection sensor 3, which is a camera, depends on the resolution of an image sensor such as a CMOS. CMOS is an abbreviation for complementary MOS. Recent image sensors have extremely high resolution (for example, about 25 pixels/deg). Therefore, the azimuth accuracy of the detection point Pd is high.

これに対し、面検知センサ3から検知点Pdまでの距離は、異なる時間に撮影された複数の画像データを用いた移動ステレオの原理により算出される。このとき、画像上の検知点Pdの位置誤差が増幅された形で、検知点Pdの距離誤差が生じる。このため、検知点Pdの距離精度は、方位精度に比して低い。 On the other hand, the distance from the surface detection sensor 3 to the detection point Pd is calculated based on the principle of moving stereo using a plurality of image data taken at different times. At this time, a distance error of the detection point Pd is generated by amplifying the position error of the detection point Pd on the image. Therefore, the distance accuracy of the detection point Pd is lower than the azimuth accuracy.

図3~図5は、自車両Vが縦列駐車する際の駐車支援動作の具体例を示す。このとき、図4を参照すると、駐車車両である他車両Vtにおける車体前面である非対向面Fbsに対応する第一検知面Ft1は、面検知センサ3から見て奥行き方向に延設されているために距離精度は問題にならない一方で、上記の通り、方位精度は高い。これに対し、かかる他車両Vtにおける車体側面である対向面Fbfに対応する第二検知面Ft2は、自車両Vの進行方向に沿って延設されているために方位精度は問題にならない一方で、上記の通り、距離精度は低い。 3 to 5 show specific examples of parking support operations when the own vehicle V parallel parks. At this time, referring to FIG. 4, the first detection surface Ft1 corresponding to the non-facing surface Fbs, which is the front surface of the vehicle body of the other vehicle Vt, which is the parked vehicle, extends in the depth direction when viewed from the surface detection sensor 3. Therefore, while distance accuracy is not an issue, as mentioned above, azimuth accuracy is high. On the other hand, since the second detection surface Ft2 corresponding to the facing surface Fbf, which is the side surface of the vehicle body of the other vehicle Vt, extends along the traveling direction of the own vehicle V, the azimuth accuracy is not a problem. ,As mentioned above, the distance accuracy is low.

そこで、図3~図5の例においては、高精度面取得部806は、方位精度が高い第一検知面Ft1を、高精度面FtHとして選択する。具体的には、高精度面取得部806は、例えば、並進座標系における、検知面Ftと中心線Lcとのなす角度が所定の閾値角度以下である検知面Ftを、高精度面FtHとして選択する。 Therefore, in the examples of FIGS. 3 to 5, the high-precision surface acquisition unit 806 selects the first detection surface Ft1 with high azimuth accuracy as the high-precision surface FtH. Specifically, the high-precision surface acquisition unit 806 selects, as the high-precision surface FtH, a detection surface Ft whose angle between the detection surface Ft and the center line Lc in the translational coordinate system is less than or equal to a predetermined threshold angle. do.

あるいは、高精度面取得部806は、例えば、並進座標系における、検知面Ftの延長線と当該検知面Ftの取得時点における面検知センサ3との最短距離が所定の閾値距離以下である検知面Ftを、高精度面FtHとして選択する。図4に示されている例においては、第一検知面Ft1に対応する第一延長線L1は、面検知センサ3の近くを通り、最短距離は閾値距離以下となる。これに対し、第二検知面Ft2に対応する第二延長線L2は、面検知センサ3の遠くを通り、最短距離は閾値距離を超える。よって、高精度面取得部806は、第一検知面Ft1を、高精度面FtHとして選択する。 Alternatively, the high-precision surface acquisition unit 806 may detect a detection surface where the shortest distance between the extension line of the detection surface Ft and the surface detection sensor 3 at the time of acquisition of the detection surface Ft in the translational coordinate system is equal to or less than a predetermined threshold distance. Ft is selected as the high precision surface FtH. In the example shown in FIG. 4, the first extension line L1 corresponding to the first detection surface Ft1 passes near the surface detection sensor 3, and the shortest distance is equal to or less than the threshold distance. On the other hand, the second extension line L2 corresponding to the second detection surface Ft2 passes far from the surface detection sensor 3, and the shortest distance exceeds the threshold distance. Therefore, the high-precision surface acquisition unit 806 selects the first detection surface Ft1 as the high-precision surface FtH.

マップ生成部807は、マップMにおける各グリッドGに対して、所定の割り付け条件に基づいて、物体の存在確率を割り付ける。具体的には、マップ生成部807は、例えば、測距点Psおよび検知点Pdが存在する検知点グリッドGnにおける存在確率に、所定の正値を加算する。 The map generation unit 807 assigns an object existence probability to each grid G in the map M based on predetermined assignment conditions. Specifically, the map generation unit 807 adds a predetermined positive value to the existence probability in the detection point grid Gn where the ranging point Ps and the detection point Pd exist, for example.

また、マップ生成部807は、存在確率が他の領域よりも低い低確率領域に対応する面外グリッドGtを、取得あるいは選択した高精度面FtHに基づいてマップMに設定する。具体的には、マップ生成部807は、面外グリッドGtにおける存在確率を、物体の不存在に対応する所定の負値、すなわち、絶対値が大きな負値に設定する。なお、本実施形態においては、測距点Psが存在する検知点グリッドGnが面外グリッドGtにも該当する場合は、面外グリッドGtに対する処理が優先されるものとする。 Furthermore, the map generation unit 807 sets an out-of-plane grid Gt corresponding to a low-probability region whose existence probability is lower than other regions in the map M based on the acquired or selected high-precision surface FtH. Specifically, the map generation unit 807 sets the existence probability in the out-of-plane grid Gt to a predetermined negative value corresponding to the absence of the object, that is, a negative value with a large absolute value. In this embodiment, if the detection point grid Gn in which the distance measurement point Ps exists also corresponds to the out-of-plane grid Gt, priority is given to processing for the out-of-plane grid Gt.

ところで、カメラまたはLIDARセンサ等である面検知センサ3は、降雨あるいは霧発生等の悪条件が発生した場合、検知精度が低下する。あるいは、面検知センサ3に何らかの異常が発生する場合があり得る。これらの場合、高精度面FtHを良好に取得することは困難となる。そこで、マップ生成部807は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、高精度面FtHを取得する。 By the way, the detection accuracy of the surface detection sensor 3, which is a camera or a LIDAR sensor, decreases when adverse conditions such as rain or fog occur. Alternatively, some abnormality may occur in the surface detection sensor 3. In these cases, it is difficult to satisfactorily obtain a high-precision surface FtH. Therefore, the map generation unit 807 obtains a high-precision surface FtH based on the detection surface Ft detected by the surface detection sensor 3 during normal operation.

物体検知部808は、マップMに基づいて、物体検知用の測距点Psを選択する。すなわち、物体検知部808は、存在確率が高いグリッドGに含まれる測距点Psを、物体検知用の測距点Psとして選択する。そして、物体検知部808は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体(例えば図3~図5に示された他車両Vt)の並進座標系における物体の位置あるいは外形形状を推定することで、当該物体を検知する。駐車スペース抽出部809は、物体検知部808による物体検知結果に基づいて、駐車スペースSPを抽出する。駐車経路算出部810は、駐車スペース抽出部809により抽出された駐車スペースSPに対応する駐車経路を算出する。 The object detection unit 808 selects a distance measurement point Ps for object detection based on the map M. That is, the object detection unit 808 selects the ranging point Ps included in the grid G with a high existence probability as the ranging point Ps for object detection. Then, the object detection unit 808 determines the position of an object (for example, another vehicle Vt shown in FIGS. 3 to 5) around the own vehicle V in the translational coordinate system based on the selected ranging point Ps. Alternatively, the object is detected by estimating its external shape. The parking space extraction unit 809 extracts a parking space SP based on the object detection result by the object detection unit 808. The parking route calculation unit 810 calculates a parking route corresponding to the parking space SP extracted by the parking space extraction unit 809.

(動作例)
以下、本実施形態の構成による具体的な動作例について、図6に示したフローチャートを用いて説明する。なお、図6において、「ステップ」を単に「S」と略記する。
(Operation example)
Hereinafter, a specific example of operation according to the configuration of this embodiment will be described using the flowchart shown in FIG. Note that in FIG. 6, "step" is simply abbreviated as "S".

駐車支援ECU8は、所定の起動条件成立中に、図6に示されたルーチンを、所定時間間隔で繰り返し起動する。かかるルーチンが起動されると、駐車支援ECU8は、まず、ステップ601~ステップ605の処理を順に実行する。 The parking assist ECU 8 repeatedly activates the routine shown in FIG. 6 at predetermined time intervals while a predetermined activation condition is satisfied. When this routine is activated, the parking assist ECU 8 first sequentially executes steps 601 to 605.

ステップ601にて、駐車支援ECU8は、自車両Vの挙動情報を取得する。ステップ602にて、駐車支援ECU8は、並進座標系における自車両Vの位置を推定する。ステップ603にて、駐車支援ECU8は、測距点Psを取得する。ステップ604にて、駐車支援ECU8は、ステップ603にて取得した測距点Psに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、測距点Psに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。 In step 601, parking assistance ECU 8 acquires behavior information of own vehicle V. At step 602, parking assist ECU 8 estimates the position of host vehicle V in the translational coordinate system. In step 603, the parking support ECU 8 acquires the distance measurement point Ps. At step 604, the parking assistance ECU 8 revises the map M based on the distance measurement point Ps acquired at step 603. Specifically, the parking assistance ECU 8 adds a predetermined positive value to the existence probability in the detection point grid Gn corresponding to the distance measurement point Ps.

ステップ605にて、駐車支援ECU8は、面検知センサ3が正常動作中であるか否かを判定する。具体的には、例えば、駐車支援ECU8は、面検知センサ3が自己診断中であるか否かを判定する。あるいは、駐車支援ECU8は、面検知センサ3における自己診断結果を、面検知センサ3から受信する。あるいは、例えば、駐車支援ECU8は、雨滴検知結果および霧検知結果を、挙動センサ4あるいは外部装置から受信する。かかる外部装置は、例えば、車両制御システム9、あるいは、不図示の雨滴検知センサ等である。あるいは、例えば、駐車支援ECU8は、ワイパおよびフォグランプの動作状態を受信する。そして、駐車支援ECU8は、受信した上記の情報あるいは信号に基づいて、面検知センサ3が正常動作中であるか否かを判定する。 At step 605, the parking assist ECU 8 determines whether the surface detection sensor 3 is operating normally. Specifically, for example, the parking assist ECU 8 determines whether the surface detection sensor 3 is undergoing self-diagnosis. Alternatively, the parking assist ECU 8 receives the self-diagnosis result of the surface detection sensor 3 from the surface detection sensor 3 . Alternatively, for example, the parking assist ECU 8 receives the raindrop detection result and the fog detection result from the behavior sensor 4 or an external device. Such an external device is, for example, the vehicle control system 9 or a raindrop detection sensor (not shown). Alternatively, for example, the parking assist ECU 8 receives the operating states of wipers and fog lamps. Then, the parking assist ECU 8 determines whether the surface detection sensor 3 is operating normally or not based on the above-mentioned received information or signal.

面検知センサ3が正常動作中である場合(すなわちステップ605=YES)、駐車支援ECU8は、処理をステップ606~ステップ609に進行させる。ステップ606にて、駐車支援ECU8は、面検知センサ3を用いた検知点Pdの検知結果を取得する。ステップ607にて、駐車支援ECU8は、ステップ606にて取得した検知点Pdに基づいて、検知面Ftを取得する。ステップ608にて、駐車支援ECU8は、ステップ607にて取得した検知面Ftに基づいて、高精度面FtHを取得する。 If the surface detection sensor 3 is operating normally (ie, step 605=YES), the parking assist ECU 8 advances the process to steps 606 to 609. In step 606, the parking assist ECU 8 obtains the detection result of the detection point Pd using the surface detection sensor 3. In step 607, parking assist ECU 8 obtains a detection surface Ft based on the detection point Pd obtained in step 606. In step 608, the parking assist ECU 8 obtains a high-precision surface FtH based on the detection surface Ft obtained in step 607.

ステップ609にて、駐車支援ECU8は、ステップ608の処理によって高精度面FtHが取得できたか否かを判定する。高精度面FtHが取得できた場合(すなわちステップ609=YES)、駐車支援ECU8は、処理をステップ610に進行させる。一方、高精度面FtHが取得できなかった場合(すなわちステップ609=NO)、駐車支援ECU8は、処理をステップ611に進行させる。 In step 609, the parking assist ECU 8 determines whether or not the high-precision surface FtH has been acquired through the process in step 608. If the high-precision surface FtH has been acquired (that is, step 609=YES), the parking assist ECU 8 advances the process to step 610. On the other hand, if the high-precision surface FtH cannot be acquired (that is, step 609=NO), the parking assist ECU 8 advances the process to step 611.

ステップ610にて、駐車支援ECU8は、検知点Pdおよび高精度面FtHに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、検知点Pdに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。また、駐車支援ECU8は、高精度面FtHに基づいて特定あるいは設定した面外グリッドGtにおける存在確率を、物体の不存在に対応する所定の負値に設定する。 At step 610, parking assist ECU 8 revise map M based on detection point Pd and high precision surface FtH. Specifically, the parking assistance ECU 8 adds a predetermined positive value to the existence probability in the detection point grid Gn corresponding to the detection point Pd. Furthermore, the parking assist ECU 8 sets the existence probability in the out-of-plane grid Gt, which is specified or set based on the high-precision surface FtH, to a predetermined negative value corresponding to the absence of the object.

ステップ611にて、駐車支援ECU8は、検知点Pdに基づいて、マップMを改定する。具体的には、駐車支援ECU8は、検知点Pdに対応する検知点グリッドGnにおける存在確率に、所定の正値を加算する。 In step 611, parking assist ECU 8 revise map M based on detection point Pd. Specifically, the parking assistance ECU 8 adds a predetermined positive value to the existence probability in the detection point grid Gn corresponding to the detection point Pd.

ステップ610またはステップ611の処理の後、駐車支援ECU8は、処理をステップ612に進行させる。また、面検知センサ3が正常動作中ではない場合(すなわちステップ605=NO)、駐車支援ECU8は、ステップ606~ステップ611の処理をスキップして、処理をステップ605からステップ612に進行させる。 After the process in step 610 or step 611, the parking assist ECU 8 advances the process to step 612. Further, if the surface detection sensor 3 is not operating normally (ie, step 605=NO), the parking assist ECU 8 skips the processing from step 606 to step 611 and advances the processing from step 605 to step 612.

ステップ612にて、駐車支援ECU8は、マップMに基づいて、物体検知用の測距点Psを選択する。ステップ613にて、駐車支援ECU8は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体の位置を推定する。すなわち、駐車支援ECU8は、選択した測距点Psに基づいて、自車両Vの周囲に存在する物体を検知あるいは認識する。その後、駐車支援ECU8は、本ルーチンを一旦終了する。 At step 612, the parking support ECU 8 selects a distance measurement point Ps for detecting an object based on the map M. In step 613, the parking assistance ECU 8 estimates the position of objects existing around the host vehicle V based on the selected ranging point Ps. That is, the parking assistance ECU 8 detects or recognizes objects existing around the host vehicle V based on the selected ranging point Ps. After that, the parking assist ECU 8 temporarily ends this routine.

(効果)
本実施形態に係る駐車支援ECU8、ならびに、これによって実行される物体検知方法および物体検知プログラムによれば、以下のような効果が奏され得る。以下、本実施形態に係る駐車支援ECU8、ならびに、これによって実行される物体検知方法および物体検知プログラムを総称して、単に「本実施形態」と称する。
(effect)
According to the parking assist ECU 8 according to the present embodiment, and the object detection method and object detection program executed thereby, the following effects can be achieved. Hereinafter, the parking assist ECU 8 according to the present embodiment, as well as the object detection method and object detection program executed thereby, will be collectively referred to as simply "the present embodiment."

(1)本実施形態においては、測距点取得部803は、自車両Vの周囲の測距点Psを検知するための測距センサ2を用いた、測距点Psの検知結果を取得する。検知面取得部805は、物体面Fbを検知するための面検知センサ3を用いた、物体面Fbの検知結果である検知面Ftを取得する。物体検知部808は、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて選択された測距点Psに基づいて、物体を検知する。 (1) In the present embodiment, the distance measurement point acquisition unit 803 acquires the detection result of the distance measurement point Ps using the distance measurement sensor 2 for detecting the distance measurement point Ps around the host vehicle V. . The detection plane acquisition unit 805 acquires a detection plane Ft that is a detection result of the object plane Fb using the surface detection sensor 3 for detecting the object plane Fb. The object detection unit 808 detects an object based on the ranging point Ps selected according to the positional relationship with the detection surface Ft in the space around the own vehicle V.

本実施形態によれば、測距センサ2による複数の測距点のPsうち、位置誤差が大きな「外れ点」が生じても、かかる「外れ点」に該当しない測距点Psを、検知面Ftとの位置関係に応じて選択して物体検知に用いることができる。具体的には、例えば、自車両Vの周囲の空間における検知面Ftとの位置関係に応じて「外れ点」を特定することで、特定した「外れ点」を物体検知用の測距点Psから除外することができる。 According to the present embodiment, even if an "outlier point" with a large positional error occurs among a plurality of distance measurement points Ps by the distance measurement sensor 2, the distance measurement point Ps that does not correspond to such an "outlier point" is selected from the detection surface. It can be selected depending on the positional relationship with Ft and used for object detection. Specifically, for example, by identifying an "outlier point" according to the positional relationship with the detection surface Ft in the space around the own vehicle V, the identified "outlier point" is used as the distance measurement point Ps for object detection. can be excluded from.

このように、本実施形態によれば、「外れ点」に起因する障害物の誤検知、および、かかる誤検知に伴う誤判定の発生を、良好に抑制することが可能となる。したがって、本実施形態によれば、従来よりも良好な物体検知精度を実現可能な、物体検知装置、物体検知方法、および物体検知プログラムを提供することが可能となる。 In this way, according to the present embodiment, it is possible to satisfactorily suppress the erroneous detection of an obstacle due to an "outlier point" and the occurrence of erroneous determinations associated with such erroneous detection. Therefore, according to the present embodiment, it is possible to provide an object detection device, an object detection method, and an object detection program that can achieve better object detection accuracy than conventional ones.

(2)本実施形態においては、物体検知部808は、面検知センサ3が正常作動時に検知した検知面Ftに基づいて、物体検知用の測距点Psを選択する。本実施形態によれば、検知面Ftを良好に検知可能な状況にて、かかる検知面Ftの取得結果を用いることで、物体検知用の測距点Psを良好に選択することができる。 (2) In the present embodiment, the object detection unit 808 selects the distance measurement point Ps for object detection based on the detection surface Ft detected by the surface detection sensor 3 during normal operation. According to the present embodiment, by using the acquisition result of the detection surface Ft in a situation where the detection surface Ft can be detected satisfactorily, it is possible to select the distance measurement point Ps for detecting an object favorably.

(3)本実施形態においては、検知面取得部805は、面検知センサ3を用いて取得された、物体面Fb上の複数の検知点Pdの、集合状態に基づいて、検知面Ftを取得する。面検知センサ3によれば、多数の検知点Pdを、ほぼ同時あるいは短時間で取得することができる。このように取得された多数の検知点Pdにおいて、一定の幅および奥行きの範囲に所定個数の点群が存在すれば、かかる点群が物体面Fbに対応する蓋然性が高いといえる。したがって、本実施形態によれば、簡易な処理により良好な精度で検知面Ftを取得することが可能となる。 (3) In the present embodiment, the sensing surface acquisition unit 805 acquires the sensing surface Ft based on the collective state of the plurality of sensing points Pd on the object surface Fb acquired using the surface detection sensor 3. do. According to the surface detection sensor 3, a large number of detection points Pd can be acquired almost simultaneously or in a short time. If a predetermined number of point groups exist within a certain width and depth range among the large number of detection points Pd acquired in this way, it can be said that there is a high probability that the point group corresponds to the object plane Fb. Therefore, according to the present embodiment, it is possible to obtain the detection surface Ft with good accuracy through simple processing.

(4)本実施形態においては、物体検知部808は、検知精度が所定の高い精度である検知面Ftである高精度面FtHに基づいて、物体検知用の測距点Psを選択する。本実施形態によれば、測距センサ2による複数の測距点のPsうち、位置誤差が大きな「外れ点」が生じても、かかる「外れ点」に該当しない測距点Psを、高精度面FtHに基づいて選択して物体検知に用いることができる。したがって、本実施形態によれば、「外れ点」に該当しない測距点Psを、高精度で選択することが可能となる。 (4) In the present embodiment, the object detection unit 808 selects the distance measurement point Ps for object detection based on the high-precision surface FtH, which is the detection surface Ft with a predetermined high detection accuracy. According to the present embodiment, even if an "outlier point" with a large positional error occurs among the plurality of distance measurement points Ps by the distance measurement sensor 2, the distance measurement point Ps that does not correspond to the "outlier point" is selected with high precision. It can be selected based on the plane FtH and used for object detection. Therefore, according to the present embodiment, it is possible to select distance measurement points Ps that do not correspond to "outlier points" with high accuracy.

(5)本実施形態は、自車両Vの周囲の空間における物体の存在確率を示すマップMを生成するマップ生成部807を備えている。マップ生成部807は、高精度面FtHに基づいて、存在確率が他の領域よりも低い低確率領域すなわち面外グリッドGtをマップMに設定する。物体検知部808は、この低確率領域に対応する測距点Psを、物体検知用の測距点Psから除外する。 (5) The present embodiment includes a map generation unit 807 that generates a map M indicating the probability of existence of an object in the space around the own vehicle V. The map generation unit 807 sets, in the map M, a low probability region, that is, an out-of-plane grid Gt, whose existence probability is lower than other regions, based on the high-precision surface FtH. The object detection unit 808 excludes the ranging point Ps corresponding to this low probability area from the ranging points Ps for object detection.

本実施形態においては、マップMに設定した低確率領域すなわち面外グリッドGtに対応する測距点Psを「外れ点」として除外することで、物体検知用の測距点Psを選択することができる。したがって、本実施形態によれば、物体検知用の測距点Psを、高精度で選択することが可能となる。 In this embodiment, by excluding the ranging points Ps corresponding to the low probability area set in the map M, that is, the out-of-plane grid Gt, as "outlying points", it is possible to select the ranging points Ps for object detection. can. Therefore, according to the present embodiment, it is possible to select the ranging point Ps for detecting an object with high accuracy.

(6)本実施形態においては、高精度面取得部806は、自車両Vの周囲の空間における面検知センサ3および検知面Ftの配置関係に基づいて、高精度面FtHを取得する。したがって、本実施形態によれば、高精度面FtHを良好な精度で取得することが可能となる。 (6) In the present embodiment, the high-precision surface acquisition unit 806 obtains the high-precision surface FtH based on the arrangement relationship between the surface detection sensor 3 and the detection surface Ft in the space around the own vehicle V. Therefore, according to this embodiment, it is possible to obtain the high-precision surface FtH with good accuracy.

(変形例)
本発明は、上記実施形態に限定されるものではない。故に、上記実施形態に対しては、適宜変更が可能である。以下、代表的な変形例について説明する。以下の変形例の説明においては、上記実施形態との相違点を主として説明する。また、上記実施形態と変形例とにおいて、相互に同一または均等である部分には、同一符号が付されている。したがって、以下の変形例の説明において、上記実施形態と同一の符号を有する構成要素に関しては、技術的矛盾または特段の追加説明なき限り、上記実施形態における説明が適宜援用され得る。
(Modified example)
The present invention is not limited to the above embodiments. Therefore, the above embodiment can be modified as appropriate. Typical modified examples will be described below. In the following description of the modified example, differences from the above embodiment will be mainly described. Further, in the above embodiment and the modified example, parts that are the same or equivalent to each other are given the same reference numerals. Therefore, in the following description of the modification, the description in the above embodiment may be used as appropriate for components having the same reference numerals as those in the above embodiment, unless there is a technical contradiction or special additional explanation.

本発明は、上記実施形態にて示された具体的な装置構成に限定されない。すなわち、例えば、適用対象である自車両Vは、四輪自動車に限定されない。具体的には、自車両Vは、三輪自動車であってもよいし、貨物トラック等の六輪または八輪自動車でもよい。自車両Vの種類は、内燃機関のみを備えた自動車であってもよいし、内燃機関を備えない電気自動車または燃料電池車であってもよいし、いわゆるハイブリッド自動車であってもよい。車体の形状および構造も、箱状すなわち平面視における略矩形状に限定されない。 The present invention is not limited to the specific device configuration shown in the above embodiments. That is, for example, the subject vehicle V to which the present invention is applied is not limited to a four-wheel vehicle. Specifically, the own vehicle V may be a three-wheeled vehicle, or a six-wheeled or eight-wheeled vehicle such as a cargo truck. The type of vehicle V may be a car equipped only with an internal combustion engine, an electric car or a fuel cell car without an internal combustion engine, or a so-called hybrid car. The shape and structure of the vehicle body are also not limited to a box shape, that is, a substantially rectangular shape in plan view.

上記実施形態において、駐車支援ECU8は、CPUがROM等からプログラムを読み出して起動する、いわゆる車載マイクロコンピュータとしての構成を有していた。しかしながら、本発明は、かかる構成に限定されない。具体的には、例えば、駐車支援ECU8の全部または一部は、上記のような動作を可能に構成されたデジタル回路、例えばASICあるいはFPGAを備えた構成であってもよい。ASICはApplication Specific Integrated Circuitの略である。FPGAはField Programmable Gate Arrayの略である。よって、駐車支援ECU8において、車載マイクロコンピュータ部分とデジタル回路部分とは併存し得る。 In the embodiment described above, the parking assist ECU 8 has a configuration as a so-called in-vehicle microcomputer in which the CPU reads a program from a ROM or the like and starts the program. However, the present invention is not limited to such a configuration. Specifically, for example, all or part of the parking assist ECU 8 may be configured to include a digital circuit configured to enable the above operations, such as an ASIC or FPGA. ASIC is an abbreviation for Application Specific Integrated Circuit. FPGA is an abbreviation for Field Programmable Gate Array. Therefore, in the parking assist ECU 8, the in-vehicle microcomputer portion and the digital circuit portion may coexist.

上記実施形態にて説明した、各種の動作、手順、あるいは処理を実行可能とする、本発明に係るプログラムは、DCM6等によるV2X通信を介して、ダウンロードあるいはアップグレードされ得る。V2XはVehicle to Xの略である。あるいは、かかるプログラムは、自車両Vの製造工場、整備工場、販売店、等に設けられた端末機器を介して、ダウンロードあるいはアップグレードされ得る。かかるプログラムの格納先は、メモリーカード、光学ディスク、磁気ディスク、等であってもよい。 The program according to the present invention, which enables execution of the various operations, procedures, or processes described in the above embodiments, can be downloaded or upgraded via V2X communication using the DCM 6 or the like. V2X is an abbreviation for Vehicle to X. Alternatively, such a program may be downloaded or upgraded via a terminal device provided at a manufacturing factory, maintenance shop, dealership, etc. of the own vehicle V. Such a program may be stored in a memory card, an optical disk, a magnetic disk, or the like.

このように、上記の各機能構成および方法は、コンピュータプログラムにより具体化された一つあるいは複数の機能を実行するようにプログラムされた、プロセッサおよびメモリを含む専用コンピュータにより、実現されてもよい。あるいは、上記の各機能構成および方法は、一つ以上の専用論理回路によって提供された専用ハードウエアにより、実現されてもよい。 As such, each of the functional configurations and methods described above may be implemented by a dedicated computer including a processor and memory programmed to perform one or more of the functions embodied by the computer program. Alternatively, each of the functional configurations and methods described above may be implemented by dedicated hardware provided by one or more dedicated logic circuits.

あるいは、上記の各機能構成および方法は、一つあるいは複数の機能を実行するようにプログラムされたプロセッサおよびメモリと、一つ以上の論理回路によって構成されたハードウエアとの組み合わせにより構成された、一つ以上の専用処理装置により、実現されてもよい。 Alternatively, each of the above functional configurations and methods is configured by a combination of a processor and memory programmed to perform one or more functions, and hardware configured by one or more logic circuits. It may be implemented by one or more dedicated processing devices.

コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移的実体的記憶媒体に記憶されていてもよい。すなわち、上記の各機能構成および方法は、これを実現するための処理あるいは手順を含むコンピュータプログラム、あるいは、当該プログラムを記憶した非遷移的実体的記憶媒体としても表現可能である。 A computer program may be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium. That is, each of the functional configurations and methods described above can be expressed as a computer program including processes or procedures for realizing the same, or as a non-transitional physical storage medium storing the program.

本発明に係る物体検知装置は、上記実施形態においては、駐車支援制御装置である駐車支援ECU8として実現されていた。しかしながら、本発明は、かかる態様に限定されない。すなわち、例えば、挙動取得部801~物体検知部808は、「SAE J3016」におけるレベル1~5の運転自動化レベルを実現するための、運転支援ECUあるいは自動運転ECUにて実現されてもよい。レベル1の「運転支援」には、衝突被害軽減ブレーキ、アダプティブクルーズコントロール、レーンキープアシスト、等が含まれる。 In the embodiment described above, the object detection device according to the present invention is realized as a parking assistance ECU 8 that is a parking assistance control device. However, the present invention is not limited to such embodiments. That is, for example, the behavior acquisition unit 801 to the object detection unit 808 may be realized by a driving support ECU or an automatic driving ECU for realizing driving automation levels of levels 1 to 5 in “SAE J3016”. Level 1 "driving support" includes collision mitigation braking, adaptive cruise control, lane keep assist, etc.

本発明は、上記実施形態にて示された具体的な動作態様あるいは処理態様に限定されない。すなわち、例えば、マップMを用いなくても、検知点Pdと高精度面FtHと測距点Psとの並進座標系における相対位置関係に基づいて、物体検知用の測距点Psを選択することが可能である。具体的には、かかる相対位置関係に基づけば、高精度面FtHの「外側」に位置すると判定される測距点Psを特定して、物体検知用の測距点Psから除外することが可能である。この場合、マップ生成部807は、省略される。 The present invention is not limited to the specific operational aspects or processing aspects shown in the above embodiments. That is, for example, without using the map M, the distance measurement point Ps for object detection can be selected based on the relative positional relationship in the translational coordinate system between the detection point Pd, the high-precision surface FtH, and the distance measurement point Ps. is possible. Specifically, based on this relative positional relationship, it is possible to specify the distance measuring point Ps that is determined to be located on the "outside" of the high-precision surface FtH and exclude it from the distance measuring points Ps for object detection. It is. In this case, the map generation unit 807 is omitted.

測距点Psは、ある時点t(n)における測距センサ2の位置および測距距離と、時点t(n)の1つ前の時点t(n-1)における測距センサ2の位置および測距距離とに基づいて、三角測量の原理で算出された点であってもよい。すなわち、「測距点Ps」は、「反射点Ps」、「測距センサ検知点Ps」、あるいは「第一検知点Ps」とも称され得る。この場合、「検知点Pd」は、「面検知センサ検知点Pd」あるいは「第二検知点Pd」とも称され得る。 The distance measurement point Ps is determined by the position and distance measurement of the distance measurement sensor 2 at a certain time t(n), and the position and measurement distance of the distance measurement sensor 2 at a time t(n-1) immediately before the time t(n). The point may be calculated based on the measured distance using the principle of triangulation. That is, the "distance measuring point Ps" may also be referred to as the "reflection point Ps", the "distance measuring sensor detection point Ps", or the "first detection point Ps". In this case, the "detection point Pd" may also be referred to as the "surface detection sensor detection point Pd" or the "second detection point Pd."

検知面Ftの取得には、機械学習が用いられ得る。具体的には、パターンマッチング、セマンティックセグメンテーション、等が利用可能である。これにより、より高精度あるいは高速で、検知面Ftを取得することが可能となる。 Machine learning may be used to obtain the detection surface Ft. Specifically, pattern matching, semantic segmentation, etc. can be used. Thereby, it becomes possible to obtain the detection surface Ft with higher precision or higher speed.

図6に示されたフローチャートに対しては、適宜変更が可能である。具体的には、例えば、ステップ604は、省略され得る。すなわち、測距点Psは、マップMにおける存在確率に反映されなくてもよい。 The flowchart shown in FIG. 6 can be modified as appropriate. Specifically, for example, step 604 may be omitted. That is, the ranging point Ps does not need to be reflected in the existence probability in the map M.

面外グリッドGtにおける存在確率に対する処理は、物体の不存在に対応する所定の負値への設定に限定されない。すなわち、例えば、かかる処理は、所定の負値の加算であってもよい。 The processing for the existence probability in the out-of-plane grid Gt is not limited to setting it to a predetermined negative value corresponding to the absence of an object. That is, for example, such processing may be addition of a predetermined negative value.

面外グリッドGtは、高精度面FtHの外側のグリッドGに限定されない。すなわち、例えば、面検知センサ3の種類あるいは構造等によっては、すべての検知面Ftが高精度で取得される場合があり得る。具体的には、例えば、面検知センサ3が、複眼ステレオカメラ装置であったり、カメラと他のセンサとを含むフュージョンセンサであったりする場合、すべての検知面Ftが高精度で取得され得る。このような場合、面外グリッドGtは検知面Ftの外側のグリッドGとなり、高精度面取得部806は省略される。 The out-of-plane grid Gt is not limited to the grid G outside the high-precision surface FtH. That is, for example, depending on the type or structure of the surface detection sensor 3, all the detection surfaces Ft may be acquired with high accuracy. Specifically, for example, when the surface detection sensor 3 is a compound eye stereo camera device or a fusion sensor including a camera and other sensors, all the detection surfaces Ft can be acquired with high precision. In such a case, the out-of-plane grid Gt becomes a grid G outside the detection surface Ft, and the high-precision surface acquisition unit 806 is omitted.

Kを閾値あるいは所定値とした場合、「K以上」と「Kを超える」とは、技術的に矛盾あるいは不都合がない限り、互換可能である。「K以下」と「K未満」とについても同様である。 When K is a threshold value or a predetermined value, "more than K" and "more than K" are interchangeable as long as there is no technical contradiction or inconvenience. The same applies to "less than K" and "less than K."

「取得」、「推定」、「検出」、「検知」、「算出」、「抽出」、「生成」、等の、相互に類似する表現は、技術的に矛盾しない範囲内において、適宜置換可能である。 Similar expressions such as "obtain", "estimate", "detect", "detect", "calculate", "extract", "generate", etc. can be replaced as appropriate within the scope of technical contradiction. It is.

上記実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、構成要素の個数、量、範囲等の数値が言及されている場合、特に必須であると明示した場合および原理的に明らかに特定の数値に限定される場合等を除き、その特定の数値に本発明が限定されることはない。同様に、構成要素等の形状、方向、位置関係等が言及されている場合、特に必須であると明示した場合および原理的に特定の形状、方向、位置関係等に限定される場合等を除き、その形状、方向、位置関係等に本発明が限定されることはない。 It goes without saying that the elements constituting the above-described embodiments are not necessarily essential, except in cases where they are specifically specified as essential or where they are clearly considered essential in principle. In addition, when numerical values such as the number, amount, range, etc. of a component are mentioned, unless it is clearly stated that it is essential or it is clearly limited to a specific numerical value in principle, the specific numerical value The present invention is not limited thereto. Similarly, when the shape, direction, positional relationship, etc. of components, etc. is mentioned, unless it is clearly stated that it is essential, or when it is limited in principle to a specific shape, direction, positional relationship, etc. , the present invention is not limited to its shape, direction, positional relationship, etc.

変形例も、上記の例示に限定されない。また、複数の変形例が、互いに組み合わされ得る。さらに、上記実施形態の全部または一部と、変形例の全部または一部とが、互いに組み合わされ得る。 Modifications are also not limited to the above examples. Also, multiple variants may be combined with each other. Furthermore, all or part of the above embodiments and all or part of the modifications may be combined with each other.

2 測距センサ
3 面検知センサ
8 駐車支援ECU(物体検知装置)
803 測距点取得部
805 検知面取得部
808 物体検知部
Ft 検知面
Ps 測距点
V 自車両
Vt 他車両
2 Distance sensor 3 Surface detection sensor 8 Parking support ECU (object detection device)
803 Range-finding point acquisition unit 805 Detection plane acquisition unit 808 Object detection unit Ft Detection plane Ps Range-finding point V Own vehicle Vt Other vehicle

Claims (10)

自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された、物体検知装置(8)であって、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する、測距点取得部(803)と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する、検知面取得部(805)と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて前記物体を検知する、物体検知部(808)と、
を備え、
前記物体検知部は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する、
体検知装置。
An object detection device (8) configured to be mounted on the own vehicle (V) to detect objects (Vt) existing around the own vehicle,
a ranging point acquisition unit (803) that obtains a detection result of the ranging point using a ranging sensor (2) for detecting ranging points (Ps) around the own vehicle;
a sensing surface acquisition unit (805) that acquires a sensing surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
an object detection unit (808) that detects the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space around the host vehicle;
Equipped with
The object detection unit selects the ranging point to be used for detecting the object based on a high-precision surface (FtH) that is the detection surface with a predetermined high detection accuracy.
Object detection device.
前記自車両の周囲の前記空間における前記物体の存在確率を示すマップ(M)を生成する、マップ生成部(807)をさらに備え、
前記マップ生成部は、前記高精度面に基づいて、前記存在確率が他の領域よりも低い低確率領域(Gt)を前記マップに設定し、
前記物体検知部は、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外する、
請求項1に記載の物体検知装置。
further comprising a map generation unit (807) that generates a map (M) indicating the existence probability of the object in the space around the own vehicle;
The map generation unit sets, in the map, a low probability region (Gt) in which the existence probability is lower than other regions, based on the high-precision surface;
The object detection unit excludes the ranging point corresponding to the low probability area from the ranging points used for detecting the object.
The object detection device according to claim 1 .
前記自車両の周囲の前記空間における前記面検知センサおよび前記検知面の配置関係に基づいて、前記高精度面を取得する、高精度面取得部(806)をさらに備えた、
請求項1または2に記載の物体検知装置。
further comprising a high-precision surface acquisition unit (806) that obtains the high-precision surface based on the arrangement relationship between the surface detection sensor and the detection surface in the space around the own vehicle;
The object detection device according to claim 1 or 2 .
前記物体検知部は、前記面検知センサが正常作動時に検知した前記検知面に基づいて、前記物体の検知に用いる前記測距点を選択する、
請求項1~3のいずれか1つに記載の物体検知装置。
The object detection unit selects the ranging point to be used for detecting the object based on the detection surface detected by the surface detection sensor during normal operation.
The object detection device according to any one of claims 1 to 3.
前記検知面取得部は、前記面検知センサを用いて取得された、前記物体面上の複数の検知点(Pd)の、集合状態に基づいて、前記検知面を取得する、
請求項1~4のいずれか1つに記載の物体検知装置。
The sensing surface acquisition unit acquires the sensing surface based on a collective state of a plurality of sensing points (Pd) on the object surface acquired using the surface detection sensor.
The object detection device according to any one of claims 1 to 4 .
自車両(V)に搭載されることで当該自車両の周囲に存在する物体(Vt)を検知するように構成された物体検知装置(8)により実行される物体検知プログラムであって、
前記物体検知装置により実行される処理は、
前記自車両の周囲の測距点(Ps)を検知するための測距センサ(2)を用いた、前記測距点の検知結果を取得する処理と、
前記物体の外表面である物体面を検知するための面検知センサ(3)を用いた、前記物体面の検知結果である検知面(Ft)を取得する処理と、
前記自車両の周囲の空間における前記検知面との位置関係に応じて選択された前記測距点に基づいて、前記物体を検知する処理と、
を含み、
前記物体を検知する前記処理は、検知精度が所定の高い精度である前記検知面である高精度面(FtH)に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む、
体検知プログラム。
An object detection program executed by an object detection device (8) configured to be mounted on the own vehicle (V) to detect objects (Vt) existing around the own vehicle,
The process executed by the object detection device includes:
A process of acquiring a detection result of the distance measurement point using a distance measurement sensor (2) for detecting the distance measurement point (Ps) around the own vehicle;
A process of acquiring a detection surface (Ft) that is a detection result of the object surface using a surface detection sensor (3) for detecting an object surface that is the outer surface of the object;
a process of detecting the object based on the distance measurement point selected according to the positional relationship with the detection surface in the space surrounding the host vehicle;
including;
The process of detecting the object includes a process of selecting the ranging point used for detecting the object based on a high-precision surface (FtH) that is the detection surface with a predetermined high detection accuracy.
Object detection program.
前記高精度面に基づいて、前記自車両の周囲の前記空間における前記物体の存在確率が他の領域よりも低い低確率領域(Gt)を、前記存在確率を示すマップ(M)に設定する処理をさらに含み、
前記物体の検知に用いる前記測距点を選択する前記処理は、前記低確率領域に対応する前記測距点を、前記物体の検知に用いる前記測距点から除外する処理を含む、
請求項6に記載の物体検知プログラム
A process of setting a low probability region (Gt) in which the existence probability of the object in the space around the host vehicle is lower than other regions in a map (M) indicating the existence probability, based on the high-precision surface. further including;
The process of selecting the ranging point used for detecting the object includes a process of excluding the ranging point corresponding to the low probability area from the ranging points used for detecting the object.
The object detection program according to claim 6 .
前記自車両の周囲の前記空間における前記面検知センサおよび前記検知面の配置関係に基づいて、前記高精度面を取得する処理をさらに含む、
請求項6または7に記載の物体検知プログラム。
further comprising a process of acquiring the high-precision surface based on the arrangement relationship of the surface detection sensor and the detection surface in the space around the own vehicle;
The object detection program according to claim 6 or 7 .
前記物体を検知する前記処理は、前記面検知センサが正常作動時に検知した前記検知面に基づいて、前記物体の検知に用いる前記測距点を選択する処理を含む、
請求項6~8のいずれか1つに記載の物体検知プログラム。
The process of detecting the object includes a process of selecting the ranging point used for detecting the object based on the detection surface detected by the surface detection sensor during normal operation.
The object detection program according to any one of claims 6 to 8 .
前記検知面を取得する前記処理は、前記面検知センサを用いて取得された、前記物体面上の複数の検知点(Pd)の、集合状態に基づいて、前記検知面を取得する処理を含む、
請求項6~9のいずれか1つに記載の物体検知プログラム。
The process of acquiring the detection plane includes a process of acquiring the detection plane based on a collective state of a plurality of detection points (Pd) on the object plane acquired using the surface detection sensor. ,
The object detection program according to any one of claims 6 to 9 .
JP2020175974A 2020-10-20 2020-10-20 Object detection device and object detection program Active JP7452374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020175974A JP7452374B2 (en) 2020-10-20 2020-10-20 Object detection device and object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020175974A JP7452374B2 (en) 2020-10-20 2020-10-20 Object detection device and object detection program

Publications (2)

Publication Number Publication Date
JP2022067324A JP2022067324A (en) 2022-05-06
JP7452374B2 true JP7452374B2 (en) 2024-03-19

Family

ID=81390485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020175974A Active JP7452374B2 (en) 2020-10-20 2020-10-20 Object detection device and object detection program

Country Status (1)

Country Link
JP (1) JP7452374B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (en) 2009-04-23 2010-11-11 Canon Inc Imaging apparatus and method for controlling the same
JP2015212942A (en) 2014-04-25 2015-11-26 グーグル インコーポレイテッド Methods and systems for object detection using laser point clouds
JP2016085694A (en) 2014-10-28 2016-05-19 キヤノン株式会社 Image processing device, control method of the same, and program
WO2018159289A1 (en) 2017-02-28 2018-09-07 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device, distance measurement method, and distance measurement system
JP2018200273A (en) 2017-05-29 2018-12-20 株式会社デンソー Distance measurement sensor
JP2019526056A (en) 2016-05-18 2019-09-12 オキーフェ, ジェームスO’KEEFEE, James Dynamic steered LIDAR adapted to the shape of the vehicle
WO2020100922A1 (en) 2018-11-13 2020-05-22 ソニーセミコンダクタソリューションズ株式会社 Data distribution system, sensor device, and server
WO2020170680A1 (en) 2019-02-18 2020-08-27 株式会社小糸製作所 Dirt detection system, lidar unit, sensing system for vehicle, and vehicle
JP2020527500A (en) 2017-07-06 2020-09-10 華為技術有限公司Huawei Technologies Co.,Ltd. Methods and equipment for calibrating external parameters of onboard sensors

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010256138A (en) 2009-04-23 2010-11-11 Canon Inc Imaging apparatus and method for controlling the same
JP2015212942A (en) 2014-04-25 2015-11-26 グーグル インコーポレイテッド Methods and systems for object detection using laser point clouds
JP2016085694A (en) 2014-10-28 2016-05-19 キヤノン株式会社 Image processing device, control method of the same, and program
JP2019526056A (en) 2016-05-18 2019-09-12 オキーフェ, ジェームスO’KEEFEE, James Dynamic steered LIDAR adapted to the shape of the vehicle
WO2018159289A1 (en) 2017-02-28 2018-09-07 ソニーセミコンダクタソリューションズ株式会社 Distance measurement device, distance measurement method, and distance measurement system
JP2018200273A (en) 2017-05-29 2018-12-20 株式会社デンソー Distance measurement sensor
JP2020527500A (en) 2017-07-06 2020-09-10 華為技術有限公司Huawei Technologies Co.,Ltd. Methods and equipment for calibrating external parameters of onboard sensors
WO2020100922A1 (en) 2018-11-13 2020-05-22 ソニーセミコンダクタソリューションズ株式会社 Data distribution system, sensor device, and server
WO2020170680A1 (en) 2019-02-18 2020-08-27 株式会社小糸製作所 Dirt detection system, lidar unit, sensing system for vehicle, and vehicle

Also Published As

Publication number Publication date
JP2022067324A (en) 2022-05-06

Similar Documents

Publication Publication Date Title
US10466714B2 (en) Depth map estimation with stereo images
EP3470789A1 (en) Autonomous driving support apparatus and method
JP6942712B2 (en) Detection of partially obstructed objects using context and depth order
US9714034B2 (en) Vehicle control device
CN110867132B (en) Environment sensing method, device, electronic equipment and computer readable storage medium
US20150154458A1 (en) Lane change determining apparatus, junction entry determining apparatus and method thereof
US10302754B1 (en) Object recognition device
CN110979317A (en) Fixed camera positioning
US20180114436A1 (en) Lidar and vision vehicle sensing
CN112046481B (en) Automatic driving device and method
US12085403B2 (en) Vehicle localisation
CN111806421A (en) Vehicle attitude determination system and method
JP7452374B2 (en) Object detection device and object detection program
US20240312059A1 (en) Robust lidar-to-camera sensor alignment
JP2021043164A (en) Object detector and object detection method
JP2021135191A (en) Object detection device
CN116295490A (en) Vehicle positioning method and device, electronic equipment and storage medium
US20230025940A1 (en) Apparatus for estimating obstacle shape and method thereof
US20240312058A1 (en) Robust lidar-to-camera sensor alignment
JP7236556B2 (en) Object detection device and object detection program
JP7334572B2 (en) Object detection device and object detection program
EP4336466A2 (en) Method and apparatus for modeling object, storage medium, and vehicle control method
US20240199003A1 (en) Parking control device and method thereof
JP7322576B2 (en) Information processing device, imaging device, and moving object
KR20230018591A (en) Method and Apparatus for Vehicle Driving Control by Using Sensor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7452374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150