[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2015191437A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2015191437A
JP2015191437A JP2014068060A JP2014068060A JP2015191437A JP 2015191437 A JP2015191437 A JP 2015191437A JP 2014068060 A JP2014068060 A JP 2014068060A JP 2014068060 A JP2014068060 A JP 2014068060A JP 2015191437 A JP2015191437 A JP 2015191437A
Authority
JP
Japan
Prior art keywords
obstacle
host vehicle
vehicle
possibility
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014068060A
Other languages
Japanese (ja)
Inventor
聡 齋藤
Satoshi Saito
聡 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihatsu Motor Co Ltd
Original Assignee
Daihatsu Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihatsu Motor Co Ltd filed Critical Daihatsu Motor Co Ltd
Priority to JP2014068060A priority Critical patent/JP2015191437A/en
Publication of JP2015191437A publication Critical patent/JP2015191437A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of appropriately performing a notification when there is a possibility that an object such as a head and a hand sticking out of an opening constituting a window and a sliding roof may come into contact with an obstacle in the vicinity of a vehicle.SOLUTION: On the assumption that a self vehicle reaches a position of an obstacle 12 in coordinate axes set in a travel direction, when a vertical or horizontal interval H or W between the self vehicle 1 and the obstacle 12 is within a prescribed range, determination means determines a possibility of contact therewith, and notification means performs a notification. This constitution can appropriately perform the notification only when there is a possibility that an object such as the head and the hand sticking out of an opening constituting a window and a sliding roof may come into contact with the obstacle 12 in the vicinity of the own vehicle.

Description

この発明は、自車両に搭載された撮影手段の撮影画像を処理して自車両周辺の障害物を認識する技術に関する。   The present invention relates to a technique for recognizing an obstacle around a host vehicle by processing a captured image of a shooting unit mounted on the host vehicle.

従来、助手席や後部座席に座っている子供等の同乗者が窓やサンルーフから頭や手を出していることに運転者が気付かずに、窓やサンルーフから飛び出している同乗者の頭や手が、ガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識、対向車などの障害物に接触するおそれがあった。このように、窓やサンルーフから飛び出している同乗者の頭や手が自車両周辺の障害物に接触するのを未然に防止するために、次のような技術が提案されている(例えば特許文献1参照)。すなわち、窓やサンルーフを形成する開口部から、同乗者の頭や手などの物体が飛び出していることを検出する検出手段が設けられている。そして、車速等に基づいて走行中であると判断されているときに、窓やサンルーフ等の開口部から物体が飛び出していることが検出手段により検出されると、物体が開口部から車外に飛び出していることが警報音等により運転者に報知される。   Conventionally, the passenger's head or hand jumping out of the window or sunroof without the driver noticing that the passenger, such as a child sitting in the passenger seat or rear seat, has put his head or hand out of the window or sunroof. However, there was a risk of contact with obstacles such as guards (viaducts, overpasses), tunnels, utility poles / telegraph poles, road signs, and oncoming vehicles. As described above, in order to prevent the passenger's head or hand jumping out of the window or sunroof from coming into contact with an obstacle around the host vehicle, the following techniques have been proposed (for example, Patent Documents). 1). That is, there is provided detection means for detecting that an object such as a passenger's head or hand is protruding from an opening forming a window or sunroof. Then, when it is determined that the vehicle is traveling based on the vehicle speed or the like, if the detection means detects that the object is popping out from the opening such as a window or sunroof, the object pops out of the vehicle from the opening. The driver is notified by an alarm sound or the like.

実公平7−46571号公報(第1頁〜第3頁、第1図〜第4図)Japanese Utility Model Publication No. 7-46571 (pages 1 to 3, FIGS. 1 to 4)

上記した従来の装置では、走行中に窓やサンルーフ等の開口部から物体が飛び出していると必ず警報音等による報知が実行されるため、次のような問題が生じる。すなわち、a)道路環境が複雑な場合での周辺確認にて顔を窓等の開口部から車外に出している場合、b)狭い道路を通り抜ける際の、自車両と路側の溝との距離確認のために窓等の開口部から顔を車外に出している場合、c)縦列駐車や車庫入れの際のバック走行時に窓等の開口部から車外に顔を出している場合、などの状況においても警報音等による報知が行われるため運転者が煩わしさを感じるおそれがある。   In the above-described conventional apparatus, when an object is popping out from an opening such as a window or a sunroof during traveling, a notification by an alarm sound or the like is always executed, which causes the following problem. That is, a) When the surrounding environment is complex when the road environment is complicated, the face is exposed to the outside from the opening such as a window, etc. b) The distance confirmation between the own vehicle and the roadside groove when passing through a narrow road C) When the face is out of the vehicle through the opening of the window, etc. c) In the situation where the face is out of the vehicle through the opening of the window or the like when traveling in parallel parking or entering the garage In addition, the driver may feel annoyance because the alarm sound or the like is notified.

本発明は、窓やサンルーフを形成する開口部から飛び出している頭や手などの物体が自車両周辺の障害物と接触する可能性がある場合にのみ適切に報知を行うことができる技術を提供することを目的とする。   The present invention provides a technique capable of appropriately notifying only when an object such as a head or a hand protruding from an opening forming a window or a sunroof may come into contact with an obstacle around the host vehicle. The purpose is to do.

上記した目的を達成するために、本発明の運転支援装置は、自車両に搭載された撮影手段による前記自車両周辺の撮影画像を取得する取得手段と、それぞれ撮影角度が異なる複数の撮影画像それぞれに含まれた障害物を認識する認識手段と、前記認識手段により認識された前記各撮影画像中での前記障害物の位置に基づいて前記障害物の前記自車両からの相対位置および相対距離を算出する算出手段と、前記自車両の窓またはサンルーフを形成する開口部から物体が飛び出しているか否かを検出する検出手段と、前記検出手段により前記物体が検出されている場合に、前記算出手段により算出された前記相対位置および前記相対距離に基づいて、前記物体と前記障害物との接触可能性を判断する判断手段と、前記判断手段により前記接触可能性があると判断された場合に報知する報知手段とを備え、前記判断手段は、前記自車両が進行方向に設定された座標軸における前記障害物の位置に到達したと仮定したときの前記自車両と前記障害物との垂直方向または水平方向の間隔が、所定値以内であるときに前記接触可能性があると判断することを特徴としている(請求項1)。   In order to achieve the above-described object, the driving support device of the present invention includes an acquisition unit that acquires a captured image around the host vehicle by a shooting unit mounted on the host vehicle, and a plurality of captured images each having a different shooting angle. Recognizing means for recognizing an obstacle included in the vehicle, and determining a relative position and a relative distance of the obstacle from the host vehicle based on the position of the obstacle in the captured images recognized by the recognizing means. A calculating means for calculating; a detecting means for detecting whether or not an object is protruding from an opening forming a window or sunroof of the own vehicle; and the calculating means when the detecting means detects the object. Determining means for determining the possibility of contact between the object and the obstacle based on the relative position and the relative distance calculated by the step, and the contact by the determining means An informing means for informing when it is determined that the own vehicle has reached the position of the obstacle on the coordinate axis set in the traveling direction; and It is characterized in that the possibility of contact is determined when a vertical or horizontal interval with the obstacle is within a predetermined value (Claim 1).

また、前記取得手段は、前記撮影手段である単眼カメラによる複数の時系列的な前記撮影画像を取得し、前記認識手段は、前記取得手段により取得された前記各撮影画像それぞれに含まれた前記障害物を認識し、前記算出手段は、前記認識手段により認識された前記各撮影画像中での前記障害物の時系列的な動きと、前記自車両の動きとに基づいて、前記相対位置および前記相対距離を算出するようにしてもよい(請求項2)。   Further, the acquisition unit acquires a plurality of time-series captured images obtained by a monocular camera as the imaging unit, and the recognition unit includes the respective captured images acquired by the acquisition unit. Recognizing an obstacle, the calculating means is configured to determine the relative position and the relative position based on the time-series movement of the obstacle in the captured images recognized by the recognition means and the movement of the host vehicle. The relative distance may be calculated (claim 2).

また、前記判断手段は、前記相対距離と車速とに基づいて算出される前記自車両が前記障害物に到達する時間が所定時間以内であるときに、前記接触可能性があると判断するようにしてもよい(請求項3)。   Further, the determination means determines that there is a possibility of contact when the time for the host vehicle to reach the obstacle calculated based on the relative distance and the vehicle speed is within a predetermined time. (Claim 3).

請求項1に記載の発明によれば、自車両に搭載された撮影手段による自車両周辺の撮影画像が取得手段により取得され、それぞれ撮影角度が異なる複数の撮影画像それぞれに含まれた障害物が認識手段により認識される。また、認識手段により認識された各撮影画像中での障害物の位置に基づいて障害物の自車両からの相対位置および相対距離が算出手段により算出される。また、自車両の窓またはサンルーフを形成する開口部から物体が飛び出しているか否かが検出手段により検出され、検出手段により物体が検出されている場合に、算出手段により算出された相対位置および相対距離に基づいて、物体と障害物との接触可能性が判断手段により判断される。   According to the first aspect of the present invention, a captured image around the host vehicle by the shooting unit mounted on the host vehicle is acquired by the acquiring unit, and obstacles included in each of the plurality of captured images having different shooting angles are provided. Recognized by recognition means. The relative position and relative distance of the obstacle from the host vehicle are calculated by the calculation means based on the position of the obstacle in each captured image recognized by the recognition means. In addition, when the detection unit detects whether or not an object has protruded from the opening of the vehicle's window or sunroof, and the detection unit detects the object, the relative position and relative value calculated by the calculation unit are detected. Based on the distance, the possibility of contact between the object and the obstacle is determined by the determining means.

このとき、自車両が進行方向に設定された座標軸における障害物の位置に到達したと仮定したときの自車両と障害物との垂直方向または水平方向の間隔が、所定値以内であるときに接触可能性があると判断手段により判断される。そして、判断手段により接触可能性があると判断された場合に報知手段による報知が実行される。したがって、窓やサンルーフを形成する開口部から飛び出している頭や手などの物体が自車両周辺の障害物と接触する可能性がある場合にのみ適切に報知を行うことができる。   At this time, contact is made when the vertical or horizontal distance between the host vehicle and the obstacle is within a predetermined value, assuming that the host vehicle has reached the position of the obstacle on the coordinate axis set in the traveling direction. The determination means determines that there is a possibility. When the determination unit determines that there is a possibility of contact, the notification unit performs notification. Therefore, it is possible to appropriately notify only when there is a possibility that an object such as a head or a hand protruding from an opening forming a window or sunroof may come into contact with an obstacle around the host vehicle.

請求項2に記載の発明によれば、撮影手段である単眼カメラによる複数の時系列的な撮影画像が取得手段により取得され、取得手段により取得された各撮影画像それぞれに含まれた障害物が認識手段により認識される。そして、認識手段により認識された各撮影画像中での障害物の時系列的な動きと、自車両(撮影位置)の動きとに基づいて、自車両から見た障害物の相対位置および相対距離が算出手段により算出される。したがって、複数台のカメラや高価なステレオカメラにより撮影手段を構成しなくても、安価な単眼カメラを用いて、所謂、モーションステレオ法により、障害物の自車両からの相対位置および相対距離を算出することができる。   According to the second aspect of the present invention, a plurality of time-series photographed images obtained by the monocular camera as the photographing means are obtained by the obtaining means, and the obstacle included in each of the photographed images obtained by the obtaining means is obtained. Recognized by recognition means. Then, based on the time-series movement of the obstacle in each captured image recognized by the recognition means and the movement of the own vehicle (shooting position), the relative position and the relative distance of the obstacle viewed from the own vehicle. Is calculated by the calculating means. Therefore, it is possible to calculate the relative position and distance of an obstacle from the host vehicle by the so-called motion stereo method using an inexpensive monocular camera without using multiple cameras or an expensive stereo camera. can do.

請求項3の発明によれば、請求項1の記載された条件に加えて、相対距離と車速とに基づいて算出される自車両が障害物に到達する時間が所定時間以内であるときに、窓やサンルーフなどの開口部から飛び出している頭や手などの物体と自車両周辺の障害物との接触可能性があると判断手段により判断される。したがって、開口部から飛び出している頭や手などの物体が自車両周辺の障害物と接触する可能性がより大きい場合にのみ適切に報知を行うことができる。   According to the invention of claim 3, in addition to the conditions described in claim 1, when the time for the host vehicle to reach the obstacle calculated based on the relative distance and the vehicle speed is within a predetermined time, It is determined by the determining means that there is a possibility of contact between an object such as a head or hand protruding from an opening such as a window or sunroof and an obstacle around the host vehicle. Therefore, it is possible to appropriately notify only when an object such as a head or a hand protruding from the opening is more likely to contact an obstacle around the host vehicle.

本発明の運転支援装置の一実施形態のブロック図である。It is a block diagram of one embodiment of a driving support device of the present invention. 撮影画像の一例を示す図である。It is a figure which shows an example of a picked-up image. 図2の撮影画像中に含まれる障害物に窓やサンルーフ等の開口部から飛び出している物体が衝突する可能性があるか否かを判断する方法を説明するための図である。It is a figure for demonstrating the method to judge whether the object which protrudes from the opening parts, such as a window and a sunroof, may collide with the obstruction contained in the picked-up image of FIG. 図1の動作説明用のフローチャートである。It is a flowchart for operation | movement description of FIG.

本発明の一実施形態について、図1〜図4を参照して説明する。   An embodiment of the present invention will be described with reference to FIGS.

図1は本発明の運転支援装置の一実施形態のブロック図、図2は撮影画像の一例を示す図である。また、図3は図2の撮影画像中に含まれる障害物に窓やサンルーフ等の開口部から飛び出している物体が衝突する可能性があるか否かを判断する方法を説明するための図、図4は図1の動作説明用のフローチャートである。なお、図3は図2に示す撮影画像の状況を模式的に表した図面である。   FIG. 1 is a block diagram of an embodiment of the driving support apparatus of the present invention, and FIG. 2 is a diagram showing an example of a captured image. 3 is a diagram for explaining a method for determining whether or not there is a possibility that an object protruding from an opening such as a window or a sunroof collides with an obstacle included in the captured image of FIG. FIG. 4 is a flowchart for explaining the operation of FIG. FIG. 3 is a diagram schematically showing the situation of the captured image shown in FIG.

1.構成
図1に示す運転支援装置2は、自車両1に搭載されて自車両1の周辺を撮影する単眼カメラ3(本発明の「撮影手段」に相当)の撮影画像IMGを処理して自車両1周辺の障害物12(例えば図2に示すトンネルや道路標識)を認識するものである。そして、運転支援装置2は、自車両1が走行中に、窓やサンルーフを形成する開口部から子供等の同乗者の頭や手、ペットの頭などの物体が飛び出している場合に、開口部から飛び出している物体が自車両1周辺の障害物12と接触する可能性があるときに警報音やモニタ表示等の報知を運転者に対して行う。
1. Configuration The driving support apparatus 2 shown in FIG. 1 processes a captured image IMG of a monocular camera 3 (corresponding to the “photographing means” of the present invention) mounted on the host vehicle 1 and shooting the periphery of the host vehicle 1. 1 to recognize obstacles 12 around the road (for example, a tunnel or a road sign shown in FIG. 2). The driving support device 2 has an opening portion when an object such as a child's head or hand, a pet's head, or the like protrudes from an opening portion that forms a window or a sunroof while the host vehicle 1 is traveling. When there is a possibility that an object protruding from the vehicle will come into contact with the obstacle 12 around the host vehicle 1, a warning sound, a monitor display, etc. are notified to the driver.

運転支援装置2は、単眼カメラ3と、舵角センサ4と、車速センサ5と、開口度センサ6と、物体センサ7と、単眼カメラ3による撮影画像IMGや各センサ4〜7により取得される種々のデータを記憶する記憶手段8と、単眼カメラ3の撮影画像IMGを処理して各センサ4〜7からの出力に基づいて衝突可能性を判断するマイクロコンピュータ構成のECU9と、例えばインストルメントパネルなどに取付けられたCRT、液晶ディスプレイなどの走行モニタ10(本発明の「報知手段」に相当)と、警報用のスピーカ11(本発明の「報知手段」に相当)とを備えている。   The driving support device 2 is acquired by the monocular camera 3, the steering angle sensor 4, the vehicle speed sensor 5, the opening degree sensor 6, the object sensor 7, the captured image IMG by the monocular camera 3, and the sensors 4-7. Storage means 8 for storing various data, ECU 9 having a microcomputer configuration for processing the captured image IMG of the monocular camera 3 and determining the possibility of collision based on outputs from the sensors 4 to 7, for example, an instrument panel And a travel monitor 10 (corresponding to “notification means” of the present invention) such as a CRT and a liquid crystal display, and a warning speaker 11 (corresponding to “notification means” of the present invention).

単眼カメラ3は、この実施形態では自車両1の前方を撮影が可能なモノクロあるいはカラー撮影が可能なカメラから成り、一定時間(例えば30ms)毎に連続的に時々刻々と撮影した撮影画像IMGの信号を出力する(図2参照)。また、この実施形態で、自車両1の前方のできるだけ広い範囲を撮影することができるように、単眼カメラ3は、広角カメラまたは魚眼カメラにより形成されている。   In this embodiment, the monocular camera 3 is composed of a monochrome or color camera capable of photographing the front of the host vehicle 1, and is a captured image IMG continuously and momentarily photographed every predetermined time (for example, 30 ms). A signal is output (see FIG. 2). In this embodiment, the monocular camera 3 is formed by a wide-angle camera or a fish-eye camera so that the widest possible range in front of the host vehicle 1 can be photographed.

舵角センサ4は、ハンドルの舵角を検出し、検出した舵角に関するデータをECU9に出力する。車速センサ5は、車速を検出し、検出した車速に関するデータをECU9に出力する。開口度センサ6は、自車両1の窓やサンルーフを形成する開口部(図示省略)が開放されているか否かを検出し、開口部の開放度に関するデータをECU9に出力する。   The steering angle sensor 4 detects the steering angle of the steering wheel, and outputs data relating to the detected steering angle to the ECU 9. The vehicle speed sensor 5 detects the vehicle speed and outputs data relating to the detected vehicle speed to the ECU 9. The opening degree sensor 6 detects whether or not an opening (not shown) that forms a window or sunroof of the host vehicle 1 is opened, and outputs data relating to the opening degree of the opening to the ECU 9.

物体センサ7(本発明の「検出手段」に相当)は、窓やサンルーフ等の開口部から、子供等の同乗者の頭や手、ペットの頭などの物体(図示省略)が飛び出しているか否かを検出する。例えば、開口部の一側の端縁に配置された投光部と、他側の端縁に配置されて投光部の光を受光する受光部とにより形成される光遮断型の光学的なセンサにより物体センサ7を形成することができる。このようにすると、開口部から物体が飛び出している場合に、受光部に投光される投光部の光が遮断されるので、物体センサ7は、開口部から物体が飛び出しているか否かを検出することができる。なお、サイドミラーに配置された自車両1の側方の監視用の単眼カメラや、窓やサンルーフ等の開口部付近に配置された超音波センサなどにより物体センサ7が構成されていてもよい。   The object sensor 7 (corresponding to the “detecting means” of the present invention) is whether or not an object (not shown) such as a child's passenger's head, hand, or pet's head protrudes from an opening such as a window or sunroof. To detect. For example, a light-blocking optical unit formed by a light projecting unit disposed at one end edge of the opening and a light receiving unit disposed at the other end edge to receive light from the light projecting unit. The object sensor 7 can be formed by the sensor. In this way, when the object is projected from the opening, the light of the light projecting unit that is projected to the light receiving unit is blocked. Therefore, the object sensor 7 determines whether or not the object is projected from the opening. Can be detected. Note that the object sensor 7 may be configured by a monocular camera for monitoring the side of the host vehicle 1 disposed on the side mirror, an ultrasonic sensor disposed near an opening of a window, a sunroof, or the like.

記憶手段4は、単眼カメラ3から時々刻々と出力される撮影画像IMGの画像データや、各撮影画像IMGに対してECU9により種々の処理が施されることにより得られた各種データ、各センサ4〜7から出力される各種のデータを格納する。   The storage unit 4 stores image data of the captured image IMG output from the monocular camera 3 every moment, various data obtained by performing various processes on the captured images IMG by the ECU 9, and the sensors 4. Store various data output from .about.7.

ECU9は、例えばイグニッションキーのオンにより、予め設定された運転支援のためのプログラムを実行することにより以下の各手段を備えている。   The ECU 9 includes the following units by, for example, executing a preset driving support program when the ignition key is turned on.

(1)取得手段9a
取得手段9aは、単眼カメラ3により時々刻々と撮影されて記憶手段8に格納された時系列的な撮影画像IMGの画像データを取得する。なお、図2は、自車両1の前部に配置された単眼カメラ3により撮影された自車両1の前方の撮影画像IMGを示している。また、単眼カメラ3により時系列に撮影された撮影画像IMGに関する種々のデータは記憶手段8に記憶される。
(1) Acquisition means 9a
The acquisition unit 9 a acquires image data of a time-series captured image IMG that is captured every moment by the monocular camera 3 and stored in the storage unit 8. FIG. 2 shows a captured image IMG in front of the host vehicle 1 captured by the monocular camera 3 disposed in the front of the host vehicle 1. Various data related to the captured image IMG captured in time series by the monocular camera 3 is stored in the storage unit 8.

(2)認識手段9b
認識手段9bは、取得手段9aにより取得された各撮影画像IMGに含まれるガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識、縁石、ポール、壁等の静止物体である障害物12をパターンマッチングにより認識する。なお、認識手段9bによるパターンマッチングにより撮影画像IMG中の障害物12を認識するための、ガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識、縁石、ポール、壁などのテンプレート画像は記憶手段8に記憶されている。図2に示す例では、自車両1の前方にトンネルが存在し、自車両1の右前方に道路標識が存在しており、自車両1の前方の撮影画像IMGに含まれるトンネルの開口部分と道路標識とがパターンマッチングにより障害物12として認識手段9bにより認識される。また、認識手段9bにより認識された障害物12に関するデータは記憶手段8に記憶される。
(2) Recognizing means 9b
The recognizing means 9b is a fault which is a stationary object such as a guard (bypass, overpass), tunnel, utility pole / telegraph pole, road sign, curb, pole, wall, etc. included in each captured image IMG acquired by the acquiring means 9a. The object 12 is recognized by pattern matching. Templates such as guards (viaducts, overpasses), tunnels, utility poles / telegraph poles, road signs, curbs, poles, walls, etc. for recognizing the obstacles 12 in the captured image IMG by pattern matching by the recognition means 9b. The image is stored in the storage unit 8. In the example shown in FIG. 2, a tunnel exists in front of the host vehicle 1, a road sign exists in front of the host vehicle 1, and an opening portion of the tunnel included in the captured image IMG in front of the host vehicle 1 The road sign is recognized by the recognition means 9b as an obstacle 12 by pattern matching. Data relating to the obstacle 12 recognized by the recognition means 9b is stored in the storage means 8.

なお、認識手段9bによるパターン認識の手法としては、上記したパターンマッチングによる手法に限らず、濃淡ヒストグラムによる手法やエッジ検出による手法など、その輪郭線を検出することにより障害物12を認識することができる手法であれば、どのような手法を採用してもよい。また、この実施形態では、静止物体である障害物12を認識手段9bによる障害物認識の対象としているが、対向車等の他車両などの移動物体を認識手段9bによる障害物認識の対象としてももちろんよい。   Note that the pattern recognition method by the recognition means 9b is not limited to the pattern matching method described above, and the obstacle 12 can be recognized by detecting its contour line, such as a method using a density histogram or a method using edge detection. Any method may be adopted as long as it can be performed. In this embodiment, the obstacle 12 that is a stationary object is a target for obstacle recognition by the recognition unit 9b. However, a moving object such as an oncoming vehicle or the like may be a target for obstacle recognition by the recognition unit 9b. Of course.

(3)算出手段9c
算出手段9cは、認識手段9bにより認識されたそれぞれ撮影角度が異なる複数の撮影画像IMG中での障害物12の位置に基づいて、障害物12の自車両1からの相対位置および相対距離を算出する。具体的には、この実施形態では、算出手段9cは、認識手段9bにより認識された時系列的な複数の撮影画像IMG中での障害物12の時系列的な動きの変化と、舵角センサ4および車速センサ5の出力に基づいて算出される各撮影画像IMGの撮影間における自車両1の動き(撮影位置)の変化とに基づいて、所謂、モーションステレオ法により障害物12の自車両1から見た相対位置および相対距離を算出する。
(3) Calculation means 9c
The calculating unit 9c calculates the relative position and the relative distance of the obstacle 12 from the host vehicle 1 based on the positions of the obstacle 12 in the plurality of captured images IMG recognized by the recognition unit 9b and having different shooting angles. To do. Specifically, in this embodiment, the calculation unit 9c includes a change in time-series movement of the obstacle 12 in the plurality of time-series captured images IMG recognized by the recognition unit 9b, and a steering angle sensor. 4 and the change of the movement (shooting position) of the host vehicle 1 between the shots of the shot images IMG calculated based on the outputs of the vehicle speed sensor 5, the host vehicle 1 of the obstacle 12 by the so-called motion stereo method. The relative position and relative distance seen from the above are calculated.

(4)判断手段9d
判断手段9dは、算出手段9cによる算出結果に基づいて、窓やサンルーフ等の開口部から飛び出している物体と障害物12との接触可能性を判断する。具体的には、図3に示すように、判断手段9dは、算出手段9cにより算出された自車両1と各障害物12との相対距離と、車速センサ5により検出された車速とに基づいて算出される自車両1が各障害物12に到達する時間T1,T2が所定時間以内(例えば3秒以内)であるときに、窓やサンルーフ等の開口部から子供等の同乗者の頭や手などの物体が飛び出していれば、物体と障害物12とが接触する可能性があると判断する。
(4) Determination means 9d
The determination unit 9d determines the possibility of contact between the obstacle 12 and an object protruding from an opening such as a window or a sunroof, based on the calculation result by the calculation unit 9c. Specifically, as shown in FIG. 3, the determination means 9 d is based on the relative distance between the host vehicle 1 and each obstacle 12 calculated by the calculation means 9 c and the vehicle speed detected by the vehicle speed sensor 5. When the calculated times T1 and T2 for the host vehicle 1 to reach each obstacle 12 are within a predetermined time (for example, within 3 seconds), the head or hand of a passenger such as a child from an opening such as a window or a sunroof If an object such as the above has popped out, it is determined that there is a possibility that the object and the obstacle 12 are in contact with each other.

したがって、判断手段9dは、各障害物12に到達する時間T1,T2が所定時間以内であれば、開口度センサ6の出力に基づいて、窓やサンルーフ等の開口部が開放されているか否かを判断する。また、判断手段9dは、前記開口部が開放されている場合に、物体センサ7の出力に基づいて、窓やサンルーフ等の開口部から物体が飛び出しているか否かを判断する。   Therefore, the determination means 9d determines whether or not the openings such as windows and sunroofs are opened based on the output of the opening degree sensor 6 if the times T1 and T2 to reach each obstacle 12 are within a predetermined time. Judging. Further, the determination unit 9d determines whether or not an object is protruding from an opening such as a window or a sunroof based on the output of the object sensor 7 when the opening is open.

また、図3に示すように、判断手段9dは、窓やサンルーフ等の開口部から物体が飛び出していれば、自車両1が進行方向に設定された座標軸における各障害物12(同図中の点線で囲まれた領域)の位置(同図中に点線で示された自車両1の位置)に到達したと仮定したときの自車両1と各障害物12との垂直方向の間隔Hおよび水平方向の間隔Wを算出する。そして、判断手段9dは、自車両1と各障害物12との垂直方向の間隔H(例:トンネルの天井と自車両1との間隔)、または、自車両1と各障害物12との水平方向の間隔W(例:右側に存在する道路標識と自車両1との間隔、トンネルの両側の壁面と自車両1との間隔)が、所定値以内(例えば50cm)であるときに、開口部から飛び出している物体と障害物12とが接触可能性があると判断する。   Also, as shown in FIG. 3, the judging means 9d can detect each obstacle 12 on the coordinate axis in which the host vehicle 1 is set in the traveling direction (in the figure, if an object is popping out from an opening such as a window or a sunroof). The vertical distance H between the host vehicle 1 and each obstacle 12 and the horizontal position when it is assumed that the position (the area surrounded by the dotted line) has reached the position (the position of the host vehicle 1 indicated by the dotted line in the figure) The direction interval W is calculated. The determination means 9d then determines the vertical distance H between the host vehicle 1 and each obstacle 12 (e.g., the distance between the ceiling of the tunnel and the host vehicle 1) or the horizontal distance between the host vehicle 1 and each obstacle 12. When the distance W in the direction (e.g., the distance between the road sign on the right side and the own vehicle 1, the distance between the wall surface on both sides of the tunnel and the own vehicle 1) is within a predetermined value (for example, 50 cm), the opening It is determined that there is a possibility of contact between the object protruding from the obstacle and the obstacle 12.

(5)報知手段9e
報知手段9eは、判断手段9dにより接触可能性があると判断された場合に、例えば走行モニタ10に表示中のカーナビゲーション用の地図に警告表示を重畳して表示したりして、接触する可能性のある障害物12の存在を視覚的にドライバに報知する。また、スピーカ11から、判断手段9dの判断結果の音声メッセージ、警告音を発生して接触可能性の存在を聴覚的にドライバに報知する。これらの視覚的または聴覚的なドライバに対する報知により、ドライバの運転支援を行う。
(5) Notification means 9e
When the determination unit 9d determines that there is a possibility of contact, the notification unit 9e can contact the vehicle by displaying a warning display superimposed on the car navigation map being displayed on the travel monitor 10, for example. The presence of the sexual obstacle 12 is visually notified to the driver. In addition, the speaker 11 generates a voice message and a warning sound as a result of determination by the determination unit 9d to audibly notify the driver of the possibility of contact. The driver's driving assistance is performed by the visual or auditory notification to the driver.

2.動作
次に、上記したように構成された運転支援装置2の動作について図4を参照して説明する。なお、この実施形態では、図2および図3に示すように、自車両1が走行している状態を例に挙げて説明する。
2. Operation Next, the operation of the driving support apparatus 2 configured as described above will be described with reference to FIG. In this embodiment, as shown in FIG. 2 and FIG. 3, the state in which the host vehicle 1 is traveling will be described as an example.

まず、自車両1のイグニッションキーのオンにより単眼カメラ3による一定時間毎の撮影が開始されると、図2示すような、単眼カメラ3による自車両1前方の撮影画像IMGの信号がECU9に取得手段9aにより取込まれる(ステップS1)。そして、取込まれた撮影画像IMG中の障害物12が認識手段9bにより認識される(ステップS2)。   First, when the monocular camera 3 starts shooting every certain time by turning on the ignition key of the host vehicle 1, a signal of the captured image IMG in front of the host vehicle 1 by the monocular camera 3 as shown in FIG. It is taken in by means 9a (step S1). The obstacle 12 in the captured captured image IMG is recognized by the recognition unit 9b (step S2).

続いて、認識手段9bにより認識された障害物12のデータが記憶手段8に登録される(ステップS3)。そして、今回の撮影画像IMG中に認識手段9bにより認識された障害物12と同一の障害物が、以前の撮影画像中IMG中に含まれているか否かが、記憶手段8に記憶された障害物12に関するデータに基づいて算出手段9cにより判断される(ステップS4)。同一の障害物12が含まれていなければ(ステップS4でNO)、ステップS1の処理に戻って処理を繰り返し実行する。   Subsequently, the data of the obstacle 12 recognized by the recognition unit 9b is registered in the storage unit 8 (step S3). Then, the obstacle stored in the storage unit 8 indicates whether or not the same obstacle 12 recognized by the recognition unit 9b in the current captured image IMG is included in the previous captured image IMG. The calculation means 9c determines based on the data related to the object 12 (step S4). If the same obstacle 12 is not included (NO in step S4), the process returns to step S1 and the process is repeatedly executed.

一方、同一の障害物12が含まれていれば(ステップS4でYES)、モーションステレオ法により、自車両1から見た障害物12の相対位置および相対距離が算出手段9cにより算出され、算出された相対位置および相対距離に基づいて障害物12の高さが算出手段9cにより算出される(ステップS5)。続いて、車速センサ5により検出された車速に基づいて、障害物12に到達する時間T1,T2が判断手段9dにより算出される(ステップS6)。   On the other hand, if the same obstacle 12 is included (YES in step S4), the relative position and the relative distance of the obstacle 12 viewed from the host vehicle 1 are calculated and calculated by the calculation means 9c by the motion stereo method. Based on the relative position and the relative distance, the height of the obstacle 12 is calculated by the calculating means 9c (step S5). Subsequently, based on the vehicle speed detected by the vehicle speed sensor 5, times T1 and T2 for reaching the obstacle 12 are calculated by the determination means 9d (step S6).

次に、算出された到達時間T1,T2が所定時間以内であるか否かが判断手段9dにより判断され(ステップS7)、到達時間T1,T2が所定時間を超えていれば(ステップS7でNO)、ステップS1の処理に戻って処理を繰り返し実行する。一方、到達時間T1,T2が所定時間以内であれば(ステップS7でYES)、開口度センサ6の出力に基づいて窓やサンルーフ等の開口部が開放されているか否かが判断手段9dにより判断される(ステップS8)。   Next, whether or not the calculated arrival times T1 and T2 are within a predetermined time is determined by the determination means 9d (step S7). If the arrival times T1 and T2 exceed the predetermined time (NO in step S7). ), Returning to the process of step S1, the process is repeatedly executed. On the other hand, if the arrival times T1 and T2 are within a predetermined time (YES in step S7), it is determined by the determination means 9d based on the output of the opening degree sensor 6 whether or not an opening such as a window or a sunroof is opened. (Step S8).

窓やサンルーフ等の開口部が開放されていなければ(ステップS8でNO)、ステップS1の処理に戻って処理を繰り返し実行し、開放されていれば(ステップS8でYES)、物体センサ7の出力に基づいて、開口部から物体が飛び出しているか否かが判断手段9dにより判断される(ステップS9)。開口部から物体が飛び出していなければ(ステップS9でNO)、ステップS1の処理に戻って処理を繰り返し実行する。開口部から物体が飛び出していれば(ステップS9でYES)、障害物12を通り抜けるときの垂直方向または水平方向における自車両1と障害物12との間隔H,Wが所定値以内であるか否かが判断手段9dにより判断される(ステップS10)。   If an opening such as a window or sunroof is not opened (NO in step S8), the process returns to step S1, and the process is repeatedly executed. If opened (YES in step S8), the output of the object sensor 7 is output. Based on the above, it is judged by the judging means 9d whether or not an object is protruding from the opening (step S9). If no object has jumped out of the opening (NO in step S9), the process returns to step S1 and the process is repeatedly executed. If the object has jumped out of the opening (YES in step S9), whether or not the distances H and W between the host vehicle 1 and the obstacle 12 in the vertical direction or the horizontal direction when passing through the obstacle 12 are within a predetermined value. Is determined by the determination means 9d (step S10).

自車両1と障害物12との垂直方向および水平方向の間隔H,Wが共に所定値を超えていれば(ステップS10でNO)、ステップS1に戻って処理を繰り返し実行する。そして、自車両1と障害物12との垂直方向または水平方向の間隔H,Wが所定値以内であれば(ステップS10でYES)、窓またはサンルーフ等の開口部から子供等の同乗者の頭や手が飛び出していることが報知手段9eにより報知されて(ステップS11)、ステップS1に戻って処理を繰り返し実行する。   If both the vertical and horizontal intervals H and W between the host vehicle 1 and the obstacle 12 exceed a predetermined value (NO in step S10), the process returns to step S1 and is repeatedly executed. If the vertical or horizontal distances H and W between the host vehicle 1 and the obstacle 12 are within a predetermined value (YES in step S10), the head of a passenger such as a child can be seen from an opening such as a window or a sunroof. The notification means 9e notifies that the hand is popping out (step S11), and the process returns to step S1 to repeatedly execute the process.

以上のように、この実施形態によれば、自車両1に搭載された単眼カメラ3による自車両1周辺の撮影画像IMGが取得手段9aにより取得され、それぞれ撮影角度が異なる複数の撮影画像IMGそれぞれに含まれた障害物12が認識手段9bにより認識される。また、認識手段9bにより認識された各撮影画像IMG中での障害物12の位置に基づいて障害物12の自車両1からの相対位置および相対距離が算出手段9cにより算出される。また、自車両1の窓またはサンルーフを形成する開口部から同乗者の頭や手などの物体が飛び出しているか否かが物体センサ7により検出され、物体センサ7により物体が検出されている場合に、算出手段9cにより算出された相対位置および相対距離に基づいて、物体と障害物12との接触可能性が判断手段9dにより判断される。   As described above, according to this embodiment, the captured image IMG around the host vehicle 1 by the monocular camera 3 mounted on the host vehicle 1 is acquired by the acquisition unit 9a, and each of the plurality of captured images IMG having different shooting angles is used. Is recognized by the recognition means 9b. Further, the relative position and the relative distance of the obstacle 12 from the host vehicle 1 are calculated by the calculating means 9c based on the position of the obstacle 12 in each captured image IMG recognized by the recognition means 9b. Further, when the object sensor 7 detects whether or not an object such as a passenger's head or hand is protruding from the opening of the vehicle 1 or the sunroof, and the object sensor 7 detects the object. Based on the relative position and relative distance calculated by the calculation means 9c, the possibility of contact between the object and the obstacle 12 is determined by the determination means 9d.

このとき、自車両1が進行方向に設定された座標軸における障害物12の位置に到達したと仮定したときの自車両1と障害物12との垂直方向または水平方向の間隔H,Wが、所定値以内であるときに接触可能性があると判断手段9dにより判断される。そして、判断手段9dにより接触可能性があると判断された場合に報知手段9eによる報知が実行される。したがって、窓やサンルーフを形成する開口部から飛び出している頭や手などの物体が自車両1周辺の障害物12と接触する可能性がある場合にのみ適切に報知を行うことができる。   At this time, vertical and horizontal distances H and W between the host vehicle 1 and the obstacle 12 when the host vehicle 1 is assumed to have reached the position of the obstacle 12 on the coordinate axis set in the traveling direction are predetermined. When it is within the value, it is determined by the determining means 9d that there is a possibility of contact. When the determination unit 9d determines that there is a possibility of contact, notification by the notification unit 9e is executed. Therefore, it is possible to appropriately notify only when there is a possibility that an object such as a head or a hand protruding from an opening forming a window or a sunroof may come into contact with an obstacle 12 around the host vehicle 1.

また、単眼カメラ3による複数の時系列的な撮影画像IMGが取得手段9aにより取得され、取得手段9aにより取得された各撮影画像IMGそれぞれに含まれた障害物12が認識手段9bにより認識される。そして、認識手段9bにより認識された各撮影画像IMG中での障害物12の時系列的な動きと、自車両1(撮影位置)の動きとに基づいて、自車両1から見た障害物12の相対位置および相対距離が算出手段9cにより算出される。したがって、複数台のカメラや高価なステレオカメラにより撮影手段を構成しなくても、安価な単眼カメラ3を用いて、所謂、モーションステレオ法により、障害物12の自車両1からの相対位置および相対距離を算出することができる。   A plurality of time-series captured images IMG obtained by the monocular camera 3 are acquired by the acquisition unit 9a, and the obstacle 12 included in each of the captured images IMG acquired by the acquisition unit 9a is recognized by the recognition unit 9b. . Then, the obstacle 12 viewed from the own vehicle 1 based on the time-series movement of the obstacle 12 in each captured image IMG recognized by the recognition means 9b and the movement of the own vehicle 1 (shooting position). Relative position and relative distance are calculated by the calculating means 9c. Therefore, the relative position and relative position of the obstacle 12 from the host vehicle 1 can be determined by the so-called motion stereo method using an inexpensive monocular camera 3 without using a plurality of cameras or an expensive stereo camera. The distance can be calculated.

また、自車両1と障害物12との垂直方向または水平方向の間隔H,Wについての条件に加えて、相対距離と車速とに基づいて算出される自車両1が障害物12に到達する時間が所定時間以内であるときに、窓やサンルーフなどの開口部から飛び出している頭や手などの物体と自車両1周辺の障害物12とが接触する可能性があると判断手段9dにより判断される。したがって、開口部から飛び出している頭や手などの物体が自車両1周辺の障害物12と接触する可能性がより大きい場合にのみ適切に報知を行うことができる。   Further, in addition to the condition about the vertical or horizontal distances H and W between the host vehicle 1 and the obstacle 12, the time for the host vehicle 1 to reach the obstacle 12 calculated based on the relative distance and the vehicle speed. Is within the predetermined time, it is determined by the determining means 9d that there is a possibility that an object such as a head or a hand protruding from an opening such as a window or sunroof and an obstacle 12 around the host vehicle 1 may come into contact with each other. The Therefore, it is possible to appropriately notify only when an object such as a head or a hand protruding from the opening is more likely to come into contact with the obstacle 12 around the host vehicle 1.

また、障害物12は、ガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識などの静止物体であるので、障害物12の自車両1からの相対位置および相対距離をより精度よく算出することができ、窓やサンルーフ等の開口部から飛び出している物体と自車両1周辺の障害物12との接触可能性をより高精度に判断することができる、実用的な構成の運転支援装置2を提供することができる。   In addition, since the obstacle 12 is a stationary object such as a guard (a viaduct or a bridge), a tunnel, a utility pole / telegraph pole, a road sign, etc., the relative position and relative distance of the obstacle 12 from the host vehicle 1 are more accurate. Driving with a practical configuration that can be calculated well and can determine with high accuracy the possibility of contact between an object protruding from an opening such as a window or sunroof and an obstacle 12 around the host vehicle 1 The support device 2 can be provided.

なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、単眼カメラ3の配置位置は自車両1の前部に限らず、バック走行の際の自車両1の車外に飛び出している物体と障害物12との接触防止を目的として、自車両1の後部に単眼カメラ3が設けられていてもよい。自車両1の側方にも同様の目的で単眼カメラが配置されていてもよい。   It should be noted that the present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit thereof. The monocular camera 3 is provided not only in the front part of the vehicle 1 but also in the rear part of the own vehicle 1 for the purpose of preventing contact between the object 12 protruding out of the vehicle 1 and the obstacle 12 during back travel. Also good. A monocular camera may be disposed on the side of the host vehicle 1 for the same purpose.

また、撮影手段をステレオカメラにより構成して、ステレオカメラにより同時に撮影された複数の撮影画像IMGに基づいて障害物12の自車両1から見た相対位置および相対距離を算出してもよい。   Further, the photographing means may be configured by a stereo camera, and the relative position and relative distance of the obstacle 12 as viewed from the own vehicle 1 may be calculated based on a plurality of photographed images IMG photographed simultaneously by the stereo camera.

そして、種々の車両の運転支援に本発明を適用することができる。   The present invention can be applied to driving assistance for various vehicles.

1 自車両
2 運転支援装置
3 単眼カメラ(撮影手段)
7 物体センサ(検出手段)
9a 取得手段
9b 認識手段
9c 算出手段
9d 判断手段
9e 報知手段
10 走行モニタ(報知手段)
11 スピーカ(報知手段)
12 障害物
IMG 撮影画像
1 self-vehicle 2 driving support device 3 monocular camera
7 Object sensor (detection means)
9a Acquisition means 9b Recognition means 9c Calculation means 9d Judgment means 9e Notification means 10 Travel monitor (notification means)
11 Speaker (notification means)
12 Obstacle IMG image

Claims (3)

自車両に搭載された撮影手段による前記自車両周辺の撮影画像を取得する取得手段と、
それぞれ撮影角度が異なる複数の撮影画像それぞれに含まれた障害物を認識する認識手段と、
前記認識手段により認識された前記各撮影画像中での前記障害物の位置に基づいて前記障害物の前記自車両からの相対位置および相対距離を算出する算出手段と、
前記自車両の窓またはサンルーフを形成する開口部から物体が飛び出しているか否かを検出する検出手段と、
前記検出手段により前記物体が検出されている場合に、前記算出手段により算出された前記相対位置および前記相対距離に基づいて、前記物体と前記障害物との接触可能性を判断する判断手段と、
前記判断手段により前記接触可能性があると判断された場合に報知する報知手段とを備え、
前記判断手段は、前記自車両が進行方向に設定された座標軸における前記障害物の位置に到達したと仮定したときの前記自車両と前記障害物との垂直方向または水平方向の間隔が、所定値以内であるときに前記接触可能性があると判断する
ことを特徴とする運転支援装置。
Obtaining means for obtaining a photographed image around the own vehicle by photographing means mounted on the own vehicle;
Recognizing means for recognizing an obstacle included in each of a plurality of photographed images with different photographing angles,
Calculation means for calculating a relative position and a relative distance of the obstacle from the host vehicle based on the position of the obstacle in each captured image recognized by the recognition means;
Detecting means for detecting whether or not an object is protruding from an opening forming the window or sunroof of the host vehicle;
A determination unit that determines the possibility of contact between the object and the obstacle based on the relative position and the relative distance calculated by the calculation unit when the detection unit detects the object;
An informing means for informing when the judging means judges that the contact possibility exists,
The determination means assumes that a vertical or horizontal interval between the host vehicle and the obstacle when the host vehicle has reached the position of the obstacle on the coordinate axis set in the traveling direction is a predetermined value. It is determined that there is a possibility of contact when it is within the range.
前記取得手段は、前記撮影手段である単眼カメラによる複数の時系列的な前記撮影画像を取得し、
前記認識手段は、前記取得手段により取得された前記各撮影画像それぞれに含まれた前記障害物を認識し、
前記算出手段は、前記認識手段により認識された前記各撮影画像中での前記障害物の時系列的な動きと、前記自車両の動きとに基づいて、前記相対位置および前記相対距離を算出する
ことを特徴とする請求項1に記載の運転支援装置。
The acquisition means acquires a plurality of time-series captured images by a monocular camera as the imaging means,
The recognizing unit recognizes the obstacle included in each of the captured images acquired by the acquiring unit;
The calculation means calculates the relative position and the relative distance based on the time-series movement of the obstacle in each captured image recognized by the recognition means and the movement of the host vehicle. The driving support device according to claim 1, wherein
前記判断手段は、前記相対距離と車速とに基づいて算出される前記自車両が前記障害物に到達する時間が所定時間以内であるときに、前記接触可能性があると判断することを特徴とする請求項1または2に記載の運転支援装置。   The determination means determines that there is a possibility of contact when a time for the host vehicle to reach the obstacle calculated based on the relative distance and a vehicle speed is within a predetermined time. The driving support device according to claim 1 or 2.
JP2014068060A 2014-03-28 2014-03-28 Driving support device Pending JP2015191437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014068060A JP2015191437A (en) 2014-03-28 2014-03-28 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014068060A JP2015191437A (en) 2014-03-28 2014-03-28 Driving support device

Publications (1)

Publication Number Publication Date
JP2015191437A true JP2015191437A (en) 2015-11-02

Family

ID=54425874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014068060A Pending JP2015191437A (en) 2014-03-28 2014-03-28 Driving support device

Country Status (1)

Country Link
JP (1) JP2015191437A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019003792A1 (en) * 2017-06-28 2019-01-03 パイオニア株式会社 Control device, control method, and program
JP2021088357A (en) * 2016-07-21 2021-06-10 モービルアイ ビジョン テクノロジーズ リミテッド Crowdsourcing and distribution of sparse map and lane measurement values for autonomous vehicle navigation
CN113110460A (en) * 2021-04-20 2021-07-13 哈尔滨工程大学 Method for acquiring heading feasible interval of unmanned surface vehicle in dynamic environment
US12147242B2 (en) 2021-06-16 2024-11-19 Mobileye Vision Technologies Ltd. Crowdsourcing a sparse map for autonomous vehicle navigation

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021088357A (en) * 2016-07-21 2021-06-10 モービルアイ ビジョン テクノロジーズ リミテッド Crowdsourcing and distribution of sparse map and lane measurement values for autonomous vehicle navigation
JP7040867B2 (en) 2016-07-21 2022-03-23 モービルアイ ビジョン テクノロジーズ リミテッド System, method and program
WO2019003792A1 (en) * 2017-06-28 2019-01-03 パイオニア株式会社 Control device, control method, and program
JPWO2019003792A1 (en) * 2017-06-28 2020-07-02 パイオニア株式会社 Control device, control method, and program
JP2022008854A (en) * 2017-06-28 2022-01-14 パイオニア株式会社 Control unit
US11554774B2 (en) 2017-06-28 2023-01-17 Pioneer Corporation Control apparatus, control method, and program
CN113110460A (en) * 2021-04-20 2021-07-13 哈尔滨工程大学 Method for acquiring heading feasible interval of unmanned surface vehicle in dynamic environment
US12147242B2 (en) 2021-06-16 2024-11-19 Mobileye Vision Technologies Ltd. Crowdsourcing a sparse map for autonomous vehicle navigation

Similar Documents

Publication Publication Date Title
JP4412380B2 (en) Driving support device, driving support method, and computer program
CN105620489B (en) Driving assistance system and vehicle real-time early warning based reminding method
JP5345350B2 (en) Vehicle driving support device
JP5379543B2 (en) Automobile external recognition device
US9126533B2 (en) Driving support method and driving support device
JP5769163B2 (en) Alarm device
CN112349144B (en) Monocular vision-based vehicle collision early warning method and system
KR101655553B1 (en) Driver assistance apparatus and method
CN111976598A (en) Vehicle blind area monitoring method and system
JP2005202678A (en) Traveling support device
JP2008123462A (en) Object detector
JP6614359B2 (en) Obstacle determination method, parking support method, exit support method, and obstacle determination device
US20180037162A1 (en) Driver assistance system
KR101999079B1 (en) Display device control method and display device
CN109416884B (en) Identification region estimation device, identification region estimation method, and identification region estimation program
JP3888166B2 (en) Vehicle driving support device
JP6129268B2 (en) Vehicle driving support system and driving support method
JP2009211624A (en) Driving support device, driving support method, and computer program
JP6885022B2 (en) Driving support device
JP2015191437A (en) Driving support device
JP2011103058A (en) Erroneous recognition prevention device
JP2009276906A (en) Travelling information providing device
JP2008250453A (en) Drive support device and method
JP4269862B2 (en) On-vehicle moving body detection device
JP4218441B2 (en) On-vehicle moving body detection device