JP2015191437A - Driving support device - Google Patents
Driving support device Download PDFInfo
- Publication number
- JP2015191437A JP2015191437A JP2014068060A JP2014068060A JP2015191437A JP 2015191437 A JP2015191437 A JP 2015191437A JP 2014068060 A JP2014068060 A JP 2014068060A JP 2014068060 A JP2014068060 A JP 2014068060A JP 2015191437 A JP2015191437 A JP 2015191437A
- Authority
- JP
- Japan
- Prior art keywords
- obstacle
- host vehicle
- vehicle
- possibility
- contact
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
この発明は、自車両に搭載された撮影手段の撮影画像を処理して自車両周辺の障害物を認識する技術に関する。 The present invention relates to a technique for recognizing an obstacle around a host vehicle by processing a captured image of a shooting unit mounted on the host vehicle.
従来、助手席や後部座席に座っている子供等の同乗者が窓やサンルーフから頭や手を出していることに運転者が気付かずに、窓やサンルーフから飛び出している同乗者の頭や手が、ガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識、対向車などの障害物に接触するおそれがあった。このように、窓やサンルーフから飛び出している同乗者の頭や手が自車両周辺の障害物に接触するのを未然に防止するために、次のような技術が提案されている(例えば特許文献1参照)。すなわち、窓やサンルーフを形成する開口部から、同乗者の頭や手などの物体が飛び出していることを検出する検出手段が設けられている。そして、車速等に基づいて走行中であると判断されているときに、窓やサンルーフ等の開口部から物体が飛び出していることが検出手段により検出されると、物体が開口部から車外に飛び出していることが警報音等により運転者に報知される。 Conventionally, the passenger's head or hand jumping out of the window or sunroof without the driver noticing that the passenger, such as a child sitting in the passenger seat or rear seat, has put his head or hand out of the window or sunroof. However, there was a risk of contact with obstacles such as guards (viaducts, overpasses), tunnels, utility poles / telegraph poles, road signs, and oncoming vehicles. As described above, in order to prevent the passenger's head or hand jumping out of the window or sunroof from coming into contact with an obstacle around the host vehicle, the following techniques have been proposed (for example, Patent Documents). 1). That is, there is provided detection means for detecting that an object such as a passenger's head or hand is protruding from an opening forming a window or sunroof. Then, when it is determined that the vehicle is traveling based on the vehicle speed or the like, if the detection means detects that the object is popping out from the opening such as a window or sunroof, the object pops out of the vehicle from the opening. The driver is notified by an alarm sound or the like.
上記した従来の装置では、走行中に窓やサンルーフ等の開口部から物体が飛び出していると必ず警報音等による報知が実行されるため、次のような問題が生じる。すなわち、a)道路環境が複雑な場合での周辺確認にて顔を窓等の開口部から車外に出している場合、b)狭い道路を通り抜ける際の、自車両と路側の溝との距離確認のために窓等の開口部から顔を車外に出している場合、c)縦列駐車や車庫入れの際のバック走行時に窓等の開口部から車外に顔を出している場合、などの状況においても警報音等による報知が行われるため運転者が煩わしさを感じるおそれがある。 In the above-described conventional apparatus, when an object is popping out from an opening such as a window or a sunroof during traveling, a notification by an alarm sound or the like is always executed, which causes the following problem. That is, a) When the surrounding environment is complex when the road environment is complicated, the face is exposed to the outside from the opening such as a window, etc. b) The distance confirmation between the own vehicle and the roadside groove when passing through a narrow road C) When the face is out of the vehicle through the opening of the window, etc. c) In the situation where the face is out of the vehicle through the opening of the window or the like when traveling in parallel parking or entering the garage In addition, the driver may feel annoyance because the alarm sound or the like is notified.
本発明は、窓やサンルーフを形成する開口部から飛び出している頭や手などの物体が自車両周辺の障害物と接触する可能性がある場合にのみ適切に報知を行うことができる技術を提供することを目的とする。 The present invention provides a technique capable of appropriately notifying only when an object such as a head or a hand protruding from an opening forming a window or a sunroof may come into contact with an obstacle around the host vehicle. The purpose is to do.
上記した目的を達成するために、本発明の運転支援装置は、自車両に搭載された撮影手段による前記自車両周辺の撮影画像を取得する取得手段と、それぞれ撮影角度が異なる複数の撮影画像それぞれに含まれた障害物を認識する認識手段と、前記認識手段により認識された前記各撮影画像中での前記障害物の位置に基づいて前記障害物の前記自車両からの相対位置および相対距離を算出する算出手段と、前記自車両の窓またはサンルーフを形成する開口部から物体が飛び出しているか否かを検出する検出手段と、前記検出手段により前記物体が検出されている場合に、前記算出手段により算出された前記相対位置および前記相対距離に基づいて、前記物体と前記障害物との接触可能性を判断する判断手段と、前記判断手段により前記接触可能性があると判断された場合に報知する報知手段とを備え、前記判断手段は、前記自車両が進行方向に設定された座標軸における前記障害物の位置に到達したと仮定したときの前記自車両と前記障害物との垂直方向または水平方向の間隔が、所定値以内であるときに前記接触可能性があると判断することを特徴としている(請求項1)。 In order to achieve the above-described object, the driving support device of the present invention includes an acquisition unit that acquires a captured image around the host vehicle by a shooting unit mounted on the host vehicle, and a plurality of captured images each having a different shooting angle. Recognizing means for recognizing an obstacle included in the vehicle, and determining a relative position and a relative distance of the obstacle from the host vehicle based on the position of the obstacle in the captured images recognized by the recognizing means. A calculating means for calculating; a detecting means for detecting whether or not an object is protruding from an opening forming a window or sunroof of the own vehicle; and the calculating means when the detecting means detects the object. Determining means for determining the possibility of contact between the object and the obstacle based on the relative position and the relative distance calculated by the step, and the contact by the determining means An informing means for informing when it is determined that the own vehicle has reached the position of the obstacle on the coordinate axis set in the traveling direction; and It is characterized in that the possibility of contact is determined when a vertical or horizontal interval with the obstacle is within a predetermined value (Claim 1).
また、前記取得手段は、前記撮影手段である単眼カメラによる複数の時系列的な前記撮影画像を取得し、前記認識手段は、前記取得手段により取得された前記各撮影画像それぞれに含まれた前記障害物を認識し、前記算出手段は、前記認識手段により認識された前記各撮影画像中での前記障害物の時系列的な動きと、前記自車両の動きとに基づいて、前記相対位置および前記相対距離を算出するようにしてもよい(請求項2)。 Further, the acquisition unit acquires a plurality of time-series captured images obtained by a monocular camera as the imaging unit, and the recognition unit includes the respective captured images acquired by the acquisition unit. Recognizing an obstacle, the calculating means is configured to determine the relative position and the relative position based on the time-series movement of the obstacle in the captured images recognized by the recognition means and the movement of the host vehicle. The relative distance may be calculated (claim 2).
また、前記判断手段は、前記相対距離と車速とに基づいて算出される前記自車両が前記障害物に到達する時間が所定時間以内であるときに、前記接触可能性があると判断するようにしてもよい(請求項3)。 Further, the determination means determines that there is a possibility of contact when the time for the host vehicle to reach the obstacle calculated based on the relative distance and the vehicle speed is within a predetermined time. (Claim 3).
請求項1に記載の発明によれば、自車両に搭載された撮影手段による自車両周辺の撮影画像が取得手段により取得され、それぞれ撮影角度が異なる複数の撮影画像それぞれに含まれた障害物が認識手段により認識される。また、認識手段により認識された各撮影画像中での障害物の位置に基づいて障害物の自車両からの相対位置および相対距離が算出手段により算出される。また、自車両の窓またはサンルーフを形成する開口部から物体が飛び出しているか否かが検出手段により検出され、検出手段により物体が検出されている場合に、算出手段により算出された相対位置および相対距離に基づいて、物体と障害物との接触可能性が判断手段により判断される。 According to the first aspect of the present invention, a captured image around the host vehicle by the shooting unit mounted on the host vehicle is acquired by the acquiring unit, and obstacles included in each of the plurality of captured images having different shooting angles are provided. Recognized by recognition means. The relative position and relative distance of the obstacle from the host vehicle are calculated by the calculation means based on the position of the obstacle in each captured image recognized by the recognition means. In addition, when the detection unit detects whether or not an object has protruded from the opening of the vehicle's window or sunroof, and the detection unit detects the object, the relative position and relative value calculated by the calculation unit are detected. Based on the distance, the possibility of contact between the object and the obstacle is determined by the determining means.
このとき、自車両が進行方向に設定された座標軸における障害物の位置に到達したと仮定したときの自車両と障害物との垂直方向または水平方向の間隔が、所定値以内であるときに接触可能性があると判断手段により判断される。そして、判断手段により接触可能性があると判断された場合に報知手段による報知が実行される。したがって、窓やサンルーフを形成する開口部から飛び出している頭や手などの物体が自車両周辺の障害物と接触する可能性がある場合にのみ適切に報知を行うことができる。 At this time, contact is made when the vertical or horizontal distance between the host vehicle and the obstacle is within a predetermined value, assuming that the host vehicle has reached the position of the obstacle on the coordinate axis set in the traveling direction. The determination means determines that there is a possibility. When the determination unit determines that there is a possibility of contact, the notification unit performs notification. Therefore, it is possible to appropriately notify only when there is a possibility that an object such as a head or a hand protruding from an opening forming a window or sunroof may come into contact with an obstacle around the host vehicle.
請求項2に記載の発明によれば、撮影手段である単眼カメラによる複数の時系列的な撮影画像が取得手段により取得され、取得手段により取得された各撮影画像それぞれに含まれた障害物が認識手段により認識される。そして、認識手段により認識された各撮影画像中での障害物の時系列的な動きと、自車両(撮影位置)の動きとに基づいて、自車両から見た障害物の相対位置および相対距離が算出手段により算出される。したがって、複数台のカメラや高価なステレオカメラにより撮影手段を構成しなくても、安価な単眼カメラを用いて、所謂、モーションステレオ法により、障害物の自車両からの相対位置および相対距離を算出することができる。 According to the second aspect of the present invention, a plurality of time-series photographed images obtained by the monocular camera as the photographing means are obtained by the obtaining means, and the obstacle included in each of the photographed images obtained by the obtaining means is obtained. Recognized by recognition means. Then, based on the time-series movement of the obstacle in each captured image recognized by the recognition means and the movement of the own vehicle (shooting position), the relative position and the relative distance of the obstacle viewed from the own vehicle. Is calculated by the calculating means. Therefore, it is possible to calculate the relative position and distance of an obstacle from the host vehicle by the so-called motion stereo method using an inexpensive monocular camera without using multiple cameras or an expensive stereo camera. can do.
請求項3の発明によれば、請求項1の記載された条件に加えて、相対距離と車速とに基づいて算出される自車両が障害物に到達する時間が所定時間以内であるときに、窓やサンルーフなどの開口部から飛び出している頭や手などの物体と自車両周辺の障害物との接触可能性があると判断手段により判断される。したがって、開口部から飛び出している頭や手などの物体が自車両周辺の障害物と接触する可能性がより大きい場合にのみ適切に報知を行うことができる。
According to the invention of claim 3, in addition to the conditions described in
本発明の一実施形態について、図1〜図4を参照して説明する。 An embodiment of the present invention will be described with reference to FIGS.
図1は本発明の運転支援装置の一実施形態のブロック図、図2は撮影画像の一例を示す図である。また、図3は図2の撮影画像中に含まれる障害物に窓やサンルーフ等の開口部から飛び出している物体が衝突する可能性があるか否かを判断する方法を説明するための図、図4は図1の動作説明用のフローチャートである。なお、図3は図2に示す撮影画像の状況を模式的に表した図面である。 FIG. 1 is a block diagram of an embodiment of the driving support apparatus of the present invention, and FIG. 2 is a diagram showing an example of a captured image. 3 is a diagram for explaining a method for determining whether or not there is a possibility that an object protruding from an opening such as a window or a sunroof collides with an obstacle included in the captured image of FIG. FIG. 4 is a flowchart for explaining the operation of FIG. FIG. 3 is a diagram schematically showing the situation of the captured image shown in FIG.
1.構成
図1に示す運転支援装置2は、自車両1に搭載されて自車両1の周辺を撮影する単眼カメラ3(本発明の「撮影手段」に相当)の撮影画像IMGを処理して自車両1周辺の障害物12(例えば図2に示すトンネルや道路標識)を認識するものである。そして、運転支援装置2は、自車両1が走行中に、窓やサンルーフを形成する開口部から子供等の同乗者の頭や手、ペットの頭などの物体が飛び出している場合に、開口部から飛び出している物体が自車両1周辺の障害物12と接触する可能性があるときに警報音やモニタ表示等の報知を運転者に対して行う。
1. Configuration The driving support apparatus 2 shown in FIG. 1 processes a captured image IMG of a monocular camera 3 (corresponding to the “photographing means” of the present invention) mounted on the
運転支援装置2は、単眼カメラ3と、舵角センサ4と、車速センサ5と、開口度センサ6と、物体センサ7と、単眼カメラ3による撮影画像IMGや各センサ4〜7により取得される種々のデータを記憶する記憶手段8と、単眼カメラ3の撮影画像IMGを処理して各センサ4〜7からの出力に基づいて衝突可能性を判断するマイクロコンピュータ構成のECU9と、例えばインストルメントパネルなどに取付けられたCRT、液晶ディスプレイなどの走行モニタ10(本発明の「報知手段」に相当)と、警報用のスピーカ11(本発明の「報知手段」に相当)とを備えている。
The driving support device 2 is acquired by the monocular camera 3, the
単眼カメラ3は、この実施形態では自車両1の前方を撮影が可能なモノクロあるいはカラー撮影が可能なカメラから成り、一定時間(例えば30ms)毎に連続的に時々刻々と撮影した撮影画像IMGの信号を出力する(図2参照)。また、この実施形態で、自車両1の前方のできるだけ広い範囲を撮影することができるように、単眼カメラ3は、広角カメラまたは魚眼カメラにより形成されている。
In this embodiment, the monocular camera 3 is composed of a monochrome or color camera capable of photographing the front of the
舵角センサ4は、ハンドルの舵角を検出し、検出した舵角に関するデータをECU9に出力する。車速センサ5は、車速を検出し、検出した車速に関するデータをECU9に出力する。開口度センサ6は、自車両1の窓やサンルーフを形成する開口部(図示省略)が開放されているか否かを検出し、開口部の開放度に関するデータをECU9に出力する。
The
物体センサ7(本発明の「検出手段」に相当)は、窓やサンルーフ等の開口部から、子供等の同乗者の頭や手、ペットの頭などの物体(図示省略)が飛び出しているか否かを検出する。例えば、開口部の一側の端縁に配置された投光部と、他側の端縁に配置されて投光部の光を受光する受光部とにより形成される光遮断型の光学的なセンサにより物体センサ7を形成することができる。このようにすると、開口部から物体が飛び出している場合に、受光部に投光される投光部の光が遮断されるので、物体センサ7は、開口部から物体が飛び出しているか否かを検出することができる。なお、サイドミラーに配置された自車両1の側方の監視用の単眼カメラや、窓やサンルーフ等の開口部付近に配置された超音波センサなどにより物体センサ7が構成されていてもよい。
The object sensor 7 (corresponding to the “detecting means” of the present invention) is whether or not an object (not shown) such as a child's passenger's head, hand, or pet's head protrudes from an opening such as a window or sunroof. To detect. For example, a light-blocking optical unit formed by a light projecting unit disposed at one end edge of the opening and a light receiving unit disposed at the other end edge to receive light from the light projecting unit. The
記憶手段4は、単眼カメラ3から時々刻々と出力される撮影画像IMGの画像データや、各撮影画像IMGに対してECU9により種々の処理が施されることにより得られた各種データ、各センサ4〜7から出力される各種のデータを格納する。
The
ECU9は、例えばイグニッションキーのオンにより、予め設定された運転支援のためのプログラムを実行することにより以下の各手段を備えている。
The
(1)取得手段9a
取得手段9aは、単眼カメラ3により時々刻々と撮影されて記憶手段8に格納された時系列的な撮影画像IMGの画像データを取得する。なお、図2は、自車両1の前部に配置された単眼カメラ3により撮影された自車両1の前方の撮影画像IMGを示している。また、単眼カメラ3により時系列に撮影された撮影画像IMGに関する種々のデータは記憶手段8に記憶される。
(1) Acquisition means 9a
The acquisition unit 9 a acquires image data of a time-series captured image IMG that is captured every moment by the monocular camera 3 and stored in the storage unit 8. FIG. 2 shows a captured image IMG in front of the
(2)認識手段9b
認識手段9bは、取得手段9aにより取得された各撮影画像IMGに含まれるガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識、縁石、ポール、壁等の静止物体である障害物12をパターンマッチングにより認識する。なお、認識手段9bによるパターンマッチングにより撮影画像IMG中の障害物12を認識するための、ガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識、縁石、ポール、壁などのテンプレート画像は記憶手段8に記憶されている。図2に示す例では、自車両1の前方にトンネルが存在し、自車両1の右前方に道路標識が存在しており、自車両1の前方の撮影画像IMGに含まれるトンネルの開口部分と道路標識とがパターンマッチングにより障害物12として認識手段9bにより認識される。また、認識手段9bにより認識された障害物12に関するデータは記憶手段8に記憶される。
(2) Recognizing means 9b
The recognizing means 9b is a fault which is a stationary object such as a guard (bypass, overpass), tunnel, utility pole / telegraph pole, road sign, curb, pole, wall, etc. included in each captured image IMG acquired by the acquiring means 9a. The
なお、認識手段9bによるパターン認識の手法としては、上記したパターンマッチングによる手法に限らず、濃淡ヒストグラムによる手法やエッジ検出による手法など、その輪郭線を検出することにより障害物12を認識することができる手法であれば、どのような手法を採用してもよい。また、この実施形態では、静止物体である障害物12を認識手段9bによる障害物認識の対象としているが、対向車等の他車両などの移動物体を認識手段9bによる障害物認識の対象としてももちろんよい。
Note that the pattern recognition method by the recognition means 9b is not limited to the pattern matching method described above, and the
(3)算出手段9c
算出手段9cは、認識手段9bにより認識されたそれぞれ撮影角度が異なる複数の撮影画像IMG中での障害物12の位置に基づいて、障害物12の自車両1からの相対位置および相対距離を算出する。具体的には、この実施形態では、算出手段9cは、認識手段9bにより認識された時系列的な複数の撮影画像IMG中での障害物12の時系列的な動きの変化と、舵角センサ4および車速センサ5の出力に基づいて算出される各撮影画像IMGの撮影間における自車両1の動き(撮影位置)の変化とに基づいて、所謂、モーションステレオ法により障害物12の自車両1から見た相対位置および相対距離を算出する。
(3) Calculation means 9c
The calculating
(4)判断手段9d
判断手段9dは、算出手段9cによる算出結果に基づいて、窓やサンルーフ等の開口部から飛び出している物体と障害物12との接触可能性を判断する。具体的には、図3に示すように、判断手段9dは、算出手段9cにより算出された自車両1と各障害物12との相対距離と、車速センサ5により検出された車速とに基づいて算出される自車両1が各障害物12に到達する時間T1,T2が所定時間以内(例えば3秒以内)であるときに、窓やサンルーフ等の開口部から子供等の同乗者の頭や手などの物体が飛び出していれば、物体と障害物12とが接触する可能性があると判断する。
(4) Determination means 9d
The
したがって、判断手段9dは、各障害物12に到達する時間T1,T2が所定時間以内であれば、開口度センサ6の出力に基づいて、窓やサンルーフ等の開口部が開放されているか否かを判断する。また、判断手段9dは、前記開口部が開放されている場合に、物体センサ7の出力に基づいて、窓やサンルーフ等の開口部から物体が飛び出しているか否かを判断する。
Therefore, the determination means 9d determines whether or not the openings such as windows and sunroofs are opened based on the output of the
また、図3に示すように、判断手段9dは、窓やサンルーフ等の開口部から物体が飛び出していれば、自車両1が進行方向に設定された座標軸における各障害物12(同図中の点線で囲まれた領域)の位置(同図中に点線で示された自車両1の位置)に到達したと仮定したときの自車両1と各障害物12との垂直方向の間隔Hおよび水平方向の間隔Wを算出する。そして、判断手段9dは、自車両1と各障害物12との垂直方向の間隔H(例:トンネルの天井と自車両1との間隔)、または、自車両1と各障害物12との水平方向の間隔W(例:右側に存在する道路標識と自車両1との間隔、トンネルの両側の壁面と自車両1との間隔)が、所定値以内(例えば50cm)であるときに、開口部から飛び出している物体と障害物12とが接触可能性があると判断する。
Also, as shown in FIG. 3, the judging means 9d can detect each
(5)報知手段9e
報知手段9eは、判断手段9dにより接触可能性があると判断された場合に、例えば走行モニタ10に表示中のカーナビゲーション用の地図に警告表示を重畳して表示したりして、接触する可能性のある障害物12の存在を視覚的にドライバに報知する。また、スピーカ11から、判断手段9dの判断結果の音声メッセージ、警告音を発生して接触可能性の存在を聴覚的にドライバに報知する。これらの視覚的または聴覚的なドライバに対する報知により、ドライバの運転支援を行う。
(5) Notification means 9e
When the
2.動作
次に、上記したように構成された運転支援装置2の動作について図4を参照して説明する。なお、この実施形態では、図2および図3に示すように、自車両1が走行している状態を例に挙げて説明する。
2. Operation Next, the operation of the driving support apparatus 2 configured as described above will be described with reference to FIG. In this embodiment, as shown in FIG. 2 and FIG. 3, the state in which the
まず、自車両1のイグニッションキーのオンにより単眼カメラ3による一定時間毎の撮影が開始されると、図2示すような、単眼カメラ3による自車両1前方の撮影画像IMGの信号がECU9に取得手段9aにより取込まれる(ステップS1)。そして、取込まれた撮影画像IMG中の障害物12が認識手段9bにより認識される(ステップS2)。
First, when the monocular camera 3 starts shooting every certain time by turning on the ignition key of the
続いて、認識手段9bにより認識された障害物12のデータが記憶手段8に登録される(ステップS3)。そして、今回の撮影画像IMG中に認識手段9bにより認識された障害物12と同一の障害物が、以前の撮影画像中IMG中に含まれているか否かが、記憶手段8に記憶された障害物12に関するデータに基づいて算出手段9cにより判断される(ステップS4)。同一の障害物12が含まれていなければ(ステップS4でNO)、ステップS1の処理に戻って処理を繰り返し実行する。
Subsequently, the data of the
一方、同一の障害物12が含まれていれば(ステップS4でYES)、モーションステレオ法により、自車両1から見た障害物12の相対位置および相対距離が算出手段9cにより算出され、算出された相対位置および相対距離に基づいて障害物12の高さが算出手段9cにより算出される(ステップS5)。続いて、車速センサ5により検出された車速に基づいて、障害物12に到達する時間T1,T2が判断手段9dにより算出される(ステップS6)。
On the other hand, if the
次に、算出された到達時間T1,T2が所定時間以内であるか否かが判断手段9dにより判断され(ステップS7)、到達時間T1,T2が所定時間を超えていれば(ステップS7でNO)、ステップS1の処理に戻って処理を繰り返し実行する。一方、到達時間T1,T2が所定時間以内であれば(ステップS7でYES)、開口度センサ6の出力に基づいて窓やサンルーフ等の開口部が開放されているか否かが判断手段9dにより判断される(ステップS8)。
Next, whether or not the calculated arrival times T1 and T2 are within a predetermined time is determined by the determination means 9d (step S7). If the arrival times T1 and T2 exceed the predetermined time (NO in step S7). ), Returning to the process of step S1, the process is repeatedly executed. On the other hand, if the arrival times T1 and T2 are within a predetermined time (YES in step S7), it is determined by the determination means 9d based on the output of the
窓やサンルーフ等の開口部が開放されていなければ(ステップS8でNO)、ステップS1の処理に戻って処理を繰り返し実行し、開放されていれば(ステップS8でYES)、物体センサ7の出力に基づいて、開口部から物体が飛び出しているか否かが判断手段9dにより判断される(ステップS9)。開口部から物体が飛び出していなければ(ステップS9でNO)、ステップS1の処理に戻って処理を繰り返し実行する。開口部から物体が飛び出していれば(ステップS9でYES)、障害物12を通り抜けるときの垂直方向または水平方向における自車両1と障害物12との間隔H,Wが所定値以内であるか否かが判断手段9dにより判断される(ステップS10)。
If an opening such as a window or sunroof is not opened (NO in step S8), the process returns to step S1, and the process is repeatedly executed. If opened (YES in step S8), the output of the
自車両1と障害物12との垂直方向および水平方向の間隔H,Wが共に所定値を超えていれば(ステップS10でNO)、ステップS1に戻って処理を繰り返し実行する。そして、自車両1と障害物12との垂直方向または水平方向の間隔H,Wが所定値以内であれば(ステップS10でYES)、窓またはサンルーフ等の開口部から子供等の同乗者の頭や手が飛び出していることが報知手段9eにより報知されて(ステップS11)、ステップS1に戻って処理を繰り返し実行する。
If both the vertical and horizontal intervals H and W between the
以上のように、この実施形態によれば、自車両1に搭載された単眼カメラ3による自車両1周辺の撮影画像IMGが取得手段9aにより取得され、それぞれ撮影角度が異なる複数の撮影画像IMGそれぞれに含まれた障害物12が認識手段9bにより認識される。また、認識手段9bにより認識された各撮影画像IMG中での障害物12の位置に基づいて障害物12の自車両1からの相対位置および相対距離が算出手段9cにより算出される。また、自車両1の窓またはサンルーフを形成する開口部から同乗者の頭や手などの物体が飛び出しているか否かが物体センサ7により検出され、物体センサ7により物体が検出されている場合に、算出手段9cにより算出された相対位置および相対距離に基づいて、物体と障害物12との接触可能性が判断手段9dにより判断される。
As described above, according to this embodiment, the captured image IMG around the
このとき、自車両1が進行方向に設定された座標軸における障害物12の位置に到達したと仮定したときの自車両1と障害物12との垂直方向または水平方向の間隔H,Wが、所定値以内であるときに接触可能性があると判断手段9dにより判断される。そして、判断手段9dにより接触可能性があると判断された場合に報知手段9eによる報知が実行される。したがって、窓やサンルーフを形成する開口部から飛び出している頭や手などの物体が自車両1周辺の障害物12と接触する可能性がある場合にのみ適切に報知を行うことができる。
At this time, vertical and horizontal distances H and W between the
また、単眼カメラ3による複数の時系列的な撮影画像IMGが取得手段9aにより取得され、取得手段9aにより取得された各撮影画像IMGそれぞれに含まれた障害物12が認識手段9bにより認識される。そして、認識手段9bにより認識された各撮影画像IMG中での障害物12の時系列的な動きと、自車両1(撮影位置)の動きとに基づいて、自車両1から見た障害物12の相対位置および相対距離が算出手段9cにより算出される。したがって、複数台のカメラや高価なステレオカメラにより撮影手段を構成しなくても、安価な単眼カメラ3を用いて、所謂、モーションステレオ法により、障害物12の自車両1からの相対位置および相対距離を算出することができる。
A plurality of time-series captured images IMG obtained by the monocular camera 3 are acquired by the acquisition unit 9a, and the
また、自車両1と障害物12との垂直方向または水平方向の間隔H,Wについての条件に加えて、相対距離と車速とに基づいて算出される自車両1が障害物12に到達する時間が所定時間以内であるときに、窓やサンルーフなどの開口部から飛び出している頭や手などの物体と自車両1周辺の障害物12とが接触する可能性があると判断手段9dにより判断される。したがって、開口部から飛び出している頭や手などの物体が自車両1周辺の障害物12と接触する可能性がより大きい場合にのみ適切に報知を行うことができる。
Further, in addition to the condition about the vertical or horizontal distances H and W between the
また、障害物12は、ガード(高架橋、跨道橋)やトンネル、電柱・電信柱、道路標識などの静止物体であるので、障害物12の自車両1からの相対位置および相対距離をより精度よく算出することができ、窓やサンルーフ等の開口部から飛び出している物体と自車両1周辺の障害物12との接触可能性をより高精度に判断することができる、実用的な構成の運転支援装置2を提供することができる。
In addition, since the
なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能であり、例えば、単眼カメラ3の配置位置は自車両1の前部に限らず、バック走行の際の自車両1の車外に飛び出している物体と障害物12との接触防止を目的として、自車両1の後部に単眼カメラ3が設けられていてもよい。自車両1の側方にも同様の目的で単眼カメラが配置されていてもよい。
It should be noted that the present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit thereof. The monocular camera 3 is provided not only in the front part of the
また、撮影手段をステレオカメラにより構成して、ステレオカメラにより同時に撮影された複数の撮影画像IMGに基づいて障害物12の自車両1から見た相対位置および相対距離を算出してもよい。
Further, the photographing means may be configured by a stereo camera, and the relative position and relative distance of the
そして、種々の車両の運転支援に本発明を適用することができる。 The present invention can be applied to driving assistance for various vehicles.
1 自車両
2 運転支援装置
3 単眼カメラ(撮影手段)
7 物体センサ(検出手段)
9a 取得手段
9b 認識手段
9c 算出手段
9d 判断手段
9e 報知手段
10 走行モニタ(報知手段)
11 スピーカ(報知手段)
12 障害物
IMG 撮影画像
1 self-vehicle 2 driving support device 3 monocular camera
7 Object sensor (detection means)
9a Acquisition means 9b Recognition means 9c Calculation means 9d Judgment means 9e Notification means 10 Travel monitor (notification means)
11 Speaker (notification means)
12 Obstacle IMG image
Claims (3)
それぞれ撮影角度が異なる複数の撮影画像それぞれに含まれた障害物を認識する認識手段と、
前記認識手段により認識された前記各撮影画像中での前記障害物の位置に基づいて前記障害物の前記自車両からの相対位置および相対距離を算出する算出手段と、
前記自車両の窓またはサンルーフを形成する開口部から物体が飛び出しているか否かを検出する検出手段と、
前記検出手段により前記物体が検出されている場合に、前記算出手段により算出された前記相対位置および前記相対距離に基づいて、前記物体と前記障害物との接触可能性を判断する判断手段と、
前記判断手段により前記接触可能性があると判断された場合に報知する報知手段とを備え、
前記判断手段は、前記自車両が進行方向に設定された座標軸における前記障害物の位置に到達したと仮定したときの前記自車両と前記障害物との垂直方向または水平方向の間隔が、所定値以内であるときに前記接触可能性があると判断する
ことを特徴とする運転支援装置。 Obtaining means for obtaining a photographed image around the own vehicle by photographing means mounted on the own vehicle;
Recognizing means for recognizing an obstacle included in each of a plurality of photographed images with different photographing angles,
Calculation means for calculating a relative position and a relative distance of the obstacle from the host vehicle based on the position of the obstacle in each captured image recognized by the recognition means;
Detecting means for detecting whether or not an object is protruding from an opening forming the window or sunroof of the host vehicle;
A determination unit that determines the possibility of contact between the object and the obstacle based on the relative position and the relative distance calculated by the calculation unit when the detection unit detects the object;
An informing means for informing when the judging means judges that the contact possibility exists,
The determination means assumes that a vertical or horizontal interval between the host vehicle and the obstacle when the host vehicle has reached the position of the obstacle on the coordinate axis set in the traveling direction is a predetermined value. It is determined that there is a possibility of contact when it is within the range.
前記認識手段は、前記取得手段により取得された前記各撮影画像それぞれに含まれた前記障害物を認識し、
前記算出手段は、前記認識手段により認識された前記各撮影画像中での前記障害物の時系列的な動きと、前記自車両の動きとに基づいて、前記相対位置および前記相対距離を算出する
ことを特徴とする請求項1に記載の運転支援装置。 The acquisition means acquires a plurality of time-series captured images by a monocular camera as the imaging means,
The recognizing unit recognizes the obstacle included in each of the captured images acquired by the acquiring unit;
The calculation means calculates the relative position and the relative distance based on the time-series movement of the obstacle in each captured image recognized by the recognition means and the movement of the host vehicle. The driving support device according to claim 1, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014068060A JP2015191437A (en) | 2014-03-28 | 2014-03-28 | Driving support device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014068060A JP2015191437A (en) | 2014-03-28 | 2014-03-28 | Driving support device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015191437A true JP2015191437A (en) | 2015-11-02 |
Family
ID=54425874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014068060A Pending JP2015191437A (en) | 2014-03-28 | 2014-03-28 | Driving support device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015191437A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019003792A1 (en) * | 2017-06-28 | 2019-01-03 | パイオニア株式会社 | Control device, control method, and program |
JP2021088357A (en) * | 2016-07-21 | 2021-06-10 | モービルアイ ビジョン テクノロジーズ リミテッド | Crowdsourcing and distribution of sparse map and lane measurement values for autonomous vehicle navigation |
CN113110460A (en) * | 2021-04-20 | 2021-07-13 | 哈尔滨工程大学 | Method for acquiring heading feasible interval of unmanned surface vehicle in dynamic environment |
US12147242B2 (en) | 2021-06-16 | 2024-11-19 | Mobileye Vision Technologies Ltd. | Crowdsourcing a sparse map for autonomous vehicle navigation |
-
2014
- 2014-03-28 JP JP2014068060A patent/JP2015191437A/en active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021088357A (en) * | 2016-07-21 | 2021-06-10 | モービルアイ ビジョン テクノロジーズ リミテッド | Crowdsourcing and distribution of sparse map and lane measurement values for autonomous vehicle navigation |
JP7040867B2 (en) | 2016-07-21 | 2022-03-23 | モービルアイ ビジョン テクノロジーズ リミテッド | System, method and program |
WO2019003792A1 (en) * | 2017-06-28 | 2019-01-03 | パイオニア株式会社 | Control device, control method, and program |
JPWO2019003792A1 (en) * | 2017-06-28 | 2020-07-02 | パイオニア株式会社 | Control device, control method, and program |
JP2022008854A (en) * | 2017-06-28 | 2022-01-14 | パイオニア株式会社 | Control unit |
US11554774B2 (en) | 2017-06-28 | 2023-01-17 | Pioneer Corporation | Control apparatus, control method, and program |
CN113110460A (en) * | 2021-04-20 | 2021-07-13 | 哈尔滨工程大学 | Method for acquiring heading feasible interval of unmanned surface vehicle in dynamic environment |
US12147242B2 (en) | 2021-06-16 | 2024-11-19 | Mobileye Vision Technologies Ltd. | Crowdsourcing a sparse map for autonomous vehicle navigation |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4412380B2 (en) | Driving support device, driving support method, and computer program | |
CN105620489B (en) | Driving assistance system and vehicle real-time early warning based reminding method | |
JP5345350B2 (en) | Vehicle driving support device | |
JP5379543B2 (en) | Automobile external recognition device | |
US9126533B2 (en) | Driving support method and driving support device | |
JP5769163B2 (en) | Alarm device | |
CN112349144B (en) | Monocular vision-based vehicle collision early warning method and system | |
KR101655553B1 (en) | Driver assistance apparatus and method | |
CN111976598A (en) | Vehicle blind area monitoring method and system | |
JP2005202678A (en) | Traveling support device | |
JP2008123462A (en) | Object detector | |
JP6614359B2 (en) | Obstacle determination method, parking support method, exit support method, and obstacle determination device | |
US20180037162A1 (en) | Driver assistance system | |
KR101999079B1 (en) | Display device control method and display device | |
CN109416884B (en) | Identification region estimation device, identification region estimation method, and identification region estimation program | |
JP3888166B2 (en) | Vehicle driving support device | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP6885022B2 (en) | Driving support device | |
JP2015191437A (en) | Driving support device | |
JP2011103058A (en) | Erroneous recognition prevention device | |
JP2009276906A (en) | Travelling information providing device | |
JP2008250453A (en) | Drive support device and method | |
JP4269862B2 (en) | On-vehicle moving body detection device | |
JP4218441B2 (en) | On-vehicle moving body detection device |