[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012056428A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2012056428A
JP2012056428A JP2010201030A JP2010201030A JP2012056428A JP 2012056428 A JP2012056428 A JP 2012056428A JP 2010201030 A JP2010201030 A JP 2010201030A JP 2010201030 A JP2010201030 A JP 2010201030A JP 2012056428 A JP2012056428 A JP 2012056428A
Authority
JP
Japan
Prior art keywords
vehicle
driving support
support device
boundary information
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010201030A
Other languages
Japanese (ja)
Inventor
Yoka Iga
陽香 伊賀
Masaru Tanaka
優 田中
Atsushi Kadowaki
淳 門脇
Kenji Miura
健次 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd filed Critical Aisin Seiki Co Ltd
Priority to JP2010201030A priority Critical patent/JP2012056428A/en
Publication of JP2012056428A publication Critical patent/JP2012056428A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To satisfactorily cope with a peripheral situation of one's own vehicle when retracted and started, and to reduce a driving burden of a driver, in particular, taking an outer wheel difference of the own vehicle into consideration.SOLUTION: This driving support device acquires, as directional information, a turning direction of the own vehicle 90 at the time when the own vehicle 90 accompanying a turn is retracted or started, sets an objective area for computing boundary information E expressing a boundary between a movable area of the vehicle 90 and an area where an obstacle 100 exists in each of both sides of the vehicle 90, based on the directional information, detects the obstacle 100 existing in the both sides of the vehicle 90, and computes the boundary information E in the objective area.

Description

本発明は、車庫入れ駐車から発進する際の運転操作を支援する運転支援装置に関する。   The present invention relates to a driving support device that supports driving operation when starting from garage parking.

車両を駐車させる際のドライバーの負担を軽減するために、ドライバーの運転操作を支援する運転支援装置が知られている。車庫入れ駐車の場合には、駐車区画に対して車両を後退させて駐車する後退駐車と、駐車区画に対して車両を前進させて駐車する前進駐車とがある。一般的に運転支援装置による支援は、駐車区画に対する後退駐車に対して実施され、前進駐車は支援に対象外であることが多い。しかし、前進駐車の場合には、駐車区画からの発進時に車両を後退させる必要がある。この際、ドライバーは、目視が困難な車両の左右の前端が、外輪差により隣接する駐車区画に駐車された駐車車両と接触しないように操舵しながら後退する必要がある。特開2008−290669号公報(特許文献1)には、そのような駐車区画からの後退発進の際にドライバーによる運転操作の負担を軽減する発進支援装置が開示されている。この発進支援装置は、車両を駐車する際に、障害物検出手段により検出された障害物の障害物位置情報を記憶装置に記憶させる。そして、発進支援装置は、記憶装置に記憶された障害物位置情報に基づいて、障害物を避けるように車両の発進時の発進経路を演算する(第4〜8段落、図1、図7等)。   In order to reduce the burden on the driver when the vehicle is parked, a driving support device that supports the driving operation of the driver is known. In the case of parking in the garage, there are reverse parking in which the vehicle is parked by retreating to the parking section, and forward parking in which the vehicle is parked by moving forward with respect to the parking section. In general, the assistance by the driving assistance device is performed for the backward parking with respect to the parking section, and the forward parking is often not covered by the assistance. However, in the case of forward parking, it is necessary to reverse the vehicle when starting from the parking area. At this time, the driver needs to retreat while steering so that the left and right front ends of the vehicle that are difficult to see do not come into contact with the parked vehicle parked in the adjacent parking section due to the outer wheel difference. Japanese Patent Laying-Open No. 2008-290669 (Patent Document 1) discloses a start support device that reduces the burden of driving operation by a driver when starting to reverse from such a parking section. When the vehicle is parked, the starting support device stores the obstacle position information of the obstacle detected by the obstacle detection means in the storage device. Then, the start support device calculates a start route at the time of start of the vehicle so as to avoid the obstacle based on the obstacle position information stored in the storage device (paragraphs 4-8, FIG. 1, FIG. 7, etc.). ).

この発進支援装置は、前進駐車によって車庫入れ駐車された状態から後退発進する際の運転操作を支援することが可能なものである。しかし、自車両に隣接する障害物、例えば他の駐車車両の情報は、後退発進時のものではなく、自車両が前進駐車した際の過去の状況に基づくものである。つまり、前進駐車時に存在した駐車車両が、自車両が出庫する際にはすでに出庫して無くなっていたり、別の車両に入れ替わっていたり、空き区画に新たに車両が駐車されて未検出の駐車車両が存在したりする可能性がある。また、車庫入れ駐車された状態から後退発進する際には一般的に旋回を伴うが、この場合には上述したように外輪差による車両の左右の前端の経路が最も問題となる。この外輪差は、左旋回であれば右の前端、右旋回であれば左の前端というように、旋回方向とは逆の側の前端に出現する。従って、後退発進時における運転支援においては、旋回方向(出庫方向)も重要である。   This start support device can support a driving operation when starting to move backward from a state where the vehicle is parked in the garage by forward parking. However, information on obstacles adjacent to the host vehicle, for example, other parked vehicles, is not based on the reverse start but based on the past situation when the host vehicle parked forward. In other words, the parked vehicle that existed at the time of forward parking has already been issued when the vehicle is issued, has been replaced with another vehicle, or a new vehicle has been parked in an unoccupied area and has not been detected. May exist. Further, when the vehicle starts to move backward from a state where it is parked in the garage, a turn is generally involved. In this case, as described above, the route at the left and right front ends of the vehicle due to the outer wheel difference becomes the most problematic. This outer wheel difference appears at the front end on the side opposite to the turning direction, such as a right front end for left turn and a left front end for right turn. Therefore, the turning direction (shipping direction) is also important in driving support during reverse start.

特開2008−290669号JP 2008-290669 A

上記背景に鑑みて、後退発進時の自車両の周囲状況に良好に対応し、特に自車両の外輪差を考慮してドライバーの運転負担を軽減させる運転支援の実現が望まれる。   In view of the above-described background, it is desired to realize driving assistance that can cope with the surrounding situation of the host vehicle at the time of starting backward and reduce the driving burden on the driver particularly considering the outer wheel difference of the host vehicle.

上記課題に鑑みた本発明に係る運転支援装置の特徴構成は、
旋回を伴う車両の後退発進時における前記車両の旋回方向を方向情報として取得する方向情報取得部と、
前記車両が移動可能な領域と前記車両の両サイドにおいて障害物が存在する領域との境界を表す境界情報を演算する対象領域を、前記方向情報に基づいて設定する対象領域設定部と、
前記車両の両サイドに存在する前記障害物を検出して、前記対象領域において前記境界情報を演算する境界情報演算部と、を備える点にある。
The characteristic configuration of the driving support device according to the present invention in view of the above problems is as follows.
A direction information acquisition unit for acquiring, as direction information, the turning direction of the vehicle at the time of backward start of the vehicle with turning;
A target area setting unit that sets a target area for calculating boundary information representing a boundary between an area where the vehicle is movable and an area where an obstacle exists on both sides of the vehicle, based on the direction information;
And a boundary information calculation unit that detects the obstacle present on both sides of the vehicle and calculates the boundary information in the target region.

この特徴構成によれば、車両の両サイドにおいて障害物が存在する領域と車両が移動可能な領域との境界情報を演算するための対象領域が、車両の後退発進時における旋回方向を示す方向情報に基づいて設定される。後退発進する際の車両において障害物との接触を考慮すべき箇所は、旋回方向側の後端と、旋回方向と逆側の前端である。特に、この前端は、車両の外輪差により最も旋回半径の外側を通るポイントであり、また、一般的な車両においては、ドライバーによる直接目視確認が困難なポイントである。車両の周囲の全般に亘って障害物を検出し、境界情報を演算するためには比較的高い演算負荷を要する。しかし、本特徴構成によれば、後退発進の際に車両が旋回する方向に基づいて、考慮すべき車両の後端と前端とが何れのサイドであるかを判定して、そのサイドに対象領域が設定される。従って、障害物を検出し、境界情報を演算するための対象領域が限定され、演算負荷が軽減される。求められた境界情報は、障害物の存在や、車両と障害物との距離などをドライバーに報知する報知手段などが利用可能である。また、ステアリングの操作量などをドライバーに報知して運転をガイドするガイド手段などが利用することも可能である。従って、本特徴構成によれば、後退発進時の自車両の周囲状況に良好に対応し、特に自車両の外輪差を考慮してドライバーの運転負担を軽減させる運転支援が可能となる。   According to this characteristic configuration, the target area for calculating the boundary information between the area where the obstacle exists on both sides of the vehicle and the area where the vehicle can move is the direction information indicating the turning direction when the vehicle starts moving backward. Is set based on The places where contact with obstacles should be considered in the vehicle when starting backward are the rear end on the turn direction side and the front end on the opposite side to the turn direction. In particular, the front end is a point that passes most outside the turning radius due to a difference in the outer wheel of the vehicle, and in a general vehicle, it is a point that is difficult for a driver to visually confirm directly. In order to detect an obstacle over the entire periphery of the vehicle and calculate boundary information, a relatively high calculation load is required. However, according to this feature configuration, it is determined which side the rear end and the front end of the vehicle to consider is based on the direction in which the vehicle turns at the time of reverse start, and the target region is located on that side. Is set. Therefore, the target area for detecting the obstacle and calculating the boundary information is limited, and the calculation load is reduced. The obtained boundary information can be used by notifying means for notifying the driver of the presence of an obstacle, the distance between the vehicle and the obstacle, and the like. Further, it is possible to use a guide means for informing the driver of the steering operation amount and the like to guide the driving. Therefore, according to the present feature configuration, it is possible to satisfactorily cope with the surrounding conditions of the host vehicle at the time of starting backward, and particularly to support driving that reduces the driving burden on the driver in consideration of the outer wheel difference of the host vehicle.

本発明に係る運転支援装置は、さらに、前記方向情報及び前記境界情報に基づいて、前記障害物に接触することなく旋回を伴って前記車両を後退させる後退進路を演算する進路演算部を備えると好適である。この後退進路は、ステアリングの操作量などをドライバーに報知して運転をガイドするガイド手段などが利用可能である。具体的な後退進路が演算されることにより、ガイド手段は、精度の高いガイドが可能となる。その結果、後退発進時の自車両の周囲状況に良好に対応し、特に自車両の外輪差を考慮してドライバーの運転負担を軽減させる運転支援が可能となる。   The driving support device according to the present invention may further include a route calculation unit that calculates a backward route that causes the vehicle to move backward with a turn without contacting the obstacle based on the direction information and the boundary information. Is preferred. For this reverse path, a guide means for informing the driver of the steering operation amount and the like to guide the driving can be used. By calculating a specific backward path, the guide means can perform a highly accurate guide. As a result, it is possible to cope with the surrounding conditions of the host vehicle when the vehicle starts to move backward, and in particular, driving assistance that reduces the driving burden on the driver in consideration of the outer wheel difference of the host vehicle.

また、本発明に係る運転支援装置は、さらに、前記車両の移動状態を検出するセンサの検出結果に基づいて自己位置を推定する自己位置推定部と、前記車両が車庫入れ駐車から後退発進する際に、前記車両が所定の出庫姿勢となるまで、前記自己位置及び前記後退進路に基づいて前記車両の操舵装置を制御する自動操舵制御部と、を備えると好適である。自動操舵制御部を備えることにより、車両が駐車区画内に駐車された状態から出庫されるまでのドライバーの運転負担を大きく軽減させることができる。   The driving support device according to the present invention further includes a self-position estimating unit that estimates a self-position based on a detection result of a sensor that detects a moving state of the vehicle, and when the vehicle starts to move backward from garage parking. In addition, it is preferable that an automatic steering control unit that controls the steering device of the vehicle based on the self-position and the backward traveling path until the vehicle assumes a predetermined leaving posture is preferable. By providing the automatic steering control unit, it is possible to greatly reduce the driving burden on the driver until the vehicle is released from the state where the vehicle is parked in the parking section.

また、本発明に係る運転支援装置の前記所定の出庫姿勢は、前記車両が駐車中の姿勢から真っ直ぐに後退する方向を出庫方向として、旋回方向とは反対側において障害物が存在する領域と前記車両が移動可能な領域との境界を、旋回方向とは反対側の前記車両の前端が前記出庫方向に向かって通過完了した以降の姿勢であると好適である。上述したように、旋回方向とは反対側の車両の前端は、車両の外輪差により最も旋回半径の外側を通るポイントである。また、このポイントは、一般的な車両においては、ドライバーによる直接目視確認が困難なポイントである。このポイントの方向において障害物が存在する領域と車両が移動可能な領域との境界、即ち外輪差により前端が障害物に接触する可能性のある移動範囲を、前端が通過し終えれば、出庫の際の難易度の高い運転操作はほぼ完了する。従って、車両がこの姿勢となるまで、自動操舵が実施されると、ドライバーの運転負担が大きく軽減される。   Further, the predetermined leaving posture of the driving support device according to the present invention is such that the direction in which the vehicle recedes straight from the parked posture is a leaving direction, and the region where the obstacle exists on the side opposite to the turning direction It is preferable that the posture is after the front end of the vehicle on the side opposite to the turning direction has passed through the boundary with the region where the vehicle can move in the exit direction. As described above, the front end of the vehicle on the side opposite to the turning direction is the point that passes the outermost side of the turning radius due to the difference between the outer wheels of the vehicle. In addition, this point is difficult for a general vehicle to be directly visually confirmed by a driver. If the front end has passed through the boundary between the area where the obstacle exists in this direction of the point and the area where the vehicle can move, that is, the movement range where the front end may contact the obstacle due to the difference in the outer ring, The driving operation with a high degree of difficulty is almost completed. Therefore, if automatic steering is performed until the vehicle is in this posture, the driving burden on the driver is greatly reduced.

あるいは、本発明に係る運転支援装置の前記所定の出庫姿勢は、前記車両が駐車中の姿勢に対して直交する姿勢であると好適である。一般的な車庫入れ駐車では、車両は通路を通行する際の姿勢に対してほぼ直角の姿勢となる。従って、車庫入れ駐車からの出庫の際に、駐車状態に対してほぼ直角となるまで自動操舵が実施されると、自動操舵の完了時には車両は通路に沿った姿勢となる。その結果、自動操舵の完了後には、ドライバーはそのまま通路を前進させることが可能となり、ドライバーの運転負担が大きく軽減される。   Alternatively, it is preferable that the predetermined leaving posture of the driving support device according to the present invention is a posture orthogonal to the posture in which the vehicle is parked. In a general garage parking, the vehicle is in a posture substantially perpendicular to the posture when passing through the passage. Therefore, when the automatic steering is performed until the vehicle is left from the garage parking until the vehicle is almost perpendicular to the parking state, the vehicle is positioned along the passage when the automatic steering is completed. As a result, after the completion of the automatic steering, the driver can move forward on the path as it is, and the driving burden on the driver is greatly reduced.

また、本発明に係る運転支援装置は、車載カメラによる撮影画像を受け取る撮影画像受取部と、前記車両の移動状態を検出するセンサの検出結果に基づいて自己位置を推定する自己位置推定部とを備え、前記境界情報演算部が、前記車両が所定距離離間した少なくとも2つの地点においてそれぞれ撮影された少なくとも2つの撮影画像と当該地点の前記自己位置とに基づいて、前記障害物を検出し、前記境界情報を演算すると好適である。車両への搭載が増えている車載カメラの撮影画像を利用して障害物を検出し、境界情報が演算されると、他のセンサなどを搭載する必要がなく、安価に運転支援装置を構成することができる。一般的に2次元の射影画像として提供される撮影画像を用いて立体物を認識するためには、少なくとも異なる2箇所にカメラを設置する必要がある。しかし、車載カメラを多く搭載することはコスト的に好ましいことではない。一方、車載カメラが搭載される車両は、移動体であるから、車両が移動することによって車載カメラは少なくとも異なる2箇所における撮影画像を提供可能である。各撮影画像が撮影された時の車載カメラの位置は、自己位置推定部により特定可能であるから、これら異なる位置で撮影された撮影画像を用いて、境界情報演算部は、立体物を画像認識し、境界情報を演算することができる。   In addition, the driving support device according to the present invention includes a captured image receiving unit that receives a captured image by an in-vehicle camera, and a self-position estimating unit that estimates a self-position based on a detection result of a sensor that detects a moving state of the vehicle. The boundary information calculation unit detects the obstacle based on at least two captured images captured at each of at least two points where the vehicle is separated by a predetermined distance and the self position of the point, It is preferable to calculate the boundary information. When obstacles are detected using the images captured by in-vehicle cameras, which are increasingly installed in vehicles, and boundary information is calculated, it is not necessary to install other sensors, etc., and the driving support device is configured at low cost. be able to. In general, in order to recognize a three-dimensional object using a captured image provided as a two-dimensional projected image, it is necessary to install cameras at at least two different places. However, it is not preferable in terms of cost to install many on-vehicle cameras. On the other hand, since the vehicle on which the vehicle-mounted camera is mounted is a moving body, the vehicle-mounted camera can provide captured images at at least two different places as the vehicle moves. Since the position of the in-vehicle camera when each captured image is captured can be specified by the self-position estimation unit, the boundary information calculation unit recognizes the three-dimensional object using the captured images captured at these different positions. Then, boundary information can be calculated.

車両を一部切り欠いて示す車両の斜視図A perspective view of a vehicle showing a partially cut-out vehicle カメラの撮影範囲を示す平面図Top view showing the shooting range of the camera 車両のシステム構成の一例を模式的に示すブロック図Block diagram schematically showing an example of a system configuration of a vehicle シフトレバーの位置とモニタ装置の表示画面との関係の一例を示す図The figure which shows an example of the relationship between the position of a shift lever, and the display screen of a monitor apparatus 運転支援装置の機能構成の一例を模式的に示すブロック図Block diagram schematically showing an example of the functional configuration of the driving support device 運転支援開始時のモニタ装置の表示画面の一例を示す図The figure which shows an example of the display screen of the monitor apparatus at the time of driving assistance start 車庫入れ駐車時のモニタ装置の表示画面の一例を示す図The figure which shows an example of the display screen of the monitor apparatus at the time of parking in a garage 出庫支援時のモニタ装置の表示画面の一例を示す図The figure which shows an example of the display screen of the monitor apparatus at the time of leaving assistance 旋回方向と対象領域との関係を模試的に示す図Diagram showing the relationship between the turning direction and the target area 障害物検出及び境界情報演算の原理を説明する図Diagram explaining the principle of obstacle detection and boundary information calculation 境界情報と車両の後退進路との関係を模試的に示す図Diagram showing the relationship between the boundary information and the vehicle's reverse path

以下、本発明の実施形態を図面に基づいて説明する。本実施形態では、車両に備えられた複数のカメラの撮影画像を元にして、車両を上方から見下ろした形態となる俯瞰画像を生成してモニタ装置に表示する運転支援装置(駐車支援装置・周辺監視装置)を例として説明する。俯瞰画像を用いることにより、ドライバーに対して運転操作の支援や、車両の周辺の障害物などの監視支援を行うことができる。従って、運転支援装置は、出庫の際の支援も含む駐車支援装置や周辺監視装置としても機能する。以下、俯瞰画像を用いて、車庫入れ駐車における出庫の際に運転支援を実行する例を挙げて本発明の運転支援装置の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a driving support device (parking support device / periphery) that generates a bird's-eye view image in which the vehicle is looked down from above is displayed on a monitor device based on images taken by a plurality of cameras provided in the vehicle. (Monitoring device) will be described as an example. By using the bird's-eye view image, it is possible to provide driving assistance to the driver and monitoring assistance for obstacles around the vehicle. Therefore, the driving support device also functions as a parking support device and a surroundings monitoring device including support at the time of delivery. Hereinafter, embodiments of the driving support device of the present invention will be described using an example of performing driving support at the time of leaving in garage parking using an overhead image.

車両90には、複数の車載カメラ1が設置されている。図1及び図2に示すように、車両90の後部、即ちバックドア91には後方カメラ1aが備えられている。左前部ドア92に備えられた左サイドミラー94の下部には左サイドカメラ1bが備えられ、右前部ドア93に備えられた右サイドミラー95の下部には右サイドカメラ1cが備えられている。また、車両90の前部には、前方カメラ1dが備えられている。以下の説明において、適宜、これらのカメラ1a〜1dを総称してカメラ1(車載カメラ)と称する。   A plurality of in-vehicle cameras 1 are installed in the vehicle 90. As shown in FIGS. 1 and 2, the rear portion of the vehicle 90, that is, the back door 91 is provided with a rear camera 1 a. A left side camera 1b is provided below the left side mirror 94 provided in the left front door 92, and a right side camera 1c is provided below the right side mirror 95 provided in the right front door 93. A front camera 1d is provided at the front of the vehicle 90. In the following description, these cameras 1a to 1d will be collectively referred to as a camera 1 (vehicle camera) as appropriate.

カメラ1はCCD(charge coupled device)やCIS(CMOS image sensor)などの撮像素子を用いて、毎秒15〜30フレームの2次元画像を時系列に撮影し、デジタル変換して動画データ(撮影画像)をリアルタイムに出力するデジタルカメラである。カメラ1は、広角レンズを備えて構成される。特に、本実施形態においては、水平方向に140〜190°の視野角が確保されている。後方カメラ1a及び前方カメラ1dは、光軸に約30度程度の俯角を有して車両90に設置され、車両90からおおよそ8m程度までの領域を撮影可能である。左サイドカメラ1b及び右サイドカメラ1cはサイドミラー94及び95の底部に光軸を下方に向けて設置され、車両90の側面の一部と路面(地面)とが撮影可能である。   The camera 1 uses a CCD (charge coupled device), CIS (CMOS image sensor), or other imaging device to capture a 15-30 frame per second two-dimensional image in time series, and digitally converts it into moving image data (captured image). Is a digital camera that outputs in real time. The camera 1 includes a wide angle lens. In particular, in the present embodiment, a viewing angle of 140 to 190 ° is ensured in the horizontal direction. The rear camera 1a and the front camera 1d have a depression angle of about 30 degrees on the optical axis and are installed in the vehicle 90, and can capture an area from the vehicle 90 to about 8 m. The left side camera 1b and the right side camera 1c are installed at the bottom of the side mirrors 94 and 95 with the optical axis facing downward, and a part of the side surface of the vehicle 90 and the road surface (ground) can be photographed.

カメラ1により撮影された画像は、図3に示すように、スーパーインポーズ部2a、グラフィック描画部2b、フレームメモリ2cなどを有する画像処理モジュール2を介して、モニタ装置4に表示可能である。各フレームの2次元画像は、フレームメモリ2cに格納され、フレームごとに画像処理やグラフィックの重畳を施されることが可能である。また、画像処理モジュール2は、複数のカメラ1により撮影された撮影画像を合成して、より広い視野の合成画像を生成したり、撮影画像や合成画像の視点を変換して俯瞰画像を生成したりすることも可能である。   As shown in FIG. 3, an image photographed by the camera 1 can be displayed on the monitor device 4 via an image processing module 2 having a superimposing unit 2a, a graphic drawing unit 2b, a frame memory 2c, and the like. The two-dimensional image of each frame is stored in the frame memory 2c, and image processing or graphic superimposition can be performed for each frame. Further, the image processing module 2 combines the captured images captured by the plurality of cameras 1 to generate a combined image with a wider field of view, or generates a bird's-eye view image by converting the viewpoints of the captured image and the combined image. It is also possible to do.

車両90の前後位置の角部の外方位置には2つのカメラの撮影画像における重複領域W(図2を参照)が形成され、この重複領域Wにおいて境界部位を目立たなくする画像処理が実施されて合成画像が生成される。また、この合成画像の視点を変換し、車両90の屋根の外観画像(グラフィック画像)が視点変換後の画像に重畳されて俯瞰画像が生成される。このグラフィック画像は、車両90の屋根の外観を模式的に表現したり写実的に表現したりしたイラスト画像でもよいし、実際に車両90の屋根の外観を撮影した写真画像や映像画像でもよい。当然ながら、単一のカメラ1の撮影画像をそれぞれ視点変換し、視点変換された複数のカメラ1の撮影画像を合成してもよい。複数の撮影画像の合成や画像の視点変換に関する画像処理技術は公知であるので詳細な説明は省略する。グラフィック描画部2bへの描画指示や、スーパーインポーズ部2aへのグラフィック重畳指示は、後述するCPU(central processing unit)5から発せられる。   An overlapping area W (see FIG. 2) in the captured images of the two cameras is formed at the outer position of the front and rear corners of the vehicle 90, and image processing for making the boundary portion inconspicuous in the overlapping area W is performed. Thus, a composite image is generated. In addition, the viewpoint of the composite image is converted, and the appearance image (graphic image) of the roof of the vehicle 90 is superimposed on the image after the viewpoint conversion to generate an overhead image. The graphic image may be an illustration image that schematically or realistically represents the appearance of the roof of the vehicle 90, or may be a photographic image or a video image that actually captures the appearance of the roof of the vehicle 90. Needless to say, the viewpoints of the captured images of the single camera 1 may be converted, and the captured images of the plurality of cameras 1 whose viewpoints have been converted may be combined. Since image processing techniques related to the synthesis of a plurality of captured images and image viewpoint conversion are well known, detailed description thereof will be omitted. A drawing instruction to the graphic drawing unit 2b and a graphic superimposing instruction to the superimposing unit 2a are issued from a CPU (central processing unit) 5 described later.

モニタ装置4は、例えば、ナビゲーションシステムのモニタ装置が兼用される。図3に示すように、モニタ装置4は、表示部4aと、表示部4aに形成されたタッチパネル4bと、スピーカ4cとを有している。表示部4aは、画像処理モジュール2から提供されるカメラ1の撮影画像や、グラフィック画像、それらが合成された合成画像などを表示する。一例として、表示部4aは液晶ディスプレイによって構成される。タッチパネル4bは、表示部4aと共に形成され、指などによる接触位置をロケーションデータとして出力することができる感圧式や静電式の指示入力装置である。図3においては、スピーカ4cは、モニタ装置4に備えられている場合を例示しているが、スピーカ4cはドアの内側など、他の場所に備えられても良い。スピーカ4cは、CPU5の指示に応じて音声処理モジュール3から提供される音声を出力する。尚、CPU5は、単純にブザー8を介して報知音を鳴らす場合もある。尚、ここでは指示入力装置として、タッチパネル4bを用いたが、これに限定されるものではない。例えば、ジョイスティック、押しボタン等でもよい。また、ジョイスティックであれば、特開2010−128619号公報に開示されるような抵抗力が付与されるものでもよい。   As the monitor device 4, for example, a monitor device of a navigation system is also used. As shown in FIG. 3, the monitor device 4 includes a display unit 4a, a touch panel 4b formed on the display unit 4a, and a speaker 4c. The display unit 4a displays a captured image of the camera 1 provided from the image processing module 2, a graphic image, a combined image obtained by combining them, and the like. As an example, the display unit 4a is configured by a liquid crystal display. The touch panel 4b is a pressure-sensitive or electrostatic instruction input device that is formed together with the display unit 4a and can output a contact position by a finger or the like as location data. FIG. 3 illustrates the case where the speaker 4c is provided in the monitor device 4, but the speaker 4c may be provided in another place such as the inside of the door. The speaker 4c outputs sound provided from the sound processing module 3 in accordance with an instruction from the CPU 5. Note that the CPU 5 may simply sound a notification sound via the buzzer 8. Although the touch panel 4b is used here as the instruction input device, the present invention is not limited to this. For example, a joystick or a push button may be used. Further, as long as it is a joystick, a resistance force as disclosed in JP 2010-128619 A may be applied.

CPU5は、画像認識や進路予想などの高度な演算処理を行い、運転支援装置10の中核を担う。CPU5は、プログラムメモリ6に格納されたプログラムやパラメータを利用して各種演算処理を実行する。また、CPU5は、必要に応じてワークメモリ7に一時的に撮影画像などを格納して演算を実行する。ここでは、プログラムメモリ6やワークメモリ7が、CPU5とは別のメモリである例を示しているが、CPU5と同一のパッケージ内に集積されていてもよい。運転支援装置10は、CPU5やメモリ、その他の周辺回路と共に、運転支援ECU(electronic control unit)9として構成される。本例では、CPU5を中核としたが、運転支援装置10は、DSP(digital signal processor)など、他の論理演算プロセッサや論理回路を中核として構成されてもよい。   The CPU 5 performs advanced arithmetic processing such as image recognition and course prediction, and plays a central role in the driving support device 10. The CPU 5 executes various arithmetic processes using programs and parameters stored in the program memory 6. Further, the CPU 5 temporarily stores a captured image or the like in the work memory 7 as necessary, and executes the calculation. Here, an example in which the program memory 6 and the work memory 7 are memories different from the CPU 5 is shown, but they may be integrated in the same package as the CPU 5. The driving support device 10 is configured as a driving support ECU (electronic control unit) 9 together with a CPU 5, a memory, and other peripheral circuits. In this example, the CPU 5 is the core, but the driving support device 10 may be configured with another logical operation processor or logic circuit such as a DSP (digital signal processor) as the core.

CPU5は、図3において符号50で示す車内ネットワークを介して種々のシステムやセンサと通信可能に接続されている。本実施形態においては、車内ネットワークとしてCAN(controller area network)50を例示している。図1に示すように、運転支援装
置10(CPU5)は、車内のパワーステアリングシステム31やブレーキシステム37と接続される。これら各システムは、駐車支援装置10と同様にCPUなどの電子回路を中核として構成され、運転支援ECU9と同様に周辺回路と共に構成されたECUを中核として構成される。
The CPU 5 is communicably connected to various systems and sensors via an in-vehicle network denoted by reference numeral 50 in FIG. In the present embodiment, a CAN (controller area network) 50 is illustrated as an in-vehicle network. As shown in FIG. 1, the driving assistance device 10 (CPU 5) is connected to a power steering system 31 and a brake system 37 in the vehicle. Each of these systems is configured with an electronic circuit such as a CPU as a core, similar to the parking assist device 10, and is configured with an ECU configured with peripheral circuits as a core, similar to the driving support ECU 9.

パワーステアリングシステム31は、電動パワーステアリング(EPS : electric power steering)システムやSBW(steer-by-wire)システムである。このシステムは、ドライバーにより操作されるステアリングホイールにアクチュエータ41によりアシストトルクを付加することが可能である。また、ステアリングホイールや操舵輪をアクチュエータ41により駆動することによって自動操舵を行うことも可能である。ブレーキシステム37は、ブレーキのロックを抑制するABS(anti lock braking system)や、コーナリング時の車両の横滑りを抑制する横滑り防止装置(ESC : electronic stability control)、ブレーキ力を増強させるブレーキアシストなどを有した電動ブレーキシステムや、BBW(brake-by-wire)システムである。このシステムは、アクチュエータ47を介して車両90に制動力を付加することができる。   The power steering system 31 is an electric power steering (EPS) system or an SBW (steer-by-wire) system. In this system, assist torque can be applied to the steering wheel operated by the driver by the actuator 41. It is also possible to perform automatic steering by driving the steering wheel or steering wheel by the actuator 41. The brake system 37 has an anti lock braking system (ABS) that suppresses the locking of the brake, a skid prevention device (ESC: electronic stability control) that suppresses the skidding of the vehicle during cornering, and a brake assist that enhances the braking force. Electric brake system and BBW (brake-by-wire) system. This system can apply a braking force to the vehicle 90 via the actuator 47.

図3において、各種センサの一例として、ステアリングセンサ21や車輪速センサ23、シフトレバースイッチ25、アクセルセンサ29がCAN50に接続されている。ステアリングセンサ21は、ステアリングホイールの操舵量(回転角度)を検出するセンサであり、例えばホール素子などを用いて構成される。運転支援装置10は、ドライバーによるステアリングホイールの操舵量や、自動操舵時の操舵量をステアリングセンサ21から取得して各種制御を実行する。   In FIG. 3, as an example of various sensors, a steering sensor 21, a wheel speed sensor 23, a shift lever switch 25, and an accelerator sensor 29 are connected to the CAN 50. The steering sensor 21 is a sensor that detects the steering amount (rotation angle) of the steering wheel, and is configured using, for example, a Hall element. The driving support device 10 acquires the steering amount of the steering wheel by the driver and the steering amount during automatic steering from the steering sensor 21 and executes various controls.

車輪速センサ23は、車両90の車輪の回転量や単位時間当たりの回転数を検出するセンサであり、例えばホール素子などを用いて構成される。運転支援装置10は、車輪速センサ23から取得した情報に基づいて車両90の移動量などを演算し、各種制御を実行する。車輪速センサ23は、ブレーキシステム37に備えられている場合もある。ブレーキシステム37は、左右の車輪の回転差などからブレーキのロックや、車輪の空回り、横滑りの兆候などを検出して、各種制御を実行する。車輪速センサ23がブレーキシステム37に備えられている場合には、運転支援装置10は、ブレーキシステム37を介して情報を取得する。ブレーキセンサ27は、ブレーキペダルの操作量を検出するセンサであり、運転支援装置10は、ブレーキシステム37を介して情報を取得する。運転支援装置10は、例えば、自動操舵中にブレーキペダルが踏み込まれたような場合に、自動操舵に不都合な環境下にあるとして自動操舵を中断したり中止したりする制御を行うことができる。   The wheel speed sensor 23 is a sensor that detects the amount of rotation of the wheel of the vehicle 90 and the number of rotations per unit time, and is configured using, for example, a Hall element. The driving support device 10 calculates the amount of movement of the vehicle 90 based on the information acquired from the wheel speed sensor 23 and executes various controls. The wheel speed sensor 23 may be provided in the brake system 37. The brake system 37 performs various controls by detecting a brake lock, an idle rotation of the wheel, a sign of skidding, and the like from the difference in rotation between the left and right wheels. When the wheel speed sensor 23 is provided in the brake system 37, the driving support device 10 acquires information via the brake system 37. The brake sensor 27 is a sensor that detects the amount of operation of the brake pedal, and the driving support device 10 acquires information via the brake system 37. For example, when the brake pedal is depressed during automatic steering, the driving support device 10 can perform control to interrupt or stop automatic steering because it is in an environment unfavorable for automatic steering.

シフトレバースイッチ25は、シフトレバーの位置を検出するセンサ又はスイッチであり、変位センサなどを用いて構成される。例えば、シフトがリバースにセットされた場合に、運転支援装置10は支援制御を開始したり、リバースから前進に変更された場合に支援制御を終了させたりすることができる。また、ステアリングホイールへの操作トルクを検出するトルクセンサ22は、ドライバーがステアリングホイールを握っているか否かについても検出することが可能である。運転支援装置10は、自動操舵中にドライバーがステアリングホイールを操作するために強く握った場合などに、自動操舵に不都合な環境下にあるとして自動操舵を中断したり中止したりする制御を行うことができる。また、自動操舵時には、一般的にエンジンのアイドリングによる車両90のクリーピングが利用される。従って、ドライバーがアクセルを操作したことがアクセルセンサ29により検出された場合、運転支援装置10は、自動操舵に不都合な環境下にあるとして自動操舵を中断したり中止したりする制御を行うことができる。   The shift lever switch 25 is a sensor or switch that detects the position of the shift lever, and is configured using a displacement sensor or the like. For example, when the shift is set to reverse, the driving support device 10 can start the support control, or can end the support control when the shift is changed from reverse to forward. Further, the torque sensor 22 that detects the operation torque to the steering wheel can detect whether or not the driver is holding the steering wheel. The driving support device 10 performs control for interrupting or canceling the automatic steering because the driver is strongly gripped to operate the steering wheel during the automatic steering because the driver is in an environment unfavorable for the automatic steering. Can do. Further, during automatic steering, creeping of the vehicle 90 by engine idling is generally used. Therefore, when the accelerator sensor 29 detects that the driver has operated the accelerator, the driving support device 10 can perform control to interrupt or stop the automatic steering because it is in an environment unfavorable for automatic steering. it can.

図3に示す各種システムやセンサ、これらの接続形態については一例であり、他の構成や接続形態が採用されてもよい。また、上述したように、センサは直接CAN50に接続されても良いし、種々のシステムを介して接続されてもよい。   The various systems and sensors shown in FIG. 3 and their connection forms are examples, and other configurations and connection forms may be employed. Further, as described above, the sensor may be directly connected to the CAN 50 or may be connected via various systems.

本実施形態では、図4に示すように、シフトレバーがリバース位置以外の場合には、定常的にはナビゲーションシステムの地図等のナビゲーション画面がモニタ装置4に表示されているものとする。タッチボタンや選択ボタンなどの操作により、前方カメラ1d、左側方カメラ1b、右側方カメラ1cの撮影画像が表示可能であるとする。勿論、ここで後方カメラ1aの撮影画像も選択可能であってもよい。一方、シフトレバーがリバース位置に設定されると、ナビゲーション画面やカメラ1b,1c,1dの撮影画像から、自動的に後方カメラ1aの撮影画像の表示に切り替わるものとする。例えば、この時、表示画像は、ガイド線が重畳された後方カメラ1aの撮影画像(サイドビュー又はドライバーズビューと称する。)に切り替わる。この画面において、他の表示画像を選択可能なタッチボタンが表示される。ドライバーがタッチボタンを操作することにより、トップビューや、トップビューとサイドビューとが共に表示されたマルチビューへの変更が可能である。   In the present embodiment, as shown in FIG. 4, when the shift lever is at a position other than the reverse position, it is assumed that a navigation screen such as a map of the navigation system is constantly displayed on the monitor device 4. It is assumed that captured images of the front camera 1d, the left camera 1b, and the right camera 1c can be displayed by operating the touch button, the selection button, and the like. Of course, the photographed image of the rear camera 1a may be selectable here. On the other hand, when the shift lever is set to the reverse position, the navigation screen and the captured images of the cameras 1b, 1c, and 1d are automatically switched to the display of the captured image of the rear camera 1a. For example, at this time, the display image is switched to a captured image (referred to as a side view or a driver's view) of the rear camera 1a on which a guide line is superimposed. On this screen, a touch button capable of selecting another display image is displayed. When the driver operates the touch button, it is possible to change to the multi-view in which the top view and the top view and the side view are displayed together.

図4は、一般的な運転支援である、駐車区画に対して車両90を後退させて車庫入れ駐車する後退駐車の場合を例示している。以下、トップビュー画面を例として、駐車区画に対して車両を前進させて駐車する前進駐車により車庫入れ駐車された車両90を後退させて出庫する際の運転支援について説明する。尚、以下の説明においては、予想軌跡線や車幅延長線などのガイド線は図示を省略するが、出庫の際の運転支援においても、ガイド線が表示されることを妨げるものではない。   FIG. 4 illustrates the case of reverse parking, which is general driving assistance, in which the vehicle 90 is moved backward with respect to the parking section and the garage is parked. Hereinafter, driving assistance when the vehicle 90 parked in the garage by the forward parking in which the vehicle is moved forward and parked with respect to the parking section will be taken out and the vehicle is left and taken out will be described using the top view screen as an example. In the following description, guide lines such as an expected trajectory line and a vehicle width extension line are not shown, but this does not prevent the guide lines from being displayed in driving assistance at the time of delivery.

出庫支援を実行可能な運転支援装置10は、図5に示すように、撮影画像受取部11と、方向情報取得部12と、対象領域設定部13と、境界情報演算部14と、進路演算部15と、自己位置推定部16と、自動操舵制御部17とを備えて構成される。撮影画像受取部11は、カメラ1による撮影画像を受け取る機能部である。方向情報取得部12は、旋回を伴う車両90の後退発進時における車両90の旋回方向を方向情報として取得する機能部である。対象領域設定部13は、車両90が移動可能な領域と車両90の左右の両サイドにおいて障害物が存在する領域との境界情報を演算する対象領域を、方向情報に基づいて設定する機能部である。境界情報演算部14は、車両90の左右の両サイドに存在する障害物を検出して、対象領域において境界情報を演算する機能部である。進路演算部15は、方向情報及び境界情報に基づいて、障害物に接触することなく旋回を伴って車両90を後退させる後退進路を演算する機能部である。自己位置推定部16は、車両90の移動状態を検出するセンサの検出結果に基づいて車両90の自己位置を推定する機能部である。自動操舵制御部17は、車両90が車庫入れ駐車から後退発進する際に、車両90が所定の出庫姿勢となるまで、後退進路に基づいて車両90のパワーステアリングシステム31(操舵装置)を制御する機能部である。   As shown in FIG. 5, the driving support device 10 that can execute the exit support includes a captured image receiving unit 11, a direction information acquisition unit 12, a target area setting unit 13, a boundary information calculation unit 14, and a course calculation unit. 15, a self-position estimating unit 16, and an automatic steering control unit 17. The captured image receiving unit 11 is a functional unit that receives an image captured by the camera 1. The direction information acquisition unit 12 is a functional unit that acquires, as direction information, the turning direction of the vehicle 90 when the vehicle 90 with a turn starts to move backward. The target area setting unit 13 is a functional unit that sets a target area for calculating boundary information between an area where the vehicle 90 can move and areas where obstacles exist on both the left and right sides of the vehicle 90 based on the direction information. is there. The boundary information calculation unit 14 is a functional unit that detects obstacles on both the left and right sides of the vehicle 90 and calculates boundary information in the target region. The course calculation unit 15 is a functional unit that calculates a backward path that causes the vehicle 90 to move backward with a turn without contacting an obstacle based on the direction information and the boundary information. The self-position estimating unit 16 is a functional unit that estimates the self-position of the vehicle 90 based on the detection result of the sensor that detects the moving state of the vehicle 90. The automatic steering control unit 17 controls the power steering system 31 (steering device) of the vehicle 90 based on the backward traveling path until the vehicle 90 assumes a predetermined leaving posture when the vehicle 90 starts moving backward from the garage parking. It is a functional part.

以下、具体的な例を用いながら説明する。車両90が前進駐車により駐車区画に駐車されている状態において、ドライバーが出庫のためにシフトレバーをリバースにセットすると、上述したようにモニタ装置4の画面がナビゲーション画面から撮影画像に基づく画面に切り替わる。本実施形態においては、この画面において駐車支援を開始させるためのタッチボタンが表示される。ここでは、図6に示すように、「車庫入れ」と「縦列」とが選択可能である。「車庫入れ」が選択されると、次に図7に示すように「駐車支援」と「出庫支援」との選択が可能なタッチボタンが表示される。ここで、「出庫支援」が選択されると、図8に示すように旋回方向を設定するためのタッチボタンDが表示される。   Hereinafter, a specific example will be described. When the vehicle 90 is parked in the parking area by forward parking, when the driver sets the shift lever to reverse, the screen of the monitor device 4 is switched from the navigation screen to the screen based on the captured image as described above. . In the present embodiment, a touch button for starting parking assistance is displayed on this screen. Here, as shown in FIG. 6, “garage entry” and “column” can be selected. When “garage entry” is selected, touch buttons capable of selecting “parking assistance” and “cargo assistance” are displayed as shown in FIG. Here, when “shipping support” is selected, a touch button D for setting the turning direction is displayed as shown in FIG.

本実施形態においては、図8において右方向、即ち右方向への旋回を伴って出庫し、出庫後に車両90が図8において左方向を向くように旋回方向が設定される場合を例として説明する。また、障害物として、車両90の左右の両側に駐車車両100(101,102)が駐車されているとする。尚、車両90の両サイドの駐車車両100は、サイドカメラ1b、1cによる撮影画像に基づいて表示画像上に表示される。当然ながら、駐車車両100の上方からの撮影画像ではないので、実際には車体の一部、例えば側面が歪んだ形で表示画像上に表示されることが多い。しかし、本実施形態では、境界情報を演算するという発明の要旨の理解を容易にするために、駐車車両100を含めた俯瞰画像を用いて説明する。従って、図6〜図11に示す俯瞰画像は、駐車支援装置10が演算処理だけに用いる仮想画像であってもよく、モニタ装置4には、後方カメラ1aの撮影画像やその他の表示画像が表示されてもよい。   In the present embodiment, an example will be described in which the vehicle is discharged with a turn in the right direction, that is, in the right direction in FIG. 8, and the turn direction is set so that the vehicle 90 faces the left direction in FIG. . Further, it is assumed that the parked vehicle 100 (101, 102) is parked on both the left and right sides of the vehicle 90 as an obstacle. The parked vehicles 100 on both sides of the vehicle 90 are displayed on the display image based on the images taken by the side cameras 1b and 1c. Of course, since it is not a photographed image from above the parked vehicle 100, it is often displayed on the display image in such a manner that part of the vehicle body, for example, the side surface is distorted. However, in this embodiment, in order to facilitate understanding of the gist of the invention of calculating boundary information, description will be made using an overhead image including the parked vehicle 100. Accordingly, the bird's-eye view images shown in FIGS. 6 to 11 may be virtual images that the parking support apparatus 10 uses only for the arithmetic processing, and the monitor device 4 displays a captured image of the rear camera 1a and other display images. May be.

尚、ここでは、「駐車支援」と「出庫支援」との支援内容をドライバーが選択したが、これに限られるものではない。例えば、前回エンジンを切る直前の走行状態に基づいて、CPU5が自動的に「駐車支援」と「出庫支援」とを選択するようにしてもよい。具体的には、前回エンジンを切る直前の走行状態が前進走行であれば前向き駐車であると判断できるので、前回エンジンを切る直前の走行状態が前進走行であって、今回エンジンをかけてから走行することなくシフトレバーをリバースにセットした場合には、CPU5は「出庫支援」を自動的に選択する。なお、前回エンジンを切る直前の走行状態が前進走行であるかどうかの判定は、前回エンジンを切る直前のシフトレバーの位置情報及び車速センサの検出情報の少なくとも一方を記憶して、その記憶された情報に基づいて判定する方法が考えられる。   Here, the driver selects the support contents of “parking support” and “shipping support”, but the present invention is not limited to this. For example, the CPU 5 may automatically select “parking assistance” and “shipping assistance” based on the traveling state immediately before turning off the engine last time. Specifically, if the driving state immediately before turning off the previous engine is forward driving, it can be determined that the vehicle is forward-facing parking. Therefore, the driving state immediately before turning off the previous engine is forward driving, and driving after the engine is turned on this time. When the shift lever is set to reverse without doing so, the CPU 5 automatically selects “shipping support”. Whether or not the running state immediately before turning off the previous engine is forward running is determined by storing at least one of the position information of the shift lever and the detection information of the vehicle speed sensor immediately before turning off the previous engine. A method of determining based on information can be considered.

図8に示すように、旋回方向を設定するためのタッチボタンDは、右方向への旋回を示すD1と、左方向への旋回を示すD2とが表示される。本実施形態では、右方向への旋回を伴って出庫させるために、ドライバーによってタッチボタンD1が選択される。図9に示すように、選択されたタッチボタンD1は、色が変わる、輝度が上がるなど、表示形態が変更される。同時に選択されなかった側のタッチボタンD2も、色が淡くなる、輝度が下がるなど、表示形態が変更されてもよい。ドライバーのタッチボタンD1への操作は、タッチパネル4bを介して運転支援ECU9へ伝達される。上述したように、方向情報取得部12として機能する運転支援ECU9は、旋回を伴う車両90の後退発進時における車両90の旋回方向を方向情報として取得する。   As shown in FIG. 8, the touch button D for setting the turning direction displays D1 indicating turning in the right direction and D2 indicating turning in the left direction. In the present embodiment, the touch button D1 is selected by the driver in order to leave the store with turning in the right direction. As shown in FIG. 9, the display mode of the selected touch button D1 is changed, for example, the color changes or the brightness increases. The display mode of the touch button D2 on the side not selected at the same time may be changed such that the color becomes lighter or the luminance decreases. The driver's operation on the touch button D1 is transmitted to the driving support ECU 9 via the touch panel 4b. As described above, the driving support ECU 9 functioning as the direction information acquisition unit 12 acquires the turning direction of the vehicle 90 when the vehicle 90 accompanied by a turn starts moving backward as direction information.

方向情報を取得した運転支援ECU9は、次に対象領域設定部13として機能し、車両90が移動可能な領域と車両90の左右の両サイドにおいて障害物が存在する領域との境界情報を演算する対象領域を、方向情報に基づいて設定する。本実施形態では、カメラ1により撮影された撮影画像を利用して境界情報を演算する場合を例として説明する。運転支援ECU9は、カメラ1による撮影画像を受け取る撮影画像受取部11としても機能する。詳細は、後述するが境界情報演算部14は、撮影画像や撮影画像が合成されて視点変換された俯瞰画像を使って障害物の検出や、境界情報を演算する。従って、対象領域設定部13は、撮影画像や、俯瞰画像に対して対象領域を設定する。   The driving assistance ECU 9 that has acquired the direction information then functions as the target region setting unit 13 and calculates boundary information between the region where the vehicle 90 can move and the region where obstacles exist on both the left and right sides of the vehicle 90. The target area is set based on the direction information. In the present embodiment, a case where boundary information is calculated using a captured image captured by the camera 1 will be described as an example. The driving support ECU 9 also functions as a photographed image receiving unit 11 that receives a photographed image by the camera 1. Although details will be described later, the boundary information calculation unit 14 detects an obstacle and calculates boundary information using a bird's-eye view image obtained by synthesizing the shot image and the shot image. Accordingly, the target area setting unit 13 sets a target area for the captured image or the overhead image.

図9は、俯瞰画像における対象領域Tの設定位置を例示している。便宜上、図9において対象領域Tを示しているが、モニタ装置4の表示画像に対象領域Tが表示される必要はない。対象領域Tは、画像処理など、境界情報演算部14による演算において利用される情報であり、ドライバーに対して報知が必要な情報ではない。後退発進する際の車両90において障害物としての駐車車両100との接触を考慮すべき箇所は、旋回方向側の後端(内輪側後端)92と、旋回方向と逆側の前端(外輪側前端)91である。前端91は、車両90の外輪差により最も旋回半径の外側を通るポイントであり、一般的な車両においては、ドライバーによる直接目視確認が困難なポイントである。また、後端92は、旋回半径の最も内側を通るポイントである。旋回方向に対応した前端91と後端92とは、方向情報に基づいて一義的に定まるから、方向情報に基づいて境界情報を演算するための対象領域Tが設定される。   FIG. 9 illustrates the setting position of the target region T in the overhead view image. For convenience, the target area T is shown in FIG. 9, but the target area T need not be displayed on the display image of the monitor device 4. The target area T is information used in calculations by the boundary information calculation unit 14 such as image processing, and is not information that needs to be notified to the driver. In the vehicle 90 when starting backward, the places to be considered for contact with the parked vehicle 100 as an obstacle are the rear end (inner ring side rear end) 92 in the turning direction and the front end (outer ring side) opposite to the turning direction. Front end) 91. The front end 91 is a point that passes most outside the turning radius due to the difference in the outer wheel of the vehicle 90. In a general vehicle, it is a point where direct visual confirmation by a driver is difficult. The rear end 92 is a point that passes through the innermost side of the turning radius. Since the front end 91 and the rear end 92 corresponding to the turning direction are uniquely determined based on the direction information, the target region T for calculating the boundary information based on the direction information is set.

例えば、図9に示すように、旋回方向とは逆側のサイドでは、前端(外輪側前端)91に対応して、ほぼ車両90の車長に対応する長さを有し、車両90に平行して対象領域(外輪側対象領域)T2が設定される。また、旋回方向側のサイドでは、後端(内輪側後端)92に対応して、車両90の後部において車両90の1/2〜1/4程度の長さを有し、車両90に平行する対象領域(内輪側対象領域)T1が設定される。   For example, as shown in FIG. 9, the side opposite to the turning direction has a length substantially corresponding to the vehicle length of the vehicle 90 corresponding to the front end (outer ring side front end) 91 and parallel to the vehicle 90. Thus, the target area (outer ring side target area) T2 is set. Further, on the side in the turning direction side, corresponding to the rear end (inner ring side rear end) 92, the rear portion of the vehicle 90 has a length of about ½ to ¼ of the vehicle 90 and is parallel to the vehicle 90. The target area (inner ring side target area) T1 to be set is set.

本実実施形態では、画像処理技術を用いて駐車車両100などの障害物や、障害物との境界情報が演算される。このような障害物は立体物であるが、撮影画像は2次元画像である。このため、車両90が所定距離離間した少なくとも2つの地点においてそれぞれ撮影された少なくとも2つの撮影画像に基づいて、公知のステレオ技法を用いて障害物や境界情報が演算される。2つの地点における撮影画像(又は俯瞰画像)を得るために、車両90は、微小距離移動する。本実施形態では、車両90を後退により出庫させようとしているので、車両90が微小距離、後退される。例えば、タッチボタンDにより出庫方向が設定された後、「ブレーキを緩めて車両を少し後退させてください」などのメッセージの表示や、音声による通知によりドライバーに操作を促すと好適である。尚、停止に関しては、ブレーキシステム37を利用して自動的に停止させると共に、「ブレーキを掛けて車両を停止させてください」などのメッセージの表示や音声通知によりドライバーの操作を促してもよい。   In the present embodiment, obstacles such as the parked vehicle 100 and boundary information with the obstacles are calculated using an image processing technique. Such an obstacle is a three-dimensional object, but the captured image is a two-dimensional image. For this reason, obstacles and boundary information are calculated using a known stereo technique based on at least two captured images captured at at least two points where the vehicle 90 is separated by a predetermined distance. In order to obtain captured images (or bird's-eye view images) at two points, the vehicle 90 moves a minute distance. In the present embodiment, since the vehicle 90 is to be released by retreating, the vehicle 90 is retreated by a minute distance. For example, after the delivery direction is set by the touch button D, it is preferable to prompt the driver to perform an operation by displaying a message such as “Please release the brakes and slightly reverse the vehicle” or by voice notification. The stop may be automatically stopped using the brake system 37, and the driver's operation may be urged by displaying a message such as “Please brake and stop the vehicle” or by voice notification.

上述したように、車両90には、車輪速センサ23やステアリングセンサ21など、車両90の挙動を検出するセンサが備えられている。運転支援ECU9において構成される自己位置推定部16は、車両90の移動状態を検出するこれらのセンサの検出結果に基づいて、公知のデットレコニング(Dead-Reckoning)技術などにより、車両90の自己位置を推定する。これにより、撮影画像や俯瞰画像が得られた位置が特定できるので、異なる2つの既知の地点における画像を利用して、障害物や境界情報が演算される。対象領域設定部13により、障害物や境界情報を演算する対象領域Tが絞り込まれているので、境界情報演算部14による演算負荷が大きく軽減される。   As described above, the vehicle 90 includes sensors that detect the behavior of the vehicle 90, such as the wheel speed sensor 23 and the steering sensor 21. The self-position estimation unit 16 configured in the driving support ECU 9 uses the known dead-reckoning technique or the like based on the detection results of these sensors that detect the movement state of the vehicle 90. Is estimated. Thereby, since the position where the captured image or the overhead image is obtained can be specified, obstacles and boundary information are calculated using images at two different known points. Since the target area T for calculating obstacles and boundary information is narrowed down by the target area setting unit 13, the calculation load on the boundary information calculation unit 14 is greatly reduced.

境界情報演算部14は、車両90の両サイドに存在する障害物を検出して、対象領域Tにおいて境界情報Eを演算する。図10に示すように、境界情報演算部14は、車両90の両サイドに存在する駐車車両100(101,102)を障害物として検出し、境界情報E(E1,E2)を演算する。内輪側対象領域T1において演算される境界情報E1は、内輪側境界情報であり、外輪側対象領域T2において演算される境界情報E2は、外輪側境界情報である。   The boundary information calculation unit 14 detects an obstacle existing on both sides of the vehicle 90 and calculates the boundary information E in the target region T. As shown in FIG. 10, the boundary information calculation part 14 detects the parked vehicle 100 (101,102) which exists in the both sides of the vehicle 90 as an obstruction, and calculates boundary information E (E1, E2). The boundary information E1 calculated in the inner ring side target area T1 is inner ring side boundary information, and the boundary information E2 calculated in the outer ring side target area T2 is outer ring side boundary information.

この境界情報Eは、例えば、路面に対して垂直な壁を表すものとしてワールド座標(基準座標)上に定義されると好適である。1つの実施形態として、この境界情報Eが演算された時点で、ドライバーに対して障害物の存在や、障害物との距離を報知しても良い。報知は、モニタ装置4へのグラフィックやメッセージの表示、スピーカ4cやブザー8を介した音声や音響の出力により実施される。以下、後退進路を案内する実施形態について説明するが、運転支援装置10は必ずしも後退進路を演算する必要はなく、境界情報Eを演算するまでの機能を担うものであってもよい。   The boundary information E is preferably defined on the world coordinates (reference coordinates) as representing a wall perpendicular to the road surface, for example. As one embodiment, when the boundary information E is calculated, the driver may be notified of the presence of an obstacle and the distance to the obstacle. The notification is performed by displaying a graphic or a message on the monitor device 4 and outputting sound or sound via the speaker 4 c or the buzzer 8. Hereinafter, although the embodiment for guiding the backward route will be described, the driving support device 10 does not necessarily have to calculate the backward route, and may have a function until the boundary information E is calculated.

運転支援装置10が後退進路を案内する場合、進路演算部15は、方向情報及び境界情報Eに基づいて、障害物に接触することなく旋回を伴って車両90を後退させる後退進路を演算する。方向情報に基づいて、操舵方向が定まるので、操舵角に応じた車両90の前端91の予想軌跡が演算可能である。上述したようにデットレコニング技術により、ワールド座標上における車両90の挙動は演算可能である。また、ワールド座標上において境界情報Eが同定されているので、外輪差により車両90の前端91が障害物としての駐車車両102に接触することなく旋回を伴って車両90が後退可能な後退進路が演算される。同時に、後退進路は、車両90の後端92が旋回方向の駐車車両101に接触しないような経路として演算される。   When the driving support device 10 guides the backward route, the route calculation unit 15 calculates a backward route that causes the vehicle 90 to move backward without making contact with an obstacle based on the direction information and the boundary information E. Since the steering direction is determined based on the direction information, the expected locus of the front end 91 of the vehicle 90 according to the steering angle can be calculated. As described above, the behavior of the vehicle 90 on the world coordinates can be calculated by the dead reckoning technique. Further, since the boundary information E is identified on the world coordinates, there is a reverse path in which the vehicle 90 can move backward with a turn without the front end 91 of the vehicle 90 coming into contact with the parked vehicle 102 as an obstacle due to an outer wheel difference. Calculated. At the same time, the backward traveling path is calculated as a path such that the rear end 92 of the vehicle 90 does not contact the parked vehicle 101 in the turning direction.

1つの態様として、演算された後退進路に基づいて、運転支援装置10は、ドライバーに対して運転操作を案内する。例えば、音声により、「ブレーキを緩めて合図があるまでそのまま真っ直ぐ後退してください。」、「ステアリングを右方向へ1回転、回してください。」などと運転操作を案内することができる。また、そのような案内と共に、車両90の予想軌跡をモニタ装置4に表示させて、駐車車両100との関係を明示してもよい。   As one aspect, the driving assistance device 10 guides the driving operation to the driver based on the calculated backward traveling path. For example, it is possible to guide the driving operation by voice such as “Release the brake and go back straight until there is a signal”, “Turn the steering wheel one turn to the right”. Further, along with such guidance, the predicted trajectory of the vehicle 90 may be displayed on the monitor device 4 to clearly indicate the relationship with the parked vehicle 100.

また、別の態様として、運転支援装置10は、自動操舵により車両90を出庫させることもできる。上述したように、運転支援装置10は、車両90の移動状態を検出するセンサの検出結果に基づいて自己位置を推定する自己位置推定部16を備えている。本実施形態において、運転支援装置10は、さらに車両90の操舵装置(パワーステアリングシステム31)を制御する自動操舵制御部17を備えている。自動操舵制御部17は、車両90が車庫入れ駐車から後退発進する際に、車両90が所定の出庫姿勢となるまで、演算された後退進路に基づいて車両90の操舵装置を制御する。この際、車両90は、いわゆるクリーピングにより後退する。車両90が所定の出庫姿勢となった際には、運転支援装置10からの音声による報知などによって、ドライバーがブレーキを操作して車両90を停止させても良いし、運転支援装置10がブレーキシステム37を介して自動的に車両90を停止させてもよい。   Moreover, as another aspect, the driving assistance apparatus 10 can leave the vehicle 90 by automatic steering. As described above, the driving assistance device 10 includes the self-position estimating unit 16 that estimates the self-position based on the detection result of the sensor that detects the moving state of the vehicle 90. In the present embodiment, the driving support device 10 further includes an automatic steering control unit 17 that controls the steering device (power steering system 31) of the vehicle 90. The automatic steering control unit 17 controls the steering device of the vehicle 90 based on the calculated backward traveling path until the vehicle 90 assumes a predetermined leaving posture when the vehicle 90 starts moving backward from garage parking. At this time, the vehicle 90 moves backward by so-called creeping. When the vehicle 90 assumes a predetermined leaving posture, the driver may operate the brake to stop the vehicle 90 by a voice notification from the driving support device 10 or the like, or the driving support device 10 may stop the braking system. The vehicle 90 may be automatically stopped via 37.

ここで、所定の出庫姿勢は、図11の車両90P及び車両90Rに示すように、車両90が駐車中の姿勢に対して直行する姿勢とすることができる。一般的な車庫入れ駐車では、駐車区画に駐車された車両90Pは通路を通行する際の車両90Rに対してほぼ直角の姿勢となる。従って、車庫入れ駐車からの出庫の際に、駐車状態に対してほぼ直角となるまで自動操舵が実施されると、自動操舵の完了時には車両90Rは通路に沿った姿勢となる。その結果、自動操舵の完了後には、車両90はそのまま通路を前進することが可能となり、ドライバーの運転負担が大きく軽減される。   Here, as shown in the vehicle 90P and the vehicle 90R in FIG. 11, the predetermined leaving posture can be a posture in which the vehicle 90 is orthogonal to the parked posture. In general garage parking, the vehicle 90P parked in the parking section is in a substantially right angle with respect to the vehicle 90R when passing through the passage. Therefore, when the automatic steering is performed until the vehicle is left from the garage parking until the vehicle is almost perpendicular to the parking state, the vehicle 90R takes a posture along the passage when the automatic steering is completed. As a result, after completion of the automatic steering, the vehicle 90 can move forward in the path as it is, and the driving burden on the driver is greatly reduced.

また、所定の出庫姿勢は、旋回方向とは反対側において障害物が存在する領域と車両90が移動可能な領域との境界を、旋回方向とは反対側の車両90の前端が出庫方向に向かって通過完了した以降の姿勢とすることもできる。図11において、車両90の旋回方向は右方向であるから、旋回方向の反対側とは車両90の左方向であり、左方向に存在する障害物は、駐車車両102である。駐車車両102が存在する領域と車両90が存在する領域との境界は、境界情報E2で示される。図11に示す例において、旋回方向とは反対側の車両90の前端は、前端91である。車両90の出庫方向とは、車両90が駐車中の姿勢から真っ直ぐに後退する方向を示し、図11においては下方である。境界情報E2で示される境界は、出庫方向に沿って図11において符号Lで示す境界終端部まで続いている。この境界終端部Lを越えて車両90が出庫方向へ移動すると、前端91が駐車車両102に接触する可能性もほぼなくなる。従って、車両90の前端91が出庫方向に向かって境界終端部Lに達し、境界終端部Lを通過完了した以降の姿勢を所定の出庫姿勢とすることができる。例えば図11における車両90Qは、所定の出庫姿勢に達した車両90を示している。   In addition, the predetermined leaving posture is such that the boundary between the area where the obstacle exists on the side opposite to the turning direction and the area where the vehicle 90 can move, and the front end of the vehicle 90 on the opposite side to the turning direction faces the leaving direction. It is also possible to assume a posture after the passage is completed. In FIG. 11, since the turning direction of the vehicle 90 is the right direction, the opposite side of the turning direction is the left direction of the vehicle 90, and the obstacle present in the left direction is the parked vehicle 102. The boundary between the area where the parked vehicle 102 exists and the area where the vehicle 90 exists is indicated by boundary information E2. In the example shown in FIG. 11, the front end of the vehicle 90 on the side opposite to the turning direction is a front end 91. The exit direction of the vehicle 90 indicates a direction in which the vehicle 90 recedes straight from the parked posture, and is downward in FIG. The boundary indicated by the boundary information E2 continues to the boundary end portion indicated by the symbol L in FIG. When the vehicle 90 moves in the exit direction beyond the boundary end portion L, there is almost no possibility that the front end 91 contacts the parked vehicle 102. Therefore, the posture after the front end 91 of the vehicle 90 reaches the boundary end portion L toward the exit direction and completes passing through the boundary end portion L can be set as a predetermined exit posture. For example, the vehicle 90Q in FIG. 11 indicates the vehicle 90 that has reached a predetermined delivery posture.

上述したように、旋回方向とは反対側の車両90の前端(外輪側前端)91は、車両90の外輪差により、最も旋回半径の外側を通る。また、外輪側前端91は、一般的な車両90においては、ドライバーによる直接目視確認が困難である。外輪側前端91が、出庫方向に向かって、境界終端部Lを通過すれば出庫の際の難易度の高い運転操作はほぼ完了する。従って、車両90の外輪側前端91が境界終端部Lを通過した以降の姿勢となるまで、自動操舵が実施されると、ドライバーの運転負担が大きく軽減される。換言すれば、所定の出庫姿勢は、外輪側対象領域T2において演算された外輪側境界情報E2に示される境界の出庫方向における終端である境界終端部Lを、外輪側前端91が出庫方向に向かって通過完了した以降の姿勢である。   As described above, the front end (outer ring side front end) 91 of the vehicle 90 on the side opposite to the turning direction passes most outside the turning radius due to the outer wheel difference of the vehicle 90. Further, it is difficult for the outer wheel side front end 91 to be directly visually confirmed by a driver in a general vehicle 90. If the outer ring side front end 91 passes through the boundary end portion L in the direction of exiting, the highly difficult driving operation at the time of exiting is almost completed. Therefore, if automatic steering is performed until the outer wheel side front end 91 of the vehicle 90 assumes a posture after passing through the boundary terminal portion L, the driving burden on the driver is greatly reduced. In other words, the predetermined exit posture is such that the outer ring side front end 91 faces the exit direction in the exit direction of the boundary end portion L which is the end in the exit direction of the boundary indicated by the outer ring side boundary information E2 calculated in the outer ring side target area T2. The posture after passing through.

上述したように、本発明によれば、後退発進時の自車両の周囲状況に良好に対応し、特に自車両の外輪差を考慮してドライバーの運転負担を軽減させる運転支援が可能となる。   As described above, according to the present invention, it is possible to satisfactorily cope with the surrounding conditions of the host vehicle at the time of starting backward, and particularly to provide driving support that reduces the driving burden on the driver in consideration of the outer wheel difference of the host vehicle.

上記実施形態の説明においては、カメラ1による撮影画像に基づいて、障害物を検出し、境界情報を演算する例を用いて説明した。即ち、車両90の周囲状況を示す周辺情報が画像情報であり、周辺情報としての画像情報に対して対象領域が設定され、その対象領域において境界情報が演算される例を示した。しかし、周辺情報は、視覚的な画像情報に限定されるものではなく、障害物の検出や、境界情報の演算は、画像処理に限定されるものではない。当然ながら、他の情報を周辺情報としてもよく、障害物の検出や、境界情報の演算も、他の方法を用いて実施されてもよい。   In the description of the above-described embodiment, an example in which an obstacle is detected and boundary information is calculated based on an image captured by the camera 1 has been described. That is, the peripheral information indicating the surrounding situation of the vehicle 90 is image information, and a target area is set for the image information as the peripheral information, and the boundary information is calculated in the target area. However, the peripheral information is not limited to visual image information, and obstacle detection and boundary information calculation are not limited to image processing. Of course, other information may be used as peripheral information, and obstacle detection and boundary information calculation may also be performed using other methods.

上述したように、車両90は、クリアランスソナー33を備えている。例えば、クリアランスソナー33を複数個、車両90の両側面に配置することによって、車両90の側方の障害物を検出することができる。また、クリアランスソナー33は、障害物までの距離も測定可能であるから、クリアランスソナー33の検出結果に基づいて上述したような境界情報Eを演算することも可能である。尚、このようなクリアランスソナー33を用いて、公知の距離画像を生成することも可能であり、その距離画像に対して画像処理を実施することによって境界情報Eを演算してもよい。また、ここでは、クリアランスソナー33を複数個、車両90の側面に配置する例を示したが、車両90の各側面の中央部にそれぞれ少なくとも1つのスキャン型のクリアランスソナー33を配置してもよい。   As described above, the vehicle 90 includes the clearance sonar 33. For example, by arranging a plurality of clearance sonars 33 on both side surfaces of the vehicle 90, an obstacle on the side of the vehicle 90 can be detected. Further, since the clearance sonar 33 can also measure the distance to the obstacle, the boundary information E as described above can be calculated based on the detection result of the clearance sonar 33. Note that it is possible to generate a known distance image using such a clearance sonar 33, and the boundary information E may be calculated by performing image processing on the distance image. Although an example in which a plurality of clearance sonars 33 are arranged on the side surface of the vehicle 90 is shown here, at least one scan type clearance sonar 33 may be arranged at the center of each side surface of the vehicle 90. .

1:カメラ(車載カメラ)
1a:後方カメラ(車載カメラ)
1b:左側方カメラ(車載カメラ)
1c:右側方カメラ(車載カメラ)
1d:前方カメラ(車載カメラ)
11:撮影画像受取部
12:方向情報取得部
13:対象領域設定部
14:境界情報演算部
15:進路演算部
16:自己位置推定部
17:自動操舵制御部
31:パワーステアリングステアリング(操舵装置)
90:車両
91:外輪側前端(旋回方向とは反対側の車両の前端)
100,101,102:駐車車両(障害物)
E:境界情報
E1:内輪側境界情報(境界情報)
E2:外輪側境界情報(境界情報)
T:対象領域
T1:内輪側対象領域(対象領域)
T2:外輪側対象領域(対象領域)
1: Camera (on-vehicle camera)
1a: Rear camera (vehicle camera)
1b: Left side camera (vehicle camera)
1c: Right side camera (vehicle camera)
1d: Front camera (vehicle camera)
11: Captured image receiving unit 12: Direction information acquisition unit 13: Target region setting unit 14: Boundary information calculation unit 15: Course calculation unit 16: Self-position estimation unit 17: Automatic steering control unit 31: Power steering steering (steering device)
90: Vehicle 91: Outer wheel side front end (front end of vehicle opposite to turning direction)
100, 101, 102: Parked vehicle (obstacle)
E: Boundary information E1: Inner ring side boundary information (boundary information)
E2: Outer ring side boundary information (boundary information)
T: Target area T1: Inner ring side target area (target area)
T2: Outer ring side target area (target area)

Claims (6)

旋回を伴う車両の後退発進時における前記車両の旋回方向を方向情報として取得する方向情報取得部と、
前記車両が移動可能な領域と前記車両の両サイドにおいて障害物が存在する領域との境界を表す境界情報を演算する対象領域を、前記方向情報に基づいて設定する対象領域設定部と、
前記車両の両サイドに存在する前記障害物を検出して、前記対象領域において前記境界情報を演算する境界情報演算部と、
を備える運転支援装置。
A direction information acquisition unit for acquiring, as direction information, the turning direction of the vehicle at the time of backward start of the vehicle with turning;
A target area setting unit that sets a target area for calculating boundary information representing a boundary between an area where the vehicle is movable and an area where an obstacle exists on both sides of the vehicle, based on the direction information;
A boundary information calculation unit that detects the obstacle present on both sides of the vehicle and calculates the boundary information in the target region;
A driving support apparatus comprising:
前記方向情報及び前記境界情報に基づいて、前記障害物に接触することなく旋回を伴って前記車両を後退させる後退進路を演算する進路演算部を備える請求項1に記載の運転支援装置。   The driving support device according to claim 1, further comprising: a course computation unit that computes a backward course that causes the vehicle to move backward with a turn without contacting the obstacle based on the direction information and the boundary information. 前記車両の移動状態を検出するセンサの検出結果に基づいて自己位置を推定する自己位置推定部と、
前記車両が車庫入れ駐車から後退発進する際に、前記車両が所定の出庫姿勢となるまで、前記自己位置及び前記後退進路に基づいて前記車両の操舵装置を制御する自動操舵制御部と、を備える請求項2に記載の運転支援装置。
A self-position estimating unit that estimates a self-position based on a detection result of a sensor that detects a moving state of the vehicle;
An automatic steering control unit that controls the steering device of the vehicle based on the self-position and the backward traveling path until the vehicle assumes a predetermined leaving posture when the vehicle starts to reverse from garage parking. The driving support device according to claim 2.
前記所定の出庫姿勢は、前記車両が駐車中の姿勢から真っ直ぐに後退する方向を出庫方向として、旋回方向とは反対側において障害物が存在する領域と前記車両が移動可能な領域との境界を、旋回方向とは反対側の前記車両の前端が前記出庫方向に向かって通過完了した以降の姿勢である請求項3に記載の運転支援装置。   The predetermined leaving posture is a boundary between a region where an obstacle exists and a region where the vehicle can move on the opposite side to the turning direction, with the direction in which the vehicle recedes straight from the parked posture as the leaving direction. The driving support device according to claim 3, wherein the driving support device is in a posture after the front end of the vehicle on the side opposite to the turning direction has completed passing in the exit direction. 前記所定の出庫姿勢は、前記車両が駐車中の姿勢に対して直交する姿勢である請求項3に記載の運転支援装置。   The driving support device according to claim 3, wherein the predetermined leaving posture is a posture orthogonal to a posture in which the vehicle is parked. 車載カメラによる撮影画像を受け取る撮影画像受取部と、前記車両の移動状態を検出するセンサの検出結果に基づいて自己位置を推定する自己位置推定部とを備え、
前記境界情報演算部は、前記車両が所定距離離間した少なくとも2つの地点においてそれぞれ撮影された少なくとも2つの撮影画像と当該地点の前記自己位置とに基づいて、前記障害物を検出し、前記境界情報を演算する請求項1〜5の何れか一項に記載の運転支援装置。
A captured image receiving unit that receives a captured image by an in-vehicle camera, and a self-position estimating unit that estimates a self-position based on a detection result of a sensor that detects a moving state of the vehicle,
The boundary information calculation unit detects the obstacle based on at least two captured images captured at at least two points separated by a predetermined distance from the vehicle and the self-position of the point, and the boundary information The driving support device according to any one of claims 1 to 5, wherein
JP2010201030A 2010-09-08 2010-09-08 Driving support device Pending JP2012056428A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010201030A JP2012056428A (en) 2010-09-08 2010-09-08 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010201030A JP2012056428A (en) 2010-09-08 2010-09-08 Driving support device

Publications (1)

Publication Number Publication Date
JP2012056428A true JP2012056428A (en) 2012-03-22

Family

ID=46054053

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010201030A Pending JP2012056428A (en) 2010-09-08 2010-09-08 Driving support device

Country Status (1)

Country Link
JP (1) JP2012056428A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018034645A (en) * 2016-08-31 2018-03-08 本田技研工業株式会社 Parking and unloading support device
JP2018034655A (en) * 2016-08-31 2018-03-08 本田技研工業株式会社 Parking and unloading support device
WO2018047222A1 (en) * 2016-09-06 2018-03-15 日産自動車株式会社 Dispatch support method and device
KR20180100690A (en) * 2016-01-21 2018-09-11 발레오 샬터 운트 센소렌 게엠베아 A method of leaving a vehicle from a parking space to a final position with at least semi-autonomous steering of the vehicle,
WO2018168512A1 (en) * 2017-03-17 2018-09-20 日立オートモティブシステムズ株式会社 Driving assistance device and method
CN109017762A (en) * 2017-06-09 2018-12-18 爱信精机株式会社 Drive assistance device
WO2019026348A1 (en) * 2017-07-31 2019-02-07 株式会社Jvcケンウッド Display control device, display control system, display control method, and program
JP2019029865A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display control device, display control system, display control method, and program
JP2019029863A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display controller, display control system, display control method, and program
JP2019029858A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display control device, display control system, display control method, and program
JP2019029864A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display controller, display control system, display control method, and program
JP2019043209A (en) * 2017-08-30 2019-03-22 トヨタ自動車株式会社 Steering assist device
JP2021094906A (en) * 2019-12-13 2021-06-24 本田技研工業株式会社 Parking support system and control method for the same

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11001301B2 (en) 2016-01-21 2021-05-11 Valeo Schalter Und Sensoren Gmbh Method for moving a motor vehicle out of a parking space with at least semi-autonomous manoeuvring of the motor vehicle up to an end position, driver assistance system and motor vehicle
KR102142202B1 (en) * 2016-01-21 2020-08-06 발레오 샬터 운트 센소렌 게엠베아 How to leave a car from the parking space to its final position with at least semi-autonomous control of the car, driver assistance systems and vehicles
KR20180100690A (en) * 2016-01-21 2018-09-11 발레오 샬터 운트 센소렌 게엠베아 A method of leaving a vehicle from a parking space to a final position with at least semi-autonomous steering of the vehicle,
JP2019503934A (en) * 2016-01-21 2019-02-14 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Method for driving an automatic vehicle from a parking space to an end position by at least semi-autonomous control of the automatic vehicle, a driver assistance system, and an automatic vehicle
JP2018034645A (en) * 2016-08-31 2018-03-08 本田技研工業株式会社 Parking and unloading support device
CN107776569A (en) * 2016-08-31 2018-03-09 本田技研工业株式会社 Park outbound servicing unit
JP2018034655A (en) * 2016-08-31 2018-03-08 本田技研工業株式会社 Parking and unloading support device
EP3511220A4 (en) * 2016-09-06 2019-11-13 Nissan Motor Co., Ltd. Dispatch support method and device
CN114572214A (en) * 2016-09-06 2022-06-03 日产自动车株式会社 Warehouse-out assisting method and warehouse-out assisting device
EP3936412A1 (en) * 2016-09-06 2022-01-12 NISSAN MOTOR Co., Ltd. Dispatch support method and device
WO2018047222A1 (en) * 2016-09-06 2018-03-15 日産自動車株式会社 Dispatch support method and device
US11458958B2 (en) 2016-09-06 2022-10-04 Nissan Motor Co., Ltd. Dispatch support method and device
US11230284B2 (en) 2017-03-17 2022-01-25 Hitachi Astemo, Ltd. Driving assistance apparatus and driving assistance method
CN110382321B (en) * 2017-03-17 2022-12-27 日立安斯泰莫株式会社 Driving support device
WO2018168512A1 (en) * 2017-03-17 2018-09-20 日立オートモティブシステムズ株式会社 Driving assistance device and method
JPWO2018168512A1 (en) * 2017-03-17 2019-07-25 日立オートモティブシステムズ株式会社 Driving support device and method
CN110382321A (en) * 2017-03-17 2019-10-25 日立汽车系统株式会社 Drive assistance device and method
CN109017762A (en) * 2017-06-09 2018-12-18 爱信精机株式会社 Drive assistance device
US11040739B2 (en) 2017-06-09 2021-06-22 Aisin Seiki Kabushiki Kaisha Parking assist device, parking assist method, and driving assist device
JP2018203214A (en) * 2017-06-09 2018-12-27 アイシン精機株式会社 Parking support device, parking support method, driving support device and driving support method
JP2019029864A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display controller, display control system, display control method, and program
JP2019029858A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display control device, display control system, display control method, and program
JP2019029863A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display controller, display control system, display control method, and program
JP2019029865A (en) * 2017-07-31 2019-02-21 株式会社Jvcケンウッド Display control device, display control system, display control method, and program
WO2019026348A1 (en) * 2017-07-31 2019-02-07 株式会社Jvcケンウッド Display control device, display control system, display control method, and program
JP2019043209A (en) * 2017-08-30 2019-03-22 トヨタ自動車株式会社 Steering assist device
JP7053560B2 (en) 2019-12-13 2022-04-12 本田技研工業株式会社 Parking assistance system and its control method
JP2021094906A (en) * 2019-12-13 2021-06-24 本田技研工業株式会社 Parking support system and control method for the same
US12115975B2 (en) 2019-12-13 2024-10-15 Honda Motor Co., Ltd. Parking support system and control method thereof

Similar Documents

Publication Publication Date Title
US9925919B2 (en) Parking assistance device
JP5440867B2 (en) Parking assistance device
JP5995931B2 (en) Parking assistance device, parking assistance method, and control program
JP2012056428A (en) Driving support device
JP6094266B2 (en) Parking assistance device, parking assistance method and program
US9751562B2 (en) Park exit assist system
CN107792061B (en) Parking assist apparatus
US20170028984A1 (en) Parking assist system, method, and non-transitory computer readable medium storing program
JP6006765B2 (en) Driving assistance device
JP2014069722A (en) Parking support system, parking support method, and program
JP2012076483A (en) Parking support device
JP5991112B2 (en) Parking assistance device, control method, and program
JP5516988B2 (en) Parking assistance device
JP6555056B2 (en) Perimeter monitoring device
WO2018198530A1 (en) Parking assistance device
JP2018036915A (en) Parking support device
JP2014004930A (en) Parking support device, parking support method, and parking support program
JP2014004931A (en) Parking support device, parking support method, and parking support program
JP7283514B2 (en) display controller
US20200140011A1 (en) Parking assistance apparatus
JP2017085410A (en) Traveling assisting-device
JP7114919B2 (en) Driving support device
JP7130923B2 (en) display controller
JP6601097B2 (en) Display control device
JP2017069846A (en) Display control device