JP2008134877A - Perimeter monitoring device - Google Patents
Perimeter monitoring device Download PDFInfo
- Publication number
- JP2008134877A JP2008134877A JP2006321346A JP2006321346A JP2008134877A JP 2008134877 A JP2008134877 A JP 2008134877A JP 2006321346 A JP2006321346 A JP 2006321346A JP 2006321346 A JP2006321346 A JP 2006321346A JP 2008134877 A JP2008134877 A JP 2008134877A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- edge
- parallel
- automobile
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、自動車周辺の状況を検出しユーザに報知する技術に関するものである。 The present invention relates to a technique for detecting a situation around an automobile and notifying a user.
自動車周辺の状況を検出しユーザに報知する技術としては、車両の左右側方の位置に発生する運転者の死角領域をカメラで撮影し、撮影した画像に基づいて死角領域に存在する他車を検出し、運転者に対して当該他車の存在を報知する技術が知られている(たとえば、特許文献1)。
さて、カメラで撮影した画像に基づく他車の検出は、通常、撮影された画像に対して車両の特徴パターンを認識する画像認識処理を施すことにより行われるが、当該画像認識処理の処理量は比較的大きく、効率的に他車を検出することはできない。
一方、レーダ装置や超音波センサなどの車両側方方向を指向方向とするセンサを用いて、車両の側方に位置する他車を検出することも考えられる。しかし、このような車両側方方向を指向方向とするセンサでは、車両前後方向の相対速度を精度よく測定することができないために、車両側方に存在する路上設置物と他車とを弁別して検出することが比較的困難である。
Now, the detection of other vehicles based on images taken by the camera is normally performed by performing image recognition processing for recognizing the feature pattern of the vehicle on the taken images, but the amount of image recognition processing is as follows. It is relatively large and cannot detect other vehicles efficiently.
On the other hand, it is also conceivable to detect other vehicles located on the side of the vehicle by using a sensor whose direction is the side of the vehicle, such as a radar device or an ultrasonic sensor. However, such a sensor with the vehicle side direction as the directing direction cannot accurately measure the relative speed in the vehicle front-rear direction. Therefore, it distinguishes road installations on the side of the vehicle from other vehicles. It is relatively difficult to detect.
そこで、本発明は、車両の左右側方を監視する周辺監視装置において、自車と併走する他車を精度良く、より効率的に検出することを課題とする。 Accordingly, an object of the present invention is to accurately and more efficiently detect other vehicles that run in parallel with the host vehicle in a periphery monitoring device that monitors the left and right sides of the vehicle.
前記課題達成のために、本発明は、自動車に搭載される、当該自動車と並走する他車である並走車を検出する周辺監視装置を、前記自動車の側方を撮影するカメラと、前記カメラで撮影した画像に含まれる画像パターンの、前記自動車の前後方向についての輝度変化の傾きの大きさが所定のしきい値よりも大きなエッジを抽出するエッジ抽出手段と、前記エッジ抽出手段が抽出したエッジを、前記画像に含まれる並走車の画像パターンのエッジであるものとして、当該並走車を検出する並走車検出手段とを含めて構成したものである。 In order to achieve the above object, the present invention provides a periphery monitoring device for detecting a parallel vehicle that is mounted on a vehicle and that is parallel to the vehicle, a camera that captures a side of the vehicle, Edge extracting means for extracting an edge of the image pattern included in the image photographed by the camera with an inclination of the luminance change in the longitudinal direction of the automobile larger than a predetermined threshold; and the edge extracting means The edge is an edge of the image pattern of the parallel vehicle included in the image, and includes a parallel vehicle detection means for detecting the parallel vehicle.
このような周辺監視装置によれば、自車に対する相対速度が大きい物体を撮影した画像パターンのエッジの輝度変化の傾きが、当該物体と自車との相対速度が大きくなるほど小さくなることを利用して、適当なしきい値以上、自車の前後方向の傾きの大きさの絶対値が大きいエッジを抽出する簡便な処理により、効率的に、適正な、自車との相対速度の小さい物体、すなわち、並走車を撮影した画像パターンのエッジの抽出と当該抽出したエッジに基づく並走車の検出を行うことができる。
ここで、このような周辺監視装置に、さらに、前記自動車の速度を検出する車速検出手段と、前記車速検出手段が検出した車速が小さいほど大きくなるように前記しきい値を設定するしきい値設定手段を備えるようにしてもよい。 このように、しきい値を、自車の速度が小さいほど大きくなるようにすることにより、自車の速度の大きさに応じて相対速度が変化するために撮影した画像パターンのエッジの輝度変化の傾きが変化することになる路面標示などの路上固定物を、自車の速度によらずに、より確実に、並走車として誤認しないようにすることができる。
According to such a peripheral monitoring device, it is used that the inclination of the luminance change of the edge of the image pattern obtained by photographing an object having a large relative speed with respect to the own vehicle becomes smaller as the relative speed between the object and the own vehicle becomes larger. By a simple process of extracting an edge having a large absolute value of the magnitude of the front-rear direction inclination of the vehicle, the object is efficiently and appropriately low in relative speed with the vehicle, that is, Further, it is possible to extract an edge of an image pattern obtained by photographing a parallel running vehicle and detect a parallel running vehicle based on the extracted edge.
Here, in this periphery monitoring device, further, a vehicle speed detecting means for detecting the speed of the automobile, and a threshold value for setting the threshold value so as to increase as the vehicle speed detected by the vehicle speed detecting means decreases. A setting unit may be provided. In this way, by increasing the threshold as the vehicle speed decreases, the relative speed changes according to the speed of the vehicle, so that the brightness change at the edge of the captured image pattern A fixed object on the road such as a road marking that changes the inclination of the vehicle can be more reliably prevented from being misidentified as a parallel vehicle regardless of the speed of the host vehicle.
また、前記課題達成のために、本発明は、自動車に搭載される、当該自動車と並走する他車である並走車を検出する周辺監視装置を、前記自動車の側方を撮影するカメラと、前記カメラで撮影した画像に含まれる画像パターンのエッジを抽出するエッジ抽出手段と、前記エッジ抽出手段が抽出したエッジの前記自動車の前後方向についての対称性の有無を検出する対称性検出手段と、前記対称性検出手段が前記エッジの前記自動車の前後方向についての対称性を検出した場合に、当該前記自動車の前後方向についての対称性の対称軸の前記自動車の前後方向についての位置を、前記画像に含まれる並走車の車輪の画像パターン中の車軸の前記自動車の前後方向についての位置として、当該並走車を検出する並走車検出手段とを含めて構成したものである。 In order to achieve the above object, the present invention provides a periphery monitoring device for detecting a parallel vehicle that is mounted on a vehicle and that is parallel to the vehicle, and a camera that captures a side of the vehicle. Edge extracting means for extracting an edge of an image pattern included in an image photographed by the camera; and symmetry detecting means for detecting the presence or absence of symmetry of the edge extracted by the edge extracting means in the longitudinal direction of the automobile; When the symmetry detection means detects the symmetry of the edge with respect to the longitudinal direction of the automobile, the position of the symmetry axis of symmetry with respect to the longitudinal direction of the automobile with respect to the longitudinal direction of the automobile, The position of the axle in the image pattern of the wheels of the parallel vehicle included in the image in the longitudinal direction of the automobile is configured to include the parallel vehicle detection means for detecting the parallel vehicle. Than is.
このような周辺監視装置によれば、並走車の車輪を撮影した画像パターンが、自車の前後方向についての対称性を有する画像パターンとなることを利用して、当該対称性の対称軸を検出する簡便な処理によって、効率的に並走車の自車の前後方向についての位置を検出することができるようになる。 According to such a periphery monitoring device, the symmetry axis of the symmetry is obtained by utilizing the fact that the image pattern obtained by photographing the wheels of the parallel running vehicle becomes an image pattern having symmetry in the front-rear direction of the own vehicle. With the simple processing to detect, the position of the parallel running vehicle in the front-rear direction can be detected efficiently.
なお、このような周辺監視装置は、並走車検出手段において、対称性検出手段が前記エッジの前記自動車の前後方向についての対称性を検出した場合に、当該自動車の前後方向についての対称性の対称軸上の画像パターンのエッジの位置のうちの、前記自動車の左右方向について最も前記自動車に近い位置を、前記画像に含まれる並走車の車輪の画像パターン中の車輪下端の前記自動車の左右方向についての位置として、当該並走車を検出するようにしてもよい。また、このような周辺監視装置に、前記自動車の速度を検出する車速検出手段と、前記車速検出手段が検出した車速が大きいほど大きくなるようにしきい値を設定するしきい値設定手段とを備え、前記エッジ抽出手段において、前記カメラで撮影した画像に含まれる画像パターンの、前記自動車の前後方向についての輝度変化の傾きの大きさが前記しきい値設定手段が設定した前記しきい値よりも大きなエッジを抽出するようにしてもよい。 Note that such a periphery monitoring device is configured such that, in the parallel vehicle detection means, when the symmetry detection means detects the symmetry of the edge in the front-rear direction of the automobile, the symmetry of the edge in the front-rear direction of the automobile. Of the positions of the edge of the image pattern on the axis of symmetry, the position closest to the vehicle in the left-right direction of the vehicle is the left and right of the vehicle at the lower end of the wheel in the image pattern of the wheels of the parallel vehicle included in the image. You may make it detect the said parallel running vehicle as a position about a direction. In addition, the periphery monitoring device includes vehicle speed detection means for detecting the speed of the automobile, and threshold setting means for setting a threshold value so as to increase as the vehicle speed detected by the vehicle speed detection means increases. In the edge extraction means, the magnitude of the gradient of the luminance change in the front-rear direction of the automobile of the image pattern included in the image photographed by the camera is greater than the threshold value set by the threshold value setting means. A large edge may be extracted.
以上のように、本発明によれば、車両の左右側方を監視する周辺監視装置において、自車と併走する他車を精度良く、より効率的に検出することができる。 As described above, according to the present invention, in the periphery monitoring device that monitors the left and right sides of the vehicle, it is possible to more accurately and efficiently detect other vehicles that are running in parallel with the host vehicle.
以下、本発明の実施形態を説明する。
図1aに、本実施形態に係る周辺監視システムの構成を示す。
周辺監視システムは自動車に搭載されるシステムであり、図示するように、後方カメラ1、左方カメラ2、右方カメラ3、後方監視部4、側方監視部5、車両の各種状態を検出する車両状態センサ6、周辺状況提示部7、表示装置8とを備えている。
ここで、図1b、cに示すように、後方カメラ1は車両後部に配置され、車両後方を撮影する。また、左方カメラ2は、車両の左サイドミラーに配置され、車両の左方を撮影し、右方カメラ3は、車両の右サイドミラーに配置され、車両の右方を撮影する。
そして、このような構成において、後方監視部4は、後方カメラ1が撮影した画像に写り込んだ他車を所定の画像認識処理により検出し、画像中の他車の大きさや位置より推定される他車の位置などの、当該他車についての情報を後方他車情報として周辺状況提示部7に通知する。
Embodiments of the present invention will be described below.
FIG. 1a shows the configuration of the periphery monitoring system according to the present embodiment.
The peripheral monitoring system is a system mounted on an automobile, and as shown in the drawing, the rear camera 1, the left camera 2, the right camera 3, the rear monitoring unit 4, the side monitoring unit 5, and various states of the vehicle are detected. A vehicle state sensor 6, a surrounding situation presentation unit 7, and a display device 8 are provided.
Here, as shown in FIGS. 1b and 1c, the rear camera 1 is arranged at the rear of the vehicle and photographs the rear of the vehicle. The left camera 2 is disposed on the left side mirror of the vehicle and photographs the left side of the vehicle, and the right camera 3 is disposed on the right side mirror of the vehicle and photographs the right side of the vehicle.
In such a configuration, the rear monitoring unit 4 detects the other vehicle reflected in the image captured by the rear camera 1 by a predetermined image recognition process, and is estimated from the size and position of the other vehicle in the image. Information about the other vehicle, such as the position of the other vehicle, is notified to the surrounding state presenting unit 7 as the rear other vehicle information.
次に、側方監視部5の動作について説明する。
側方監視部5は、車両の左右を並走する他車である並走車を検出する並走車検出処理を行う。
図2に、この並走車検出処理の手順を示す。
図示するように、この処理では、まず、車両状態センサ6が検出している自車の車速vを取得し(ステップ202)、取得した車速vに応じたしきい値Th(v)を設定する(ステップ204)。ここで、しきい値Th(v)は、車速vが小さいほど大きくなるように設定する。
Next, the operation of the side monitoring unit 5 will be described.
The side monitoring unit 5 performs a parallel running vehicle detection process for detecting a parallel running vehicle that is another vehicle running side by side on the left and right sides of the vehicle.
FIG. 2 shows the procedure of the parallel vehicle detection process.
As shown in the figure, in this process, first, the vehicle speed v of the host vehicle detected by the vehicle state sensor 6 is acquired (step 202), and a threshold value Th (v) corresponding to the acquired vehicle speed v is set. (Step 204). Here, the threshold value Th (v) is set to increase as the vehicle speed v decreases.
次に、左方カメラ2が撮影した画像と右方カメラ3が撮影した画像を各々側方画像として取得する(ステップ206)。そして、各側方画像に含まれる、自車の前後方向についての傾きがしきい値Th(v)以上となるエッジを抽出する(ステップ208)。
そして、ステップ208で前後方向についての傾きがしきい値Th(v)以上となるエッジを抽出できたかどうかを調べ(ステップ210)、そのようなエッジを抽出できなかった場合には、ステップ202からの処理に戻る。一方、ステップ208で前後方向についての傾きがしきい値Th(v)以上となるエッジを抽出できた場合には、各側方画像中の、ステップ208で抽出したエッジを認識対象エッジに設定する(ステップ212)。
Next, an image captured by the left camera 2 and an image captured by the right camera 3 are respectively acquired as side images (step 206). Then, an edge included in each side image and having an inclination in the front-rear direction of the own vehicle equal to or greater than a threshold value Th (v) is extracted (step 208).
Then, it is checked in step 208 whether or not an edge whose inclination in the front-and-rear direction is equal to or greater than the threshold Th (v) can be extracted (step 210). Return to the process. On the other hand, when an edge whose inclination in the front-rear direction is greater than or equal to the threshold Th (v) can be extracted in step 208, the edge extracted in step 208 in each side image is set as the recognition target edge. (Step 212).
そして、設定した認識対象エッジのパターンに自車の前後方向についての対称性が存在するかどうかを調べ(ステップ214)、対称性がなければ、認識対象エッジの位置に基づいて、並走車の存在範囲を推定し(ステップ224)、推定した並走車の存在範囲を示す並走車情報を周辺状況提示部7に出力する(ステップ222)。そして、ステップ202からの処理に戻る。ここで、このステップ224では、たとえば、側方画像中の認識対象エッジの存在範囲に対応する自車側方の範囲を並走車の存在範囲として推定する。 Then, it is checked whether or not the set recognition target edge pattern has symmetry in the front-rear direction of the host vehicle (step 214). If there is no symmetry, based on the position of the recognition target edge, The existence range is estimated (step 224), and parallel running vehicle information indicating the estimated existence range of the parallel running vehicle is output to the surrounding situation presentation unit 7 (step 222). Then, the process returns to step 202. Here, in this step 224, for example, a range on the side of the host vehicle corresponding to the range of presence of the recognition target edge in the side image is estimated as the range of presence of the parallel running vehicle.
一方、認識対象エッジのパターンに自車の前後方向についての対称性が存在する場合には、当該対称性の対称軸の自車の前後方向位置を算定し、算定した前後方向位置を、並走車の車軸の前後方向位置として、車軸の位置や車軸の間隔を算定し、算定した位置や間隔に基づいて並走車の自車の前後方向の存在範囲を推定する(ステップ216)。また、ステップ216で算定した対称軸上に存在する、自車の左右方向についての傾きが所定値以上となるエッジを抽出する(ステップ218)。そして、抽出したエッジのうちで、最も自車に近いエッジ位置に対応する自車側方の位置までの車の左右方向についての距離を、自車から並走車までの左右方向の距離であるとして、並走車の自車の左右方向の存在範囲を推定する(ステップ220)。 On the other hand, if the recognition target edge pattern has symmetry in the front-rear direction of the host vehicle, the front-rear direction position of the host vehicle of the symmetry axis of the symmetry is calculated, and the calculated front-rear direction position is calculated in parallel. As the longitudinal position of the axle of the vehicle, the position of the axle and the distance between the axles are calculated, and the existence range of the parallel running vehicle in the longitudinal direction is estimated based on the calculated position and interval (step 216). Further, an edge that exists on the axis of symmetry calculated in step 216 and whose inclination in the left-right direction of the own vehicle is a predetermined value or more is extracted (step 218). And among the extracted edges, the distance in the left-right direction of the vehicle to the position on the side of the vehicle corresponding to the edge position closest to the own vehicle is the distance in the left-right direction from the own vehicle to the parallel running vehicle. Then, the existence range in the left-right direction of the parallel running vehicle is estimated (step 220).
そして、以上のように推定した並走車の自車の前後左右方向の存在範囲を示す並走車情報を周辺状況提示部7に出力する(ステップ222)。そして、ステップ202からの処理に戻る。
ここで、以上のような並走車検出処理の処理例を図3に示す。
いま、図3a1、a2に示すように、走行中の自車100の右方に二輪車300が存在する場合において、この二輪車300が、自車100と同程度の速度で並走している場合、右方カメラ3で撮影される画像は、画像の水平方向が自車100の前後方向に一致するように右方カメラ3を設置したものとして、c1に示すように二輪車300の画像パターンを含んだものとなる。一方、この二輪車300が、停止していたり自車100よりも大きい速度で自車100を追い越そうとしている場合にも、右方カメラ3で撮影される画像には二輪車300の画像パターンが含まれるが、この二輪車300の画像パターンは、二輪車300が並走している場合に撮影される画像に含まれる二輪車300の画像パターンに比べ、d1に示すように自車100の前後方向についての大きなブレが発生した画像となる。また、図3bに示すように、自車100が走行中に右方カメラ3で路面の道路標識を撮影した場合にも、右方カメラ3で撮影される画像には、e1に示すように、自車100の前後方向についてのブレが発生した道路標識の画像パターンが含まれたものとなる。
And the parallel running vehicle information which shows the existence range of the front-and-rear left-right direction of the own vehicle of the parallel running vehicle estimated as mentioned above is output to the periphery condition presentation part 7 (step 222). Then, the process returns to step 202.
Here, a processing example of the parallel running vehicle detection processing as described above is shown in FIG.
Now, as shown in FIGS. 3a1 and a2, when the two-wheeled vehicle 300 exists on the right side of the traveling own vehicle 100, when the two-wheeled vehicle 300 is running in parallel at the same speed as the own vehicle 100, The image captured by the right camera 3 includes the image pattern of the two-wheeled vehicle 300 as shown in c1 on the assumption that the right camera 3 is installed so that the horizontal direction of the image matches the front-rear direction of the host vehicle 100. It will be a thing. On the other hand, even when the two-wheeled vehicle 300 is stopped or trying to pass the own vehicle 100 at a higher speed than the own vehicle 100, the image captured by the right camera 3 includes the image pattern of the two-wheeled vehicle 300. However, the image pattern of the two-wheeled vehicle 300 is larger than the image pattern of the two-wheeled vehicle 300 included in the image photographed when the two-wheeled vehicle 300 is running in parallel as shown in d1 in the front-rear direction of the own vehicle 100. The image is blurred. Also, as shown in FIG. 3b, even when the vehicle 100 is traveling while shooting a road sign on the road surface with the right camera 3, the image taken with the right camera 3 is as shown in e1. The image pattern of the road sign in which the blurring in the front-rear direction of the host vehicle 100 occurs is included.
ここで、この図3d1やe1に示すように画像パターンに生じる自車100の前後方向のブレは、その画像パターンに対応する物体と自車100との間の相対速度の存在によって発生するものであり、一般的には、左方カメラ2や右方カメラ3で撮影した画像には、相対速度に各フレームの露光時間(30フレーム/秒のNTSC用カメラでは、通常1/30秒)を乗じた距離に相当する自車100の前後方向のブレが生じる。 Here, as shown in FIGS. 3 d 1 and e 1, the blur in the front-rear direction of the vehicle 100 generated in the image pattern is caused by the presence of a relative speed between the object corresponding to the image pattern and the vehicle 100. In general, images taken by the left camera 2 and the right camera 3 are multiplied by the relative speed by the exposure time of each frame (usually 1/30 seconds for an NTSC camera of 30 frames / second). A blur in the front-rear direction of the vehicle 100 corresponding to the distance is generated.
さて、図3c2、d2、e2は、画像c1、c2、c3の同位置の水平ラインAの輝度Iの変化の波形を表したものであり、図示するように画像パターンのブレは波形のなまりとして表れる。したがって、図3c2、d2、e2の各輝度変化波形の輝度変化波形の微分値の絶対値abs(dI)の波形を図3c3、d3、e3に示すように、自車100との相対速度の差が少ない物体の画像パターンほど、輝度変化の傾きの絶対値の大きいエッジを有する画像パターンが撮影されることになる。各図においてx軸は、画像の水平方向の座標軸を表す。 FIGS. 3c2, d2, and e2 show the waveform of the change in luminance I of the horizontal line A at the same position in the images c1, c2, and c3. As shown in the figure, the blurring of the image pattern is a rounded waveform. appear. Therefore, as shown in FIGS. 3c3, d3, and e3, the relative speed difference between the vehicle 100 and the absolute value abs (dI) of the differential value of the luminance change waveform of each of the luminance change waveforms in FIGS. 3c2, d2, and e2. An image pattern having an edge with a large absolute value of the gradient of the luminance change is photographed as the image pattern of the object having a smaller number of images. In each figure, the x-axis represents the horizontal coordinate axis of the image.
したがって、並走車検出処理において、以上のように適当なしきい値Th(v)以上、自車100の前後方向の傾きの大きさの絶対値が大きいエッジを抽出することにより、自車100との相対速度の小さい物体、すなわち、並走車である物体を撮影した画像パターンのエッジを、認識対象エッジとして抽出し、この認識対象エッジより並走車を適正に検出することができる。 Accordingly, in the parallel vehicle detection process, by extracting an edge having a large absolute value of the magnitude of the inclination of the host vehicle 100 in the front-rear direction more than an appropriate threshold value Th (v) as described above, An edge of an image pattern obtained by photographing an object with a small relative speed, that is, an object that is a parallel running vehicle, is extracted as a recognition target edge, and the parallel running vehicle can be appropriately detected from the recognition target edge.
また、このしきい値Th(v)を、自車100の速度vが小さいほど大きくなるようにすることにより、自車100の速度vが大きいほど画像パターンのブレが大きくなり撮影される画像パターンのエッジの傾きの大きさが小さくなり、車100の速度vが小さいほど撮影される画像パターンのエッジの傾きの大きさが大きくなる路面標示などの路上固定物を、自車100の速度vの大きさによらずに、より確実に、並走車として誤認しないようにすることができる。 Further, by increasing the threshold value Th (v) as the speed v of the host vehicle 100 decreases, the blur of the image pattern increases as the speed v of the host vehicle 100 increases. A fixed object on the road such as a road marking in which the magnitude of the inclination of the edge of the vehicle becomes smaller and the inclination of the edge of the image pattern to be photographed becomes larger as the speed v of the car 100 becomes smaller. Regardless of the size, it can be more reliably prevented from being mistaken as a parallel running vehicle.
さて、次に、図4aに示すように右方カメラ3によって並走車の車輪の画像パターンを含む画像が撮影された場合、画像の水平ラインAについての輝度変化波形をbAとして、画像の水平ラインBについての輝度変化波形をbBとして、画像の水平ラインCについての輝度変化波形をbCとして示すように、車輪の画像パターンを含む各水平ラインの輝度変化波形は、車輪の車軸を対称軸D、Eとする水平方向に対称なエッジを含むものとなる。 Next, as shown in FIG. 4a, when an image including the image pattern of the wheels of the parallel running vehicle is photographed by the right camera 3, the luminance change waveform about the horizontal line A of the image is set as bA, and the horizontal image is displayed. The luminance change waveform for each horizontal line including the image pattern of the wheel is represented by the symmetry axis D as indicated by bB as the luminance change waveform for the line B and bC for the horizontal line C of the image. , E including a horizontally symmetric edge.
したがって、並走車検出処理において、以上のように、並走車の画像パターンのエッジを表す認識対象エッジのパターンに自車100の前後方向についての対称性が存在する場合に、当該対称性の対称軸の自車100の前後方向位置を車軸の前後方向の位置として検出することができる。そして、検出した当該車軸の位置や車軸の間隔より、並走車の前後方向についての存在範囲を精度良く推定することができるようになる。なお、このような車軸位置の検出においては、検出したエッジの対称軸が真に車軸を通る軸であるかどうかを、当該軸上の水平方向の輝度変化波形等を考慮して判定するようにする。 Therefore, in the parallel vehicle detection process, as described above, when there is symmetry in the front-rear direction of the own vehicle 100 in the pattern of the recognition target edge representing the edge of the image pattern of the parallel vehicle, the symmetry The position in the front-rear direction of the own vehicle 100 with the axis of symmetry can be detected as the position in the front-rear direction of the axle. The existence range in the front-rear direction of the parallel running vehicle can be accurately estimated from the detected position of the axle and the distance between the axles. In such an axle position detection, whether or not the detected symmetry axis of the edge is truly an axis passing through the axle is determined in consideration of a horizontal luminance change waveform on the axis. To do.
さて、このようにして求めた車軸D、Eを通る画像の垂直ライン(自車100の左右方向のライン)の輝度変化の波形は、図4cに示すように、並走車の車輪の下端に対応する位置に、最も自車100に近いエッジが表れたものとなる。なお、図4cにおいてy軸は画像の垂直方向の座標軸を表す。
したがって、並走車検出処理において、以上のように、対称軸と同じ自車100の前後方向に位置における、自車100の左右方向についての傾きが所定値以上となるエッジのうちで、最も自車100に近いエッジの位置を検出し、画像中の当該エッジの位置までの距離dyに基づいて、当該エッジの位置に対応する自車側方の位置までの距離を、自車100から並走車までの左右方向の距離として求めることができる。そして、この距離に基づいて、並走車の自車100の左右方向の存在範囲を精度良く推定することができる。
Now, as shown in FIG. 4c, the waveform of the luminance change of the vertical line of the image passing through the axles D and E (the left-right direction line of the own vehicle 100) is obtained at the lower end of the wheel of the parallel running vehicle. The edge closest to the vehicle 100 appears at the corresponding position. In FIG. 4c, the y-axis represents the vertical coordinate axis of the image.
Therefore, in the parallel vehicle detection process, as described above, the edge of the vehicle 100 that is the same as the symmetry axis in the front-rear direction of the vehicle 100 and whose slope in the left-right direction is greater than or equal to the predetermined value is the most Based on the distance dy to the position of the edge in the image, the position of the edge close to the vehicle 100 is detected, and the distance to the position on the side of the vehicle corresponding to the position of the edge is parallel from the own vehicle 100. It can be obtained as the distance in the left-right direction to the car. And based on this distance, the existence range of the left-right direction of the own vehicle 100 of a parallel running vehicle can be estimated accurately.
以上、側方監視部部の動作について説明した。
さて、図1aに戻り、周辺状況提示部7は、後方監視部4より受け取った後方他車情報や、側方監視部5より受け取った並走車情報に基づいて、自車100後方の他車や並走車の位置や存在範囲を表示装置8に表示したり、自車100後方の他車や並走車と自車100との衝突の可能性の有無を推定し、衝突の可能性が存在する場合に、表示装置8に、後方や側方に自車100にとって危険となる他車が存在することを示す警告を表示する処理などを行う。なお、この衝突の可能性の推定は、車両状態センサ6で検出した自車100の操舵状態や方向指示器の操作状態より、警告を表示しなかった場合に行われるであろうと予測される、自車100の進路変更や車線変更の挙動を考慮しつつ行う。
The operation of the side monitoring unit has been described above.
Now, referring back to FIG. 1 a, the surrounding situation presentation unit 7 is based on the other vehicle information received from the rear monitoring unit 4 and the parallel running vehicle information received from the side monitoring unit 5. The position and range of the parallel vehicle are displayed on the display device 8, and the possibility of a collision between another vehicle behind the vehicle 100 or the parallel vehicle and the vehicle 100 is estimated. When it exists, the display device 8 performs a process of displaying a warning indicating that there is another vehicle that is dangerous for the vehicle 100 behind or on the side. It is predicted that the possibility of the collision will be performed when a warning is not displayed based on the steering state of the host vehicle 100 detected by the vehicle state sensor 6 and the operation state of the direction indicator. This is performed while considering the course change and lane change behavior of the host vehicle 100.
以上、本発明の実施形態について説明した。 The embodiment of the present invention has been described above.
1…後方カメラ、2…左方カメラ、3…右方カメラ、4…後方監視部、5…側方監視部、6…車両状態センサ、7…周辺状況提示部、8…表示装置。 DESCRIPTION OF SYMBOLS 1 ... Back camera, 2 ... Left camera, 3 ... Right camera, 4 ... Back monitoring part, 5 ... Side monitoring part, 6 ... Vehicle state sensor, 7 ... Peripheral condition presentation part, 8 ... Display apparatus.
Claims (7)
前記自動車の側方を撮影するカメラと、
前記カメラで撮影した画像に含まれる画像パターンの、前記自動車の前後方向についての輝度変化の傾きの大きさが所定のしきい値よりも大きなエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段が抽出したエッジを、前記画像に含まれる並走車の画像パターンのエッジであるものとして、当該並走車を検出する並走車検出手段とを有することを特徴とする周辺監視装置。 A peripheral monitoring device that detects a parallel vehicle that is mounted on an automobile and that is another vehicle that runs in parallel with the automobile,
A camera for photographing the side of the car;
An edge extraction means for extracting an edge in which the magnitude of the gradient of the luminance change in the front-rear direction of the automobile of the image pattern included in the image photographed by the camera is larger than a predetermined threshold;
Peripheral monitoring, comprising: an edge extracted by the edge extraction means as an edge of an image pattern of a parallel running vehicle included in the image, and a parallel running vehicle detection means for detecting the parallel running vehicle apparatus.
前記自動車の速度を検出する車速検出手段と、
前記車速検出手段が検出した車速が小さいほど大きくなるように前記しきい値を設定するしきい値設定手段を有することを特徴とする周辺監視装置。 The periphery monitoring device according to claim 1,
Vehicle speed detecting means for detecting the speed of the automobile;
A periphery monitoring device comprising threshold setting means for setting the threshold so that the vehicle speed detected by the vehicle speed detecting means increases as the vehicle speed decreases.
前記自動車の側方を撮影するカメラと、
前記カメラで撮影した画像に含まれる画像パターンのエッジを抽出するエッジ抽出手段と、
前記エッジ抽出手段が抽出したエッジの前記自動車の前後方向についての対称性の有無を検出する対称性検出手段と、
前記対称性検出手段が前記エッジの前記自動車の前後方向についての対称性を検出した場合に、当該前記自動車の前後方向についての対称性の対称軸の前記自動車の前後方向についての位置を、前記画像中に含まれる並走車の車輪の画像パターン中の車軸の前記自動車の前後方向についての位置として、当該並走車を検出する並走車検出手段とを有することを特徴とする周辺監視装置。 A peripheral monitoring device that detects a parallel vehicle that is mounted on an automobile and that is another vehicle that runs in parallel with the automobile,
A camera for photographing the side of the car;
Edge extraction means for extracting an edge of an image pattern included in an image photographed by the camera;
Symmetry detecting means for detecting the presence or absence of symmetry of the edge extracted by the edge extracting means in the longitudinal direction of the vehicle;
When the symmetry detection means detects the symmetry of the edge in the longitudinal direction of the vehicle, the position of the symmetry axis of symmetry in the longitudinal direction of the vehicle in the longitudinal direction of the vehicle A periphery monitoring device, comprising: a parallel vehicle detection unit that detects the parallel vehicle as a position of an axle in a wheel pattern image of a parallel vehicle included therein in the front-rear direction of the automobile.
前記並走車検出手段は、対称性検出手段が前記エッジの前記自動車の前後方向についての対称性を検出した場合に、当該自動車の前後方向についての対称性の対称軸上の画像パターンのエッジの位置のうちの、前記自動車の左右方向について最も前記自動車に近い位置を、前記画像に含まれる並走車の車輪の画像パターン中の車輪下端の前記自動車の左右方向についての位置として、当該並走車を検出することを特徴とする周辺監視装置。 The periphery monitoring device according to claim 3,
The parallel running vehicle detection means detects the edge of the image pattern on the symmetry axis of symmetry in the longitudinal direction of the automobile when the symmetry detection means detects the symmetry of the edge in the longitudinal direction of the automobile. Of the positions, the position closest to the automobile in the left-right direction of the automobile is the parallel running as the position in the left-right direction of the automobile at the lower end of the wheel in the image pattern of the wheels of the parallel running vehicle included in the image. Perimeter monitoring device characterized by detecting a car.
前記自動車の速度を検出する車速検出手段と、
前記車速検出手段が検出した車速が大きいほど大きくなるようにしきい値を設定するしきい値設定手段とを備え、
前記エッジ抽出手段は、前記カメラで撮影した画像に含まれる画像パターンの、前記自動車の前後方向についての輝度変化の傾きの大きさが前記しきい値設定手段が設定した前記しきい値よりも大きなエッジを抽出することを特徴とする周辺監視装置。 The periphery monitoring device according to claim 3,
Vehicle speed detecting means for detecting the speed of the automobile;
Threshold value setting means for setting a threshold value so as to increase as the vehicle speed detected by the vehicle speed detection means increases,
The edge extracting means has an inclination of a luminance change of an image pattern included in an image photographed by the camera in the front-rear direction of the automobile larger than the threshold set by the threshold setting means. A periphery monitoring device characterized by extracting an edge.
カメラを用いて前記自動車の側方を撮影するステップと、
前記カメラで撮影した画像に含まれる画像パターンの、前記自動車の前後方向についての輝度変化の傾きの大きさが所定のしきい値よりも大きなエッジを抽出するステップと、
抽出したエッジを、前記画像に含まれる並走車の画像パターンのエッジであるものとして、当該並走車を検出するステップとを有することを特徴とする並走車検出方法。 In a device mounted on an automobile, a parallel vehicle detection method for detecting a parallel vehicle that is another vehicle parallel to the automobile,
Photographing the side of the car using a camera;
Extracting an edge of an image pattern included in an image photographed by the camera, wherein the magnitude of the gradient of the luminance change in the longitudinal direction of the automobile is greater than a predetermined threshold;
And a step of detecting the parallel vehicle as the edge of the image pattern of the parallel vehicle included in the image.
前記自動車の速度を検出するステップと、
検出した車速が小さいほど大きくなるように前記しきい値を設定するステップとを有することを特徴とする並走車検出方法。 The parallel vehicle detection method according to claim 6,
Detecting the speed of the vehicle;
And a step of setting the threshold value so that the detected vehicle speed increases as the vehicle speed decreases.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006321346A JP2008134877A (en) | 2006-11-29 | 2006-11-29 | Perimeter monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006321346A JP2008134877A (en) | 2006-11-29 | 2006-11-29 | Perimeter monitoring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008134877A true JP2008134877A (en) | 2008-06-12 |
Family
ID=39559686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006321346A Withdrawn JP2008134877A (en) | 2006-11-29 | 2006-11-29 | Perimeter monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008134877A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016116601A1 (en) | 2015-09-10 | 2017-03-16 | Fuji Jukogyo Kabushiki Kaisha | Vehicle exterior environment recognition device |
DE102018110972A1 (en) | 2017-05-17 | 2018-11-22 | Subaru Corporation | Vehicle exterior environment recognition device |
JP2018206214A (en) * | 2017-06-07 | 2018-12-27 | アルパイン株式会社 | Other-vehicles monitoring system |
US10789489B2 (en) | 2017-07-26 | 2020-09-29 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
US11756325B2 (en) | 2019-11-22 | 2023-09-12 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
-
2006
- 2006-11-29 JP JP2006321346A patent/JP2008134877A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016116601A1 (en) | 2015-09-10 | 2017-03-16 | Fuji Jukogyo Kabushiki Kaisha | Vehicle exterior environment recognition device |
US10102437B2 (en) | 2015-09-10 | 2018-10-16 | Subaru Corporation | Vehicle driving hazard recognition and avoidance apparatus and vehicle control device |
DE102016116601B4 (en) * | 2015-09-10 | 2019-11-07 | Subaru Corporation | Vehicle exterior environment recognition device |
DE102018110972A1 (en) | 2017-05-17 | 2018-11-22 | Subaru Corporation | Vehicle exterior environment recognition device |
US10643083B2 (en) | 2017-05-17 | 2020-05-05 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
JP2018206214A (en) * | 2017-06-07 | 2018-12-27 | アルパイン株式会社 | Other-vehicles monitoring system |
US10789489B2 (en) | 2017-07-26 | 2020-09-29 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
US11756325B2 (en) | 2019-11-22 | 2023-09-12 | Subaru Corporation | Vehicle exterior environment recognition apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2369552B1 (en) | Approaching object detection system | |
JP4707067B2 (en) | Obstacle discrimination device | |
KR101722258B1 (en) | Method of calculating distance between cars | |
JP6045889B2 (en) | In-vehicle control device | |
US10866416B2 (en) | Display control device and display control method | |
JP2007172035A (en) | Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method | |
JP2009223797A (en) | Obstacle detector | |
JP2010044561A (en) | Monitoring device to be mounted on vehicle | |
JP2009199328A (en) | Operation recording and evaluating apparatus for vehicle | |
JP2007241898A (en) | Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device | |
JP2000127849A (en) | Rear and side monitor for vehicle | |
JP6081247B2 (en) | Display switching device and display switching method for vehicle rear image | |
JP4826355B2 (en) | Vehicle surrounding display device | |
JP2008134877A (en) | Perimeter monitoring device | |
JP6820075B2 (en) | Crew number detection system, occupant number detection method, and program | |
US9365195B2 (en) | Monitoring method of vehicle and automatic braking apparatus | |
JP2011103058A (en) | Erroneous recognition prevention device | |
JP5172482B2 (en) | Vehicle periphery monitoring device | |
JP7398257B2 (en) | Road marking recognition device | |
US20090073000A1 (en) | Method and apparatus for alerting about driving state of vehicle | |
KR20160133257A (en) | Avoiding Collision Systemn using Blackbox Rear Camera for vehicle and Method thereof | |
JP4768499B2 (en) | In-vehicle peripheral other vehicle detection device | |
JP2004252550A (en) | Driving support device | |
JP2008046947A (en) | Surrounding monitoring system | |
JP2000011298A (en) | Read and side monitoring device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100202 |