[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH1114346A - Vehicular obstacle detecting device - Google Patents

Vehicular obstacle detecting device

Info

Publication number
JPH1114346A
JPH1114346A JP9178895A JP17889597A JPH1114346A JP H1114346 A JPH1114346 A JP H1114346A JP 9178895 A JP9178895 A JP 9178895A JP 17889597 A JP17889597 A JP 17889597A JP H1114346 A JPH1114346 A JP H1114346A
Authority
JP
Japan
Prior art keywords
window
vehicle
image
windows
preceding vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9178895A
Other languages
Japanese (ja)
Inventor
Tomoko Shimomura
倫子 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP9178895A priority Critical patent/JPH1114346A/en
Publication of JPH1114346A publication Critical patent/JPH1114346A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize behavior by detecting a preceding car without using a color image. SOLUTION: Stereo cameras 1 and 2 installed in a vehicle store two images picking up a forward road of the vehicle in image memories 3 and 4, and a matching position detecting part 7 detects a position of a window high in a resemblance degree from the other image as a template by dividing one image by using a window set by a window setting part 6. A distance operation means 8 performs an operation on a distance up to objects in respective windows by stereo image processing. A preceding car detecting part 9 detects a group of windows, on which the same distance value is calculated and to which windows are adjacent, as a preceding car. A white line detecting part 5, a travel lane judging part 10 and a winker flashing judging part 11 judge behavior by judging a preceding car traveling lane and flashing of a winker by monocular image processing. Therefore, a traveling obstacle can be detected by simple processing without requiring a color or the like as an image and without being influenced by a color or the like.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、走行障害になる
先行車を画像処理によって検出する車両用障害物検出装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an obstacle detecting device for a vehicle, which detects a preceding vehicle causing a running obstacle by image processing.

【0002】[0002]

【従来の技術】従来、車両用の障害物検出装置として
は、例えば特開平2−300741号公報に記載された
ものがある。これは、障害物の検出に熱画像とカラー画
像を用いて、熱画像においてマフラーを検出し、マフラ
ー位置から左右斜め上にオレンジまたは赤色のウインカ
をカラー画像から検出することによって車両検出を行な
うものである。
2. Description of the Related Art Conventionally, as an obstacle detecting device for a vehicle, for example, there is one described in Japanese Patent Application Laid-Open No. 2-30741. In this method, a muffler is detected in a thermal image using a thermal image and a color image to detect an obstacle, and a vehicle is detected by detecting an orange or red blinker from the color image diagonally right and left from the muffler position. It is.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
ような従来のものにあっては、熱画像を得るのにやや特
殊の赤外線カメラを使い、カラー画像を撮像するカメラ
とあわせて2種類のカメラを使用しなければならず、装
置が大型になり、コスト高となってしまう。また、マフ
ラーが温まっていない場合や、気温が高く、車体が日差
しで熱を持った場合などは、マフラーの検出が困難でオ
レンジや赤のウインカの検出位置が定まらず先行車の検
出が不可能となる欠点がある。
However, in the above-mentioned conventional camera, a special infrared camera is used to obtain a thermal image, and two types of cameras are used together with a camera for taking a color image. Must be used, which results in an increase in the size of the device and an increase in cost. In addition, when the muffler is not warm, or when the temperature is high and the car body is heated by the sun, it is difficult to detect the muffler, and the detection position of the orange or red turn signal is not fixed and the preceding vehicle cannot be detected. There is a disadvantage.

【0004】さらに、車両までの距離や二輪車、トラッ
クなどの車種によってマフラーとウインカの位置関係が
異なることにより、マフラーを検出してもウインカの検
出ができず、結果的に熱をもった部分やオレンジまたは
赤色の部分の検出だけで車両検出を判断することにな
り、検出結果が不確実である。また、ウインカの検出を
色で検出しているため、オレンジ色車体の車両ではウイ
ンカの検出が困難である。同じ理由によりデリニエータ
などのオレンジ色の反射板がウインカに近い色を有する
ためウインカと誤検出される可能性が高いなどの問題点
がある。
Further, since the positional relationship between the muffler and the turn signal differs depending on the distance to the vehicle and the type of the vehicle such as a motorcycle and a truck, the muffler cannot be detected even if the muffler is detected. The vehicle detection is determined only by detecting the orange or red portion, and the detection result is uncertain. Further, since the detection of the turn signal is detected by color, it is difficult to detect the turn signal in a vehicle having an orange body. For the same reason, there is a problem that an orange reflector such as a delineator has a color close to the turn signal, and therefore, there is a high possibility that the reflector is erroneously detected as a turn signal.

【0005】なお、上記の従来例では、車両の検出のみ
であって、車両の走行レーンについての判断は行なって
おらず、このため隣走行レーンを走行し自車の走行にと
って障害物にならない車両も障害物として検出される問
題がある。またこれを判断しようとしても、熱画像上に
は白線などが映らない。カラー画像も、ウインカのオレ
ンジ色や赤色が検出されやすいようにコントラスト調整
が行なわれ、白線の検出しにくい画像になっており、走
行レーン判断に困難を伴なっている。本実施例は、上記
従来の問題点に鑑み、熱やカラー画像を必要とせず、車
種を選ばず検出できるとともに、障害たる先行車のみを
検出する車両用障害物検出装置を提供することを目的と
している。
[0005] In the above-mentioned conventional example, only the detection of the vehicle is performed, and no judgment is made as to the traveling lane of the vehicle. There is also a problem that is detected as an obstacle. Also, even if an attempt is made to determine this, a white line or the like is not reflected on the thermal image. Also in the color image, the contrast is adjusted so that the orange or red color of the blinker is easily detected, and the image is difficult to detect the white line, so that it is difficult to determine the traveling lane. The present embodiment has been made in view of the above-described conventional problems, and has as its object to provide a vehicle obstacle detection device that can detect any vehicle type without requiring heat or a color image and that detects only a preceding vehicle as an obstacle. And

【0006】[0006]

【課題を解決するための手段】このため、それぞれの光
軸を互いに平行とし所定の眼間距離をもって配置された
2台のカメラと、前記2台のカメラが撮像した路面画像
を第1および第2の画像として記憶する画像メモリと、
前記第1の画像内で白線を検出する白線検出手段と、前
記第1の画像内の所定領域を複数の区域に分割するよう
にウインドウ設定を行なうウインドウ設定手段と、各ウ
インドウと最も類似度の高いウインドウの位置を前記第
2の画像から検出するマッチング位置検出手段と、2枚
の画像間で互いに類似度の高いウインドウが存在する画
像上の位置と2台のカメラの位置関係をもとに、各ウイ
ンドウ内に撮像された物体までの距離を演算する距離演
算手段と、同じ距離値が算出されかつウインドウが隣接
するウインドウのかたまりを先行車の検出領域として検
出する先行車検出手段と、前記ウインドウのかたまりと
前記白線の位置関係に基づき先行車の走行レーンを判断
する走行レーン判断手段とを有するものとした。
For this purpose, two cameras arranged parallel to each other with a predetermined distance between eyes with their optical axes parallel to each other, and road surface images taken by the two cameras are first and second images. An image memory for storing as two images;
A white line detecting unit for detecting a white line in the first image; a window setting unit for setting a window so as to divide a predetermined area in the first image into a plurality of areas; A matching position detecting means for detecting a position of a high window from the second image, and a position on an image where a window having a high degree of similarity exists between the two images and a positional relationship between the two cameras. A distance calculating means for calculating a distance to an object imaged in each window; a preceding vehicle detecting means for calculating a same distance value and detecting a cluster of windows adjacent to each other as a detection area of the preceding vehicle; A driving lane judging means for judging the driving lane of the preceding vehicle based on the positional relationship between the window cluster and the white line is provided.

【0007】そして、ウインドウのかたまりのうち左右
両側のウインドウからある一定時間間隔で輝度変化する
領域をウインカの撮像域として検出し、かつウインカが
作動状態にあると判断するウインカ点滅判断手段を設け
ることができる。また、ウインカ点滅判断手段の判断結
果を用いて、前記ウインドウのかたまりと前記白線の位
置関係から先行車の挙動を判断する車両挙動判定手段を
設けることもできる。
A blinker flicker determining means for detecting, as a blinker image pickup area, a region in which luminance changes from a window on the left and right sides of the block of windows at certain fixed time intervals, and determining that the blinker is in an operating state. Can be. Further, it is possible to provide a vehicle behavior determining means for determining the behavior of the preceding vehicle based on the positional relationship between the lump of the window and the white line using the determination result of the blinker blink determining means.

【0008】さらに、ウインドウのかたまりの縦横比と
大きさによって先行車の種類と大きさを判別する先行車
種類判断手段を設けることもできる。また、先行車種類
判断手段により縦に長いウインドウのたかまりが判定さ
れた場合、ウインドウのかたまりの左右両端のウインド
ウをさらに縦に細分化し、複数の小ウインドウを形成す
る細分化手段を設け、各小ウインドウを輝度変化の検出
域とすることもできる。
Further, a preceding vehicle type judging means for judging the type and size of the preceding vehicle based on the aspect ratio and the size of the window cluster may be provided. Further, when a cluster of vertically long windows is determined by the preceding vehicle type determination means, windows at both left and right ends of the cluster of windows are further subdivided vertically to provide subdivision means for forming a plurality of small windows. A small window may be used as a detection area for a luminance change.

【0009】[0009]

【作用】2台のカメラがステレオカメラを形成し、視差
をもった第1、第2の画像が撮像されるとともに画像メ
モリに記憶される。白線検出手段により第1の画像から
白線が検出される。ウインドウ設定手段が第1の画像内
の所定領域に領域を分割するようにウインドウ設定を行
なう。マッチング位置検出手段が各ウインドウと最も類
似度の高いウインドウの位置をマッチング処理によって
第2の画像内から検出する。
The two cameras form a stereo camera, and first and second images having parallax are captured and stored in an image memory. A white line is detected from the first image by the white line detecting means. Window setting means performs window setting so as to divide the area into predetermined areas in the first image. The matching position detection means detects the position of the window having the highest similarity to each window from the second image by the matching processing.

【0010】距離演算手段が第1と第2の画像間互いに
最も類似度の高いウインドウの位置および2台のカメラ
の位置関係をもとに三角測量法によりウインドウ内に撮
像された物体までの距離を算出する。隣接するウインド
ウにおいて同じ距離値が算出される場合は、それらのウ
インドウには同じ対象物が撮像されていると判断できる
ので、先行車検出手段が同じ距離値が算出されかつウイ
ンドウが隣接するウインドウのかたまりを先行車の検出
領域として検出する。走行レーン判断手段がウインドウ
のかたまりと白線の位置関係で先行車が走行するレーン
を判断する。
The distance calculating means calculates the distance to the object imaged in the window by triangulation based on the position of the window having the highest similarity between the first and second images and the positional relationship between the two cameras. Is calculated. When the same distance value is calculated in the adjacent windows, it can be determined that the same object is imaged in those windows. Therefore, the preceding vehicle detecting means calculates the same distance value and sets the window to the adjacent window. The lump is detected as a detection area of the preceding vehicle. The traveling lane determining means determines the lane in which the preceding vehicle travels based on the positional relationship between the lump of windows and the white line.

【0011】このように先行車の検出をステレオ画像上
で行なうので、モノクロ画像でも用が足り、熱や車色な
どが影響要素にならず、使用環境を選ばない効果が得ら
れる。また、白線を検出し先行車の走行レーンを判断す
るので、自車の走行障害になるかどうかの判断ができ
る。そして走行障害と判断された場合、先行車を検出す
る際に距離値がすでに求められており、その距離値を車
間距離の管理に用いることも可能で、自律走行や接近警
報など機能を簡単に構築できる。
As described above, since the detection of the preceding vehicle is performed on a stereo image, a monochrome image is sufficient, and heat and vehicle color do not become influential factors, so that an effect can be obtained regardless of the use environment. Further, since the white lane is detected and the traveling lane of the preceding vehicle is determined, it is possible to determine whether or not the traveling lane of the own vehicle is obstructed. If it is determined that the vehicle is in trouble, the distance value has already been obtained when detecting the preceding vehicle, and the distance value can be used to manage the inter-vehicle distance. Can be built.

【0012】そして、ウインカの点滅判断手段を加え、
先行車のウインカ点滅情報も取り入れると、先行車の挙
動も予想できる。ウインカの検出は、ウインドウのかた
まりの両側のウインドウで行ない、輝度変化でウインカ
作動を検知するので、ウインカ位置を特定するための操
作が必要なく、複雑な処理を要しない。また、点滅判断
手段のほかに、車両挙動判定手段を設けると、自車と同
一走行レーン上の先行車だけでなく、例えば隣接走行レ
ーン上の車両と車間距離および車両が自車の走行レーン
に割り込んでくるときの判断もでき予測的な機能を持ち
合わせることも可能である。
Then, a blinker blink determination means is added,
If the blinker blink information of the preceding vehicle is also incorporated, the behavior of the preceding vehicle can be predicted. Since the blinker is detected in the windows on both sides of the block of windows and the blinker operation is detected by a change in luminance, no operation for specifying the blinker position is required, and no complicated processing is required. In addition, when the vehicle behavior determining means is provided in addition to the blinking determining means, not only the preceding vehicle on the same running lane as the own vehicle, but also, for example, the distance between the vehicle and the vehicle on the adjacent running lane and the vehicle are in the running lane of the own vehicle. It is possible to make a judgment when interrupting and to have a predictive function.

【0013】ウインドウのかたまりの大きさと縦横比が
そのまま車両の大きさと縦横比を反映するので、先行車
種類判断手段がウインドウのかたまりのウインドウ数や
配列の関係から先行車の種類や大きさをを判別すること
ができる。先行車種類判断手段により縦に長いウインド
ウのたかまりが判定された場合、先行車が二輪車である
ことを判断できるので、細分化手段が、ウインドウのか
たまりの左右両端のウインドウをさらに縦に細分化し複
数の小ウインドウを形成する。各小ウインドウは輝度変
化の検出域として提供されるので、先行車が二輪車であ
っても、ウインカの検出域内に占める割合が低下せず輝
度変化を精度よく検出できる。
Since the size and the aspect ratio of the window lump directly reflect the size and the aspect ratio of the vehicle, the preceding vehicle type determining means determines the type and size of the preceding vehicle from the relationship between the number of windows and the arrangement of the window lump. Can be determined. When the preceding vehicle type determination means determines a cluster of vertically long windows, it is possible to determine that the preceding vehicle is a two-wheeled vehicle, so the subdivision means further subdivides the windows at the left and right ends of the cluster of windows further vertically. Form a plurality of small windows. Since each small window is provided as a luminance change detection area, even if the preceding vehicle is a two-wheeled vehicle, the luminance change can be accurately detected without a decrease in the ratio of the turn signals in the detection area.

【0014】[0014]

【発明の実施の形態】以下、この発明の実施の形態を実
施例により説明する。ここでは、実施例に係わる装置を
具体的に説明する前に、ステレオカメラにより得られる
ステレオ画像を画像処理により前方障害物である先行車
の位置検出及びそのウインカの作動状態を検出し挙動認
識を行なう原理を説明する。
Embodiments of the present invention will be described below with reference to embodiments. Here, before specifically describing the apparatus according to the embodiment, the stereo image obtained by the stereo camera is subjected to image processing to detect the position of the preceding vehicle, which is an obstacle in front, and detect the operation state of the blinker to recognize the behavior. The principle of operation will be described.

【0015】図1は、ステレオ画像を用いて三角測量の
原理でステレオカメラから先行車Cまでの距離Zを求め
る原理を説明する図である。ここでは、ステレオカメラ
を構成する2台のカメラ1、2が車両に搭載されてい
る。カメラ1、2は、同一の焦点距離fを有するレンズ
L1、L2と、各レンズから撮像面までの距離が焦点距
離fとなるように配置されたCCD1a、2aとをそれ
ぞれ有するCCDカメラである。
FIG. 1 is a diagram for explaining the principle of obtaining a distance Z from a stereo camera to a preceding vehicle C by the principle of triangulation using stereo images. Here, two cameras 1 and 2 constituting a stereo camera are mounted on a vehicle. The cameras 1 and 2 are CCD cameras each having lenses L1 and L2 having the same focal length f and CCDs 1a and 2a arranged such that the distance from each lens to the imaging surface is the focal length f.

【0016】カメラ1、2は、CCD1a、2aの各撮
像面が同一垂直面内に位置し、各撮像面の垂直基準軸で
あるY軸、すなわCCD1aの撮像面の軸とCCD2a
の撮像面の軸(YA、YB)が一致し、レンズL1、L
2の光軸1b、2bが互いに平行でかつ眼間距離(光軸
1b、2b間の距離)Dが所定の値となるように、上下
に並べて配置されている。
In the cameras 1 and 2, the imaging surfaces of the CCDs 1a and 2a are located in the same vertical plane, and the Y axis which is the vertical reference axis of each imaging surface, that is, the axis of the imaging surface of the CCD 1a and the CCD 2a
The axes (YA, YB) of the imaging surfaces of the lenses L1, L2
The two optical axes 1b, 2b are arranged side by side so that they are parallel to each other and the interocular distance (distance between the optical axes 1b, 2b) D is a predetermined value.

【0017】焦点距離f及び眼間距離Dが既知であり、
光軸1b、2bが互いに平行な2台のカメラ1、2で車
両前方を撮像して得られる2つの画像からなるステレオ
画像において、2つの画像間のマッチング位置(最も類
似する画像の位置で、図1では先行車Cのリヤ側上縁部
の位置)のY座標ya、ybを求めることができれば、
カメラ1、2から先行車Cまでの距離Zは下記の式
(1)より求めることができる。 Z=f×D/(yb−ya) (1) ここで、f、ya、ybの単位はCCD1a、2aの画
素であり、D、Zの単位はmmである。なお、一般に焦
点距離fは単位をmmで表す場合が多いが、式(1)の
焦点距離fは画素を単位として計算する。
The focal length f and the interocular distance D are known,
In a stereo image composed of two images obtained by imaging the front of the vehicle with two cameras 1 and 2 whose optical axes 1b and 2b are parallel to each other, a matching position between the two images (the position of the most similar image, In FIG. 1, if the Y coordinates ya and yb of the rear side upper edge of the preceding vehicle C can be obtained,
The distance Z from the cameras 1 and 2 to the preceding vehicle C can be obtained from the following equation (1). Z = f × D / (yb−ya) (1) Here, the units of f, ya, and yb are pixels of the CCDs 1a and 2a, and the units of D and Z are mm. In general, the focal length f is often expressed in units of mm, but the focal length f in Expression (1) is calculated in units of pixels.

【0018】ここで、画素を単位とする焦点距離fの求
め方を図2に基づいて説明する。図2の(a)は大きさ
のわかっている幅W(mm)の物体C’を距離Z(m
m)だけ離れたところで2台のカメラ1、2の一方(こ
こではカメラ1)により撮像したときの様子を示し、同
図の(b)はそのとき得られる画像Aを示す。以下の説
明では、カメラ1により撮像される第1の画像をA、そ
してカメラ2により撮像される第2の画像をBとする。
Here, how to determine the focal length f in units of pixels will be described with reference to FIG. FIG. 2A shows an object C ′ having a width W (mm) of known size and a distance Z (m).
m) shows a state where one of the two cameras 1 and 2 (here, the camera 1) captures an image at a distance of m), and FIG. 7B shows an image A obtained at that time. In the following description, the first image captured by the camera 1 is A, and the second image captured by the camera 2 is B.

【0019】画素を単位とする焦点距離fは、大きさの
わかっている幅W(mm)の物体C’を距離Z(mm)
だけ離れたところにおいて撮像し、このとき得られる画
像A(または画像B)上での物体C’の幅xw(画素)
をエッジ検出などの画像処理により検出することで、下
記の式(2)により求めることができる。 f=xw×Z/W (2) ここで、xwの単位は画素であり、Z、Wの単位はmm
である。
The focal length f in pixels is the distance Z (mm) of an object C 'having a width W (mm) whose size is known.
Is taken at a distance only, and the width xw (pixels) of the object C ′ on the image A (or image B) obtained at this time
Is detected by image processing such as edge detection, and can be obtained by the following equation (2). f = xw × Z / W (2) Here, the unit of xw is a pixel, and the unit of Z and W is mm.
It is.

【0020】図3は、画像A内の所定域をウインドウ毎
に切り、各ウインドウW内に撮像されている対象物の特
徴的なエッジを用いて、画像Bにおける同エッジの撮像
位置を求めた結果を示す図である。ウインドウ毎にエッ
ジのマッチング位置が分かれば、式(1)を用いること
によりウインドウに区画された域内のすべてのエッジの
距離が分かる。ウインドウ毎に算出される距離は、その
内部に撮像されているエッジなどの特徴的な部分を持つ
物体までの距離であるので、隣接するウインドウにおい
て同じ距離が求められた場合は、それらのウインドウに
は同じ対象物が撮像されていると判断することができ
る。
FIG. 3 shows a state in which a predetermined area in the image A is cut for each window, and an image pickup position of the same edge in the image B is obtained by using a characteristic edge of the object picked up in each window W. It is a figure showing a result. If the edge matching position is known for each window, the distances of all edges within the area defined by the window can be determined by using the equation (1). Since the distance calculated for each window is a distance to an object having a characteristic portion such as an edge imaged inside the window, if the same distance is obtained in adjacent windows, the distance is calculated for those windows. Can be determined that the same object is imaged.

【0021】また、道路前方を撮像した画像では、先行
車は背景に対して強度が強く長い横エッジを持つ物体と
して撮像されるので、水平エッジ成分を利用してウイン
ドウ毎のマッチング位置を検出すると、ウインドウに先
行車が含まれる場合、隣接するウインドウから同じ距離
値が検出されることになる。すなわち隣接する数個のウ
インドウにおいて同じ距離が連続して求められた場合、
その部分(図の太線ウインドウ)を先行車とみなすこと
ができる。
In the image taken in front of the road, the preceding vehicle is imaged as an object having a strong horizontal edge that is strong relative to the background. Therefore, when the matching position for each window is detected using the horizontal edge component. When the preceding vehicle is included in the window, the same distance value is detected from the adjacent window. That is, when the same distance is continuously obtained in several adjacent windows,
That part (the bold window in the figure) can be regarded as the preceding vehicle.

【0022】次に、先行車を含むと判断されたウインド
ウのかたまりの画像上の位置と検出した白線との位置関
係をもとに先行車がどの走行レーンを走行しているかの
判断について説明する。図4は、先行車Cのリヤ側下縁
部を距離Zだけ離れたところで撮像(ここではカメラ1
により撮像)したときの様子を示す。この図から分かる
ように距離Zに検出された先行車Cの下縁が撮像される
画像上のY軸方向の位置は式(3)により求めることが
できる。 yc=〔(hーH)・f〕/Z (3) ここで、Hは路面から先行車の下縁までの高さ、hは路
面からカメラのレンズ中心までの高さ、fは焦点距離、
Zは車間距離とする。この車間距離Zと画像上の位置y
cの関係を用いて図5に示すように、先行車までの距離
と同じ位置にX軸方向における白線位置を検出し先行車
との位置関係を判断すれば、先行車が自車走行レーン上
であるか隣接走行レーン上であるかを判断することがで
きる。
Next, determination of which traveling lane the preceding vehicle is traveling on will be described based on the positional relationship between the position of the block of windows determined to include the preceding vehicle on the image and the detected white line. . FIG. 4 shows an image of the rear lower edge of the preceding vehicle C at a distance Z (here, camera 1).
FIG. As can be seen from this figure, the position in the Y-axis direction on the image in which the lower edge of the preceding vehicle C detected at the distance Z is captured can be obtained by Expression (3). yc = [(h−H) · f] / Z (3) where H is the height from the road surface to the lower edge of the preceding vehicle, h is the height from the road surface to the center of the camera lens, and f is the focal length. ,
Z is an inter-vehicle distance. This inter-vehicle distance Z and the position y on the image
As shown in FIG. 5 using the relationship of c, if the position of the white line in the X-axis direction is detected at the same position as the distance to the preceding vehicle and the positional relationship with the preceding vehicle is determined, the preceding vehicle moves on the own vehicle traveling lane. Or the vehicle is on an adjacent driving lane.

【0023】次に、検出された先行車の位置をもとに、
その車両のウインカの位置を検出する方法を説明する。
ウインカは通常車両の左右両サイドについている。ここ
では、画像Aと画像Bから先行車を含むウインドウを求
めているので、図6に示すように、先行車を含むと判断
されたウインドウのかたまりの左右両端のウインドウに
先行車の両サイドが撮像されていることになる。したが
ってウインドウのかたまりの左右両端のウインドウE内
において、ある一定時間間隔で輝度が変化する部分があ
れば、ウインカの位置、しかもウインカEが点滅してい
ると判断することができる。
Next, based on the detected position of the preceding vehicle,
A method of detecting the position of the turn signal of the vehicle will be described.
Winkers are usually on the left and right sides of the vehicle. Here, since the window including the preceding vehicle is obtained from the image A and the image B, as shown in FIG. 6, both sides of the preceding vehicle are located at the left and right ends of the cluster of windows determined to include the preceding vehicle. It means that the image has been taken. Therefore, if there is a portion in which the luminance changes at certain time intervals in the windows E at the left and right ends of the block of windows, it is possible to determine that the position of the blinker and that the blinker E is blinking.

【0024】上記のように、ステレオ画像を用いたステ
レオ画像処理により、先行車までの距離とその先行車の
画像上での位置を検出することができる。またステレオ
画像のどちらか片方を用いて行なう単眼画像処理により
その先行車が走行するレーンとその先行車のウインカの
点滅を判断することができるので、先行車の挙動を判断
することができる。
As described above, the distance to the preceding vehicle and the position of the preceding vehicle on the image can be detected by the stereo image processing using the stereo images. Further, since the lane in which the preceding vehicle travels and the blinking of the blinker of the preceding vehicle can be determined by the monocular image processing performed using one of the stereo images, the behavior of the preceding vehicle can be determined.

【0025】図7は、本発明の第1の実施例の構成を示
すブロック図である。2台のカメラ1、2がステレオカ
メラを構成し、それぞれ、同一の焦点距離fを有するレ
ンズL1、L2と、各レンズから撮像面までの距離が焦
点距離fとなるように配置されたCCD1a、2aとを
有するCCDカメラからなる。カメラ1、2は、前方を
撮影するのに適した車両上の所定の部位に取り付けられ
ている。カメラ1、2は、先の図1に示すように、CC
D1a、2aの各撮像面が同一垂直面内に位置し、各撮
像面の垂直基準軸(YA軸、YB軸)が一致し、レンズ
L1、L2の光軸1b、2bが水平かつ互いに平行とな
り、所定の眼間距離Dをもって上下に並べて配置されて
いる。
FIG. 7 is a block diagram showing the configuration of the first embodiment of the present invention. The two cameras 1 and 2 constitute a stereo camera, each having lenses L1 and L2 having the same focal length f, and a CCD 1a arranged such that the distance from each lens to the imaging surface is the focal length f. 2a. The cameras 1 and 2 are attached to predetermined portions on a vehicle suitable for photographing the front. Cameras 1 and 2 are, as shown in FIG.
Each imaging plane of D1a, 2a is located in the same vertical plane, the vertical reference axes (YA axis, YB axis) of each imaging plane coincide, and the optical axes 1b, 2b of the lenses L1, L2 become horizontal and parallel to each other. , With a predetermined interocular distance D.

【0026】カメラ1、2のそれぞれの撮像した映像信
号がディジタル画像として画像メモリ3、4に出力され
記憶される。白線検出部5は画像メモリ3からの画像A
を画像処理して自車を囲む2本の白線を検出する。ウイ
ンドウ設定部6は、画像メモリ3から画像Aを取り込
み、空などの車両が存在しえない域を除いた画面部分に
画面を分割するように複数の同サイズのウインドウを設
定する。
The captured video signals of the cameras 1 and 2 are output to the image memories 3 and 4 as digital images and stored. The white line detector 5 detects the image A from the image memory 3
To detect two white lines surrounding the own vehicle. The window setting unit 6 fetches the image A from the image memory 3 and sets a plurality of windows of the same size so as to divide the screen into a screen portion excluding an area such as the sky where a vehicle cannot exist.

【0027】マッチング位置検出部7は、画像Aの微分
画像にウインドウを重ね合わせるとともに、各ウインド
ウと最も類似度の高いウインドウの位置を画像Bから検
出し、両画像間のウインドウのマッチング位置を記憶す
る。距離演算部8は、各ウインドウのマッチング位置と
カメラ1、カメラ2のレンズの焦点距離fおよび眼間距
離Dをもとにウインドウ内の撮像物体までの距離を算出
する。先行車検出部9は、同じ距離が算出され、かつ隣
接するウインドウのかたまりを先行車として検出する。
The matching position detecting section 7 superimposes the window on the differential image of the image A, detects the position of the window having the highest similarity with each window from the image B, and stores the matching position of the window between the two images. I do. The distance calculation unit 8 calculates the distance to the imaging object in the window based on the matching position of each window, the focal length f of the lenses of the cameras 1 and 2, and the distance D between the eyes. The preceding vehicle detection unit 9 calculates the same distance and detects a cluster of adjacent windows as the preceding vehicle.

【0028】走行レーン判断部10は、ウインドウのか
たまりの位置と白線検出部5で検出した白線との画像上
の位置関係で先行車の走行レーンを判断する。ウインカ
点滅判断部11はウインドウのかたまりの左右両側にあ
るウインドウをウインカの検出域としてウインカを検出
し、点滅状態を判定する。車両挙動判定部12は、ウイ
ンカの点滅状態と走行レーン判断の結果から先行車の挙
動を判断する。
The traveling lane determining unit 10 determines the traveling lane of the preceding vehicle based on the positional relationship in the image between the position of the window cluster and the white line detected by the white line detecting unit 5. The blinker blink determination unit 11 detects the blinkers by using the windows on both the left and right sides of the cluster of windows as the blinker detection area, and determines the blinking state. The vehicle behavior determination unit 12 determines the behavior of the preceding vehicle from the blinking state of the turn signal and the result of the traveling lane determination.

【0029】図8は、本実施例の処理の流れを示すフロ
ーチャートである。まず、ステップ101で、ステレオ
画像、すなわちカメラ1、2からそれぞれ出力される画
像A、Bを画像メモリ3、4にそれぞれ入力して記憶さ
せる。ステップ102では、白線検出部5が画像A、B
のどちらか一方(本実施例では画像メモリ3に記憶され
た画像A)に画像処理を施して白線を検出する。ここで
は、自車走行レーンだけを検出することを考えるので、
自車左右の2本の白線を検出する。図9、図10は白線
の検出原理の説明図である。図9の(a)は単眼カメラ
(カメラ1)が道路の中央で白線を撮像しているときの
様子を示す正面図で、(b)はその側面図である。自車
が2本の白線の間を走行している場合、2本の白線は画
像の左右両側に現われる。前方の白線が直線であり、自
車が2本の白線の中央を走行していると仮定して、図9
に示すように、距離Z先の白線が撮像される画像上の座
標は、幾何学的計算により、式(4)で求めることがで
きる。 xr=(Wr・f)/(Z・2)、yr=(h・f)/Z (4) ここで、Wrは路面の幅、hは路面からカメラのレンズ
中心までの高さ、fは焦点距離、Zは車間距離、xr、
yrは画像上の位置とする。
FIG. 8 is a flowchart showing the flow of the processing of this embodiment. First, in step 101, stereo images, that is, images A and B output from the cameras 1 and 2, respectively, are input and stored in the image memories 3 and 4, respectively. In step 102, the white line detection unit 5 determines that the images A and B
(In this embodiment, the image A stored in the image memory 3) is subjected to image processing to detect a white line. In this example, we will consider detecting only the driving lane.
The two white lines on the left and right of the vehicle are detected. 9 and 10 are explanatory diagrams of the principle of detecting a white line. FIG. 9A is a front view showing a state where the monocular camera (camera 1) is capturing a white line at the center of the road, and FIG. 9B is a side view thereof. When the vehicle is traveling between two white lines, the two white lines appear on both left and right sides of the image. Assuming that the front white line is a straight line and the vehicle is traveling in the center of the two white lines, FIG.
As shown in the above, the coordinates on the image where the white line ahead of the distance Z is picked up can be obtained by equation (4) by geometric calculation. xr = (Wr · f) / (Z · 2), yr = (h · f) / Z (4) where Wr is the width of the road surface, h is the height from the road surface to the center of the camera lens, and f is Focal length, Z is the distance between vehicles, xr,
yr is a position on the image.

【0030】複数の距離値Zに対して式(4)に基づい
て画像上の位置xr、yrを求めて、白線を検出するた
めのウインドウ設定位置を決め、各位置において図10
に示すようにxr、yrを中心とするウインドウWdを
設定する。ウインドウWdは車両が白線の中央でない場
合を見込んで白線が外れないように大きさが決定され
る。そして各ウインドウWdにおいて微分演算をし左右
に正負のエッジが対になって現われる場所を検出し、正
負エッジのX軸における中心位置を演算して白線の検出
点として保存する。各ウインドウからの検出点をさらに
フィッティングするよう結ぶことで白線が検出される。
フィッティングさせる方法としては特願平3−3145
や特願平4−171240に紹介されている手法を用い
ればよい。
The positions xr and yr on the image are obtained for a plurality of distance values Z based on equation (4), and the window setting positions for detecting the white line are determined.
A window Wd centering on xr and yr is set as shown in FIG. The size of the window Wd is determined so that the white line does not deviate in anticipation of the case where the vehicle is not at the center of the white line. Then, a differential operation is performed in each window Wd to detect a position where the left and right edges appear as a pair, and the center position of the positive and negative edges on the X axis is calculated and stored as a white line detection point. A white line is detected by connecting detection points from each window so as to further fit them.
For the fitting method, refer to Japanese Patent Application No. Hei 3-3145.
Or a method introduced in Japanese Patent Application No. 4-171240.

【0031】次に、ステップ103では、画像A、Bの
どちらか一方(本実施例では画像A)においてウインド
ウ設定部6が、空などの区域を検出しそれを除いた部分
に合わせて所定大きさのウインドウを設定する。ステッ
プ104では、マッチング位置検出部7が、画像メモリ
3と画像メモリ4から図11のaに示す画像Aと画像B
の原画像を入力し、微分処理を施して水平エッジを際立
たせた微分画像(b)を作る。(以下簡単のため、微分
画像もそのもとの画像の呼び名で画像A、画像Bと呼
ぶ)ステップ103で設定されたウインドウ位置に画像
Aを図12のように横に幅xw、縦に幅ywのウインド
ウ40毎に分割する。分割された各ウインドウ40をテ
ンプレートとして、画像Bからテンプレートの画像と最
も類似度の高い位置を式(5)を用いた正規化相関法に
より求めて、ウインドウのマッチング位置を演算する。
Next, in step 103, the window setting section 6 detects an area such as the sky in one of the images A and B (the image A in the present embodiment), and adjusts the size to a predetermined size in accordance with the detected area. Set up the window In step 104, the matching position detecting unit 7 determines whether the image A and the image B shown in FIG.
Is input and subjected to a differentiation process to create a differentiated image (b) in which horizontal edges are emphasized. (For the sake of simplicity, the differential images are also referred to as the original image by the names of the original images, image A and image B.) At the window position set in step 103, the image A is horizontally width xw and vertically width as shown in FIG. The window is divided for each window 40 of yw. Using each of the divided windows 40 as a template, a position having the highest similarity to the image of the template is obtained from the image B by a normalized correlation method using Expression (5), and a matching position of the window is calculated.

【数1】 なお、式(5)において、テンプレートの画像の各画素
の輝度値をAij、画像Bの各画素の輝度値をBijと
する。ここで、微分画像を用いるのは、検出対象物であ
る先行車は水平エッジをもつものが多く、先行車が背景
より強調され検出しやすくするためである。
(Equation 1) In Expression (5), the luminance value of each pixel of the template image is Aij, and the luminance value of each pixel of the image B is Bij. The reason why the differential image is used is that many of the preceding vehicles, which are detection targets, have a horizontal edge, and the preceding vehicles are emphasized more than the background and are easily detected.

【0032】図13は、正規化相関法による画像A、B
間のマッチング位置の検出方法の説明図である。ここで
は2台のカメラ1、2をそれぞれのY軸が同一線上にの
るように配置してあるので、画像B内において、画像A
のテンプレート(ウインドウ40)と同じX軸の位置
で、探索位置をY軸方向に順次ずらした複数の位置検出
対象画像を求める。そして、図13の(b)に取り出し
て示すテンプレートと(c)に示す画像Bから取り出し
た(d1)から(d3)に示す各位置検出対象画像との
比較から、類似度の最も高い位置検出対象画像を求める
ことになる。図中、(d2)はテンプレートと類似度最
大の位置で検出対象画像を示し、(d1)はそれより上
方の位置で、(d3)はそれより下方の位置で検出対象
画像を示している。このように画像Aに対し各ウインド
ウに対応したウインドウが画像Bに作られる。その両ウ
インドウのY軸位置を示すyaとybはウインドウのマ
ッチング位置となる。
FIG. 13 shows images A and B obtained by the normalized correlation method.
FIG. 4 is an explanatory diagram of a method of detecting a matching position between the two. Here, the two cameras 1 and 2 are arranged such that their Y axes are on the same line.
At the same X-axis position as the template (window 40), a plurality of position detection target images whose search positions are sequentially shifted in the Y-axis direction are obtained. Then, by comparing the template extracted in (b) of FIG. 13 with the position detection target images (d1) to (d3) extracted from the image B shown in (c), the position detection with the highest similarity is performed. The target image will be obtained. In the figure, (d2) shows the detection target image at the position where the similarity with the template is maximum, (d1) shows the detection target image at a position above it, and (d3) shows the detection target image at a position below it. Thus, a window corresponding to each window is created in image B for image A. Ya and yb indicating the Y-axis positions of both windows are the matching positions of the windows.

【0033】ステップ105では、距離演算部8が各ウ
インドウにおいてウインドウ内に撮像された物体までの
距離を式(1)を用いて演算する。物体が図14に示す
ように画像Aと画像Bのウインドウ内に同じ位置を占め
るので、物体のマッチング位置差は、すなわちウインド
ウのマッチング位置差(yb−ya)である。したがっ
てウインドウのマッチング位置を用い、式(1)に代入
することによりウインドウ内の物体までの距離が算出さ
れる。
In step 105, the distance calculation unit 8 calculates the distance to the object imaged in each of the windows by using equation (1). Since the object occupies the same position in the window of the image A and the image B as shown in FIG. 14, the matching position difference of the object is the window matching position difference (yb-ya). Therefore, the distance to the object in the window is calculated by substituting into the equation (1) using the matching position of the window.

【0034】上記のような処理を全てのウインドウにつ
いて行なって、ウインドウ毎のその内部に撮像されてい
る物体までの距離を求めると、ステップ106において
連続して同じ距離値が算出されたウインドウのかたまり
を検出し、そのウインドウのかたまりが複数ある場合、
距離の一番近いものを選んで先行車の検出領域として検
出する。ステップ107では、ウインドウのかたまりが
検出できたかをチェックし、できなかった場合、先行車
なしとしてステップ101に戻り、次の画像を入力して
上記の処理を繰り返す。ウインドウのかたまりを検出で
きた場合、先行車ありとしてウインドウで演算された距
離値を先行車までの距離検出値として記憶しステップ1
08へ進む。
When the above-described processing is performed on all the windows and the distance to the object imaged inside each window is obtained, the cluster of the windows in which the same distance value is continuously calculated in step 106 is obtained. Is detected, and if there are multiple blocks of the window,
The closest one is selected and detected as the detection area of the preceding vehicle. In step 107, it is checked whether a block of windows has been detected. If not, the process returns to step 101 assuming that there is no preceding vehicle, the next image is input, and the above processing is repeated. If a block of windows can be detected, the distance value calculated in the window is stored as a distance detection value to the preceding vehicle, assuming that there is a preceding vehicle.
Proceed to 08.

【0035】ステップ108では、先行車が自車と同一
走行レーンであるか否かを走行レーン判断部10におい
て判断する。これは、図5に示したように、ウインドウ
のかたまりの距離と同じ位置ycをラインとしてステッ
プ102で検出された2つの白線と交わる2つの点を検
出する。そしてウインドウのかたまりがこの2つの交点
の中にあるかどうかを判断して先行車が自車と同一走行
レーンであるか否かを判断する。自車と異なる走行レー
ンである場合、先行車が自車の走行障害とならないため
ステップ101へ戻り、上記処理を再び行なう。検出し
た先行車が自車と同一走行レーンである場合、自車の走
行障害になるとしてステップ109へ進む。
In step 108, the traveling lane judging section 10 judges whether or not the preceding vehicle is in the same traveling lane as the own vehicle. In this case, as shown in FIG. 5, two points intersecting the two white lines detected in step 102 are detected using the same position yc as the distance of the block of the window as a line. Then, it is determined whether or not the lump of the window is located between the two intersections, and it is determined whether or not the preceding vehicle is in the same traveling lane as the own vehicle. If the traveling lane is different from that of the own vehicle, the process returns to step 101 because the preceding vehicle does not interfere with the traveling of the own vehicle, and the above processing is performed again. If the detected preceding vehicle is in the same running lane as the own vehicle, the process proceeds to step 109 assuming that the running obstacle of the own vehicle is caused.

【0036】ステップ109では、先行車であると判断
されたウインドウのかたまりのうち、車両挙動判定部1
2が左右両端のウインドウを用いてウインカの検出域と
してウインカの点滅を検出して先行車の挙動判断を行な
う。図15はウインカの検出方法とウインカの点滅の判
断方法を説明する図である。まず図15の(a)のよう
にウインドウのかたまりのうち両端にあるウインドウW
を1つずつ取りだして、ウインドウ内の縦エッジを検出
する。検出された縦エッジがあるしきい値以上でかつ所
定の長さ以上という2つのチェック条件を満足しなけれ
ば、ウインドウ全体をウインカの検出域として、さらに
横エッジを検出し、長さと強度の判断を行なったうえ、
横エッジの近似線u、v、wで検出域を区画する。各区
画された小ウインドウにおいて、他の部分と比べて輝度
の変化の大きい部分を検出する。
In step 109, the vehicle behavior determination unit 1 selects one of the blocks of the window determined to be the preceding vehicle.
2 detects the blinking of the turn signal as a detection area of the turn signal by using the windows at the left and right ends to determine the behavior of the preceding vehicle. FIG. 15 is a diagram illustrating a method of detecting a blinker and a method of determining blinking of the blinker. First of all, as shown in FIG.
Are taken out one by one to detect a vertical edge in the window. If the detected vertical edge does not satisfy the two check conditions of not less than a certain threshold and not less than a predetermined length, the entire window is used as a blinker detection area to further detect a horizontal edge and determine the length and intensity. And then
The detection area is defined by the approximate lines u, v, w of the horizontal edge. In each of the divided small windows, a portion having a large change in luminance as compared with other portions is detected.

【0037】もし、チェック条件を満足する縦エッジが
検出できれば、図15の(b)のように縦エッジの近似
線tでウインドウを分割する。ウインドウのかたまりの
右のウインドウにおいては近似線tより左側の画像、左
のウインドウにおいては近似線より右側の画像だけをウ
インカの検出域とする。その検出域内からさらに横エッ
ジを検出し、横エッジの近似線u、v、wで検出域を区
画する。各区画された小ウインドウにおいて他の部分と
比べて輝度の変化の大きい部分を検出する。なお、図1
5の(b)は右ウインドウにおける縦エッジが検出され
た場合の区画状態を示す図である。
If a vertical edge satisfying the check condition can be detected, the window is divided by an approximate line t of the vertical edge as shown in FIG. In the window on the right side of the block of windows, only the image on the left side of the approximation line t is set as the blinker detection area in the left window. A horizontal edge is further detected from within the detection area, and the detection area is partitioned by approximate lines u, v, w of the horizontal edge. In each of the divided small windows, a portion having a larger change in luminance than other portions is detected. FIG.
FIG. 5B is a diagram showing a section state when a vertical edge in the right window is detected.

【0038】上記の検出で、輝度変化があり、かつ変化
の間隔がウインカの点滅間隔とほぼ同じで、しかも一定
時間以上に続いたと確認すると、ウインカが点滅してい
ると判断し、先行車が隣接走行レーンに移る状態にある
と判断する。輝度変化がなく、あるいはあっても確認条
件を満たさない場合、ウインカの点滅がないと判断し、
先行車がその後も同じ走行レーンを走行すると予測す
る。左右両ウインドウ内輝度がある時点以降急にました
と確認した場合、先行車の停止と判断して、ステップ1
01に戻る。
In the above-described detection, when it is confirmed that there is a luminance change and the interval of the change is substantially the same as the blinking interval of the blinker and has continued for a certain period of time or more, it is determined that the blinker is blinking, and the preceding vehicle is judged to be blinking. It is determined that the vehicle is moving to the adjacent driving lane. If there is no change in luminance or the confirmation conditions are not met even if there is, it is determined that there is no blinking of the blinker,
It is predicted that the preceding vehicle will continue to travel in the same traveling lane. If it is confirmed that the brightness in both the left and right windows has suddenly increased since a certain point, it is determined that the preceding vehicle has stopped, and step 1 is performed.
Return to 01.

【0039】本実施例は以上のように構成され、ステレ
オ画像の一方に画像を分割するウインドウを設定し、各
ウインドウと最も類似度の高いウインドウの位置を他方
の画像から検出し三角測量原理を基づいた距離演算を
し、隣接するウインドウから同じ距離演算値が演算され
たウインドウのかたまりを先行車として検出する。そし
て先行車として認識されたウインドウのかたまりのう
ち、両側にあるウインドウからウインカの点滅状態を輝
度の変化で検出し、自車と同一走行レーンかの判断を経
て先行車の挙動判断を行なうので、従来と比べて、カメ
ラが1種類でよく、かつモノクロでも充分に用が足り、
処理が簡単になるとともに、車種や検出環境を選ばない
効果が得られる。
The present embodiment is configured as described above. A window for dividing an image is set in one of the stereo images, the position of the window having the highest similarity to each window is detected from the other image, and the principle of triangulation is used. The distance calculation based on the distance is performed, and a cluster of windows in which the same distance calculation value has been calculated from an adjacent window is detected as a preceding vehicle. Then, among the lump of windows recognized as the preceding vehicle, the blinking state of the turn signal is detected from the windows on both sides by a change in luminance, and the behavior of the preceding vehicle is determined through the determination of whether the vehicle is in the same running lane as the own vehicle, Compared with the past, only one type of camera is needed, and even monochrome is enough,
The processing can be simplified, and the effect of irrespective of the vehicle type and the detection environment can be obtained.

【0040】次に、本発明の第2の実施例について説明
する。この実施例は、同一走行レーンの他に隣接走行レ
ーン上の車両についてもウインカ検出をし挙動判断を行
なうようにしたものである。図16は、本実施例の構成
を示すブロック図であり、図7に示した第1の実施例の
ブロック図に車両挙動判定部12の代わりに隣車線から
割り込んでくる車両をも判断する機能を持たせた車両挙
動判定部13を設けたものである。走行レーン判断部1
00は白線検出部5で検出した白線をもとに隣接走行レ
ーンを含めて車両の走行域を判断する。その他は第1の
実施例と同様である。
Next, a second embodiment of the present invention will be described. In this embodiment, the blinker is detected and the behavior is determined for vehicles on an adjacent traveling lane in addition to the same traveling lane. FIG. 16 is a block diagram showing the configuration of the present embodiment. The function of judging a vehicle that is interrupting from an adjacent lane in place of the vehicle behavior judging unit 12 in the block diagram of the first embodiment shown in FIG. The vehicle behavior determination unit 13 provided with. Driving lane judgment unit 1
At 00, the traveling area of the vehicle including the adjacent traveling lane is determined based on the white line detected by the white line detecting unit 5. Others are the same as the first embodiment.

【0041】以下、図17のフローチャートに基づいて
処理の流れを説明する。ステップ101〜ステップ10
9までは第1の実施例と同様に、カメラ1、2からのス
テレオ画像を入力して画像メモリ3、4に記憶する。白
線検出部5が第1の実施例と同様にステレオ画像の一方
から自車の左右2本白線を検出しフィッテング処理によ
りデータ化される。
Hereinafter, the flow of processing will be described with reference to the flowchart of FIG. Step 101 to step 10
Up to 9, the stereo images from the cameras 1 and 2 are input and stored in the image memories 3 and 4 as in the first embodiment. Similar to the first embodiment, the white line detection unit 5 detects two white lines on the left and right of the vehicle from one of the stereo images and converts the white lines into data by fitting processing.

【0042】ウインドウ設定部6によってウインドウ設
定された一方の画像をマッチング位置検出部7が正規化
相関法により他方の画像から類似度の最も高いウインド
ウの位置を検出する。先行車検出部9が距離演算部8に
おいて距離演算されたウインドウのうち、同じ距離値が
算出されかつ隣接するウインドウのかたまりを先行車の
検出領域として検出する。そしてステップ108におい
て、画像Aから走行レーン判断部100がウインドウの
かたまりの距離と同じY軸位置上に白線の位置を示すx
l、xrを検出する。ウインドウのかたまりが白線位置
xl、xrの中にあると判断された場合、先行車が自車
と同じ走行レーン上にあり走行障害になるとして、ステ
ップ109でウインドウのかたまりの両端のウインドウ
をウインカの検出域としてウインドウ内の横、縦エッジ
に基づいた小ウインドウが設定される。各小ウインドウ
において輝度変化でウインカの作動状態を検出し先行車
の挙動を判断する。一方、ステップ108において自車
と同じ走行レーンでないと判断された場合、第1の実施
例では先行車が自車の走行障害にならないとしてステッ
プ101に戻るが、本実施例ではステップ210へ進ん
でさらに挙動判断し隣車線上の先行車が自車走行レーン
に割り込んでくるかどうかの判定を行なう。
The matching position detecting unit 7 detects the position of the window having the highest similarity from the other image by using the normalized correlation method for one image whose window has been set by the window setting unit 6. The preceding vehicle detection unit 9 calculates the same distance value among the windows whose distances have been calculated by the distance calculation unit 8 and detects a cluster of adjacent windows as a detection region of the preceding vehicle. Then, in step 108, from the image A, the traveling lane determining unit 100 indicates the position of the white line on the same Y-axis position as the distance of the lump of the window.
1 and xr are detected. If it is determined that the lump of windows is within the white line positions xl and xr, it is determined that the preceding vehicle is on the same traveling lane as the own vehicle and becomes a driving obstacle, and in step 109 the windows at both ends of the lump of windows are turned to the winkers. A small window is set as a detection area based on the horizontal and vertical edges in the window. In each of the small windows, the operating state of the turn signal is detected based on the change in luminance, and the behavior of the preceding vehicle is determined. On the other hand, if it is determined in step 108 that the vehicle is not in the same traveling lane as the own vehicle, the first embodiment assumes that the preceding vehicle does not become a traveling obstacle for the own vehicle, and returns to step 101. In the present embodiment, the process proceeds to step 210. Further, the behavior is determined, and it is determined whether or not the preceding vehicle on the adjacent lane interrupts the own vehicle traveling lane.

【0043】すなわち図18に示すように自車が2車線
道路を走行している場合、白線が3本であるので、それ
ら全てがカメラ1、2の撮像範囲内にあれば、左車線を
走行している場合では、距離Z前方にある白線は、図1
9のようにY軸上にxl、xr、xr2の位置に撮像さ
れる。先行車がそれらとの位置判断で走行レーンを判定
することができる。自車走行レーン上の点xl、xr
は、ステップ108ですでに求められており、また白線
間の距離Wrは通常3.5m程度であることから、図1
8から分かるように、距離Z離れたところで右隣接レー
ンの外側の白線の画像上位置xr2は、式(6)により
求めることができる。 xr2=xr+(f×Wr)/Z (6) Zは車両までの距離検出値、fはカメラの焦点距離、W
rは白線幅である。
That is, as shown in FIG. 18, when the vehicle is traveling on a two-lane road, there are three white lines, and if all of them are within the imaging range of the cameras 1 and 2, the vehicle travels in the left lane. In this case, the white line ahead of the distance Z is shown in FIG.
As shown in FIG. 9, images are taken at the positions of xl, xr, and xr2 on the Y axis. The traveling lane can be determined by judging the position of the preceding vehicle. Points xl and xr on own vehicle driving lane
Has already been obtained in step 108, and the distance Wr between the white lines is usually about 3.5 m.
As can be seen from FIG. 8, the position xr2 on the image of the white line outside the right adjacent lane at a distance Z can be obtained by Expression (6). xr2 = xr + (f × Wr) / Z (6) Z is the distance detection value to the vehicle, f is the focal length of the camera, W
r is the white line width.

【0044】ステップ210において、走行レーン判断
部100は式(6)に基づいて仮想的に白線xr2の位
置を算出する。ウインドウのかたまりがxrとxr2の
間にあるかどうかを判定する。なお、車間距離が近い場
合、xr2は画像の右外に出てしまう場合が考えられる
が、そのような位置のときは、xr2がxrの外側にあ
ることを考慮したうえ、判定を行なう。そして、判定の
結果は、ウインドウのかたまりがxrとxr2の間にあ
る場合、先行車が右隣接車線上にあり、ステップ211
へ進む。ウインドウのかたまりがxrとxr2の間にな
い場合、先行車が左隣車線上にあるとしてステップ21
2へ進む。
In step 210, the driving lane determining unit 100 virtually calculates the position of the white line xr2 based on the equation (6). It is determined whether a block of windows is between xr and xr2. Note that when the inter-vehicle distance is short, xr2 may go outside the right side of the image. In such a position, the determination is made in consideration of the fact that xr2 is outside xr. Then, as a result of the determination, if the lump of the window is between xr and xr2, the preceding vehicle is on the right adjacent lane, and step 211
Proceed to. If the lump of the window is not between xr and xr2, it is determined that the preceding vehicle is on the left lane and step 21
Proceed to 2.

【0045】ステップ211では、ウインドウのかたま
りのうち左サイドのウインドウを第1の実施理例と同様
に一部の点滅判断により、左のウインカの点滅状態を判
断する。点滅がある場合には、隣接レーンの車両が割り
込んでくることを判断する。ステップ212では、ウイ
ンドウのかたまりのうち右サイドのウインドウを同様に
ある一部の点滅判断により、右のウインカの点滅状態を
判断する。点滅がある場合には、隣接レーンの車両が割
り込んでくることを判断する。
In step 211, the blinking state of the left blinker is determined by partially blinking the window on the left side of the block of windows as in the first embodiment. When there is blinking, it is determined that the vehicle in the adjacent lane is interrupting. In step 212, the blinking state of the right blinker is determined by the blinking determination of a part of the window on the right side in the same manner. When there is blinking, it is determined that the vehicle in the adjacent lane is interrupting.

【0046】本実施例は以上のように構成され、自車と
同じ走行レーンを走行する先行車のほかに隣車線を走行
する車両についても挙動判断をするようにしたので、検
出の範囲が拡大される。図20は自車レーン上の先行車
Mより右隣走行レーン上の先行車Nが短い距離で検出さ
れたときの様子を示す図である。第1の実施例では先行
車Nについて障害物とならないと判断するのに対し、本
実施例ではそのウインカの点滅状態を判断し、自車の走
行レーンに割り込んでくるかの判断を行なうので、予測
的に障害物を判断する効果が得られる。
The present embodiment is configured as described above, and the behavior is determined not only for the preceding vehicle traveling on the same lane as the own vehicle but also for the vehicle traveling on the adjacent lane, so that the detection range is expanded. Is done. FIG. 20 is a diagram illustrating a state in which the preceding vehicle N on the right running lane is detected at a shorter distance than the preceding vehicle M on the own vehicle lane. In the first embodiment, it is determined that the preceding vehicle N does not become an obstacle. On the other hand, in the present embodiment, the blinking state of the blinker is determined, and it is determined whether or not the vehicle N will be interrupted in the traveling lane. The effect of predictively determining an obstacle is obtained.

【0047】次に、第3の実施例について説明する。こ
の実施例はウインドウのかたまりにより車両の種類や大
きさを検出するようにしたものである。また検出された
車両が二輪車の場合、ウインカが小さいので、検出精度
を落とさない検出方法について説明する。上記実施例で
は、所定の長さがある横エッジを囲むウインドウのかた
まりを車両として検出するので、ウインドウのかたまり
の縦横比や大きさから、検出した車両の大きさや種類を
判断することも可能である。すなわち図21に示すよう
に同じ距離に対して図12の乗用車のウインドウが2段
あるのに対し3段となっているので、先行車が大きいこ
とが分かり、その大きさにより先行車がトラックである
ことが判断可能である。また、図12の4列のウインド
ウがある乗用車に対して図22のように2列の縦長ウイ
ンドウのかたまりを検出すると、先行車が二輪車である
と判断できる。このようにウインドウの数またはウイン
ドウの配列関係を検出することにより先行車の大きさや
縦横比を判断でき、車種の判定もできる。
Next, a third embodiment will be described. In this embodiment, the type and size of a vehicle are detected based on a cluster of windows. In the case where the detected vehicle is a two-wheeled vehicle, since the turn signal is small, a detection method that does not reduce the detection accuracy will be described. In the above embodiment, since a cluster of windows surrounding a horizontal edge having a predetermined length is detected as a vehicle, it is possible to determine the size and type of the detected vehicle from the aspect ratio and size of the cluster of windows. is there. That is, as shown in FIG. 21, the window of the passenger car in FIG. 12 is three steps in contrast to the two steps in the same distance as shown in FIG. It can be determined that there is. Further, if a cluster of two rows of vertically long windows is detected as shown in FIG. 22 for a passenger car having four rows of windows in FIG. 12, it can be determined that the preceding vehicle is a two-wheeled vehicle. Thus, by detecting the number of windows or the arrangement relationship of windows, the size and aspect ratio of the preceding vehicle can be determined, and the type of vehicle can also be determined.

【0048】そして前方車両が二輪車である場合、ウイ
ンドウの大きさに対するウインカの大きさが小さく、か
つウインドウを小ウインドウに区画する際の縦エッジが
検出しにくいため、ウインカの点滅判断が難しい。そこ
で、二輪車であると判断された場合に限り、ウインドウ
点滅判定部11において、細分化手段として縦エッジの
検出を経ずにウインドウのかたまりの左右両端のウイン
ドウを所定のサイズで縦に細分化する。細分化した全て
の小ウインドウにおいて、図23のように第1、第2の
実施例と同様に横エッジを検出し近似線uによって小ウ
インドウを複数の域に区画する。各域において一定間隔
時間で輝度の変化部分を検出する。
When the preceding vehicle is a two-wheeled vehicle, the blinker size is small relative to the window size, and it is difficult to detect a vertical edge when the window is divided into small windows. Therefore, only when it is determined that the vehicle is a motorcycle, the window blinking determination unit 11 vertically subdivides the windows at the left and right ends of the cluster of windows into a predetermined size without detecting the vertical edge as the subdividing unit. . In all of the subdivided small windows, as in the first and second embodiments, a horizontal edge is detected as shown in FIG. 23, and the small window is divided into a plurality of regions by an approximate line u. A change in luminance is detected at fixed intervals in each region.

【0049】以上のようにウインドウのかたまりが先行
車の大きさや縦横比を反映するので、他の処理を加え
ず、ウインドウの数や配列関係で車種や大きさを判断で
きる。また、車両の二輪車である場合、ウインカの検出
域をさらに細分化するようにしたから、乗用車などの大
型車両と同じ手法でもウインカの点滅を漏らさず検出で
きる。
As described above, since the lump of windows reflects the size and the aspect ratio of the preceding vehicle, the type and size of the vehicle can be determined based on the number and arrangement of the windows without additional processing. When the vehicle is a two-wheeled vehicle, the blinker detection area is further subdivided, so that the blinking of the blinker can be detected without leaking even by the same method as a large vehicle such as a passenger car.

【0050】[0050]

【発明の効果】以上説明したように、本発明によれば、
ステレオカメラで撮像した第1の画像を分割するウイン
ドウを設定し、各ウインドウと最も類似度の高い第2の
画像のウインドウの位置をもとに撮像された物体までの
距離を算出する。そして同じ距離値が算出されかつ隣接
するウインドウのかたまりを先行車として検出するよう
にしたので、モノクロ画像でも用が足り、熱や車色など
が影響要素にならず、使用環境を選ばない効果が得られ
る。また、白線を検出し先行車の走行レーンを判断する
ので、自車の走行障害になるかどうかの判断ができる。
そして走行障害と判断された場合、先行車を検出する際
にそれまでの距離値がすでに求められており、その距離
値を車間距離の管理に用いることも可能で、自律走行や
接近警報などの機能を簡単に構築できる。
As described above, according to the present invention,
A window for dividing the first image captured by the stereo camera is set, and the distance to the captured object is calculated based on the position of the window of the second image having the highest similarity to each window. Then, the same distance value is calculated and a cluster of adjacent windows is detected as the preceding vehicle. Therefore, even a monochrome image is sufficient, and heat and vehicle color do not become influential factors, so that the effect of irrespective of the use environment can be obtained. can get. Further, since the white lane is detected and the traveling lane of the preceding vehicle is determined, it is possible to determine whether or not the traveling lane of the own vehicle is obstructed.
If it is determined that the vehicle is traveling, the distance value up to that point has already been obtained when detecting the preceding vehicle, and that distance value can be used for managing the inter-vehicle distance. Functions can be easily constructed.

【0051】そして、ウインカの点滅状態判断手段を加
え、先行車のウインカ点滅情報も取り入れると、先行車
の挙動も予想できる。ウインカの検出は、ウインドウの
かたまりの両側のウインドウで行ない、輝度変化でウイ
ンカ作動を検知するので、ウインカ位置を特定するため
の操作が必要なく、複雑な処理を要しない。また、点滅
状態判断手段のほかに、車両挙動判定手段を設けると、
自車と同一走行レーン上の先行車だけでなく、例えば隣
接走行レーン上の車両と車間距離および車両が自車の走
行レーンに割り込んでくるときの判断もでき予測的な機
能を持ち合わせることも可能である。
The behavior of the preceding vehicle can also be predicted by adding the blinker blinking state determination means and incorporating the blinker blinking information of the preceding vehicle. Since the blinker is detected in the windows on both sides of the block of windows and the blinker operation is detected by a change in luminance, no operation for specifying the blinker position is required, and no complicated processing is required. Also, in addition to the blinking state determining means, if a vehicle behavior determining means is provided,
Not only the preceding vehicle on the same driving lane as the own vehicle, but also the distance between the vehicles on the adjacent driving lane and the distance between the vehicles and the judgment when the vehicle interrupts the own driving lane can have predictive functions. It is.

【0052】ウインドウのかたまりの大きさと縦横比が
そのまま車両の大きさと縦横比を反映するので、先行車
種類判断手段がウインドウのかたまりのウインドウ数や
配列の関係で先行車の種類や大きさを判別することがで
きる。先行車種類判断手段により縦に長いウインドウの
たかまりが判定された場合、先行車が二輪車であること
を判断できるので、細分化手段が、ウインドウのかたま
りの左右両端のウインドウをさらに縦に細分化し複数の
小ウインドウを形成する。各小ウインドウは輝度変化の
検出域として提供されるので、先行車が二輪車であって
も、ウインカの検出域内に占める割合が低下せず輝度変
化を精度よく検出できる。
Since the size and aspect ratio of the lump of windows directly reflect the size and aspect ratio of the vehicle, the preceding vehicle type determining means determines the type and size of the preceding vehicle based on the relationship between the number of windows and the arrangement of the lump of windows. can do. When the preceding vehicle type determination means determines a cluster of vertically long windows, it is possible to determine that the preceding vehicle is a two-wheeled vehicle, so the subdivision means further subdivides the windows at the left and right ends of the cluster of windows further vertically. Form a plurality of small windows. Since each small window is provided as a luminance change detection area, even if the preceding vehicle is a two-wheeled vehicle, the luminance change can be accurately detected without a decrease in the ratio of the turn signals in the detection area.

【図面の簡単な説明】[Brief description of the drawings]

【図1】ステレオ画像処理による距離算出手法を説明す
るための説明図である。
FIG. 1 is an explanatory diagram for explaining a distance calculation method by stereo image processing.

【図2】画素と焦点距離の関係を示す説明図である。FIG. 2 is an explanatory diagram showing a relationship between a pixel and a focal length.

【図3】ウインドウの位置差による距離算出原理を示す
説明図である。
FIG. 3 is an explanatory diagram showing a principle of calculating a distance based on a window position difference.

【図4】距離と画像上の位置関係の説明図である。FIG. 4 is an explanatory diagram of a positional relationship between a distance and an image.

【図5】先行車の走行レーン判断の説明図である。FIG. 5 is an explanatory diagram of a traveling lane determination of a preceding vehicle.

【図6】ウインドウのかたまりからウインカの検出域を
示す図である。
FIG. 6 is a diagram showing a detection area of a turn signal from a block of windows.

【図7】第1の実施例の構成を示すブロック図である。FIG. 7 is a block diagram showing the configuration of the first embodiment.

【図8】第1の実施例における処理の流れを示すフロー
チャートである。
FIG. 8 is a flowchart illustrating a flow of a process according to the first embodiment.

【図9】白線を検出するための説明図である。FIG. 9 is an explanatory diagram for detecting a white line.

【図10】ウインドウの設定を示す説明図である。FIG. 10 is an explanatory diagram showing window settings.

【図11】微分処理の効果を示す図である。FIG. 11 is a diagram illustrating an effect of a differentiation process.

【図12】先行車を検出ためのウインドウ設定の説明す
る図である。
FIG. 12 is a diagram illustrating window setting for detecting a preceding vehicle.

【図13】正規化相関法によるステレオ画像間でのマッ
チング位置の検出方法を示す説明図である。
FIG. 13 is an explanatory diagram showing a method of detecting a matching position between stereo images by a normalized correlation method.

【図14】ウインドウ内の画像とウインドウの位置関係
を示す図である。
FIG. 14 is a diagram showing a positional relationship between an image in a window and the window.

【図15】ウインカの点滅を検出する方法を示す図であ
る。
FIG. 15 is a diagram illustrating a method of detecting blinking of a turn signal.

【図16】第2の実施例の構成を示すブロック図であ
る。
FIG. 16 is a block diagram showing the configuration of the second embodiment.

【図17】第2の実施例における処理の流れを示すフロ
ーチャートである。
FIG. 17 is a flowchart illustrating a flow of a process according to the second embodiment.

【図18】隣車線の検出原理を示す図である。FIG. 18 is a diagram illustrating a principle of detecting an adjacent lane.

【図19】隣車線の撮像位置を示す図である。FIG. 19 is a diagram illustrating an imaging position of an adjacent lane.

【図20】自車走行レーンに先行車が割り込んでくると
きの様子を示す図である。
FIG. 20 is a diagram showing a state in which a preceding vehicle interrupts the own vehicle traveling lane.

【図21】トラックとして検出したウインドウのかたま
りを示す図である。
FIG. 21 is a diagram illustrating a block of windows detected as tracks.

【図22】二輪車として検出したウインドウのかたまり
を示す図である。
FIG. 22 is a diagram showing a lump of windows detected as a motorcycle.

【図23】ウインドウを細分化する説明図である。FIG. 23 is an explanatory diagram for subdividing a window.

【符号の説明】[Explanation of symbols]

1、2 カメラ 1a、2a CCD 1b、2b 光軸 3、4 画像メモリ 5 白線検出部 6 ウインドウ設定部 7 マッチング位置検出部 8 距離演算部 9 先行車検出部 10、100 走行レーン判断部 11 ウインカ点滅判断部 12、13 車両挙動判定部 C 先行車 E ウインカ f 焦点距離 D 眼間距離 L1、L2 レンズ t、u、v、w 近似線 W ウインドウ wd ウインドウ Wr 道路幅 ya、yb マッチング位置 yc 先行車の撮像位置 xr X軸上のウインドウ設定位置 xw ウインドウの横幅 yw ウインドウの縦幅 yr Y軸上のウインドウ設定位置 Z 撮像距離 1, 2 Camera 1a, 2a CCD 1b, 2b Optical axis 3, 4 Image memory 5 White line detection unit 6 Window setting unit 7 Matching position detection unit 8 Distance calculation unit 9 Leading vehicle detection unit 10, 100 Driving lane judgment unit 11 Turn blinker Judgment units 12 and 13 Vehicle behavior judgment unit C Leading vehicle E Winker f Focal length D Interocular distance L1, L2 Lens t, u, v, w Approximation line W Window wd Window Wr Road width ya, yb Matching position yc Imaging position xr Window setting position on X axis xw Horizontal width of window yw Vertical width of window yr Window setting position on Y axis Z Imaging distance

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 それぞれの光軸を互いに平行とし所定の
眼間距離をもって配置された2台のカメラと、前記2台
のカメラが撮像した路面画像を第1および第2の画像と
して記憶する画像メモリと、前記第1の画像内で白線を
検出する白線検出手段と、前記第1の画像内の所定領域
を複数の区域に分割するようにウインドウ設定を行なう
ウインドウ設定手段と、各ウインドウと最も類似度の高
いウインドウの位置を前記第2の画像から検出するマッ
チング位置検出手段と、2枚の画像間で互いに類似度の
高いウインドウが存在する画像上の位置と2台のカメラ
の位置関係をもとに、各ウインドウ内に撮像された物体
までの距離を演算する距離演算手段と、同じ距離値が算
出されかつウインドウが隣接するウインドウのかたまり
を先行車の検出領域として検出する先行車検出手段と、
前記ウインドウのかたまりと前記白線の位置関係に基づ
き先行車の走行レーンを判断する走行レーン判断手段と
を有することを特徴とする車両用障害物検出装置。
1. Two cameras whose optical axes are parallel to each other and are arranged at a predetermined interocular distance, and images storing road surface images captured by the two cameras as first and second images. A memory, a white line detecting means for detecting a white line in the first image, a window setting means for setting a window so as to divide a predetermined area in the first image into a plurality of areas, A matching position detecting means for detecting a position of a window having a high degree of similarity from the second image; and a positional relationship between the two cameras and a position on an image having a window having a high degree of similarity between the two images. A distance calculating means for calculating a distance to an object imaged in each window, and a block of windows in which the same distance value is calculated and the windows are adjacent to each other are detected. Preceding vehicle detection means for detecting as
An obstacle detecting device for a vehicle, comprising: a traveling lane determining unit that determines a traveling lane of a preceding vehicle based on a positional relationship between the cluster of windows and the white line.
【請求項2】 前記ウインドウのかたまりのうち左右両
側のウインドウからある一定時間間隔で輝度変化する領
域をウインカの撮像域として検出し、かつウインカが作
動状態にあると判断するウインカ点滅判断手段が設けら
れていることを特徴とする請求項1記載の車両用障害物
検出装置。
2. A blinker blink determination means for detecting, as a blinker image pickup area, a region in which luminance changes from a window on the left and right sides of the block of windows at a certain time interval, and determining that the blinker is in an operating state. The vehicle obstacle detection device according to claim 1, wherein
【請求項3】 前記ウインカ点滅判断手段の判断結果を
もとに、前記ウインドウのかたまりと前記白線の位置関
係から先行車の挙動を判断する車両挙動判定手段が設け
られていることを特徴とする請求項2記載の車両用障害
物検出装置。
3. A vehicle behavior judging means for judging the behavior of a preceding vehicle based on the positional relationship between the lump of the window and the white line based on the judgment result of the blinker blink judging means. The vehicle obstacle detection device according to claim 2.
【請求項4】 前記ウインドウのかたまりの縦横比と大
きさによって先行車の種類と大きさを判別する先行車種
類判断手段が設けられていることを特徴とする請求項2
記載の車両用障害物検出装置。
4. A preceding vehicle type judging means for judging the type and size of the preceding vehicle based on the aspect ratio and the size of the cluster of windows is provided.
An obstacle detection device for a vehicle according to the above.
【請求項5】 先行車種類判断手段により縦に長いウイ
ンドウのたかまりが判定された場合、ウインドウのかた
まりの左右両端のウインドウをさらに縦に細分化し、複
数の小ウインドウを形成する細分化手段が設けられると
ともに、小ウインドウを輝度変化の検出域とすることを
特徴とする請求項4記載の車両用障害物検出装置。
5. When the preceding vehicle type determining means determines a cluster of vertically long windows, the subdivision means for further subdividing the windows at both left and right ends of the cluster of windows vertically to form a plurality of small windows. 5. The vehicle obstacle detecting device according to claim 4, wherein the small window is provided as a detection area of a luminance change.
JP9178895A 1997-06-19 1997-06-19 Vehicular obstacle detecting device Withdrawn JPH1114346A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9178895A JPH1114346A (en) 1997-06-19 1997-06-19 Vehicular obstacle detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9178895A JPH1114346A (en) 1997-06-19 1997-06-19 Vehicular obstacle detecting device

Publications (1)

Publication Number Publication Date
JPH1114346A true JPH1114346A (en) 1999-01-22

Family

ID=16056576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9178895A Withdrawn JPH1114346A (en) 1997-06-19 1997-06-19 Vehicular obstacle detecting device

Country Status (1)

Country Link
JP (1) JPH1114346A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331148A (en) * 1999-05-19 2000-11-30 Nissan Motor Co Ltd Obstacle detector
US6734787B2 (en) 2001-04-20 2004-05-11 Fuji Jukogyo Kabushiki Kaisha Apparatus and method of recognizing vehicle travelling behind
WO2006123754A1 (en) 2005-05-20 2006-11-23 Toyota Jidosha Kabushiki Kaisha Image processor for vehicles
JP2007233587A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Driver's mentality assessment device
JP2007299428A (en) * 2007-08-06 2007-11-15 Honda Motor Co Ltd Object detection device
US7542589B2 (en) * 2003-08-04 2009-06-02 Denso Corporation Road position detection
JP2010105502A (en) * 2008-10-29 2010-05-13 Toyota Motor Corp Front monitoring device
JP2012514814A (en) * 2009-01-06 2012-06-28 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッド Method and apparatus for automatic detection of the presence and type of caps on vials and other containers
WO2013098996A1 (en) * 2011-12-28 2013-07-04 トヨタ自動車株式会社 Vehicle driving assistance device
JPWO2013098996A1 (en) * 2011-12-28 2015-04-30 トヨタ自動車株式会社 Vehicle driving support device
JP2016071616A (en) * 2014-09-30 2016-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Detecting device, detecting method and program
JP2016122456A (en) * 2016-01-20 2016-07-07 トヨタ自動車株式会社 Vehicle drive assist device
CN106556375A (en) * 2015-09-25 2017-04-05 中兴通讯股份有限公司 Alarm method and device
GB2545550A (en) * 2015-11-05 2017-06-21 Ford Global Tech Llc Autonomous driving at intersections based on perception data

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331148A (en) * 1999-05-19 2000-11-30 Nissan Motor Co Ltd Obstacle detector
US6734787B2 (en) 2001-04-20 2004-05-11 Fuji Jukogyo Kabushiki Kaisha Apparatus and method of recognizing vehicle travelling behind
US7542589B2 (en) * 2003-08-04 2009-06-02 Denso Corporation Road position detection
WO2006123754A1 (en) 2005-05-20 2006-11-23 Toyota Jidosha Kabushiki Kaisha Image processor for vehicles
EP2109061A2 (en) 2005-05-20 2009-10-14 Toyota Jidosha Kabushiki Kaisha Image processing apparatus for vehicle
JP2007233587A (en) * 2006-02-28 2007-09-13 Toyota Motor Corp Driver's mentality assessment device
JP4600314B2 (en) * 2006-02-28 2010-12-15 トヨタ自動車株式会社 Driver psychological judgment device
JP2007299428A (en) * 2007-08-06 2007-11-15 Honda Motor Co Ltd Object detection device
JP4528320B2 (en) * 2007-08-06 2010-08-18 本田技研工業株式会社 Object detection device
JP2010105502A (en) * 2008-10-29 2010-05-13 Toyota Motor Corp Front monitoring device
JP2012514814A (en) * 2009-01-06 2012-06-28 シーメンス・ヘルスケア・ダイアグノスティックス・インコーポレーテッド Method and apparatus for automatic detection of the presence and type of caps on vials and other containers
US9092650B2 (en) 2009-01-06 2015-07-28 Siemens Healthcare Diagnostics Inc. Methods and apparatus for automated detection of the presence and type of caps on vials and containers
CN104024074A (en) * 2011-12-28 2014-09-03 丰田自动车株式会社 Vehicle driving assistance device
JPWO2013098996A1 (en) * 2011-12-28 2015-04-30 トヨタ自動車株式会社 Vehicle driving support device
WO2013098996A1 (en) * 2011-12-28 2013-07-04 トヨタ自動車株式会社 Vehicle driving assistance device
US9469297B2 (en) 2011-12-28 2016-10-18 Toyota Jidosha Kabushiki Kaisha Driving assistance apparatus for vehicle
JP2016071616A (en) * 2014-09-30 2016-05-09 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Detecting device, detecting method and program
US9798939B2 (en) 2014-09-30 2017-10-24 International Business Machines Corporation Detecting device, detecting method, and program
US9798938B2 (en) 2014-09-30 2017-10-24 International Business Machines Corporation Detecting device, detecting method, and program
US10331961B2 (en) 2014-09-30 2019-06-25 International Business Machines Corporation Detecting device, detecting method, and program
US10331962B2 (en) 2014-09-30 2019-06-25 International Business Machines Corporation Detecting device, detecting method, and program
US10339397B2 (en) 2014-09-30 2019-07-02 International Business Machines Corporation Detecting device, detecting method, and program
CN106556375A (en) * 2015-09-25 2017-04-05 中兴通讯股份有限公司 Alarm method and device
GB2545550A (en) * 2015-11-05 2017-06-21 Ford Global Tech Llc Autonomous driving at intersections based on perception data
JP2016122456A (en) * 2016-01-20 2016-07-07 トヨタ自動車株式会社 Vehicle drive assist device

Similar Documents

Publication Publication Date Title
US20220250610A1 (en) Vehicular automated parking system
JP3747599B2 (en) Obstacle detection device for vehicle
US7366325B2 (en) Moving object detection using low illumination depth capable computer vision
US6396397B1 (en) Vehicle imaging system with stereo imaging
US8629768B2 (en) Vehicle vision system
KR100936558B1 (en) Perimeter monitoring apparatus and image display method for vehicle
US8055017B2 (en) Headlamp monitoring apparatus for image exposure adjustment
JP2002319091A (en) Device for recognizing following vehicle
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JPH1139596A (en) Outside monitoring device
JP2008186344A (en) Preceding vehicle detection device
JPH1114346A (en) Vehicular obstacle detecting device
JP4980970B2 (en) Image pickup means adjustment device and object detection device
JPH1062162A (en) Detector for obstacle
JP2004173195A (en) Device and method for monitoring vehicle
JP5073700B2 (en) Object detection device
JP4798576B2 (en) Attachment detection device
JP2001071790A (en) Vehicular display device
JP2006036048A (en) Vehicle light controlling device
JPH08221698A (en) Obstacle detecting device for vehicle
US20230106188A1 (en) Vehicular vision system with object classification based on change in orientation of object
JP2020009386A (en) Periphery recognition deice and on-vehicle camera system
JP7322651B2 (en) Obstacle recognition device
JP2007085745A (en) Object monitoring apparatus
JP2973765B2 (en) Obstacle detection device for vehicles

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040907