[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH1011585A - Object detection device - Google Patents

Object detection device

Info

Publication number
JPH1011585A
JPH1011585A JP8159733A JP15973396A JPH1011585A JP H1011585 A JPH1011585 A JP H1011585A JP 8159733 A JP8159733 A JP 8159733A JP 15973396 A JP15973396 A JP 15973396A JP H1011585 A JPH1011585 A JP H1011585A
Authority
JP
Japan
Prior art keywords
vehicle
image
area
optical flow
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8159733A
Other languages
Japanese (ja)
Inventor
Sukeyuki Usami
祐之 宇佐美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP8159733A priority Critical patent/JPH1011585A/en
Publication of JPH1011585A publication Critical patent/JPH1011585A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To detect an object, especially the solid object of the other vehicle from an image around the vehicle, which is obtained by the image pickup means of a CCD camera or the like, in short time. SOLUTION: The image obtained by on-vehicle CCD cameras 10a and 10b is supplied to an image processing computer 12. The image processing computer 12 detects a white line from the inputted image and sets the travel lane of its own vehicle, which is surrounded by the white line, as a object processing area. The optical flow of the moving object is calculated in the set area and it is judged to be solid or not by stereotype range finding. A detected result is outputted to ECU16 for automatic driving. When the solid object (other vehicle) exists, respective actuators 22-26 are driven and inter-vehicle control is executed and cruise control is executed when a non-solid object such as a road sign exists.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は物体検出装置、特に
走路上の立体物体を検出する装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object detecting apparatus, and more particularly to an apparatus for detecting a three-dimensional object on a track.

【0002】[0002]

【従来の技術】従来より、車両周囲の物体、特に立体物
体をカメラで検出する技術が開発されている。例えば、
特開平5−265547号公報には、車両前方をステレ
オ光学系で撮像し、得られた被写体の3次元位置情報か
ら立体物と道路形状とを分離して検出する技術が開示さ
れている。
2. Description of the Related Art Conventionally, techniques for detecting objects around a vehicle, particularly three-dimensional objects, with a camera have been developed. For example,
Japanese Patent Application Laid-Open No. 5-26547 discloses a technique in which the front of a vehicle is imaged by a stereo optical system, and a three-dimensional object and a road shape are separated and detected from the obtained three-dimensional position information of the subject.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来技術では、特に遠方における立体物認識を行うために
は距離精度の点からもかなり細かい分解能で画像を取得
する必要があり、撮像手段等のコスト増を招く問題があ
る。また、取得した画面全体に対して3次元位置情報を
算出するため、処理に時間を要する問題もある。特に車
両用を考慮した場合には、リアルタイム性が重要である
ため、このような処理時間の増大は望ましくなく、コス
ト増を招くことなく短時間で立体物を検出することがで
きる装置が望まれている。
However, in the above prior art, in order to recognize a three-dimensional object particularly at a distant place, it is necessary to obtain an image with a considerably fine resolution in terms of distance accuracy, and the cost of imaging means and the like is low. There is a problem that leads to an increase. In addition, since the three-dimensional position information is calculated for the entire acquired screen, there is a problem that it takes time for the processing. In particular, when considering the use for vehicles, real-time processing is important. Therefore, such an increase in the processing time is not desirable, and an apparatus capable of detecting a three-dimensional object in a short time without increasing the cost is desired. ing.

【0004】本発明は上記従来技術の有する課題に鑑み
なされたものであり、その目的は、短時間に、かつ、確
実に物体(特に立体物体)を検出することができる装置
を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the related art, and has as its object to provide an apparatus capable of detecting an object (particularly, a three-dimensional object) in a short time and reliably. is there.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
に、第1の発明は、周囲画像を撮影する車載撮像手段
と、得られた画像内で車両に対する相対的な移動体を示
すオプティカルフローベクトルを抽出すべき領域を設定
する領域設定手段と、前記撮像手段で得られた時系列画
像のうち、設定された領域の画像データからオプティカ
ルフローベクトルを抽出するベクトル抽出手段と、オプ
ティカルフローベクトル群が抽出された画像領域の上下
2つの構成領域それぞれまでの距離を演算する距離演算
手段と、得られた上下2つの構成領域の距離を比較する
ことにより移動体を識別する識別手段とを有することを
特徴とする。このように、撮像した画像内の全てのデー
タを処理するのではなく、予め特定の領域を設定し、そ
の領域内のみで処理を行うことにより処理時間の短縮化
を図ることができる。なお、オプティカルフローとは、
動画像中における画素の相対的速度ベクトルを意味し、
特定領域は、物体の存在する可能性が高い領域、例えば
自車両が走行している車線上に設定するのが望ましい。
In order to achieve the above object, a first aspect of the present invention is an on-vehicle imaging means for photographing a surrounding image, and an optical flow showing a moving object relative to a vehicle in the obtained image. Area setting means for setting an area from which a vector is to be extracted; vector extraction means for extracting an optical flow vector from image data of the set area in a time-series image obtained by the imaging means; and an optical flow vector group Distance calculating means for calculating the distance to each of the two upper and lower constituent areas of the image area from which is extracted, and identifying means for identifying the moving object by comparing the obtained distance between the two upper and lower constituent areas. It is characterized by. As described above, instead of processing all data in a captured image, a specific area is set in advance, and processing is performed only in the specific area, so that processing time can be reduced. In addition, optical flow is
Means the relative velocity vector of the pixel in the video,
The specific area is desirably set on an area where the possibility of the presence of the object is high, for example, on a lane in which the host vehicle is traveling.

【0006】また、第2の発明は、周囲画像を撮影する
車載撮像手段と、得られた画像内で車両に対する相対的
な移動体を示すオプティカルフローベクトルを抽出すべ
き領域を設定する領域設定手段と、前記撮像手段で得ら
れた時系列画像のうち、設定された領域の画像データか
らオプティカルフローベクトルを抽出するベクトル抽出
手段と、オプティカルフローベクトル群が抽出された画
像領域をそのベクトル量に基づき更に小領域に分割する
分割手段と、分割された各小領域において、上下2つの
構成領域それぞれまでの距離を演算する距離演算手段
と、得られた上下2つの構成領域の距離を比較すること
により各小領域の移動体を識別する識別手段とを有する
ことを特徴とする。道路上の標識等の静止物体も、自車
両が移動している場合にはオプティカルフローを生じる
ことになるが、他の車両等の移動体のオプティカルフロ
ーとはその量が異なるため、静止物体と移動物体を確実
に区別できる。本発明においても、画像全体の処理では
なく、オプティカルフローが生じると考えられる特定領
域のみを処理対象とするため、処理時間の短縮化を図る
ことができる。
According to a second aspect of the present invention, there is provided an on-vehicle image pickup means for photographing a surrounding image, and an area setting means for setting an area from which an optical flow vector indicating a moving object relative to a vehicle is to be extracted in the obtained image. And a vector extracting means for extracting an optical flow vector from image data of a set area in the time-series image obtained by the imaging means, and an image area from which an optical flow vector group is extracted based on the vector amount. Further, by comparing the dividing means for dividing into the small areas, the distance calculating means for calculating the distance to each of the two upper and lower constituent areas in each divided small area, and the obtained distance between the two upper and lower constituent areas, Identification means for identifying a moving object in each small area. A stationary object such as a sign on the road also generates an optical flow when the own vehicle is moving.However, since the amount of optical flow differs from that of a moving object such as another vehicle, the stationary object is Moving objects can be reliably distinguished. Also in the present invention, the processing time is shortened because only the specific area where the optical flow is considered to be generated is processed, not the processing of the entire image.

【0007】[0007]

【発明の実施の形態】以下、図面に基づき本発明の実施
形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0008】図1には、本実施形態の全体構成図が示さ
れている。車両には、一対のCCDカメラ10a及び1
0bが所定距離離れて設けられており、車両前方を撮影
する。CCDカメラ10a、10bの配置は上下方向で
も左右方向でもよい。CCDカメラ10a、10bで得
られた画像は、画像処理コンピュータ12に供給され
る。画像処理コンピュータ12は、A/Dコンバータや
CPU、メモリを有しており、入力した画像に対して所
定の処理を行って白線情報や障害物の有無情報及び前方
車両が存在する場合にはその車両までの車間距離を算出
して自動運転用ECU16に供給する。画像処理コンピ
ュータ12での処理は後述する。自動運転用ECU16
は、マイクロコンピュータで構成され、入力した情報及
びクルーズスイッチ14からのクルーズ設定データ、ウ
インカ信号18からのウインカデータ、車輪速センサ2
0からの車速データに基づいて自動運転を実行する。具
体的には、前方車両が存在する場合には前方車両との車
間距離を維持しつつ追従する車間制御に移行し、前方車
両その他の立体障害物が存在しない場合には、所定の車
速を維持して定速走行するクルーズ制御に移行すべく、
各種アクチュエータを制御する。制御すべきアクチュエ
ータは、例えば操舵アクチュエータ(ACT)22、ス
ロットルアクチュエータ(ACT)24、ブレーキアク
チュエータ(ACT)26である。
FIG. 1 shows an overall configuration diagram of the present embodiment. The vehicle includes a pair of CCD cameras 10a and 1
0b is provided at a predetermined distance, and photographs ahead of the vehicle. The arrangement of the CCD cameras 10a and 10b may be vertical or horizontal. The images obtained by the CCD cameras 10a and 10b are supplied to an image processing computer 12. The image processing computer 12 has an A / D converter, a CPU, and a memory. The image processing computer 12 performs a predetermined process on the input image, and performs white line information, information on the presence or absence of an obstacle, and the presence of a preceding vehicle when there is a preceding vehicle. The inter-vehicle distance to the vehicle is calculated and supplied to the automatic driving ECU 16. The processing in the image processing computer 12 will be described later. ECU 16 for automatic driving
Is constituted by a microcomputer, the inputted information and the cruise setting data from the cruise switch 14, the turn signal data from the turn signal 18 and the wheel speed sensor 2.
Automatic driving is executed based on vehicle speed data from zero. Specifically, when there is a preceding vehicle, the control shifts to inter-vehicle control to follow while maintaining the following distance to the preceding vehicle, and when there is no preceding vehicle or other three-dimensional obstacle, the predetermined vehicle speed is maintained. To move to cruise control with constant speed
Controls various actuators. The actuators to be controlled are, for example, a steering actuator (ACT) 22, a throttle actuator (ACT) 24, and a brake actuator (ACT) 26.

【0009】図2には、画像処理コンピュータ12及び
自動運転用ECU16で実行される全体処理フローチャ
ートが示されている。自動運転用ECU16は、画像処
理コンピュータ12から供給された白線情報に基づいて
この白線に沿った走行を行うべく操舵アクチュエータ2
2を駆動して操舵制御を行う(S101)。そして、こ
の操舵制御実行中に、前方車両が存在するか否かを判定
する(S102)。画像処理コンピュータ12で前方車
両を検出した場合には、YESと判定されて車間制御に
移行し(S103)、前方車両を検出せずNOと判定さ
れた場合には、クルーズ制御に移行する(S104)。
なお、S102に移行する前に車両以外の立体障害物が
あるか否かを判定し、立体障害物がある場合にはS10
2の処理に移行せずに運転者に警報を与えた後、ブレー
キアクチュエータ26を駆動して停止制御を行うように
してもよい。
FIG. 2 shows a flowchart of the entire processing executed by the image processing computer 12 and the automatic driving ECU 16. The automatic driving ECU 16 controls the steering actuator 2 based on the white line information supplied from the image processing computer 12 so as to travel along the white line.
2 to perform steering control (S101). Then, during the execution of the steering control, it is determined whether or not the preceding vehicle exists (S102). When the image processing computer 12 detects the preceding vehicle, the determination is YES and the process proceeds to the headway control (S103). When the preceding vehicle is not detected and the determination is NO, the process proceeds to the cruise control (S104). ).
Before moving to S102, it is determined whether there is a three-dimensional obstacle other than the vehicle.
After giving a warning to the driver without shifting to the process of step 2, the brake actuator 26 may be driven to perform stop control.

【0010】図3には、図2におけるS101の操舵制
御処理の詳細フローチャートが示されている。この操舵
制御では、まず画像処理コンピュータ12で白線位置を
検出する(S201)。白線位置は、CCDカメラ10
a、10bで得られた画像を二値化処理し、輝度のエッ
ジを検出する、あるいは所定の白線用テンプレートとマ
ッチングをとることにより検出することができる。検出
された白線情報は、自動運転用ECU16に供給される
から、自動運転用ECU16は車両の白線からの変位を
算出し、レーンのほぼ中央を走行するようにこの変位に
基づいて操舵量を決定し、ステアリング制御を行う(S
202)。具体的には、変位量をδとした場合に、この
変位量に比例する量及び変位量の微分に比例する量の和
で修正操舵量を決定すればよい。
FIG. 3 shows a detailed flowchart of the steering control processing in S101 in FIG. In this steering control, first, the white line position is detected by the image processing computer 12 (S201). The position of the white line is the CCD camera 10
The images obtained in steps (a) and (10b) can be detected by performing binarization processing to detect luminance edges, or by matching with a predetermined white line template. Since the detected white line information is supplied to the automatic driving ECU 16, the automatic driving ECU 16 calculates the displacement of the vehicle from the white line, and determines the steering amount based on this displacement so as to travel substantially in the center of the lane. To perform steering control (S
202). Specifically, when the displacement amount is δ, the corrected steering amount may be determined by the sum of the amount proportional to the displacement amount and the amount proportional to the derivative of the displacement amount.

【0011】図4には、図2におけるS103の車間制
御処理の詳細フローチャートが示されている。まず、画
像処理コンピュータ12で前方車両を検出した場合に、
この車両までの車間距離を検出する(S301)。車間
距離を検出するためには、一対設けられたCCDカメラ
10a、10bをステレオ光学系として3角測量の原理
で検出することができる。具体的には、CCDカメラ1
0a、10bの焦点距離をf、取り付け間隔をr、視差
をεとすると、
FIG. 4 shows a detailed flowchart of the headway control process in S103 in FIG. First, when the image processing computer 12 detects a preceding vehicle,
The inter-vehicle distance to this vehicle is detected (S301). In order to detect the inter-vehicle distance, a pair of CCD cameras 10a and 10b can be used as a stereo optical system to detect the distance based on the principle of triangulation. Specifically, the CCD camera 1
When the focal length of 0a and 10b is f, the attachment interval is r, and the parallax is ε,

【数1】車間距離L=r・f/ε (1) により算出すればよい(以下、これをステレオ測距とい
う)。前方車両までの車間距離データは自動運転用EC
U16に供給され、自動運転用ECU16は車間距離が
所定の車間距離に一致するようにスロットル及びブレー
キアクチュエータ24、26を制御する(S302)。
## EQU1 ## The distance may be calculated by the following formula: L = rf / ε (1) (hereinafter referred to as stereo ranging). Data on the distance to the vehicle ahead is EC for automatic driving
U16, the automatic driving ECU 16 controls the throttle and brake actuators 24 and 26 such that the inter-vehicle distance matches a predetermined inter-vehicle distance (S302).

【0012】図5には、本実施形態の特徴的な処理であ
る、図2におけるS102の車両判定処理の詳細フロー
チャートが示されている。まず、画像処理コンピュータ
12は、CCDカメラ10a、10bで得られた前方画
像から上述の方法で白線を認識する(S401)。白線
を認識した後、この白線で囲まれた画像領域を自車の走
行レーンとして決定する(S402)。このようにして
決定された画像領域がオプティカルフロー算出の処理対
象となり、自車レーン以外の画像領域に対しては、以後
は何らの処理も行われない。このように、自車の走行レ
ーンのみを対象とするのは、仮に物体が自車の走行レー
ン以外に存在していたとしても自車の走行に対してほと
んど支障がないので検出の必要性が低いこと、及び存在
する物体としては他の車両である場合が多く、これは走
行レーン上に存在すること、等の理由による。処理対象
となる領域を設定した後、画像処理コンピュータ12
は、時間的に連続する2つの画像から設定領域内でオプ
ティカルフローを算出する(S403)。オプティカル
フローは、連続する2つの画像において、適当なサイズ
のテンプレートを用いて対応付けを行い、その変位を算
出することで抽出できる(マッチング法)。なお、テン
プレートは設定領域内の画像データを用いることは言う
までもない。オプティカルフローを算出した後、このオ
プティカルフローを用いて移動物体領域を抽出し(S4
04)、さらに移動物体領域のステレオ測距を行う(S
405)。
FIG. 5 is a detailed flowchart of the vehicle determination process of S102 in FIG. 2, which is a characteristic process of the present embodiment. First, the image processing computer 12 recognizes a white line from the front images obtained by the CCD cameras 10a and 10b by the above-described method (S401). After recognizing the white line, the image area surrounded by the white line is determined as the traveling lane of the own vehicle (S402). The image area determined in this way becomes a processing target of the optical flow calculation, and no processing is thereafter performed on the image area other than the own vehicle lane. Thus, the reason that only the traveling lane of the own vehicle is targeted is that even if the object exists in a region other than the traveling lane of the own vehicle, there is almost no obstacle to the traveling of the own vehicle. In many cases, the vehicle is low, and the existing object is another vehicle. This is because the vehicle exists on the traveling lane. After setting the area to be processed, the image processing computer 12
Calculates an optical flow in a set area from two temporally consecutive images (S403). The optical flow can be extracted by associating two consecutive images using a template of an appropriate size and calculating the displacement (matching method). It goes without saying that the template uses the image data in the setting area. After calculating the optical flow, a moving object region is extracted using the optical flow (S4).
04), and further performs stereo ranging of the moving object area (S)
405).

【0013】図6には、S404の移動物体抽出処理及
びステレオ測距処理の様子が模式的に示されている。図
6(A)はCCDカメラで得られた画像であり、前方車
両が存在すると仮定する。処理対象となるのは、白線1
00で囲まれた領域であり、図6(B)では符号200
でこの領域が示されている。領域内でオプティカルフロ
ーを算出すると、前方車両のオプティカルフローが、前
方車両の自車との相対速度に基づいて算出されることに
なる。前方車両以外の部分(例えば路面)は、自車に対
しては実際には相対速度を有することになるが(路面は
静止しているため)、画像はコントラストがないため、
オプティカルフロー自体は不定となる。図6(B)で
は、この不定状態のオプティカルフローは黒点で表され
ている。なお、前方車両が自車と全く同一の速度で走行
している場合には、相対速度は0であるためオプティカ
ルフローも0となるが、これは2次元成分が(0、0)
であるオプティカルフローであり、不定状態とは区別さ
れる。図6(B)においては、前方車両が自車に対して
加速している場合であり、相対速度に応じた大きさのオ
プティカルフローが算出される。設定領域内でオプティ
カルフローが算出された場合には、同じようなベクトル
量を有するオプティカルフロー群を1つのグループとし
てまとめ、移動物体領域とする。図6(C)には、この
ようにして抽出された移動物体領域が符号300で示さ
れている。すなわち、移動物体領域とは、同一または近
似のベクトル量を有するオプティカルフローベクトルの
集合を意味する。移動物体領域が抽出された後、この移
動物体領域を画面上で上下2つの構成領域に分割し、上
下各構成領域のステレオ測距を行う。図6(D)には、
ステレオ測距時の処理が示されており、移動物体領域3
00を上下2つの構成領域300a及び300bに分割
し、さらに各構成領域を4個の矩形領域に分割して各矩
形領域までの距離を(1)式に基づいて算出する。従っ
て、図6(D)では合計8個の距離データ(上構成領域
4個、下構成領域4個)が得られることになる。
FIG. 6 schematically shows the moving object extraction processing and the stereo distance measurement processing in S404. FIG. 6A is an image obtained by a CCD camera, and it is assumed that a vehicle ahead is present. Processing target is white line 1
The area surrounded by 00 is indicated by reference numeral 200 in FIG.
This area is indicated by. When the optical flow is calculated within the area, the optical flow of the preceding vehicle is calculated based on the relative speed of the preceding vehicle to the own vehicle. Parts other than the preceding vehicle (for example, the road surface) will actually have a relative speed to the own vehicle (since the road surface is stationary), but since the image has no contrast,
The optical flow itself is undefined. In FIG. 6B, the optical flow in the undefined state is represented by a black dot. When the preceding vehicle is running at the same speed as the own vehicle, the relative flow is 0 and the optical flow is also 0. This is because the two-dimensional component is (0, 0).
And is distinguished from the undefined state. FIG. 6B shows a case where the preceding vehicle is accelerating with respect to the own vehicle, and an optical flow having a size corresponding to the relative speed is calculated. When an optical flow is calculated in the set area, optical flows having the same vector amount are grouped into one group, which is set as a moving object area. In FIG. 6C, the moving object region extracted in this manner is indicated by reference numeral 300. That is, the moving object region means a set of optical flow vectors having the same or similar vector amount. After the moving object region is extracted, the moving object region is divided into two upper and lower constituent regions on the screen, and stereo ranging for each of the upper and lower constituent regions is performed. In FIG. 6D,
The processing at the time of stereo ranging is shown, and the moving object area 3
00 is divided into two upper and lower constituent regions 300a and 300b, and each constituent region is further divided into four rectangular regions, and the distance to each rectangular region is calculated based on the formula (1). Therefore, in FIG. 6D, a total of eight pieces of distance data (four upper configuration areas and four lower configuration areas) are obtained.

【0014】再び図5に戻り、以上のようにしてステレ
オ測距を行って距離データを算出した後、抽出された移
動物体が立体物か否かを判定する(S406)。この判
定は、上下の各構成領域の距離データが一致するか否か
により行われ、各矩形領域について上構成領域の距離=
下構成領域の距離である場合には立体(車両)と判定さ
れ、両者が一致しない場合、つまり上構成領域の方が下
構成領域よりも遠い場合には立体でないと判定される。
なお、一致するか否かは、所定の許容値(正の微小量)
を設け、両者の差が許容値以下である場合に一致すると
みなせばよい。
Referring again to FIG. 5, after performing the stereo ranging as described above to calculate the distance data, it is determined whether or not the extracted moving object is a three-dimensional object (S406). This determination is made based on whether or not the distance data of the upper and lower constituent regions match, and for each rectangular region, the distance of the upper constituent region =
If the distance is that of the lower component area, it is determined that the object is a three-dimensional object (vehicle). If the two do not match, that is, if the upper component area is farther than the lower component area, it is determined that the object is not three-dimensional.
It should be noted that whether they match is determined by a predetermined allowable value (positive minute amount)
And it may be considered that they match when the difference between them is equal to or smaller than the allowable value.

【0015】以上、CCDカメラで得られた画像に前方
車両のみが存在する場合について説明したが、走行状況
によってはCCDカメラで得られた画像に前方車両だけ
でなく、路面上の標識(例えば速度表示等)も撮影され
る場合がある。標識部分は路面の他の部分と輝度が相違
するためコントラストが生じ、しかも自車に対して相対
的に移動しているため標識部分でもオプティカルフロー
が発生することになる。この場合にも、図5に示した処
理で対応することが可能であり、S404の移動体領域
抽出処理において、算出されたオプティカルフローのベ
クトル量に基づいてそれぞれの移動物体を分離すればよ
い。
In the above, the case where only the preceding vehicle is present in the image obtained by the CCD camera has been described. However, depending on the driving situation, the image obtained by the CCD camera may include not only the preceding vehicle but also a sign (for example, speed) on the road surface. Display etc.) may also be taken. The sign part has a difference in brightness from the other parts of the road surface, so that contrast occurs. Further, since the sign part moves relatively to the own vehicle, an optical flow also occurs in the sign part. In this case, it is possible to cope with the processing shown in FIG. 5. In the moving body region extraction processing in S404, it is only necessary to separate each moving object based on the calculated optical flow vector amount.

【0016】図7には、前方車両と道路標識が存在する
場合の処理の様子が示されている。図6と同様に、白線
100を認識し、自車レーンを処理対象領域200とし
て設定する。そして、この設定領域内でオプティカルフ
ローを算出する。このとき、前方車両のオプティカルフ
ローのみならず、道路標識のオプティカルフローも算出
されることになる。しかしながら、前方車両はある車速
で走行し、一方道路標識は静止しているので、両者のオ
プティカルフローはその方向及び大きさが異なるため明
確に区別できる。そこで、算出されたオプティカルフロ
ーをそのべクトル量に基づいて小領域に分割すると、図
7(C)に示すように2つの小領域A、Bに分割でき
る。図中Aが前方車両のオプティカルフローであり、図
中Bが道路標識のオプティカルフローである。オプティ
カルフローをそのベクトル量に基づいて分割した後は、
図7(D)に示すように各小領域においてオプティカル
フローベクトル群を上下2つの構成領域に分け、各構成
領域のステレオ測距を行う。Aの小領域では、上構成領
域の距離と下構成領域の距離が一致するため立体(車
両)と判定され、Bの小領域では、上構成領域の距離と
下構成領域の距離が一致しないため(上群の方が遠い)
非立体と判定されることになる。
FIG. 7 shows the state of processing when a preceding vehicle and a road sign are present. As in FIG. 6, the white line 100 is recognized, and the own vehicle lane is set as the processing target area 200. Then, an optical flow is calculated within the set area. At this time, not only the optical flow of the vehicle ahead but also the optical flow of the road sign is calculated. However, since the preceding vehicle is traveling at a certain vehicle speed, while the road sign is stationary, the optical flows of the two are clearly distinguishable due to their different directions and sizes. Therefore, when the calculated optical flow is divided into small regions based on the vector amount, the optical flow can be divided into two small regions A and B as shown in FIG. A in the figure is the optical flow of the vehicle ahead, and B in the figure is the optical flow of the road sign. After dividing the optical flow based on its vector quantity,
As shown in FIG. 7D, the optical flow vector group is divided into two upper and lower constituent regions in each small region, and stereo distance measurement is performed on each constituent region. In the small area A, the distance of the upper constituent area and the distance of the lower constituent area match, so it is determined to be a solid (vehicle). In the small area of B, the distance of the upper constituent area does not match the distance of the lower constituent area. (The upper group is farther)
It will be determined as non-stereo.

【0017】なお、上記の例ではベクトル量に応じて2
つの小領域に分割したが、場合によっては3個以上に分
割することもでき、また構成領域も3個以上に分けるこ
ともできる。
In the above example, 2 is set according to the vector quantity.
Although it is divided into one small area, it can be divided into three or more parts depending on the case, and the constituent area can also be divided into three or more parts.

【0018】このように、本実施形態では、予め処理領
域を限定してオプティカルフローを算出し、ステレオ測
距を行うので、短時間に移動物体を検出することができ
る。しかも、本実施例では、オプティカルフローに基づ
く小領域を上下2つの構成領域に分割し、それぞれの構
成領域までの距離の相違に基づいて立体か否かを判定す
るので、容易にかつ確実に立体か否かを判定できる。
As described above, in the present embodiment, since the optical flow is calculated in advance by limiting the processing area and stereo ranging is performed, a moving object can be detected in a short time. Moreover, in the present embodiment, the small area based on the optical flow is divided into two upper and lower constituent areas, and it is determined whether or not the solid is based on the difference in the distance to each constituent area. Can be determined.

【0019】[0019]

【発明の効果】以上説明したように、本発明の物体検出
装置によれば、CCDカメラ等の撮像手段で得られた画
像から移動物体、特に車両等の立体物を短時間にかつ確
実に検出することができる。
As described above, according to the object detection apparatus of the present invention, a moving object, particularly a three-dimensional object such as a vehicle, can be detected in a short time and reliably from an image obtained by an imaging means such as a CCD camera. can do.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施形態の構成ブロック図である。FIG. 1 is a configuration block diagram of an embodiment of the present invention.

【図2】 本実施形態の全体処理フローチャートであ
る。
FIG. 2 is an overall processing flowchart of the embodiment.

【図3】 本実施形態の操舵制御処理フローチャートで
ある。
FIG. 3 is a flowchart of a steering control process according to the embodiment.

【図4】 本実施形態の車間制御処理フローチャートで
ある。
FIG. 4 is a flowchart of an inter-vehicle control process according to the embodiment.

【図5】 本実施形態の車両判定処理フローチャートで
ある。
FIG. 5 is a flowchart of a vehicle determination process according to the embodiment.

【図6】 本実施形態の車両判定処理を示す説明図であ
る。
FIG. 6 is an explanatory diagram illustrating a vehicle determination process according to the embodiment.

【図7】 本実施形態の車両判定処理を示す他の説明図
である。
FIG. 7 is another explanatory diagram showing the vehicle determination processing of the embodiment.

【符号の説明】[Explanation of symbols]

10a,10b CCDカメラ、12 画像処理コンピ
ュータ、14 クルーズスイッチ、16 自動運転用E
CU、18 ウインカ信号、20 車輪速センサ、22
操舵アクチュエータ(ACT)、24 スロットルア
クチュエータ(ACT)、26 ブレーキアクチュエー
タ(ACT)、100 白線、200設定領域、300
移動物体領域。
10a, 10b CCD camera, 12 image processing computer, 14 cruise switch, 16 E for automatic driving
CU, 18 turn signal, 20 wheel speed sensor, 22
Steering actuator (ACT), 24 Throttle actuator (ACT), 26 Brake actuator (ACT), 100 white line, 200 setting area, 300
Moving object area.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 周囲画像を撮影する車載撮像手段と、 得られた画像内で、車両に対する相対的な移動体を示す
オプティカルフローベクトルを抽出すべき領域を設定す
る領域設定手段と、 前記撮像手段で得られた時系列画像のうち、設定された
領域の画像データからオプティカルフローベクトルを抽
出するベクトル抽出手段と、 オプティカルフローベクトル群が抽出された画像領域の
上下2つの構成領域それぞれまでの距離を演算する距離
演算手段と、 得られた上下2つの構成領域の距離を比較することによ
り移動体を識別する識別手段と、 を有することを特徴とする物体検出装置。
1. An on-vehicle imaging unit that captures a surrounding image, an area setting unit that sets an area in an obtained image from which an optical flow vector indicating a moving object relative to a vehicle is to be extracted, and the imaging unit A vector extracting means for extracting an optical flow vector from the image data of the set area in the time-series image obtained in the step, and a distance to each of two upper and lower constituent areas of the image area from which the optical flow vector group is extracted. An object detection device, comprising: a distance calculation means for calculating; and an identification means for identifying a moving object by comparing the obtained distance between the upper and lower constituent regions.
【請求項2】 周囲画像を撮影する車載撮像手段と、 得られた画像内で、車両に対する相対的な移動体を示す
オプティカルフローベクトルを抽出すべき領域を設定す
る領域設定手段と、 前記撮像手段で得られた時系列画像のうち、設定された
領域の画像データからオプティカルフローベクトルを抽
出するベクトル抽出手段と、 オプティカルフローベクトル群が抽出された画像領域を
そのベクトル量に基づき更に小領域に分割する分割手段
と、 分割された各小領域において、上下2つの構成領域それ
ぞれまでの距離を演算する距離演算手段と、 得られた上下2つの構成領域の距離を比較することによ
り各小領域の移動体を識別する識別手段と、 を有することを特徴とする物体検出装置。
2. An in-vehicle imaging unit for capturing a surrounding image, an area setting unit for setting an area in an obtained image from which an optical flow vector indicating a moving object relative to a vehicle is to be extracted, and the imaging unit Vector extraction means for extracting an optical flow vector from the image data of the set area in the time-series image obtained in the step, and further dividing the image area from which the optical flow vector group is extracted into smaller areas based on the vector amount A distance calculating means for calculating a distance to each of the two upper and lower constituent areas in each of the divided small areas; and a movement of each small area by comparing the obtained distance between the two upper and lower constituent areas. An object detection device comprising: identification means for identifying a body;
JP8159733A 1996-06-20 1996-06-20 Object detection device Pending JPH1011585A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8159733A JPH1011585A (en) 1996-06-20 1996-06-20 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8159733A JPH1011585A (en) 1996-06-20 1996-06-20 Object detection device

Publications (1)

Publication Number Publication Date
JPH1011585A true JPH1011585A (en) 1998-01-16

Family

ID=15700091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8159733A Pending JPH1011585A (en) 1996-06-20 1996-06-20 Object detection device

Country Status (1)

Country Link
JP (1) JPH1011585A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006096A (en) * 1999-06-23 2001-01-12 Honda Motor Co Ltd Peripheral part monitoring device for vehicle
JP2004139338A (en) * 2002-10-17 2004-05-13 Nissan Motor Co Ltd Lane marker recognition device
JP2005222425A (en) * 2004-02-06 2005-08-18 Sharp Corp Vehicle periphery monitoring system, vehicle periphery monitoring method, control program, and readable recording medium
JP2005228136A (en) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd Road area detecting device
JP2007249841A (en) * 2006-03-17 2007-09-27 Toyota Motor Corp Image recognition device
WO2008084592A1 (en) * 2007-01-12 2008-07-17 Honda Motor Co., Ltd. Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2016037098A (en) * 2014-08-06 2016-03-22 オムロンオートモーティブエレクトロニクス株式会社 Vehicular imaging system
EP3376468A4 (en) * 2015-12-02 2018-10-03 Mitsubishi Electric Corporation Object detection device and object detection method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001006096A (en) * 1999-06-23 2001-01-12 Honda Motor Co Ltd Peripheral part monitoring device for vehicle
JP2004139338A (en) * 2002-10-17 2004-05-13 Nissan Motor Co Ltd Lane marker recognition device
JP2005222425A (en) * 2004-02-06 2005-08-18 Sharp Corp Vehicle periphery monitoring system, vehicle periphery monitoring method, control program, and readable recording medium
US7190281B2 (en) 2004-02-06 2007-03-13 Sharp Kabushiki Kaisha Vehicle environment monitoring device, vehicle environment monitoring method, control program and computer-readable recording medium
JP2005228136A (en) * 2004-02-13 2005-08-25 Nissan Motor Co Ltd Road area detecting device
JP2007249841A (en) * 2006-03-17 2007-09-27 Toyota Motor Corp Image recognition device
JP4692344B2 (en) * 2006-03-17 2011-06-01 トヨタ自動車株式会社 Image recognition device
WO2008084592A1 (en) * 2007-01-12 2008-07-17 Honda Motor Co., Ltd. Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2008168811A (en) * 2007-01-12 2008-07-24 Honda Motor Co Ltd Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP2016037098A (en) * 2014-08-06 2016-03-22 オムロンオートモーティブエレクトロニクス株式会社 Vehicular imaging system
EP3376468A4 (en) * 2015-12-02 2018-10-03 Mitsubishi Electric Corporation Object detection device and object detection method

Similar Documents

Publication Publication Date Title
JP5399027B2 (en) A device having a system capable of capturing a stereoscopic image to assist driving of an automobile
JP3739693B2 (en) Image recognition device
JP5421072B2 (en) Approaching object detection system
JP5561064B2 (en) Vehicle object recognition device
JP4755227B2 (en) Method for recognizing objects
JP4893212B2 (en) Perimeter monitoring device
WO2005029441A1 (en) Device for detecting road traveling lane
JP2002189075A (en) Method for detecting stationary on-road object
JPH10222679A (en) Vehicle image processor
JP2009040108A (en) Image display control device and image display control system
US20160307026A1 (en) Stereoscopic object detection device and stereoscopic object detection method
KR20060021922A (en) Two camera based obstacle detection method and device
JP5098563B2 (en) Object detection device
JP2018048949A (en) Object recognition device
JP2002314989A (en) Peripheral monitor for vehicle
JP4913101B2 (en) Road shape detection device for vehicles
JP2020109560A (en) Traffic signal recognition method and traffic signal recognition device
EP1236126B1 (en) System for detecting obstacles to vehicle motion
JP3911983B2 (en) Rear monitoring device
JPH1011585A (en) Object detection device
JP3868915B2 (en) Forward monitoring apparatus and method
JP4622544B2 (en) Vehicle driving support device
JP2006004188A (en) Obstacle recognition method and obstacle recognition device
JP7245653B2 (en) Traffic light recognition method and traffic light recognition device
JP5717416B2 (en) Driving support control device