[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5863536B2 - Outside monitoring device - Google Patents

Outside monitoring device Download PDF

Info

Publication number
JP5863536B2
JP5863536B2 JP2012077747A JP2012077747A JP5863536B2 JP 5863536 B2 JP5863536 B2 JP 5863536B2 JP 2012077747 A JP2012077747 A JP 2012077747A JP 2012077747 A JP2012077747 A JP 2012077747A JP 5863536 B2 JP5863536 B2 JP 5863536B2
Authority
JP
Japan
Prior art keywords
vehicle
image
reference image
camera
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012077747A
Other languages
Japanese (ja)
Other versions
JP2013206380A (en
Inventor
関口 弘幸
弘幸 関口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK filed Critical Fuji Jukogyo KK
Priority to JP2012077747A priority Critical patent/JP5863536B2/en
Publication of JP2013206380A publication Critical patent/JP2013206380A/en
Application granted granted Critical
Publication of JP5863536B2 publication Critical patent/JP5863536B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、異なる視点からステレオ撮像した画像対に基づいて車外の対象を認識する車外監視装置に関する。   The present invention relates to an out-of-vehicle monitoring apparatus that recognizes an out-of-vehicle object based on a pair of images captured in stereo from different viewpoints.

従来、車外の対象を認識する車外監視装置においては、一対の車載カメラを用いたステレオ式の車外監視装置が知られている。この種の車外監視装置では、先ず、ステレオマッチング処理により、一方の画像(基準画像)中の画素ブロックと相関を有する画素ブロックが他方の画像(比較画像)中において特定され、両者の相対的なずれ量である視差が算出される。そして、算出された画素ブロック毎の視差から、三角測量の原理を用いて距離データが算出され、この距離データに対して周知のグルーピング処理等が施されることにより、撮像画像中の対象物(車外における車線区画線、車両、或いは、信号機等)が認識される。   2. Description of the Related Art Conventionally, as a vehicle outside monitoring device for recognizing an object outside a vehicle, a stereo type vehicle outside monitoring device using a pair of in-vehicle cameras is known. In this type of out-of-vehicle monitoring device, first, a pixel block having a correlation with a pixel block in one image (reference image) is specified in the other image (comparison image) by stereo matching processing, and the relative relationship between the two is compared. The parallax that is the amount of deviation is calculated. Then, distance data is calculated from the calculated parallax for each pixel block using the principle of triangulation, and a known grouping process or the like is performed on the distance data, thereby obtaining an object ( Lane markings outside the vehicle, vehicles, traffic lights, etc.) are recognized.

ところで、車外監視装置で認識した車外情報を用いて各種運転支援制御等を行う場合、各対象物が実空間上に占める位置、大きさ、範囲等の情報のみならず、その対象物の色情報等についても取得されることが望ましい。例えば、対象物として車両を認識する場合において、車載灯具が点灯された際の色情報を取得できれば、当該灯具がヘッドランプ、テールランプ、ブレーキランプ、或いは、ターンシグナルランプの何れであるか等の判別を容易に行うことができ、この判別結果に基づいて車両が対向車或いは先行車であるかの判別や、右折(左折)車であるかの判別等を行うことができる。また、例えば、対象物として信号機を認識する場合において、信号機上で発光する領域の色情報を取得できれば、当該信号機が赤信号であるか或いは青信号であるか等の判別を的確に行うことができる。そして、これらの認識結果を運転支援制御等に反映させれば、より精度の高い緻密な制御を実現することが可能となる。   By the way, when performing various types of driving support control using information outside the vehicle recognized by the vehicle outside monitoring device, not only information about the position, size, range, etc. that each object occupies in the real space, but also color information of the object. It is desirable to be acquired also about etc. For example, when recognizing a vehicle as an object, if it is possible to acquire color information when an in-vehicle lamp is turned on, it is determined whether the lamp is a headlamp, tail lamp, brake lamp, or turn signal lamp. It is possible to easily determine whether the vehicle is an oncoming vehicle or a preceding vehicle, whether the vehicle is a right turn (left turn), or the like. Also, for example, when a traffic light is recognized as an object, if it is possible to acquire color information of a region that emits light on the traffic light, it is possible to accurately determine whether the traffic light is a red signal or a blue signal. . And if these recognition results are reflected in driving support control etc., it will become possible to implement more precise and precise control.

その一方で、上述のように車両や信号機等の対象物上で高輝度に発光する領域の色情報を取得する場合、当該領域の輝度飽和を防止すべく車載カメラの露光量を小さく制御する必要があるが、このように露光量を小さく制御した場合、他の対象物等の認識精度が低下する虞がある。これに対し、例えば、特許文献1に開示されているように、検出対象に応じて露光タイミングを順次変化させることも考えられる。   On the other hand, when acquiring color information of a region that emits light with high brightness on an object such as a vehicle or a traffic light as described above, it is necessary to control the exposure amount of the in-vehicle camera to be small in order to prevent luminance saturation of the region. However, when the exposure amount is controlled to be small as described above, the recognition accuracy of other objects may be lowered. On the other hand, for example, as disclosed in Patent Document 1, it is conceivable to sequentially change the exposure timing according to the detection target.

特開2008−207677号公報JP 2008-207777 A

しかしながら、上述の特許文献1に開示された技術のように、検出対象毎に露光タイミングを変化させた場合、車外の対称を全体として認識することが可能なフレーム数が減少してしまう虞がある。   However, when the exposure timing is changed for each detection target as in the technique disclosed in Patent Document 1 described above, the number of frames that can recognize the symmetry outside the vehicle as a whole may decrease. .

本発明は上記事情に鑑みてなされたもので、車外の対象物を認識する際の認識精度の低下やフレーム数の低下等を招くことなく、色情報についても的確に取得することができる車外監視装置を提供することを目的とする。   The present invention has been made in view of the above circumstances, and is capable of accurately acquiring color information without causing a decrease in recognition accuracy or a decrease in the number of frames when recognizing an object outside the vehicle. An object is to provide an apparatus.

本発明の一態様による車外監視装置は、第1の撮像手段と第2の撮像手段とを用いて車外の対象を異なる視点から撮像し、互いに視差を有する基準画像と比較画像とを出力するステレオ撮像手段と、前記車外の対象を前記第1の撮像手段及び第2の撮像手段よりも低い露光量でカラー撮像し、前記基準画像に対応する参照画像を出力するカラー撮像手段と、前記基準画像と前記比較画像とのステレオマッチング処理を行うことで前記基準画像上の画素に距離情報を付与した距離画像を生成する距離画像生成手段と、前記距離画像上の画素に前記参照画像上の画素の色情報を付与する色情報付与手段と、を備えたものである。   A vehicle exterior monitoring apparatus according to an aspect of the present invention uses a first imaging unit and a second imaging unit to capture an object outside a vehicle from different viewpoints, and outputs a reference image and a comparative image having parallax to each other. An imaging unit, a color imaging unit that performs color imaging of an object outside the vehicle with an exposure amount lower than that of the first imaging unit and the second imaging unit, and outputs a reference image corresponding to the reference image; and the reference image A distance image generating means for generating a distance image in which distance information is given to pixels on the reference image by performing a stereo matching process between the pixel on the reference image and a pixel on the reference image. Color information providing means for providing color information.

本発明の車外監視装置によれば、車外の対象物を認識する際の認識精度の低下やフレーム数の低下等を招くことなく、色情報についても的確に取得することができる。   According to the vehicle exterior monitoring device of the present invention, it is possible to accurately acquire color information without causing a decrease in recognition accuracy or a decrease in the number of frames when recognizing an object outside the vehicle.

車両用運転支援装置を示す概略構成図Schematic configuration diagram showing a vehicle driving support device カメラユニットの概略構成を示す斜視図The perspective view which shows schematic structure of a camera unit 画像認識処理ルーチンを示すフローチャートFlow chart showing image recognition processing routine 基準画像及び参照画像の一例を模式的に示す説明図Explanatory drawing which shows an example of a standard image and a reference image typically ステレオマッチング処理を示す説明図Explanatory drawing showing stereo matching processing 画素ブロック内の水平方向の輝度エッジの評価方法の説明図Explanatory drawing of the evaluation method of the luminance edge in the horizontal direction in the pixel block 参照画像から距離画像に色情報を付与する際の説明図Explanatory drawing when color information is given from the reference image to the distance image

以下、図面を参照して本発明の形態を説明する。図面は本発明の一実施形態に係わり、図1は車両用運転支援装置を示す概略構成図、図2はカメラユニットの概略構成を示す斜視図、図3は画像認識処理ルーチンを示すフローチャート、図4は基準画像及び参照画像の一例を模式的に示す説明図、図5はステレオマッチング処理を示す説明図、図6は画素ブロック内の水平方向の輝度エッジの評価方法の説明図、図7は参照画像から距離画像に色情報を付与する際の説明図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to an embodiment of the present invention, FIG. 1 is a schematic configuration diagram showing a vehicle driving support device, FIG. 2 is a perspective view showing a schematic configuration of a camera unit, and FIG. 3 is a flowchart showing an image recognition processing routine. 4 is an explanatory diagram schematically showing an example of a standard image and a reference image, FIG. 5 is an explanatory diagram showing a stereo matching process, FIG. 6 is an explanatory diagram of a method for evaluating a luminance edge in a horizontal direction in a pixel block, and FIG. It is explanatory drawing at the time of giving color information to a distance image from a reference image.

図1において、符号1は自動車等の車両(自車両)であり、この車両1には、車両用運転支援装置2が搭載されている。この運転支援装置2は、ステレオカメラ3と、当該ステレオカメラ3に併設する単眼カラーカメラ4と、画像認識装置5と、制御ユニット6とを備えて要部が構成されている。   In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile (own vehicle), and a vehicle driving support device 2 is mounted on the vehicle 1. The driving support device 2 includes a stereo camera 3, a monocular color camera 4 provided along with the stereo camera 3, an image recognition device 5, and a control unit 6.

また、車両1には、自車速Vを検出する車速センサ11、運転支援装置のONーOFF信号が入力されるメインスイッチ13等が設けられており、自車速V及び運転支援制御のON−OFF信号等は、制御ユニット6に入力される。   Further, the vehicle 1 is provided with a vehicle speed sensor 11 for detecting the host vehicle speed V, a main switch 13 to which an ON-OFF signal of the driving support device is input, and the like, and the ON / OFF of the host vehicle speed V and the driving support control is provided. Signals and the like are input to the control unit 6.

ステレオカメラ3は、ステレオ光学系として例えば電荷結合素子(CCD)等の固体撮像素子を用いた左右一対のCCDカメラ(カラー或いはモノクロカメラ)3a,3bで構成されている。これら左右のCCDカメラ3a,3bは、それぞれ車室内の天井前方に一定の間隔を持って取り付けられ、車外の対象を異なる視点から撮像する。本実施形態において、カメラ3aは、メインカメラとして車両1の進行方向右側に取り付けられており、基準画像を出力する。一方。カメラ3bはサブカメラとして進行方向に向かって左側に取り付けられており、比較画像を出力する。   The stereo camera 3 includes a pair of left and right CCD cameras (color or monochrome cameras) 3a and 3b using a solid-state imaging device such as a charge coupled device (CCD) as a stereo optical system. These left and right CCD cameras 3a and 3b are respectively mounted at a certain interval in front of the ceiling in the vehicle interior, and images the object outside the vehicle from different viewpoints. In the present embodiment, the camera 3a is attached as a main camera on the right side in the traveling direction of the vehicle 1 and outputs a reference image. on the other hand. The camera 3b is attached as a sub camera on the left side in the traveling direction, and outputs a comparative image.

単眼カラーカメラ4は、例えば、電荷結合素子(CCD)等の固体撮像素子を用いたカラーカメラで構成されている。例えば、図2に示すように、本実施形態の単眼カラーカメラ4は、メインカメラ3a及びサブカメラ3bと同一のステー7a上に保持されてカメラユニット7を構成する。この場合において、単眼カラーカメラ4は、例えば、メインカメラ3aの水平方向に隣接する位置にてステー7aに固定されている。これにより、単眼カラーカメラ4は、メインカメラ3aと略同一の視点から車外の対象をカラー撮像し、基準画像に対応する参照画像を出力する。   The monocular color camera 4 is configured by a color camera using a solid-state imaging device such as a charge coupled device (CCD), for example. For example, as shown in FIG. 2, the monocular color camera 4 of the present embodiment constitutes a camera unit 7 that is held on the same stay 7a as the main camera 3a and the sub camera 3b. In this case, the monocular color camera 4 is fixed to the stay 7a at a position adjacent to the main camera 3a in the horizontal direction, for example. As a result, the monocular color camera 4 captures a color image of an object outside the vehicle from substantially the same viewpoint as the main camera 3a, and outputs a reference image corresponding to the reference image.

ここで、メインカメラ3a、サブカメラ3b、及び、単眼カラーカメラ4は互いに同期がとられている。また、ステレオカメラ3(メインカメラ3a、サブカメラ3b)、及び、単眼カラーカメラ4の撮像時における露光量は、例えば、それぞれ予め設定されたマップ等に基づいて可変に設定される。すなわち、ステレオカメラ3及び単眼カラーカメラ4の露光量(シャッタースピード及び絞り量等)は、例えば、それぞれ撮像した画像の各領域の輝度平均値をパラメータとして得られる領域毎のマップ値を総計して決定される。その際、単眼カラーカメラ4の露光量は、メインカメラ3a及びサブカメラ3bの露光量よりも相対的に低く設定され、これにより、参照画像上における輝度の飽和領域の発生が抑制される。例えば、図4(a)に示すように基準画像(及び、比較画像)上において、撮像された車両100や信号機101等の一部発光領域に輝度の飽和が発生している場合にも、参照画像上では同領域における輝度の飽和が抑制される(図4(b)参照)。   Here, the main camera 3a, the sub camera 3b, and the monocular color camera 4 are synchronized with each other. Further, the exposure amount at the time of imaging by the stereo camera 3 (the main camera 3a and the sub camera 3b) and the monocular color camera 4 is variably set based on, for example, a preset map or the like. That is, the exposure amount (shutter speed, aperture amount, etc.) of the stereo camera 3 and the monocular color camera 4 is obtained by, for example, adding up the map values for each region obtained using the average luminance value of each region of the captured image as a parameter. It is determined. At this time, the exposure amount of the monocular color camera 4 is set to be relatively lower than the exposure amounts of the main camera 3a and the sub camera 3b, thereby suppressing the occurrence of a saturated luminance region on the reference image. For example, as shown in FIG. 4A, the reference image (and the comparison image) is also referred to when luminance saturation occurs in some light emitting areas such as the vehicle 100 and the traffic light 101 that are captured. On the image, saturation of luminance in the same region is suppressed (see FIG. 4B).

このように、本実施形態において、ステレオカメラ3はステレオ撮像手段としての機能を実現し、単眼カラーカメラ4はカラー撮像手段としての機能を実現する。   Thus, in this embodiment, the stereo camera 3 implement | achieves the function as a stereo imaging means, and the monocular color camera 4 implement | achieves the function as a color imaging means.

画像認識装置5は、基準画像と比較画像とのステレオマッチング処理を行うことで基準画像上の画素に距離情報を付与した距離画像を生成する。さらに、画像認識装置5は、生成した距離画像上の画素に対し、参照画像上で対応する画素の色情報を付与する。そして、画像認識装置5は、色情報が付与された距離画像に対し、周知のグルーピング処理等を行うことによって自車両1の前方に存在する各種立体物等を認識し、自車両1の前方に予め設定された条件を満たす車両が存在する場合には当該車両を先行車として検出する。   The image recognition device 5 generates a distance image in which distance information is added to pixels on the reference image by performing a stereo matching process between the reference image and the comparison image. Further, the image recognition device 5 gives color information of the corresponding pixel on the reference image to the pixel on the generated distance image. Then, the image recognition device 5 recognizes various three-dimensional objects and the like existing in front of the host vehicle 1 by performing a well-known grouping process or the like on the distance image to which the color information is given, and in front of the host vehicle 1. If there is a vehicle that satisfies a preset condition, the vehicle is detected as a preceding vehicle.

このように、本実施形態において、画像認識装置5は、距離画像生成手段、及び、色情報付与手段としての機能を実現する。   Thus, in this embodiment, the image recognition device 5 realizes functions as a distance image generation unit and a color information addition unit.

制御ユニット6は、画像認識装置5で認識した車外情報に基づく運転支援制御として、例えば、車間距離制御付クルーズコントロール(ACC;Adaptive Cruise Control)制御を行う。ここで、制御ユニット6には、例えば、車速センサ11から自車速Vが入力されるとともに、メインスイッチ13に併設された各種スイッチ類を通じて定速走行時の設定車速Vset等が入力される。   The control unit 6 performs, for example, cruise control with inter-vehicle distance control (ACC: Adaptive Cruise Control) as driving support control based on information outside the vehicle recognized by the image recognition device 5. Here, for example, the host vehicle speed V is input from the vehicle speed sensor 11 to the control unit 6, and a set vehicle speed Vset during constant speed driving is input through various switches provided alongside the main switch 13.

メインスイッチ13がONされた状態において、制御ユニット6は、先行車が検出されていない定速走行制御時には、ドライバがセットした設定車速Vsetを目標車速として設定し、電子制御スロットル弁15の開度制御(エンジン出力制御)を行うことで、自車速Vを目標車速に収束させる。さらに、制御ユニット6は、エンジンの出力制御のみでは十分な減速度が得られないと判断した場合にアクティブブースタ16からの出力液圧(ブレーキの自動介入制御)を併用し、自車速Vを目標車速に収束させる。   In the state where the main switch 13 is turned on, the control unit 6 sets the set vehicle speed Vset set by the driver as the target vehicle speed during constant speed traveling control in which no preceding vehicle is detected, and the opening degree of the electronically controlled throttle valve 15 By performing control (engine output control), the own vehicle speed V is converged to the target vehicle speed. Further, when the control unit 6 determines that sufficient deceleration cannot be obtained only by engine output control, the control unit 6 also uses the output hydraulic pressure (automatic brake intervention control) from the active booster 16 to target the vehicle speed V. Let it converge to the vehicle speed.

また、制御ユニット6は、定速走行制御を行っている際に、自車走行路上に先行車を検出した場合には、追従走行制御へと移行する。そして、追従走行制御に移行すると、制御ユニット6は、例えば、自車速Vに応じて可変設定される追従目標車間距離に基づいて、目標車速を設定し、電子スロットル弁15の開度制御を行うことで、車間距離を追従目標車間距離に収束させる。さらに、制御ユニット6は、エンジンの出力制御のみでは十分な減速度が得られないと判断した場合に、アクティブブースタ16からの出力液圧の制御を併用し、車間距離を追従目標距離に収束させる。   Further, when the control unit 6 detects the preceding vehicle on the own vehicle traveling path during the constant speed traveling control, the control unit 6 shifts to the following traveling control. When the control unit 6 shifts to the follow-up running control, the control unit 6 sets the target vehicle speed based on, for example, the follow-up target inter-vehicle distance that is variably set according to the own vehicle speed V, and controls the opening of the electronic throttle valve 15. Thus, the inter-vehicle distance is converged to the following target inter-vehicle distance. Furthermore, when the control unit 6 determines that sufficient deceleration cannot be obtained only by engine output control, the control unit 6 also uses control of the output hydraulic pressure from the active booster 16 to converge the inter-vehicle distance to the target tracking distance. .

次に、画像認識装置5において実行される画像認識処理について、図3に示す画像認識処理ルーチンのフローチャートに従って詳細に説明する。このルーチンは設定時間毎に繰り返し実行されるもので、ルーチンがスタートすると、画像認識装置5は、先ず、ステップS101において、ステレオカメラ3のメインカメラ3a及びサブカメラ3bで撮像された基準画像と比較画像とのステレオマッチング処理を行う。   Next, image recognition processing executed in the image recognition device 5 will be described in detail according to the flowchart of the image recognition processing routine shown in FIG. This routine is repeatedly executed every set time. When the routine starts, the image recognition apparatus 5 first compares the reference image captured by the main camera 3a and the sub camera 3b of the stereo camera 3 in step S101. Perform stereo matching with the image.

すなわち、画像認識装置5は、ステレオカメラ3から入力される基準画像データと比較画像データとに基づいて、例えば、4×4画素で構成される画素ブロック単位で距離データを算出する。具体的に説明すると、画像認識装置5は、基準画像データ中の一の画素ブロックPB1を抽出し、この画素ブロックPB1の輝度特性と比較画像データ上で相関を有する画素ブロックを検索して特定する(図5参照)。周知の通り、ステレオ画像に映し出された対象物間での距離は、ステレオ画像中における視差、すなわち、基準画像及び比較画像の位置に関する水平方向ずれ量として現れる。従って、対象画素ブロックPB1と相関を有する画素ブロックを特定しようとする場合、比較画像データ上において、対象画素ブロックPB1のj座標値と同じ値の水平線(エピポーラライン)上の画素ブロックを検出すればよい。画像認識装置5は、このエピポーラライン上を1画素ずつシフトしていくことで、エピポーラライン上の所定の画素範囲内における全ての比較画素ブロックとの相関を評価する。そして、画像認識装置5は、基準画像上の画素ブロックPB1と、比較画像上において画素ブロックPB1との相関が特定された画素ブロックとの視差を求める。   That is, the image recognition device 5 calculates distance data in units of pixel blocks composed of 4 × 4 pixels, for example, based on the reference image data and the comparison image data input from the stereo camera 3. More specifically, the image recognition device 5 extracts one pixel block PB1 from the reference image data, and searches for and specifies a pixel block having a correlation between the luminance characteristics of the pixel block PB1 and the comparison image data. (See FIG. 5). As is well known, the distance between objects displayed in a stereo image appears as a parallax in the stereo image, that is, a horizontal shift amount related to the positions of the reference image and the comparison image. Accordingly, when specifying a pixel block having a correlation with the target pixel block PB1, if a pixel block on the horizontal line (epipolar line) having the same value as the j coordinate value of the target pixel block PB1 is detected on the comparison image data, Good. The image recognition device 5 evaluates the correlation with all the comparison pixel blocks in a predetermined pixel range on the epipolar line by shifting the epipolar line one pixel at a time. Then, the image recognition device 5 obtains the parallax between the pixel block PB1 on the reference image and the pixel block for which the correlation between the pixel block PB1 is specified on the comparison image.

ステップS101からステップS102に進むと、画像認識装置5は、基準画像データを参照し、画素ブロックの水平方向の輝度エッジ(輝度変化量)を評価することにより、ステレオマッチング処理によって算出した視差にフィルタリング処理を施す。具体的に説明すると、画像認識装置5は、例えば、図6に示すように、距離データの算出単位である画素ブロックにおいて、水平方向に隣接する画素対の輝度変化量(絶対値)ΔPn(1≦Pn≦16)を算出する。但し、一番左側の画素列(P11,P12,P13,P14)に関しては、左側に隣接した画素ブロックの一番右側の画素列から輝度変化量ΔPを算出する。次に、画像認識装置5は、16個の輝度変化量ΔPnのうち輝度判定閾値DCDXth以上のものの数をカウントする。そして、画像認識装置5は、輝度判定閾値DCDXth以上の輝度変化量ΔPの数が設定数(例えば、4つ)未満の画素ブロックに関する視差は除外することで輝度の変化量が大きな画素ブロックを抽出し、抽出した画素ブロックに関する視差のみを距離データとして出力する。すなわち、水平方向の輝度変化量が少なく、輝度の特徴があまりない画素ブロックはステレオマッチング処理においてマッチングが取れたとしても、その視差の信頼性は低い場合が多い。そこで、このような画素ブロックに関しては算出された視差を除去することにより、距離データの信頼性が高められている。そして、このようにして距離データを得ることにより、画像認識装置5は、基準画像上の画素に距離情報を付与した距離画像を生成する。   When the process proceeds from step S101 to step S102, the image recognition apparatus 5 refers to the reference image data and evaluates the luminance edge (luminance change amount) in the horizontal direction of the pixel block, thereby filtering the parallax calculated by the stereo matching process. Apply processing. More specifically, as shown in FIG. 6, for example, the image recognition device 5 uses a pixel block that is a unit for calculating distance data in a luminance change amount (absolute value) ΔPn (1) of a pixel pair adjacent in the horizontal direction. ≦ Pn ≦ 16) is calculated. However, for the leftmost pixel column (P11, P12, P13, P14), the luminance change amount ΔP is calculated from the rightmost pixel column of the pixel block adjacent to the left side. Next, the image recognition apparatus 5 counts the number of luminance change amounts ΔPn that are greater than or equal to the luminance determination threshold DCDXth. Then, the image recognition apparatus 5 extracts a pixel block having a large luminance change amount by excluding parallax related to a pixel block having a luminance change amount ΔP equal to or greater than the luminance determination threshold DCDXth less than a set number (for example, four). Then, only the parallax related to the extracted pixel block is output as distance data. In other words, even if a pixel block having a small amount of luminance change in the horizontal direction and not having a characteristic of luminance is matched in stereo matching processing, the reliability of the parallax is often low. Therefore, the reliability of the distance data is improved by removing the calculated parallax for such a pixel block. Then, by obtaining the distance data in this way, the image recognition device 5 generates a distance image in which distance information is given to the pixels on the reference image.

ステップS102からステップS103に進むと、画像認識装置5は、距離画像上の画素に対し、略同一の視点から撮像された参照画像上で対応する画素の色情報を付与する(図7参照)。   When the process proceeds from step S102 to step S103, the image recognition device 5 gives color information of the corresponding pixel on the reference image captured from substantially the same viewpoint to the pixel on the distance image (see FIG. 7).

そして、ステップS103からステップS104に進むと、画像認識装置5は、距離画像上の立体物認識を行った後、ルーチンを抜ける。すなわち、画像認識装置5は、生成した距離画像上の距離データに対して周知のグルーピング処理を行う。ここで画像認識装置5には、例えば、3次元的な道路形状データ、側壁データ、立体物データ等の枠(ウインドウ)が予め設定されて格納されている。画像認識装置5は、グルーピング処理した距離データ群と各ウインドウとを比較することにより、車線区画線データ、道路に沿って存在するガードレール、縁石等の側壁データを抽出するとともに、立体物を、2輪車、普通車両、大型車両、歩行者、電柱、信号機等その他の各種立体物に分類して抽出する。そして、画像認識装置5は、抽出した各立体物に対し、参照画像から得られた色情報を付与する。   Then, when the process proceeds from step S103 to step S104, the image recognition apparatus 5 exits the routine after performing solid object recognition on the distance image. That is, the image recognition device 5 performs a known grouping process on the distance data on the generated distance image. Here, in the image recognition device 5, for example, frames (windows) such as three-dimensional road shape data, side wall data, and three-dimensional object data are preset and stored. The image recognition device 5 compares the grouped distance data group and each window, thereby extracting lane marking data, side wall data such as guardrails and curbs along the road, and 2D objects. It is classified and extracted into various other three-dimensional objects such as wheels, ordinary vehicles, large vehicles, pedestrians, utility poles, and traffic lights. Then, the image recognition device 5 gives color information obtained from the reference image to each extracted three-dimensional object.

また、画像認識装置5は、認識した車線区画線、側壁等の情報に基づいて自車走行路の推定を行い、さらに、推定した自車走行路上で先行車の検出処理を行う。すなわち、自車進行方向と同一方向に所定以上の速度成分を有する立体物(順方向移動物)が自車走行路上に存在するとき、これらの中から自車両1に最も近い順方向移動物を先行車として検出(捕捉)し、各種先行車情報(車間距離、先行車速度、先行車減速度等)を取得する。   Further, the image recognition device 5 estimates the own vehicle travel route based on the recognized information such as the lane markings and the side walls, and further performs a detection process of the preceding vehicle on the estimated own vehicle travel route. That is, when a three-dimensional object (forward moving object) having a predetermined speed component or more in the same direction as the traveling direction of the vehicle exists on the traveling path of the vehicle, the forward moving object closest to the own vehicle 1 is selected from these. It detects (captures) a preceding vehicle and acquires various preceding vehicle information (such as the inter-vehicle distance, the preceding vehicle speed, and the preceding vehicle deceleration).

このような実施形態によれば、ステレオカメラ3(メインカメラ3aとサブカメラ3b)を用いて車外の対象を異なる視点から撮像して互いに視差を有する基準画像と比較画像とを出力し、これらの画像のステレオマッチング処理を行うことで基準画像上の画素に距離情報を付与した距離画像を生成する車外監視装置において、メインカメラ3a及びサブカメラ3bよりも低い露光量で撮像する単眼カラーカメラ4をステレオカメラ3に併設し、当該単眼カラーカメラ4を用いて車外の対象を撮像することで参照画像を出力し、距離画像上の画素に参照画像上の画素の色情報を付与することにより、車体の対象物を認識する際の認識精度の低下やフレーム数の低下等を招くことなく色情報についても的確に取得することができる。   According to such an embodiment, the stereo camera 3 (the main camera 3a and the sub camera 3b) is used to capture an image of an object outside the vehicle from different viewpoints, and output a reference image and a comparative image having parallax with each other. In an out-of-vehicle monitoring apparatus that generates a distance image in which distance information is given to pixels on a reference image by performing stereo matching processing of the image, a monocular color camera 4 that captures an image with an exposure amount lower than that of the main camera 3a and the sub camera 3b. By providing a stereo camera 3 together with the monocular color camera 4 to capture an object outside the vehicle and outputting a reference image, and adding color information of the pixel on the reference image to the pixel on the distance image, It is possible to accurately acquire color information without causing a reduction in recognition accuracy or a reduction in the number of frames when recognizing the target object.

すなわち、併設した単眼カラーカメラ4によって車外の対象の色情報を別途取得することにより、メインカメラ3a及びサブカメラ3bを用いて十分な露光量にて基準画像及び比較画像を撮像することができ、これらを用いて得られる距離画像から各種立体物等を精度良く認識することができる。また、立体物等の色情報の取得を単眼カラーカメラ4に分担させることにより、フレームレートを低下することなく時々刻々変化する車外の状況を的確に認識することができる。   That is, by separately acquiring the color information of the object outside the vehicle with the monocular color camera 4 provided side by side, it is possible to capture the reference image and the comparative image with a sufficient exposure amount using the main camera 3a and the sub camera 3b. Various three-dimensional objects and the like can be accurately recognized from the distance image obtained using these. Further, by making the monocular color camera 4 share the acquisition of color information such as a three-dimensional object, it is possible to accurately recognize the situation outside the vehicle that changes from moment to moment without lowering the frame rate.

この場合において、単眼カラーカメラ4とメインカメラ3aとの視差が略零となるよう、単眼カラーカメラ4をメインカメラ3aに隣接して配置することにより、基準画像と参照画像との各画素の対応付けを容易に行うことができ、複雑な演算等を必要とすることなく、距離画像に対して参照画像の色情報を付与することができる。   In this case, by arranging the monocular color camera 4 adjacent to the main camera 3a so that the parallax between the monocular color camera 4 and the main camera 3a is substantially zero, the correspondence between the pixels of the reference image and the reference image The color information of the reference image can be given to the distance image without requiring complicated calculation or the like.

そして、このように色情報を含んで構成された車外の立体物情報等を上述の運転支援制御に用いることにより、精度の高い緻密な運転支援制御を実現することができる。例えば、ACCの実行中に自車走行路前方に信号機を認識している場合において、当該信号機が赤信号である場合には自車両1の加速を制限することにより、ドライバのフィーリングに合致したACCを実現することができる。同様に、例えば、先行車を認識している場合において、当該先行車上に赤色の高輝度で発光するブレーキランプを検出した場合には先行車が減速状態にあると判定して自車両1の加速を制限することにより、ドライバのフィーリングに合致したACCを実現することができる。   In addition, by using the three-dimensional object information outside the vehicle configured including the color information in the above-described driving support control, it is possible to realize a precise driving support control with high accuracy. For example, when a traffic light is recognized in front of the host vehicle traveling path during the execution of the ACC, when the traffic signal is a red signal, the acceleration of the host vehicle 1 is limited to meet the driver's feeling. ACC can be realized. Similarly, for example, when a preceding vehicle is recognized, if a brake light that emits red light with high brightness is detected on the preceding vehicle, it is determined that the preceding vehicle is in a decelerating state and the vehicle 1 By limiting the acceleration, an ACC that matches the feeling of the driver can be realized.

1 … 車両(自車両)
2 … 車両用運転支援装置
3 … ステレオカメラ
3a … メインカメラ
3b … サブカメラ
4 … 単眼カラーカメラ
5 … 画像認識装置
6 … 制御ユニット
7 … カメラユニット
7a … ステー
11 … 車速センサ
13 … メインスイッチ
15 … 電子制御スロットル弁
16 … アクティブブースタ
1 ... Vehicle (own vehicle)
DESCRIPTION OF SYMBOLS 2 ... Vehicle driving assistance device 3 ... Stereo camera 3a ... Main camera 3b ... Sub camera 4 ... Monocular color camera 5 ... Image recognition device 6 ... Control unit 7 ... Camera unit 7a ... Stay 11 ... Vehicle speed sensor 13 ... Main switch 15 ... Electronically controlled throttle valve 16 ... Active booster

Claims (2)

第1の撮像手段と第2の撮像手段とを用いて車外の対象を異なる視点から撮像し、互いに視差を有する基準画像と比較画像とを出力するステレオ撮像手段と、
前記車外の対象を前記第1の撮像手段及び第2の撮像手段よりも低い露光量でカラー撮像し、前記基準画像に対応する参照画像を出力するカラー撮像手段と、
前記基準画像と前記比較画像とのステレオマッチング処理を行うことで前記基準画像上の画素に距離情報を付与した距離画像を生成する距離画像生成手段と、
前記距離画像上の画素に前記参照画像上の画素の色情報を付与する色情報付与手段と、を備えたことを特徴とする車外監視装置。
Stereo imaging means for imaging an object outside the vehicle from different viewpoints using the first imaging means and the second imaging means, and outputting a reference image and a comparative image having parallax with each other;
Color imaging means for subjecting the object outside the vehicle to color imaging with an exposure amount lower than that of the first imaging means and the second imaging means, and outputting a reference image corresponding to the reference image;
Distance image generation means for generating a distance image in which distance information is given to pixels on the reference image by performing a stereo matching process between the reference image and the comparison image;
An out-of-vehicle monitoring device comprising: color information providing means for providing color information of a pixel on the reference image to a pixel on the distance image.
前記カラー撮像手段は、前記第1の撮像手段に隣接して配置されていることを特徴とする請求項1記載の車外監視装置。   2. The out-of-vehicle monitoring device according to claim 1, wherein the color imaging unit is disposed adjacent to the first imaging unit.
JP2012077747A 2012-03-29 2012-03-29 Outside monitoring device Active JP5863536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012077747A JP5863536B2 (en) 2012-03-29 2012-03-29 Outside monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012077747A JP5863536B2 (en) 2012-03-29 2012-03-29 Outside monitoring device

Publications (2)

Publication Number Publication Date
JP2013206380A JP2013206380A (en) 2013-10-07
JP5863536B2 true JP5863536B2 (en) 2016-02-16

Family

ID=49525344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012077747A Active JP5863536B2 (en) 2012-03-29 2012-03-29 Outside monitoring device

Country Status (1)

Country Link
JP (1) JP5863536B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US12236689B2 (en) 2023-09-22 2025-02-25 Tesla, Inc. Estimating object properties using visual image data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111024099B (en) * 2013-06-13 2023-10-27 移动眼视力科技有限公司 Mobile device, non-transitory machine-readable medium, and apparatus for navigation
JP6378594B2 (en) * 2014-09-18 2018-08-22 株式会社Subaru Outside environment recognition device
JP6701253B2 (en) * 2018-03-22 2020-05-27 株式会社Subaru Exterior environment recognition device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4807733B2 (en) * 2005-09-28 2011-11-02 富士重工業株式会社 Outside environment recognition device
JP4980939B2 (en) * 2008-01-22 2012-07-18 富士重工業株式会社 Image pickup means adjustment device and object detection device
JP2009284188A (en) * 2008-05-22 2009-12-03 Panasonic Corp Color imaging apparatus

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US12020476B2 (en) 2017-03-23 2024-06-25 Tesla, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US12216610B2 (en) 2017-07-24 2025-02-04 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US12086097B2 (en) 2017-07-24 2024-09-10 Tesla, Inc. Vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11797304B2 (en) 2018-02-01 2023-10-24 Tesla, Inc. Instruction set architecture for a vector computational unit
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US12079723B2 (en) 2018-07-26 2024-09-03 Tesla, Inc. Optimizing neural network structures for embedded systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11983630B2 (en) 2018-09-03 2024-05-14 Tesla, Inc. Neural networks for embedded devices
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US12198396B2 (en) 2018-12-04 2025-01-14 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908171B2 (en) 2018-12-04 2024-02-20 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US12136030B2 (en) 2018-12-27 2024-11-05 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US12223428B2 (en) 2019-02-01 2025-02-11 Tesla, Inc. Generating ground truth for machine learning from time series elements
US12164310B2 (en) 2019-02-11 2024-12-10 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US12236689B2 (en) 2023-09-22 2025-02-25 Tesla, Inc. Estimating object properties using visual image data

Also Published As

Publication number Publication date
JP2013206380A (en) 2013-10-07

Similar Documents

Publication Publication Date Title
JP5863536B2 (en) Outside monitoring device
EP2919197B1 (en) Object detection device and object detection method
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
JP5680573B2 (en) Vehicle driving environment recognition device
JP4937933B2 (en) Outside monitoring device
CN106295494B (en) Vehicle exterior environment recognition device
CN110298793B (en) External environment recognition device
JP6236039B2 (en) Outside environment recognition device
CN202169907U (en) Device used for identifying environment outside vehicle
JP5363920B2 (en) Vehicle white line recognition device
CN104590258A (en) Vehicle control system
JP2018060422A (en) Object detection device
KR20060021922A (en) Obstacle detection technology and device using two cameras
CN110949254A (en) Vehicle running environment detection device and running control system
JP6194245B2 (en) Traffic light recognition device
JP6642886B2 (en) Vehicle driving support device
JP2013161190A (en) Object recognition device
KR101511586B1 (en) Apparatus and method for controlling vehicle by detection of tunnel
JP6185367B2 (en) Driving assistance device
JP4807733B2 (en) Outside environment recognition device
JP7229032B2 (en) External object detection device
JP6891082B2 (en) Object distance detector
JP2013161187A (en) Object recognition device
JP6082293B2 (en) Vehicle white line recognition device
JP6759461B2 (en) Vehicle driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151222

R150 Certificate of patent or registration of utility model

Ref document number: 5863536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250