JP5863536B2 - Outside monitoring device - Google Patents
Outside monitoring device Download PDFInfo
- Publication number
- JP5863536B2 JP5863536B2 JP2012077747A JP2012077747A JP5863536B2 JP 5863536 B2 JP5863536 B2 JP 5863536B2 JP 2012077747 A JP2012077747 A JP 2012077747A JP 2012077747 A JP2012077747 A JP 2012077747A JP 5863536 B2 JP5863536 B2 JP 5863536B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- reference image
- camera
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012806 monitoring device Methods 0.000 title claims description 8
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000000034 method Methods 0.000 claims description 14
- 230000000052 comparative effect Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、異なる視点からステレオ撮像した画像対に基づいて車外の対象を認識する車外監視装置に関する。 The present invention relates to an out-of-vehicle monitoring apparatus that recognizes an out-of-vehicle object based on a pair of images captured in stereo from different viewpoints.
従来、車外の対象を認識する車外監視装置においては、一対の車載カメラを用いたステレオ式の車外監視装置が知られている。この種の車外監視装置では、先ず、ステレオマッチング処理により、一方の画像(基準画像)中の画素ブロックと相関を有する画素ブロックが他方の画像(比較画像)中において特定され、両者の相対的なずれ量である視差が算出される。そして、算出された画素ブロック毎の視差から、三角測量の原理を用いて距離データが算出され、この距離データに対して周知のグルーピング処理等が施されることにより、撮像画像中の対象物(車外における車線区画線、車両、或いは、信号機等)が認識される。 2. Description of the Related Art Conventionally, as a vehicle outside monitoring device for recognizing an object outside a vehicle, a stereo type vehicle outside monitoring device using a pair of in-vehicle cameras is known. In this type of out-of-vehicle monitoring device, first, a pixel block having a correlation with a pixel block in one image (reference image) is specified in the other image (comparison image) by stereo matching processing, and the relative relationship between the two is compared. The parallax that is the amount of deviation is calculated. Then, distance data is calculated from the calculated parallax for each pixel block using the principle of triangulation, and a known grouping process or the like is performed on the distance data, thereby obtaining an object ( Lane markings outside the vehicle, vehicles, traffic lights, etc.) are recognized.
ところで、車外監視装置で認識した車外情報を用いて各種運転支援制御等を行う場合、各対象物が実空間上に占める位置、大きさ、範囲等の情報のみならず、その対象物の色情報等についても取得されることが望ましい。例えば、対象物として車両を認識する場合において、車載灯具が点灯された際の色情報を取得できれば、当該灯具がヘッドランプ、テールランプ、ブレーキランプ、或いは、ターンシグナルランプの何れであるか等の判別を容易に行うことができ、この判別結果に基づいて車両が対向車或いは先行車であるかの判別や、右折(左折)車であるかの判別等を行うことができる。また、例えば、対象物として信号機を認識する場合において、信号機上で発光する領域の色情報を取得できれば、当該信号機が赤信号であるか或いは青信号であるか等の判別を的確に行うことができる。そして、これらの認識結果を運転支援制御等に反映させれば、より精度の高い緻密な制御を実現することが可能となる。 By the way, when performing various types of driving support control using information outside the vehicle recognized by the vehicle outside monitoring device, not only information about the position, size, range, etc. that each object occupies in the real space, but also color information of the object. It is desirable to be acquired also about etc. For example, when recognizing a vehicle as an object, if it is possible to acquire color information when an in-vehicle lamp is turned on, it is determined whether the lamp is a headlamp, tail lamp, brake lamp, or turn signal lamp. It is possible to easily determine whether the vehicle is an oncoming vehicle or a preceding vehicle, whether the vehicle is a right turn (left turn), or the like. Also, for example, when a traffic light is recognized as an object, if it is possible to acquire color information of a region that emits light on the traffic light, it is possible to accurately determine whether the traffic light is a red signal or a blue signal. . And if these recognition results are reflected in driving support control etc., it will become possible to implement more precise and precise control.
その一方で、上述のように車両や信号機等の対象物上で高輝度に発光する領域の色情報を取得する場合、当該領域の輝度飽和を防止すべく車載カメラの露光量を小さく制御する必要があるが、このように露光量を小さく制御した場合、他の対象物等の認識精度が低下する虞がある。これに対し、例えば、特許文献1に開示されているように、検出対象に応じて露光タイミングを順次変化させることも考えられる。 On the other hand, when acquiring color information of a region that emits light with high brightness on an object such as a vehicle or a traffic light as described above, it is necessary to control the exposure amount of the in-vehicle camera to be small in order to prevent luminance saturation of the region. However, when the exposure amount is controlled to be small as described above, the recognition accuracy of other objects may be lowered. On the other hand, for example, as disclosed in Patent Document 1, it is conceivable to sequentially change the exposure timing according to the detection target.
しかしながら、上述の特許文献1に開示された技術のように、検出対象毎に露光タイミングを変化させた場合、車外の対称を全体として認識することが可能なフレーム数が減少してしまう虞がある。 However, when the exposure timing is changed for each detection target as in the technique disclosed in Patent Document 1 described above, the number of frames that can recognize the symmetry outside the vehicle as a whole may decrease. .
本発明は上記事情に鑑みてなされたもので、車外の対象物を認識する際の認識精度の低下やフレーム数の低下等を招くことなく、色情報についても的確に取得することができる車外監視装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and is capable of accurately acquiring color information without causing a decrease in recognition accuracy or a decrease in the number of frames when recognizing an object outside the vehicle. An object is to provide an apparatus.
本発明の一態様による車外監視装置は、第1の撮像手段と第2の撮像手段とを用いて車外の対象を異なる視点から撮像し、互いに視差を有する基準画像と比較画像とを出力するステレオ撮像手段と、前記車外の対象を前記第1の撮像手段及び第2の撮像手段よりも低い露光量でカラー撮像し、前記基準画像に対応する参照画像を出力するカラー撮像手段と、前記基準画像と前記比較画像とのステレオマッチング処理を行うことで前記基準画像上の画素に距離情報を付与した距離画像を生成する距離画像生成手段と、前記距離画像上の画素に前記参照画像上の画素の色情報を付与する色情報付与手段と、を備えたものである。 A vehicle exterior monitoring apparatus according to an aspect of the present invention uses a first imaging unit and a second imaging unit to capture an object outside a vehicle from different viewpoints, and outputs a reference image and a comparative image having parallax to each other. An imaging unit, a color imaging unit that performs color imaging of an object outside the vehicle with an exposure amount lower than that of the first imaging unit and the second imaging unit, and outputs a reference image corresponding to the reference image; and the reference image A distance image generating means for generating a distance image in which distance information is given to pixels on the reference image by performing a stereo matching process between the pixel on the reference image and a pixel on the reference image. Color information providing means for providing color information.
本発明の車外監視装置によれば、車外の対象物を認識する際の認識精度の低下やフレーム数の低下等を招くことなく、色情報についても的確に取得することができる。 According to the vehicle exterior monitoring device of the present invention, it is possible to accurately acquire color information without causing a decrease in recognition accuracy or a decrease in the number of frames when recognizing an object outside the vehicle.
以下、図面を参照して本発明の形態を説明する。図面は本発明の一実施形態に係わり、図1は車両用運転支援装置を示す概略構成図、図2はカメラユニットの概略構成を示す斜視図、図3は画像認識処理ルーチンを示すフローチャート、図4は基準画像及び参照画像の一例を模式的に示す説明図、図5はステレオマッチング処理を示す説明図、図6は画素ブロック内の水平方向の輝度エッジの評価方法の説明図、図7は参照画像から距離画像に色情報を付与する際の説明図である。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings relate to an embodiment of the present invention, FIG. 1 is a schematic configuration diagram showing a vehicle driving support device, FIG. 2 is a perspective view showing a schematic configuration of a camera unit, and FIG. 3 is a flowchart showing an image recognition processing routine. 4 is an explanatory diagram schematically showing an example of a standard image and a reference image, FIG. 5 is an explanatory diagram showing a stereo matching process, FIG. 6 is an explanatory diagram of a method for evaluating a luminance edge in a horizontal direction in a pixel block, and FIG. It is explanatory drawing at the time of giving color information to a distance image from a reference image.
図1において、符号1は自動車等の車両(自車両)であり、この車両1には、車両用運転支援装置2が搭載されている。この運転支援装置2は、ステレオカメラ3と、当該ステレオカメラ3に併設する単眼カラーカメラ4と、画像認識装置5と、制御ユニット6とを備えて要部が構成されている。
In FIG. 1, reference numeral 1 denotes a vehicle such as an automobile (own vehicle), and a vehicle
また、車両1には、自車速Vを検出する車速センサ11、運転支援装置のONーOFF信号が入力されるメインスイッチ13等が設けられており、自車速V及び運転支援制御のON−OFF信号等は、制御ユニット6に入力される。
Further, the vehicle 1 is provided with a vehicle speed sensor 11 for detecting the host vehicle speed V, a
ステレオカメラ3は、ステレオ光学系として例えば電荷結合素子(CCD)等の固体撮像素子を用いた左右一対のCCDカメラ(カラー或いはモノクロカメラ)3a,3bで構成されている。これら左右のCCDカメラ3a,3bは、それぞれ車室内の天井前方に一定の間隔を持って取り付けられ、車外の対象を異なる視点から撮像する。本実施形態において、カメラ3aは、メインカメラとして車両1の進行方向右側に取り付けられており、基準画像を出力する。一方。カメラ3bはサブカメラとして進行方向に向かって左側に取り付けられており、比較画像を出力する。
The
単眼カラーカメラ4は、例えば、電荷結合素子(CCD)等の固体撮像素子を用いたカラーカメラで構成されている。例えば、図2に示すように、本実施形態の単眼カラーカメラ4は、メインカメラ3a及びサブカメラ3bと同一のステー7a上に保持されてカメラユニット7を構成する。この場合において、単眼カラーカメラ4は、例えば、メインカメラ3aの水平方向に隣接する位置にてステー7aに固定されている。これにより、単眼カラーカメラ4は、メインカメラ3aと略同一の視点から車外の対象をカラー撮像し、基準画像に対応する参照画像を出力する。
The
ここで、メインカメラ3a、サブカメラ3b、及び、単眼カラーカメラ4は互いに同期がとられている。また、ステレオカメラ3(メインカメラ3a、サブカメラ3b)、及び、単眼カラーカメラ4の撮像時における露光量は、例えば、それぞれ予め設定されたマップ等に基づいて可変に設定される。すなわち、ステレオカメラ3及び単眼カラーカメラ4の露光量(シャッタースピード及び絞り量等)は、例えば、それぞれ撮像した画像の各領域の輝度平均値をパラメータとして得られる領域毎のマップ値を総計して決定される。その際、単眼カラーカメラ4の露光量は、メインカメラ3a及びサブカメラ3bの露光量よりも相対的に低く設定され、これにより、参照画像上における輝度の飽和領域の発生が抑制される。例えば、図4(a)に示すように基準画像(及び、比較画像)上において、撮像された車両100や信号機101等の一部発光領域に輝度の飽和が発生している場合にも、参照画像上では同領域における輝度の飽和が抑制される(図4(b)参照)。
Here, the
このように、本実施形態において、ステレオカメラ3はステレオ撮像手段としての機能を実現し、単眼カラーカメラ4はカラー撮像手段としての機能を実現する。
Thus, in this embodiment, the
画像認識装置5は、基準画像と比較画像とのステレオマッチング処理を行うことで基準画像上の画素に距離情報を付与した距離画像を生成する。さらに、画像認識装置5は、生成した距離画像上の画素に対し、参照画像上で対応する画素の色情報を付与する。そして、画像認識装置5は、色情報が付与された距離画像に対し、周知のグルーピング処理等を行うことによって自車両1の前方に存在する各種立体物等を認識し、自車両1の前方に予め設定された条件を満たす車両が存在する場合には当該車両を先行車として検出する。
The
このように、本実施形態において、画像認識装置5は、距離画像生成手段、及び、色情報付与手段としての機能を実現する。
Thus, in this embodiment, the
制御ユニット6は、画像認識装置5で認識した車外情報に基づく運転支援制御として、例えば、車間距離制御付クルーズコントロール(ACC;Adaptive Cruise Control)制御を行う。ここで、制御ユニット6には、例えば、車速センサ11から自車速Vが入力されるとともに、メインスイッチ13に併設された各種スイッチ類を通じて定速走行時の設定車速Vset等が入力される。
The control unit 6 performs, for example, cruise control with inter-vehicle distance control (ACC: Adaptive Cruise Control) as driving support control based on information outside the vehicle recognized by the
メインスイッチ13がONされた状態において、制御ユニット6は、先行車が検出されていない定速走行制御時には、ドライバがセットした設定車速Vsetを目標車速として設定し、電子制御スロットル弁15の開度制御(エンジン出力制御)を行うことで、自車速Vを目標車速に収束させる。さらに、制御ユニット6は、エンジンの出力制御のみでは十分な減速度が得られないと判断した場合にアクティブブースタ16からの出力液圧(ブレーキの自動介入制御)を併用し、自車速Vを目標車速に収束させる。
In the state where the
また、制御ユニット6は、定速走行制御を行っている際に、自車走行路上に先行車を検出した場合には、追従走行制御へと移行する。そして、追従走行制御に移行すると、制御ユニット6は、例えば、自車速Vに応じて可変設定される追従目標車間距離に基づいて、目標車速を設定し、電子スロットル弁15の開度制御を行うことで、車間距離を追従目標車間距離に収束させる。さらに、制御ユニット6は、エンジンの出力制御のみでは十分な減速度が得られないと判断した場合に、アクティブブースタ16からの出力液圧の制御を併用し、車間距離を追従目標距離に収束させる。
Further, when the control unit 6 detects the preceding vehicle on the own vehicle traveling path during the constant speed traveling control, the control unit 6 shifts to the following traveling control. When the control unit 6 shifts to the follow-up running control, the control unit 6 sets the target vehicle speed based on, for example, the follow-up target inter-vehicle distance that is variably set according to the own vehicle speed V, and controls the opening of the
次に、画像認識装置5において実行される画像認識処理について、図3に示す画像認識処理ルーチンのフローチャートに従って詳細に説明する。このルーチンは設定時間毎に繰り返し実行されるもので、ルーチンがスタートすると、画像認識装置5は、先ず、ステップS101において、ステレオカメラ3のメインカメラ3a及びサブカメラ3bで撮像された基準画像と比較画像とのステレオマッチング処理を行う。
Next, image recognition processing executed in the
すなわち、画像認識装置5は、ステレオカメラ3から入力される基準画像データと比較画像データとに基づいて、例えば、4×4画素で構成される画素ブロック単位で距離データを算出する。具体的に説明すると、画像認識装置5は、基準画像データ中の一の画素ブロックPB1を抽出し、この画素ブロックPB1の輝度特性と比較画像データ上で相関を有する画素ブロックを検索して特定する(図5参照)。周知の通り、ステレオ画像に映し出された対象物間での距離は、ステレオ画像中における視差、すなわち、基準画像及び比較画像の位置に関する水平方向ずれ量として現れる。従って、対象画素ブロックPB1と相関を有する画素ブロックを特定しようとする場合、比較画像データ上において、対象画素ブロックPB1のj座標値と同じ値の水平線(エピポーラライン)上の画素ブロックを検出すればよい。画像認識装置5は、このエピポーラライン上を1画素ずつシフトしていくことで、エピポーラライン上の所定の画素範囲内における全ての比較画素ブロックとの相関を評価する。そして、画像認識装置5は、基準画像上の画素ブロックPB1と、比較画像上において画素ブロックPB1との相関が特定された画素ブロックとの視差を求める。
That is, the
ステップS101からステップS102に進むと、画像認識装置5は、基準画像データを参照し、画素ブロックの水平方向の輝度エッジ(輝度変化量)を評価することにより、ステレオマッチング処理によって算出した視差にフィルタリング処理を施す。具体的に説明すると、画像認識装置5は、例えば、図6に示すように、距離データの算出単位である画素ブロックにおいて、水平方向に隣接する画素対の輝度変化量(絶対値)ΔPn(1≦Pn≦16)を算出する。但し、一番左側の画素列(P11,P12,P13,P14)に関しては、左側に隣接した画素ブロックの一番右側の画素列から輝度変化量ΔPを算出する。次に、画像認識装置5は、16個の輝度変化量ΔPnのうち輝度判定閾値DCDXth以上のものの数をカウントする。そして、画像認識装置5は、輝度判定閾値DCDXth以上の輝度変化量ΔPの数が設定数(例えば、4つ)未満の画素ブロックに関する視差は除外することで輝度の変化量が大きな画素ブロックを抽出し、抽出した画素ブロックに関する視差のみを距離データとして出力する。すなわち、水平方向の輝度変化量が少なく、輝度の特徴があまりない画素ブロックはステレオマッチング処理においてマッチングが取れたとしても、その視差の信頼性は低い場合が多い。そこで、このような画素ブロックに関しては算出された視差を除去することにより、距離データの信頼性が高められている。そして、このようにして距離データを得ることにより、画像認識装置5は、基準画像上の画素に距離情報を付与した距離画像を生成する。
When the process proceeds from step S101 to step S102, the
ステップS102からステップS103に進むと、画像認識装置5は、距離画像上の画素に対し、略同一の視点から撮像された参照画像上で対応する画素の色情報を付与する(図7参照)。
When the process proceeds from step S102 to step S103, the
そして、ステップS103からステップS104に進むと、画像認識装置5は、距離画像上の立体物認識を行った後、ルーチンを抜ける。すなわち、画像認識装置5は、生成した距離画像上の距離データに対して周知のグルーピング処理を行う。ここで画像認識装置5には、例えば、3次元的な道路形状データ、側壁データ、立体物データ等の枠(ウインドウ)が予め設定されて格納されている。画像認識装置5は、グルーピング処理した距離データ群と各ウインドウとを比較することにより、車線区画線データ、道路に沿って存在するガードレール、縁石等の側壁データを抽出するとともに、立体物を、2輪車、普通車両、大型車両、歩行者、電柱、信号機等その他の各種立体物に分類して抽出する。そして、画像認識装置5は、抽出した各立体物に対し、参照画像から得られた色情報を付与する。
Then, when the process proceeds from step S103 to step S104, the
また、画像認識装置5は、認識した車線区画線、側壁等の情報に基づいて自車走行路の推定を行い、さらに、推定した自車走行路上で先行車の検出処理を行う。すなわち、自車進行方向と同一方向に所定以上の速度成分を有する立体物(順方向移動物)が自車走行路上に存在するとき、これらの中から自車両1に最も近い順方向移動物を先行車として検出(捕捉)し、各種先行車情報(車間距離、先行車速度、先行車減速度等)を取得する。
Further, the
このような実施形態によれば、ステレオカメラ3(メインカメラ3aとサブカメラ3b)を用いて車外の対象を異なる視点から撮像して互いに視差を有する基準画像と比較画像とを出力し、これらの画像のステレオマッチング処理を行うことで基準画像上の画素に距離情報を付与した距離画像を生成する車外監視装置において、メインカメラ3a及びサブカメラ3bよりも低い露光量で撮像する単眼カラーカメラ4をステレオカメラ3に併設し、当該単眼カラーカメラ4を用いて車外の対象を撮像することで参照画像を出力し、距離画像上の画素に参照画像上の画素の色情報を付与することにより、車体の対象物を認識する際の認識精度の低下やフレーム数の低下等を招くことなく色情報についても的確に取得することができる。
According to such an embodiment, the stereo camera 3 (the
すなわち、併設した単眼カラーカメラ4によって車外の対象の色情報を別途取得することにより、メインカメラ3a及びサブカメラ3bを用いて十分な露光量にて基準画像及び比較画像を撮像することができ、これらを用いて得られる距離画像から各種立体物等を精度良く認識することができる。また、立体物等の色情報の取得を単眼カラーカメラ4に分担させることにより、フレームレートを低下することなく時々刻々変化する車外の状況を的確に認識することができる。
That is, by separately acquiring the color information of the object outside the vehicle with the
この場合において、単眼カラーカメラ4とメインカメラ3aとの視差が略零となるよう、単眼カラーカメラ4をメインカメラ3aに隣接して配置することにより、基準画像と参照画像との各画素の対応付けを容易に行うことができ、複雑な演算等を必要とすることなく、距離画像に対して参照画像の色情報を付与することができる。
In this case, by arranging the
そして、このように色情報を含んで構成された車外の立体物情報等を上述の運転支援制御に用いることにより、精度の高い緻密な運転支援制御を実現することができる。例えば、ACCの実行中に自車走行路前方に信号機を認識している場合において、当該信号機が赤信号である場合には自車両1の加速を制限することにより、ドライバのフィーリングに合致したACCを実現することができる。同様に、例えば、先行車を認識している場合において、当該先行車上に赤色の高輝度で発光するブレーキランプを検出した場合には先行車が減速状態にあると判定して自車両1の加速を制限することにより、ドライバのフィーリングに合致したACCを実現することができる。 In addition, by using the three-dimensional object information outside the vehicle configured including the color information in the above-described driving support control, it is possible to realize a precise driving support control with high accuracy. For example, when a traffic light is recognized in front of the host vehicle traveling path during the execution of the ACC, when the traffic signal is a red signal, the acceleration of the host vehicle 1 is limited to meet the driver's feeling. ACC can be realized. Similarly, for example, when a preceding vehicle is recognized, if a brake light that emits red light with high brightness is detected on the preceding vehicle, it is determined that the preceding vehicle is in a decelerating state and the vehicle 1 By limiting the acceleration, an ACC that matches the feeling of the driver can be realized.
1 … 車両(自車両)
2 … 車両用運転支援装置
3 … ステレオカメラ
3a … メインカメラ
3b … サブカメラ
4 … 単眼カラーカメラ
5 … 画像認識装置
6 … 制御ユニット
7 … カメラユニット
7a … ステー
11 … 車速センサ
13 … メインスイッチ
15 … 電子制御スロットル弁
16 … アクティブブースタ
1 ... Vehicle (own vehicle)
DESCRIPTION OF
Claims (2)
前記車外の対象を前記第1の撮像手段及び第2の撮像手段よりも低い露光量でカラー撮像し、前記基準画像に対応する参照画像を出力するカラー撮像手段と、
前記基準画像と前記比較画像とのステレオマッチング処理を行うことで前記基準画像上の画素に距離情報を付与した距離画像を生成する距離画像生成手段と、
前記距離画像上の画素に前記参照画像上の画素の色情報を付与する色情報付与手段と、を備えたことを特徴とする車外監視装置。 Stereo imaging means for imaging an object outside the vehicle from different viewpoints using the first imaging means and the second imaging means, and outputting a reference image and a comparative image having parallax with each other;
Color imaging means for subjecting the object outside the vehicle to color imaging with an exposure amount lower than that of the first imaging means and the second imaging means, and outputting a reference image corresponding to the reference image;
Distance image generation means for generating a distance image in which distance information is given to pixels on the reference image by performing a stereo matching process between the reference image and the comparison image;
An out-of-vehicle monitoring device comprising: color information providing means for providing color information of a pixel on the reference image to a pixel on the distance image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012077747A JP5863536B2 (en) | 2012-03-29 | 2012-03-29 | Outside monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012077747A JP5863536B2 (en) | 2012-03-29 | 2012-03-29 | Outside monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013206380A JP2013206380A (en) | 2013-10-07 |
JP5863536B2 true JP5863536B2 (en) | 2016-02-16 |
Family
ID=49525344
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012077747A Active JP5863536B2 (en) | 2012-03-29 | 2012-03-29 | Outside monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5863536B2 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US12236689B2 (en) | 2023-09-22 | 2025-02-25 | Tesla, Inc. | Estimating object properties using visual image data |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111024099B (en) * | 2013-06-13 | 2023-10-27 | 移动眼视力科技有限公司 | Mobile device, non-transitory machine-readable medium, and apparatus for navigation |
JP6378594B2 (en) * | 2014-09-18 | 2018-08-22 | 株式会社Subaru | Outside environment recognition device |
JP6701253B2 (en) * | 2018-03-22 | 2020-05-27 | 株式会社Subaru | Exterior environment recognition device |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4807733B2 (en) * | 2005-09-28 | 2011-11-02 | 富士重工業株式会社 | Outside environment recognition device |
JP4980939B2 (en) * | 2008-01-22 | 2012-07-18 | 富士重工業株式会社 | Image pickup means adjustment device and object detection device |
JP2009284188A (en) * | 2008-05-22 | 2009-12-03 | Panasonic Corp | Color imaging apparatus |
-
2012
- 2012-03-29 JP JP2012077747A patent/JP5863536B2/en active Active
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11487288B2 (en) | 2017-03-23 | 2022-11-01 | Tesla, Inc. | Data synthesis for autonomous control systems |
US12020476B2 (en) | 2017-03-23 | 2024-06-25 | Tesla, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US12216610B2 (en) | 2017-07-24 | 2025-02-04 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11403069B2 (en) | 2017-07-24 | 2022-08-02 | Tesla, Inc. | Accelerated mathematical engine |
US11681649B2 (en) | 2017-07-24 | 2023-06-20 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US12086097B2 (en) | 2017-07-24 | 2024-09-10 | Tesla, Inc. | Vector computational unit |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11797304B2 (en) | 2018-02-01 | 2023-10-24 | Tesla, Inc. | Instruction set architecture for a vector computational unit |
US11734562B2 (en) | 2018-06-20 | 2023-08-22 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11841434B2 (en) | 2018-07-20 | 2023-12-12 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US12079723B2 (en) | 2018-07-26 | 2024-09-03 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
US11983630B2 (en) | 2018-09-03 | 2024-05-14 | Tesla, Inc. | Neural networks for embedded devices |
US11893774B2 (en) | 2018-10-11 | 2024-02-06 | Tesla, Inc. | Systems and methods for training machine models with augmented data |
US11665108B2 (en) | 2018-10-25 | 2023-05-30 | Tesla, Inc. | QoS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US12198396B2 (en) | 2018-12-04 | 2025-01-14 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11908171B2 (en) | 2018-12-04 | 2024-02-20 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US12136030B2 (en) | 2018-12-27 | 2024-11-05 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US12014553B2 (en) | 2019-02-01 | 2024-06-18 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US11748620B2 (en) | 2019-02-01 | 2023-09-05 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US12223428B2 (en) | 2019-02-01 | 2025-02-11 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US12164310B2 (en) | 2019-02-11 | 2024-12-10 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US11790664B2 (en) | 2019-02-19 | 2023-10-17 | Tesla, Inc. | Estimating object properties using visual image data |
US12236689B2 (en) | 2023-09-22 | 2025-02-25 | Tesla, Inc. | Estimating object properties using visual image data |
Also Published As
Publication number | Publication date |
---|---|
JP2013206380A (en) | 2013-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5863536B2 (en) | Outside monitoring device | |
EP2919197B1 (en) | Object detection device and object detection method | |
US8305431B2 (en) | Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images | |
JP5680573B2 (en) | Vehicle driving environment recognition device | |
JP4937933B2 (en) | Outside monitoring device | |
CN106295494B (en) | Vehicle exterior environment recognition device | |
CN110298793B (en) | External environment recognition device | |
JP6236039B2 (en) | Outside environment recognition device | |
CN202169907U (en) | Device used for identifying environment outside vehicle | |
JP5363920B2 (en) | Vehicle white line recognition device | |
CN104590258A (en) | Vehicle control system | |
JP2018060422A (en) | Object detection device | |
KR20060021922A (en) | Obstacle detection technology and device using two cameras | |
CN110949254A (en) | Vehicle running environment detection device and running control system | |
JP6194245B2 (en) | Traffic light recognition device | |
JP6642886B2 (en) | Vehicle driving support device | |
JP2013161190A (en) | Object recognition device | |
KR101511586B1 (en) | Apparatus and method for controlling vehicle by detection of tunnel | |
JP6185367B2 (en) | Driving assistance device | |
JP4807733B2 (en) | Outside environment recognition device | |
JP7229032B2 (en) | External object detection device | |
JP6891082B2 (en) | Object distance detector | |
JP2013161187A (en) | Object recognition device | |
JP6082293B2 (en) | Vehicle white line recognition device | |
JP6759461B2 (en) | Vehicle driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20151126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5863536 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |