JP6134693B2 - Object detection device - Google Patents
Object detection device Download PDFInfo
- Publication number
- JP6134693B2 JP6134693B2 JP2014179816A JP2014179816A JP6134693B2 JP 6134693 B2 JP6134693 B2 JP 6134693B2 JP 2014179816 A JP2014179816 A JP 2014179816A JP 2014179816 A JP2014179816 A JP 2014179816A JP 6134693 B2 JP6134693 B2 JP 6134693B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- horizontal edge
- search range
- object detection
- feature point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、カメラの撮像画像に基づいて周囲に存在する物体を検出する物体検出装置に関する。 The present invention relates to an object detection device that detects an object existing in the vicinity based on a captured image of a camera.
従来、車載カメラによる自車両前方の撮像画像から水平エッジ成分を抽出して、先行車両を検出する物体検出装置が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, an object detection apparatus that detects a preceding vehicle by extracting a horizontal edge component from a captured image in front of the host vehicle by an in-vehicle camera is known (see, for example, Patent Document 1).
特許文献1に記載された物体検出装置においては、抽出された水平エッジの幅と道路幅との比を算出し、比が所定範囲内である水平エッジを先行車両の下端候補として検出する。そして、下端候補として検出した水平エッジの上方向の所定範囲内に他の水平エッジ線が存在する場合に、下端候補として検出した水平エッジは先行車の下端部の画像部分であると認識している。
In the object detection device described in
特許文献1に記載された物体検出装置では、実空間上で奥行方向(カメラの撮像方向)に長い平面物(路面標識、道路脇に存在する物体の影等)の画像部分について、複数の水平エッジが抽出されたときに、下端の水平エッジが先行車の下端部の画像部分であると誤認識されてしまう。
In the object detection apparatus described in
本発明はかかる背景に鑑みてなされたものであり、車両以外の物体を車両と誤検出することを防止した物体検出装置を提供することを目的とする。 The present invention has been made in view of such a background, and an object thereof is to provide an object detection device that prevents an object other than a vehicle from being erroneously detected as a vehicle.
本発明は上記目的を達成するためになされたものであり、本発明の物体検出装置は、
周辺を撮像するカメラによる撮像画像から、水平エッジを抽出する水平エッジ抽出部と、
前記撮像画像において、前記水平エッジの上方向に設定した第1探索範囲内に存在する特徴点を抽出する特徴点抽出部と、
前記特徴点に対応する実空間位置の高さを算出する実空間位置算出部と、
対応する実空間位置の高さが所定値以上である前記特徴点が存在するときに、前記水平エッジは車両の画像部分であると認識すると共に、前記撮像画像において、車両の画像部分であると認識した水平エッジの上方向に前記第1探索範囲とは異なる第2探索範囲を設定し、該第2探索範囲内に存在する他の水平エッジを、該車両の画像部分であると認識する車両認識部と
を備えたことを特徴とする。
The present invention has been made to achieve the above object, and the object detection apparatus of the present invention includes:
A horizontal edge extraction unit that extracts a horizontal edge from an image captured by a camera that images the periphery;
In the captured image, a feature point extraction unit that extracts a feature point existing in a first search range set in the upward direction of the horizontal edge;
A real space position calculation unit for calculating the height of the real space position corresponding to the feature point;
When the corresponding feature point whose height of the real space position is equal to or greater than a predetermined value exists, the horizontal edge is recognized as an image portion of the vehicle, and is the image portion of the vehicle in the captured image. A vehicle in which a second search range different from the first search range is set above the recognized horizontal edge, and another horizontal edge existing in the second search range is recognized as an image portion of the vehicle And a recognition unit.
かかる本発明によれば、前記カメラの撮像画像から前記水平エッジ抽出部により水平エッジが抽出され、水平エッジの上方向に設定された前記第1探索範囲内に存在する特徴点が、前記特徴点抽出部によって抽出される。そして、前記車両認識部は、前記第1探索範囲内で抽出された特徴点のうち、対応する実空間位置の高さが前記所定値以上である特徴点が存在するときに、水平エッジは車両の画像部分であると認識する。この場合、前記第1探索範囲内で抽出された特徴点のうち、対応する実空間位置の高さが前記所定値以下であるもの(路面標識、道路の補修跡等の高さを有しない物体の画像部分から抽出された特徴点が該当する)を除外することができる。そのため、車両以外の平面的な物体を、車両であると誤認識することを防止することができる。
さらに、本発明によれば、車両の画像部分であると認識された水平方向の上方の付近に存在する他の水平エッジ(窓枠や屋根等の画像部分であると想定される)を、同一車両の画像部分として認識することができる。
According to the present invention, a horizontal edge is extracted from the captured image of the camera by the horizontal edge extraction unit, and a feature point existing in the first search range set in the upward direction of the horizontal edge is the feature point. Extracted by the extraction unit. The vehicle recognizing unit is configured such that when there is a feature point whose height of the corresponding real space position is equal to or greater than the predetermined value among the feature points extracted within the first search range, the horizontal edge is the vehicle. It is recognized as an image part. In this case, among the feature points extracted in the first search range, the corresponding real space position has a height equal to or lower than the predetermined value (an object having no height such as a road sign or a road repair mark) Can be excluded). Therefore, it is possible to prevent a planar object other than the vehicle from being erroneously recognized as a vehicle.
Furthermore, according to the present invention, other horizontal edges (assumed to be image portions such as window frames and roofs) existing in the vicinity of the upper part in the horizontal direction recognized as image portions of the vehicle are the same. It can be recognized as an image portion of the vehicle.
また、前記車両認識部は、対応する実空間位置の高さが前記所定値以上である前記特徴点が所定個数以上存在するときに、前記水平エッジは車両の画像部分であると認識することを特徴とする。 The vehicle recognizing unit recognizes that the horizontal edge is an image portion of the vehicle when there are a predetermined number or more of the feature points whose corresponding real space positions are higher than the predetermined value. Features.
この構成によれば、水平エッジの画像部分に対応する実空間位置の上方に特徴部分を複数備えた物体を、車両としてより精度良く認識することができる。 According to this configuration, an object having a plurality of characteristic portions above the real space position corresponding to the image portion of the horizontal edge can be recognized more accurately as a vehicle.
また、前記車両認識部は、前記第1探索範囲内の前記特徴点の分布に応じて前記第2探索範囲を設定することを特徴とする。 The vehicle recognizing unit may set the second search range according to a distribution of the feature points in the first search range.
この構成によれば、前記第1探索範囲内の前記特徴点の分布から推定される物体の存在位置に応じた適切な範囲を、前記第2探索範囲として設定することができる。 According to this configuration, an appropriate range corresponding to the position of the object estimated from the distribution of the feature points in the first search range can be set as the second search range.
また、前記車両認識部は、前記物体検出装置が使用される国又は地域に応じて、前記第2探索範囲の設定範囲を変更することを特徴とする。 The vehicle recognizing unit may change a setting range of the second search range according to a country or a region where the object detection device is used.
この構成によれば、例えば、前記物体検出装置が大型車の通行量が多い国又は地域で使用されときは、前記第2探索範囲を広く設定し、前記物体検出装置が小型車の通行量が多い国又は地域で使用されるときには、前記第2探索範囲を狭く設定することにより、同一物体の画像部分であると認識される水平エッジを効率良く探索することができる。 According to this configuration, for example, when the object detection device is used in a country or region where the traffic volume of a large vehicle is large, the second search range is set wide, and the object detection device has a large traffic volume of a small vehicle. When used in a country or region, by setting the second search range to be narrow, a horizontal edge that is recognized as an image portion of the same object can be searched efficiently.
本発明の物体検出装置の実施形態の一例について、図1〜図3を参照して説明する。 An example of an embodiment of the object detection device of the present invention will be described with reference to FIGS.
図1を参照して、物体検出装置10は、カメラ2(カラーカメラ)、警告制御部3、車両制御部4等を備えた車両1に搭載されている。
Referring to FIG. 1, an
物体検出装置10は、図示しないCPU、メモリ、各種インターフェース回路等により構成された電子回路ユニットであり、メモリに保持された物体検出用のプログラムをCPUで実行することによって、撮像画像取得部11、水平エッジ抽出部12、特徴点抽出部13、特徴点対応判定部14、3次元座標算出部15、検出対象エッジ選択部16、対象物認識部17、対象物位置算出部18として機能する。
The
撮像画像取得部11は、所定の制御周期毎に、カメラ2から出力される車両1の周辺(本実施形態では前方)の映像信号を入力して、この映像信号のカラー成分(R値、G値、B値)をデモザイキングし、各画素のデータとしてR値、G値、B値を有するカラーの時系列の撮像画像を取得する。
The captured image acquisition unit 11 inputs a video signal around the vehicle 1 (forward in this embodiment) output from the
水平エッジ抽出部12は、カラーの撮像画像の各画素を階調に変換する処理を行って、グレーの撮像画像(多値画像)21を生成する。このようにして生成された時系列のグレーの撮像画像21(21a,21b,…,21n)のデータは、画像メモリ20に保持される。
The horizontal
なお、カメラ2がモノクロカメラであるときには、各画素の階調からグレースケール画像が得られるので、上述したカラーの撮像画像からグレーの撮像画像21を生成する処理は不要である。
Note that when the
水平エッジ抽出部12は、グレーの撮像画像21について、エッジ点(周囲部の画素との階調差(階調の変化量)が所定値以上である画素。階調が暗から明に変化する正のエッジ点、及び階調が明から暗に変化する負のエッジ点を含む)を抽出して、水平エッジ(水平方向(図3に示したx方向)に連続したエッジ点により構成される線分)を抽出する。図3のグレーの撮像画像21からは、h1〜h7の7本の水平エッジが抽出されている。
For the gray captured
物体検出装置10は、水平エッジ抽出部12により抽出された水平エッジについて、図2に示したフローチャートによる処理(車両認識処理)を行って、各水平エッジが車両(先行車両)の画像部分であるか否かを判断する。以下、図2に示したフローチャートによる処理について、図3に示した撮像画像の例を参照しつつ説明する。
The
図3に示したグレーの撮像画像21は、水平座標xと垂直座標yによる2次元の画像であり、先行車両の画像部分60、道路の補修跡の画像部分61、及び路肩に存在する物体の影の画像部分62が含まれている。垂直座標yの負方向は本発明の撮像画像における上方向に相当する。
The gray captured
図2のSTEP1は検出対象エッジ選択部16による処理である。検出対象エッジ選択部16は、STEP2以下の処理の対象とする水平エッジ(図3ではh1〜h7)を順次選択する。
続くSTEP2は特徴点抽出部13による処理である。特徴点抽出部13は、選択されている水平エッジの上方に第1探索範囲を設定して、特徴点を抽出する。例えば、図3において、車両の画像部分60の下端に対して抽出された水平エッジh1に対して、h1の上方(y軸の負方向)に第1探索範囲SA1が設定され、第1探索範囲SA1内で5個の特徴点P1〜P5が抽出されている。
The
また、道路補修跡の画像部分61の下端に対して抽出された水平エッジh5に対して、h5の上方に第1探索範囲SA2が設定され、第1探索範囲SA2内で2個の特徴点P6,P7が抽出されている。 Further, a first search range SA2 is set above h5 with respect to the horizontal edge h5 extracted with respect to the lower end of the image portion 61 of the road repair trace, and two feature points P6 are set within the first search range SA2. , P7 are extracted.
また、道路脇に存在する物体の影の画像部分62の下端に対して抽出された水平エッジh6に対して、h6の上方に第1探索範囲SA3が設定され、第1探索範囲SA3内で2個の特徴点P8,P9が抽出されている。
In addition, the first search range SA3 is set above h6 with respect to the horizontal edge h6 extracted with respect to the lower end of the
ここで、特徴点としては、コーナー端や矩形等の人工物に特有の形状を有する画像部分が抽出される。 Here, an image portion having a shape unique to an artificial object such as a corner edge or a rectangle is extracted as the feature point.
次のSTEP3は対象物認識部17による処理である。対象物認識部17は、STEP2の処理により所定個数(例えば4個)以上の特徴点が抽出されたか否かを判断する。そして、所定個数以上の特徴点が抽出されなかったときには、選択中の水平エッジは立体物の下端の画像部分ではないと判断できるため、STEP20に分岐し、対象物認識部17は、選択中の水平エッジを車両の検出対象から除外してSTEP8に進む。
The next STEP 3 is processing by the
一方、所定個数以上の特徴点が抽出されたときにはSTEP4に進み、特徴点対応判定部14及び3次元座標算出部15によって、特徴点に対応する実空間位置の高さ(地表からの高さ)を算出する。
On the other hand, when a predetermined number or more of feature points have been extracted, the process proceeds to STEP 4 where the feature point correspondence determination unit 14 and the three-dimensional coordinate
特徴点対応判定部14は、時系列のグレーの撮像画像21a,21b,…間で、第1探索範囲から抽出された複数の特徴点の対応関係を判定する。そして、3次元座標算出部15は、公知のSFM(Structure From Motion)の手法を用いて、複数の時系列画像間における特徴点の対応点群から行列を作成し、特徴点の3次元位置を表す行列とカメラ2の位置を表す行列とに因子分解をして、特徴点に対応する実空間位置の3次元座標(車両1の進行方向をZ、車幅方向をX、車高方向をYとする3次元座標)を算出する。
The feature point correspondence determining unit 14 determines the correspondence relationship between a plurality of feature points extracted from the first search range among the time-series gray captured
なお、特徴点対応判定部14と3次元座標算出部15とにより、特徴点に対応する実空間位置を算出する構成が、本発明の実空間位置算出部に相当する。
In addition, the structure which calculates the real space position corresponding to a feature point with the feature point corresponding | compatible determination part 14 and the three-dimensional coordinate
対象物認識部17は、特徴点に対応する実空間位置の高さ(Y座標)が閾値(本発明の所定値に相当する)以上であるか否かを判断する。高さが閾値以上であったときには、立体物の画像部分であると判断できる。
The
そして、特徴点の高さが閾値以上であったときはSTEP5に進み、対象物認識部17は、選択中の水平エッジを検出対象(車両の画像部分)とする。図3の例では、水平エッジh1に対して抽出された特徴点P1〜P5の高さが閾値以上であると判定されて、水平エッジh1は車両の画像部分であると認識される。
When the height of the feature point is equal to or greater than the threshold value, the process proceeds to STEP 5 where the
続くSTEP6で、対象物認識部17は、図3に示したように、水平エッジh1の上側に、第1探索範囲SA1内で抽出された特徴点P1〜P5の分布に応じて、特徴点P1〜P5の位置を外側にオフセットさせた領域を、第2探索領域SB1として設定する。なお、このように、特徴点P1〜P5の位置ぎりぎりではなく、外側にオフセットさせた領域を第2探索領域SB1として設定するのは、特徴点P1〜P5の多くは車両のコーナー部の画像部分であり、特徴点P1〜P5ぎりぎりに第2探索領域SB1を設定すると、第2探索領域SB1からはみ出す水平線の画像部分が多くなって、後述する同一車両の画像部分の水平エッジを除外する処理を効果的に行うことができないからである。
In
また、第2探索範囲SB1の設定の仕方として、特徴点P1〜P5間の距離や分布位置を、予め設定された車両の種別判定条件に適用して、特徴点P1〜P5がトラック、バス、乗用車等のいずれの種別の車両の画像部分である可能性が高いかを推定し、推定した種別の車両の標準的なサイズに応じて、第2探索領域SB1の範囲を設定してもよい。 Also, as a method of setting the second search range SB1, the distance between the feature points P1 to P5 and the distribution position are applied to the vehicle type determination conditions set in advance so that the feature points P1 to P5 are trucks, buses, It may be estimated which type of vehicle such as a passenger car is likely to be an image portion, and the range of the second search area SB1 may be set according to the standard size of the estimated type of vehicle.
さらに、物体検出装置10が使用されている国又は地域に応じて、第2探索領域SB1の設定範囲を変更するようにしてもよい。例えば、大型車が多い米国で使用されるときは、小型車が多い日本よりも第2探索領域SB1を広めに設定するようにしてもよい。また、トラックの走行量が多い幹線道で物体検出装置10が使用されているときは、第2探索領域SB1を上方向(実空間上の車両の高さ方向)に広く設定するようにしてもよい。
Furthermore, the setting range of the second search area SB1 may be changed according to the country or region where the
なお、対象物認識部17が、水平エッジが車両の画像部分であると認識する構成、及び第2探索範囲SB1を設定する構成は、本発明の車両認識部に相当する。
In addition, the structure which the target
次のSTEP7で、対象物認識部17は、他の水平エッジの有無を判断し、他の水平エッジがあるときにはSTEP30に分岐し、他の水平エッジがないときにはSTEP8に進む。STEP30で、対象物認識部17は、見つかった水平エッジを検出対象から除外して、STEP8に進む。
In the next STEP 7, the
図3の例では、第2探索範囲SB1内で見つかった水平エッジh2、h3、h4が、検出対象から除外される。このように、同一車両の画像部分から抽出されたと想定される水平エッジを検出対象から除外することによって、以後の車両の認識処理を効率良く行うことができる。 In the example of FIG. 3, horizontal edges h2, h3, and h4 found in the second search range SB1 are excluded from detection targets. Thus, by excluding the horizontal edge assumed to be extracted from the image portion of the same vehicle from the detection target, the subsequent vehicle recognition processing can be performed efficiently.
STEP8で、対象物認識部17は、未判定の水平エッジがあるか否かを判断する。そして、未判定の水平エッジがあるときは、STEP1に戻って次の認識対象とする水平エッジを選択し、STEP2以下の処理を実行する。また、未判定の水平エッジがないときにはSTEP9に進んで、処理が終了する。
In STEP 8, the
対象物位置算出部18は、対象物認識部17により車両の画像部分であると認識された水平エッジに対応する実空間上の位置から、車両1(自車両)に対する前走車の位置を算出する。そして、物体検出装置10は、必要に応じて、警告制御部3による警告音声の出力と表示部(図示しない)への警告表示、車両制御部4による制動制御、操舵制御等を行う。
The object
なお、本実施形態では、車両1に搭載されたカメラの撮像画像を処理して車両を認識する物体検出装置10を示したが、他の実施形態として、歩行者が携帯するカメラ内蔵型の情報処理端末(スマートフォン、携帯電話、タブレット等)の機能として構成する実施形態や、道路脇に設置されてカメラの撮像画像により道路状況を認識する交通インフラ設備の機能として構成する実施形態も可能である。
In the present embodiment, the
1…車両、2…カメラ、3…警告制御部、4…車両制御部、10…物体検出装置、11…撮像画像取得部、12…水平エッジ抽出部、13…特徴点抽出部、14…特徴点対応判定部、15…3次元座標算出部、16…検出対象エッジ選択部、17…対象物認識部、18…対象物位置算出部。
DESCRIPTION OF
Claims (4)
前記撮像画像において、前記水平エッジの上方向に設定した第1探索範囲内に存在する特徴点を抽出する特徴点抽出部と、
前記特徴点に対応する実空間位置の高さを算出する実空間位置算出部と、
対応する実空間位置の高さが所定値以上である前記特徴点が存在するときに、前記水平エッジは車両の画像部分であると認識すると共に、前記撮像画像において、車両の画像部分であると認識した水平エッジの上方向に前記第1探索範囲とは異なる第2探索範囲を設定し、該第2探索範囲内に存在する他の水平エッジを、該車両の画像部分であると認識する車両認識部と
を備えたことを特徴とする物体検出装置。 A horizontal edge extraction unit that extracts a horizontal edge from an image captured by a camera that images the periphery;
In the captured image, a feature point extraction unit that extracts a feature point existing in a first search range set in the upward direction of the horizontal edge;
A real space position calculation unit for calculating the height of the real space position corresponding to the feature point;
When the corresponding feature point whose height of the real space position is equal to or greater than a predetermined value exists, the horizontal edge is recognized as an image portion of the vehicle, and is the image portion of the vehicle in the captured image. A vehicle in which a second search range different from the first search range is set above the recognized horizontal edge, and another horizontal edge existing in the second search range is recognized as an image portion of the vehicle An object detection apparatus comprising a recognition unit.
前記車両認識部は、対応する実空間位置の高さが前記所定値以上である前記特徴点が所定個数以上存在するときに、前記水平エッジは車両の画像部分であると認識することを特徴とする物体検出装置。 The object detection apparatus according to claim 1,
The vehicle recognizing unit recognizes that the horizontal edge is an image portion of a vehicle when there are a predetermined number or more of feature points whose corresponding real space positions are equal to or higher than the predetermined value. Object detection device.
前記車両認識部は、前記第1探索範囲内の前記特徴点の分布に応じて前記第2探索範囲を設定することを特徴とする物体検出装置。 In the object detection device according to claim 1 or 2 ,
The vehicle recognition unit sets the second search range according to a distribution of the feature points in the first search range.
前記車両認識部は、前記物体検出装置が使用される国又は地域に応じて、前記第2探索範囲の設定範囲を変更することを特徴とする物体検出装置。 In the object detection device according to any one of claims 1 to 3 ,
The vehicle recognition unit changes the setting range of the second search range according to a country or a region where the object detection device is used.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014179816A JP6134693B2 (en) | 2014-09-04 | 2014-09-04 | Object detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014179816A JP6134693B2 (en) | 2014-09-04 | 2014-09-04 | Object detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016053867A JP2016053867A (en) | 2016-04-14 |
JP6134693B2 true JP6134693B2 (en) | 2017-05-24 |
Family
ID=55745285
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014179816A Expired - Fee Related JP6134693B2 (en) | 2014-09-04 | 2014-09-04 | Object detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6134693B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09259287A (en) * | 1996-03-25 | 1997-10-03 | Fujitsu Ten Ltd | Precedent vehicle recognition device |
JP4296287B2 (en) * | 2003-05-27 | 2009-07-15 | 日産自動車株式会社 | Vehicle recognition device |
JP2007316856A (en) * | 2006-05-24 | 2007-12-06 | Sumitomo Electric Ind Ltd | Traveling object detecting device, computer program, and traveling object detection method |
CN102982304B (en) * | 2011-09-07 | 2016-05-25 | 株式会社理光 | Utilize polarized light image to detect the method and system of vehicle location |
JP5786793B2 (en) * | 2012-05-09 | 2015-09-30 | 株式会社デンソー | Vehicle detection device |
JP5666726B2 (en) * | 2014-02-07 | 2015-02-12 | 富士重工業株式会社 | Vehicle detection device |
-
2014
- 2014-09-04 JP JP2014179816A patent/JP6134693B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2016053867A (en) | 2016-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392103B (en) | Method and device for detecting road lane line and electronic equipment | |
CN106951879B (en) | Multi-feature fusion vehicle detection method based on camera and millimeter wave radar | |
CN107341454B (en) | Method and device for detecting obstacles in scene and electronic equipment | |
US9330320B2 (en) | Object detection apparatus, object detection method, object detection program and device control system for moveable apparatus | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
US8976999B2 (en) | Vehicle detection apparatus | |
JP6662388B2 (en) | Image processing device, imaging device, device control system, distribution data generation method, and program | |
JP5747549B2 (en) | Signal detector and program | |
US11527077B2 (en) | Advanced driver assist system, method of calibrating the same, and method of detecting object in the same | |
CN111179152B (en) | Road identification recognition method and device, medium and terminal | |
JP5223675B2 (en) | Vehicle detection device, vehicle detection method, and vehicle detection program | |
US20160014406A1 (en) | Object detection apparatus, object detection method, object detection program, and device control system mountable to moveable apparatus | |
KR20180056685A (en) | System and method for non-obstacle area detection | |
US20150367781A1 (en) | Lane boundary estimation device and lane boundary estimation method | |
JP4416039B2 (en) | Striped pattern detection system, striped pattern detection method, and striped pattern detection program | |
CN103927526A (en) | Vehicle detecting method based on Gauss difference multi-scale edge fusion | |
JP5180126B2 (en) | Road recognition device | |
CN111881832A (en) | Lane target detection method, device, equipment and computer readable storage medium | |
KR101342124B1 (en) | A front vehicle detecting and tracking system using the image and detecting and tracking method using the same | |
JP6753134B2 (en) | Image processing device, imaging device, mobile device control system, image processing method, and image processing program | |
Chang et al. | An efficient method for lane-mark extraction in complex conditions | |
JP6431299B2 (en) | Vehicle periphery monitoring device | |
Abbas et al. | Recognition of vehicle make and model in low light conditions | |
Itu et al. | An efficient obstacle awareness application for android mobile devices | |
JP6134693B2 (en) | Object detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170404 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6134693 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |