JP4032727B2 - Lane boundary detection device - Google Patents
Lane boundary detection device Download PDFInfo
- Publication number
- JP4032727B2 JP4032727B2 JP2001379166A JP2001379166A JP4032727B2 JP 4032727 B2 JP4032727 B2 JP 4032727B2 JP 2001379166 A JP2001379166 A JP 2001379166A JP 2001379166 A JP2001379166 A JP 2001379166A JP 4032727 B2 JP4032727 B2 JP 4032727B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- boundary
- lane mark
- group
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、移動体が走行路(走行レーン)を移動走行する場合、走行レーンに設けられているレーンマーク(例えば、白線)の境界位置を検出する車線境界検出装置に関するものであり、特に、レーンマークの種類によらず、その境界位置を検出する車線境界検出装置に係わる。
【0002】
【従来の技術】
近年、車両においては、車両を走行レーンに沿って車両を追従させる自動走行装置、横風や居眠り等によりドライバーの意図とは別に、車両が走行レーンより離れた場合、車両に備え付けられたステアリング操舵機構を用いて自動的にステアリング操舵機構を転舵して、車両の進行方向を走行レーンに対して追従させる自動操舵装置、或いは、車両走行中にドライバーの居眠り等により、車両が走行レーンから離れた場合に、ドライバーに対して注意を促す警報を発するレーン逸脱警報装置等において、白線の検出が必要となってくる。
【0003】
例えば、この様な装置では、車両の進行方向に向けてカメラ(例えば、CCDカメラ)を車両に取り付け、車両に設けられたCCDカメラにより、走行レーン前方の画像を取得する。そして、カメラによって撮像したカメラ画像を基に、画像処理技術を用いて、白線検出が行われる。
【0004】
例えば、特開昭63−142478号公報に示される白線検出装置では、カメラにより外部環境を撮像し、カメラで撮像されたカメラ画像が明暗の変化する点集合からエッジ検出を行っている。そして、エッジの幅が所定幅以下である領域を白線候補とし、その領域の中心点の集合から白線のパターンを分類して、ハフ変換を施すことにより、白線検出を行う。
【0005】
一般的に、走行レーンにおける白線検出は、カメラによって撮像した画像の中から、白線は路面よりも明るいという特性を利用し、走行レーンと白線とを区別する。具体的には、カメラにより得られたカメラ画像に対して微分を行い、白線の輪郭データを抽出後、路面に沿った方向に伸びるパターンの中で、白線の幅が15〜20cmであり、白線相互の間隔はレーン幅として設計基準値相当であれば白線と判断している(例えば、特開平6−119594号公報参照)。
【0006】
【発明が解決しようとする課題】
しかしながら、上記した白線検出の方法では、常に、車両が走行する走行レーンの両側に、1本の白線が存在することを前提としており、通常は1本の白線だけでなく、複数本の白線や車線、ブロック状の白線といった数々の種類が存在する。例えば、図2に示される様に、複数の走行レーンがある場合におけるレーン幅Lの白線(a)、片側一車線における白線(b)、登坂車線における一方が破線で他方がブロック状の白線(c)、カーブやトンネル等の手前でスピードを落とす場所に設けられる実線と破線とブロック状白線で構成される白線(d),(e)、センターラインと路側とを示す白線、高速道路等において片側一車線の場所に設けられる暫定共用区間に設けられる白線(g),(h)、車両が所定領域内部に進入することを禁止するゼブラゾーンに設けられる白線(i)、分岐点や合流点に設けられた白線(j)等の様々なものが存在する。これら白線に代表されるレーンマークの標示形態は、法令により定義されている。
【0007】
上記した白線が路面上に設けられ、複数の白線が走行レーンに設けられた区間を、車両がその白線に沿って進行する場合、走行レーンの方向に沿って、平行な線分が複数本現れるため、走行レーンの白線との境界位置(レーンマーク境界位置)の特定が困難になってしまう。この様に、走行レーンのレーンマーク境界位置の特定が困難になると、走行レーンからずれたレーン検出を行う事となる。
【0008】
よって、このレーン検出を、移動体の走行を制御する車両制御装置に応用した場合には、所望の性能が出せない場合が生じ得る。
【0009】
よって、本発明は上記の問題点に鑑みてなされたものであり、走行レーンの車線境界を安定した状態で検出することを技術的課題とする。
【0010】
【課題を解決するための手段】
上記の課題を解決するために講じた技術的手段は、移動体に設けられた撮像手段によって所定領域のレーンマークを前記移動体の走行レーンを撮像し、撮像した画像データに対して画像処理を行い、少なくとも単一のレーンマークの境界を検出する車線境界検出装置において、
前記画像データに基づき、前記画像データの画像濃度による画像ヒストグラムあるいは前記画像データの微分により求められるエッジのエッジヒストグラムを作成するヒストグラム作成手段と、前記ヒストグラムの集まりに対して、グループ化を行うグループ作成手段と、グループ化された中で、個々のヒストグラムの中央となる第1中央位置を検出する第1中央位置検出手段と、前記第1中央位置に基づき、グループ化されたヒストグラムの中央となる第2中央位置を検出する第2中央位置検出手段と、異なるグループ間の前記第2中央位置に基づき、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の中央を検出する車線中央位置検出手段とを備え、
前記車線境界検出装置は、さらに、前記画像データを微分して正負のエッジを求め、前記グループ化された中での正負のエッジの状態に基づき走行レーンを求め、該走行レーンの幅W0、グループ化されたレーンマーク群に対する左右のレーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRを検出し、前記レーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRより、前記レーンマークの標示形態を割り当て、該標示形態に応じて、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の前記中央、もしくは前記正負のエッジに基づきレーンマーク境界位置を求める。
【0011】
上記した手段によれば、撮像手段により所定領域の車線を含む移動体の走行レーンを撮像して、画像データを得る。この得られた画像データに基づき、ヒストグラムを作成し、ヒストグラムの集まりを検出してグループ化を行う。そして、グループ化されたヒストグラムの中で、個々のヒストグラムの中央となる第1中央位置を検出し、第1中央位置に基づき、グループ化されたヒストグラムの集まりの中で中央となる第2中央位置を検出する。更に、異なるグループのヒストグラム間どうしの第2中央位置に基づき、レーンマークまたはレーンマークが複数存在するレーンマーク群の中央を検出し、レーンマーク境界位置を決めるようにしたので、画像データに基づくヒストグラムの作成により、安定したレーンマーク境界位置の検出が行える。例えば、走行レーンにおいて車線の汚れや影等による外乱が存在しても、ヒストグラム自体は大きく変化せず、画像データのヒストグラムを基にし、安定した状態で走行レーンのレーンマーク境界位置が特定される。
【0012】
この場合、ヒストグラムは、画像データの画像濃度による画像ヒストグラムあるいは画像データの微分により求められるエッジのエッジヒストグラムであるため、所定領域の画像濃度を単に累積することによって画像ヒストグラムの作成が行える。あるいは、画像データを単に微分することによりエッジを求め、そのエッジを所定領域累積することによってエッジヒストグラムが求められて作成されるので、簡単な方法により走行レーンのレーンマーク境界位置が特定される。
【0014】
上記のように、画像データを微分して、画像データからの正負のエッジを基にして走行レーンを求め、自車に最も近い走行レーンと他の走行レーンとの間で最も広い空間を出し、その空間を走行レーンの路面幅W0と見なせ得る。そして、走行レーンの左右のレーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRを求め、レーンマーク表示形態を割り当てることによって、レーンマーク境界位置が簡単な方法により求められる。
【0015】
この場合、レーンマークまたはレーンマーク群が、単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジを境界位置とすれば、レーンマークまたはレーンマーク群が単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジがレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置が特定される。
【0016】
また、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央をレーンマーク境界位置とすれば、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央がレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置が特定される。
【0017】
更に、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置とすれば、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置が特定される。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態について、図面を参照して説明する。
【0019】
図1は、車線境界検出装置(以下、本装置と単に称す)1のシステム構成図である。本装置1は、図2および図3に示す、様々なレーンマーク(ここでは、白線30の標示形態(a)〜(j))を安定した状態で検出する。そこで、本装置1について、図1を参照して説明に入る前に、以下に示す事項を定義する。本実施形態においては、本装置1を移動体に搭載した例(具体的には、車両の前方に向けて撮像部2が取り付けられ、車両の進行方向を撮像する構成)についての説明を行うが、移動体は車両には限定されるものではなく、移動が行える電子機械(例えば、ロボット等)であっても良い。また、撮像部2の取り付け方向は、車両の前後方向ではなく白線30が撮像される様、車幅方向であっても良い。更に、本実施形態においては、路面上に付設され、白色および黄色で書かれた線に代表されるレーンマークの事を、総称して白線30と称し、レーンマークがかたまって複数存在する集まりをレーンマーク群(白線群)31として定義する。
【0020】
そこで、図1を参照して、本装置1を説明する。本装置1では、車両の進行方向における走行レーン29を含む風景が、車両の進行方向に向けて設けられた撮像部(カメラ)2により撮像される。この場合、車両の進行方向を撮像するカメラは、本実施形態では一例としてCCDカメラを用いているが、これに限定されるものではなく、赤外線カメラであっても良い。
【0021】
撮像部2により得られた情報(カメラ画像)はアナログ信号であり、このアナログ信号はA/D変換器3に送られ、A/D変換器3によりデジタル化される。デジタル化された情報(デジタル画像データ)は、その後、フレームバッファ4に送られて、その後、エッジ検出部6および濃度分布測定部7に送られる。エッジ検出部6では画像データからエッジが検出される。ここで検出されたエッジは、次にエッジ分布測定部5に入力される。また、これと同時に、エッジ検出部6により検出されたエッジはエッジ分析部9へと送られ、エッジ分析部9にて白線と走行レーンとの区別がなされる。
【0022】
中央位置検出部10は、エッジ分布測定部5および濃度分布測定部7からの情報により、白線30または白線群31の中央の値あるいはその幾何学的重心位置を検出する。更に、度数測定部11では検出された白線30または白線群31の状態が連続的な直線であるのか断続的な直線であるのかを測定する。
【0023】
その後、判定部12ではこれらの検出された情報に基づき、図2に示す白線30の標示形態における走行レーン29と白線30とのレーンマーク境界位置判定を行う。そして、その判定結果を出力部13に伝える。出力部13は検出され特定された白線30の標示形態およびそのレーンマーク境界位置情報を、外部の制御装置に出力する。尚、オフセット設定部8は、所定範囲内に白線がいくつも検出される複合線が白線群31の中に検出された場合、このオフセット設定部8にて設定される定数によって、白線30と走行レーン29とのレーンマーク境界位置を+αだけ広げるよう、白線間の間隔(走行レーンの間隔)を所定範囲+αだけ、広げる作用を有するものである。
【0024】
この様な構成の本装置1は、外部に接続される図示しない制御装置に対して必要な情報(白線形態あるいは白線30と走行レーン29とのレーンマーク境界位置に関する情報)が送られる。この場合、上記した制御装置は、車両を走行レーン29に沿って追従させる自動走行装置、横風や居眠り等によりドライバーの意図とは別に、車両が走行レーン29より離れた場合にステアリング操舵機構を自動的に転舵して、車両の向きを走行レーン29に対して追従させる自動操舵装置、或いは、車両走行中にドライバーの居眠り等により、車両が走行レーンから離れた場合にドライバーに対して注意を促す警報を発するレーン逸脱警報装置等に、信号出力を出力して渡すことができる。
【0025】
更に上記した各ブロックについて、詳細に説明することにする。
【0026】
撮像部2は、CCDカメラにより走行レーン29を含む風景を撮影し、撮像により得られたアナログデータを、A/D変換器3に伝達してデジタルデータ化して画像データを得る。画像データは、その情報を一時的に記憶するフレームバッファ部4に格納される。
【0027】
エッジ検出部6は、フレームバッファ部4に格納された画像データに対し、エッジ検出処理を施して、画像データから輪郭線部分のデータを抽出する。この際、画像データからのエッジ検出は、公知のPrewittsのオペレータを画像データに作用させて微分画像を得て、画像ノイズとなるレベル(ノイズレベル)以上の強度を有する領域を検出し、その領域の重心位置を測定することにより、エッジの中央位置を求め、エッジ点の集まりを検出する。この様な方法によって、カメラ画像からエッジ点群を求めるが、この際、画像データをある走査線41に対して微分した場合、微分の極性が正のエッジデータ群と、負のエッジデータ群とをそれぞれ分けて、記憶する。
【0028】
エッジ分布測定部5は、フレームバッファ部4に格納された画像データに対し、走行レーン29の白線30が映り、且つ、走行レーン幅の最大値を考慮したカメラ画像上の範囲内でウィンドウ42の領域(ウィンドウ領域)を設定する。そして、このウィンドウ領域内でカメラ画像の横方向であるX座標ごとにエッジが検出された点数(エッジ点数)を累積し、エッジヒストグラムを作成する。この場合、エッジヒストグラムは、ウィンドウ42により定義される所定領域の画像データで作成してもよいし、1本以上の走査線41の画像データのみで作成しても良い。また、エッジヒストグラムは、あるタイミングで撮像した1枚の画像から作成しても良いし、時間的に連続した複数枚の画像の画像データから作成しても良い。
【0029】
エッジ分析部9は、エッジ検出部6にて求めた正と負のそれぞれのエッジ点群に対して、公知のHough変換を適用して直線を検出する。この際、検出される直線は1本とは限らない。エッジ分析部9にて検出された直線群に対して、自車に最も近い直線と、それとは異なる直線との間隔が最も広い空間を探し求め、その最も広い空間を、走行レーン29の路面幅W0と見なす。この場合、その路面幅W0の左側に位置する直線は、負のエッジ群により生成される直線であり、その右側に位置する直線は、正のエッジ群により生成される直線である。この車線幅W0介して負のエッジ群により生成される直線と正のエッジ群により生成される直線との組み合わせを走行レーン29における最も内側の境界線を表すペア直線と見なすようにしている。また、このエッジ分析部9では、直線の数と幅をカウントする。つまり、後述の白線形態の分類処理の為に、路面幅W0の左のエッジ群により生成された直線の数NLをカウントすると共に、その右のエッジ群により生成された直線の数NRとをカウントする。更には、路面幅W0の左のエッジ群による直線群の最大間隔WLと、右のエッジ群による直線群の最大間隔WRをエッジの間隔より算出する(図4参照)。上記した直線の数NL、NRと、左のエッジ群の最大間隔WLおよび右のエッジ群の最大間隔WRは、図3に示す様に、撮像部2により進行方向の白線30を撮像し、あるタイミングにて撮像した1枚のカメラ画像から求めても良いし、時間的に連続した複数枚のカメラ画像から作成した値の平均値により求めても良い。
【0030】
濃度分布測定部7は、フレームバッファ部4に格納された画像データに対し、図3の如く、走行レーン29の左右の白線30が映り、走行レーンの路面幅W0の最大値を考慮した所定の画像範囲内において、エッジ検出を行うウィンドウ42を設定する。このウィンドウ42の範囲(ウィンドウ領域)内で、X座標毎にウィンドウ42の進行方向に対するY座標の奥行き分(ウィンドウ42でのY方向の幅)だけ濃度を累積して濃度ヒストグラムを作成する。この場合、濃度ヒストグラムを求める原画像の画像データは所定のウィンドウ42の画像データで作成しても良いし、1本以上の走査線41による画像データのみで濃度ヒストグラムを作成しても良い。また、別の形態として、濃度ヒストグラムのデータは、所定タイミングにて撮像した1枚の画像データから作成しても良いし、時間的に連続した複数の画像データを用いて作成しても良い。
【0031】
中央位置検出部10は、濃度分布測定部7が出力する図4の(a)に示される画像データの原画像におけるデータに対して、路面濃度以上の高いしきい値を設定し、そのしきい値以上となる範囲でヒストグラムを作成している。例えば、図3において、撮像部2は、図3におけるカメラ画像において、左から右に走査線41を走査する。そして、原画像の濃度が路面濃度により決まる所定のしきい値以上となる範囲で、図4の(b)の様に濃度ヒストグラムを原画像データより求める。その後、個々の濃度ヒストグラムにおいて幾何学的な中心位置あるいは重心位置となる中央位置1を求め、図4の(c)の如く、各白線30の中央位置である中央位置1を検出する。この様な処理をX座標の右端の位置まで繰り返して、白線30の数と位置を検出する。
【0032】
また、走行レーン29の左側に存在する、濃度がしきい値以上であるヒストグラムが単一の白線30だけでなく、複数の白線30が集まった白線群(例えば、実線32,破線33等)31である場合には、白線群31における個々のヒストグラムの全てに対する幾何学的な重心位置あるいは中央位置を算出し、路面幅W0の左側に存在する白線群31の中心位置を求める。同様にして、路面幅W0の右側に存在する所定の濃度しきい値以上となるヒストグラムの全てに対する幾何学的な重心位置あるいは中央位置を求め、路面幅W0の右側に存在する白線群31の中央位置を求める。以上により、走行レーン29の左右両側に存在する白線30間の境界を確実に検出することができる(図4の(d)参照)。
【0033】
出現度数測定部11は、濃度分布測定部7にて作成された濃度ヒストグラムのデータに対して路面の濃度値より高いしきい値を設定し、ヒストグラムのデータが所定しきい値以上となる範囲を1グループとしてグループ化して、1画像データ内でのグループ化された複数のグループの出現頻度NSと、その各グループの時系列的な出現頻度NTの度数をカウントする。所定の時間内におけるグループの出現頻度NSと時系列的なグループの出現頻度NTの大きい方の和、または、積を求めると、実線32による白線30の場合は時系列的にグループの出現度数が高くなる。一方、破線33やブロック状34の白線では時系列で見ると、出現頻度が低くなる。よって、この様な出現頻度の現れ方の特性を利用して、白線30の構成要素である実線32、破線33、或いは、ブロック状34の白線30を正確に判定することができる。
【0034】
オフセット設定部8は、実線32や破線33と言った様々な種類の白線30により構成される複合線が検出される場合に、走行レーン両側の白線の内側境界から外側方向に対して、所定値(α)を加え、走行レーンの路面幅を広くするため、その所定値を本装置内のメモリに記憶させて、設定することができるようになっている。
【0035】
判定部12は、走行レーン29を区分する境界線、つまり、1本または複数の白線30にて構成されているとき、図2に示す複数の白線形態からパターンが判定され、白線30の標示形態により、どこからの位置を走行レーン20の境界(レーン境界)と見なすかを判定するものであり、以下に白線30の標示形態からの判定方法について説明する。
【0036】
(1)単線、偶数本の多重線、ゼブラで構成される車線の境界線であるとき、左右の白線群31で形成される路面幅W0が道路幅相当であり、(表1)に該当する場合には、路面幅W0に接する直線を走行レーン29の境界を示す位置として出力部13に出力する。
【0037】
具体的には、以下の場合には白線30により決定される走行レーン29に対して、左右の白線間の最も内側の境界位置(本実施形態においては、これを「内のり」と定義する)を、レーンマーク境界線とする。
【0038】
【表1】
単線:白線30は単線であり、その幅W0が15〜20cmである実線32、または、白線30は単線で、その幅が15〜20cmである破線33(図6の(a),(b)参照)
合流・分岐・登坂斜線:一方(右)の車線境界線が15cmまたは20cmであり且つ他方(左)の白線30が幅の広いブロック状34,35であり、左右の白線領域のWL,WRは、30〜100cmである(図6の(c),(d)参照)。
【0039】
ゼブラ:一方(右)の車線境界線が15cmまたは20cmであり且つ他方(左)の白線が幅の広いゼブラ37であり、左右の白線領域のWL,WRは、30cm以上の不定である(図6の(e)参照)。
【0040】
多重線:多重線38,39は、同じ太さの白線が所定本数(偶数本)以上、あるいは、合計の幅が所定以上で構成されており、左右の白線領域のWL,WRは、30cm以上である。この場合、白線領域の左右の直線数NL,NRは、2か4以上となる(図6の(f),(g)参照)。
【0041】
(2)奇数本の多重線、複合線区間の車線境界線51,52であるとき、左右の白線群31の距離となる路面幅W0が道路幅相当であり、(表2)に該当する場合には、濃度分布の中央位置出力2の位置を走行レーンの境界を示す位置として出力部13に出力する。
【0042】
【表2】
多重線:同じ太さの白線が奇数本、あるいは、合計の幅が所定以下で構成されており、左右の白線領域のWL,WRは、35cm以上である。この場合、白線領域の左右の直線数NL,NRは、3となる(図7の(a),(b)参照)。
【0043】
複合線区間:単線の破線とブロック状の白線との組み合せで構成されており、左右の白線領域のWL,WRは、45cm以上である。この場合、白線領域の左右の直線数NL,NRは、3となる(図7の(c),(d)参照)。
【0044】
(3)複合区間、複合線区間の車道外側線61、複合線区間の車線境界線62、複合線区間の車道外側線61であるとき、左右の白線群31の距離となる路面幅W0が道路幅相当であり、(表3)に該当する場合には、路面幅W0に接する直線に対して走行レーン29の外側方向に所定値(α)を加えた位置を走行レーン29の境界を示す位置として出力部13に出力する。
【0045】
【表3】
複合線区間: 急激にレーン幅W0が減少し、また、減少前のレーン境界位置より内側のブロック状道路標示の存在を認めた場合、左右の白線領域のWL,WRは、45cm以上であり、白線領域の左右の直線数NL,NRは、3となる(図8の(a)参照)。
【0046】
複合線区間の車道外側線: 単線実線とブロック線との組み合せで構成されており、左右の白線領域のWL,WRは、45cm以上であり、白線領域の左右の直線数NL,NRは、3となる(図8の(b)参照)。
【0047】
複合線区間の車線境界線: 単線破線とブロック線との組み合せで構成されているが、各白線の境界線が不明瞭であり、左右の白線領域のWL,WRは、45〜85cmであり、白線領域の左右の直線数NL,NRは、1となる(図8の(c)参照)。
【0048】
複合線区間の車道外側線: 単線実線とブロック線との組み合わせで構成されているが、各白線の境界線が不明瞭であり、左右の白線領域のWL,WRは、45〜55cmであり、白線領域の左右の直線数NL,NRは、1となる(図8の(d)参照)。
【0049】
出力部13は、判定部12により決定されたレーンマーク境界位置を示す信号が、外部の警報装置や速度制御装置等に代表されるシステム制御装置に対して出力される。
【0050】
本実施形態においては、濃度分布測定部7が出力する濃度ヒストグラムに対する処理と同様に、エッジ分布測定部5が出力するエッジヒストグラムに対して、中央位置検出部10と出現度数測定部11との処理を行い、レーン境界位置を求めることができる。
【0051】
次に、走行レーンのレーン検出における本装置1の処理について、図9から図11を参照して説明する。
【0052】
(第1実施形態)
図9に第1実施形態におけるレーン検出方法を示す。このレーン検出処理では、ステップS10にて、撮像部2により車両の進行方向の白線30を含む風景を撮像し、その撮像した情報をカメラ画像としてフレームバッファ部4に入力する。ステップS11では画像データを微分することによりエッジ検出がなされる。エッジ検出後、ステップS12では、画像データを微分した場合、極性が負となる負エッジ群と、極性が正となる正エッジ群を求める。また、エッジがかたまって存在するエッジ点群に対し、左右のエッジ群にて分類する。ステップS12で求めた左右のエッジ群に対して、ステップS13では公知のHough変換を行い、エッジ群から直線を決定する。そして、ステップS14では、負エッジ群より生成された直線と正エッジ群より生成された直線の組み合せにより、自車に最も近い直線と別の直線とで間隔が最も広い空間において、その空間の一方が負のエッジとなり、他方が正のエッジとなる幅を路面幅W0として、図4に示す様に決定する。
【0053】
ステップS14にて走行レーン29に対して、路面幅W0の両端のエッジにより左右の境界線が検出されると、この境界線を基にして、ステップS15ではエィンドウ42の領域設定が行われる。ここでは、左右両方の境界線が含まれ、検出対象となる領域においてY方向の奥行きが決定されて、ウィンドウ42の領域が設定される。この場合、X方向およびY方向のウィンドウ42の大きさは固定であっても、走行状態により大きさを変化させても良い。
【0054】
ウィンドウ42の設定がなされると、ステップS16では、図4の(b)に示す如く、ウィンドウ42の範囲内での原画像に対して、濃度ヒストグラムの作成が行われる。そして、ノイズレベル(ノイズの濃度しきい値)以上の画像データから、ステップS17では濃度ヒストグラムの幾何学的重心あるいは中央位置を公知の算出方法により求め、その点を個々に存在する白線中央位置とする(図4の(c)に示す中央位置1)。また、ステップS17にて個々の白線中央位置が求まると、今度は、ステップS18にて出現度数の測定がなされる。この出現度数の測定とは、濃度ヒストグラムのデータに対して路面の濃度以上となる濃度領域をグループ化する。そして、画面内での出現度数NSと時間的な出現度数NTをカウントして、所定時間内の出現頻度NSと出現度数NTの和または積等の比較を行う。次のステップS19ではレーンマーク境界位置を求めるレーン境界位置判定を行い、ここでは、(表1)から(表3)に従う判定により、白線30を実線32、破線33、ブロック状34、ゼブラ37、多重線38,39等に形態により分類する。そして、ステップS20にて、ステップS19より判定したレーンマーク境界位置として、外部の制御装置に出力する。
【0055】
図9に示す第1実施形態におけるレーン検出方法では、画像データからの濃度ヒストグラムを作成することにより、走行レーン29に対する左右の濃度ヒストグラムの幾何学的な重心位置あるいは中央位置を求めることによって、走行レーン29の左右に存在する個々の白線30あるいは白線群31の中央位置がわかる。これによって、レーンマーク境界位置を正確に検出し、外部装置に対しても正確なレーン境界情報を出力することができる。
【0056】
(第2実施形態)
次に、レーン検出処理の第2実施形態について、図10を参照して説明する。図10に示す第2実施形態では、基本的なレーン検出処理方法は、図9に示す第1実施形態と概略は同じである。しかし、図9の第1実施形態においては、濃度ヒストグラムデータから左右の白線群31の中央位置あるいは重心位置を求めていたものに代わって、図10に示す第2実施形態では、画像データを微分した場合に検出されるエッジに基き、エッジヒストグラムより左右の白線群31の中央位置あるいは重心位置を求める方法が、図9と異なっている。
【0057】
つまり、図9に示すステップ16が、図10ではステップS16aに代わっている。このステップS16aでは、原画像からの正のエッジおよび負のエッジを検出し、検出された正および負のエッジをウィンドウ42のY方向における奥行き分(Y方向の幅分)だけ累積することにより、図5の(c)に示す如く、個々の正負のエッジヒストグラムを作成する。このエッジに基づくエッジヒストグラムより幾何学的重心あるいは中央位置を、図5の(d)に示す如く、正と負で求める。そして、その正と負のエッジの中心を、図5の(e)の如く、個々の白線の中央位置として求める。更にその後、白線群31の中央となる位置を、図5の(f)の如く求め、エッジヒストグラムよりレーンマーク境界位置を正確に検出し、外部装置に対しても正確なレーン境界情報を出力することができる。この様に、ヒストグラムにエッジを用いることにより、レーンマーク境界位置を決定し易くできる。
【0058】
(第3実施形態)
図11に、第3実施形態を示す。この図11に示すフローチャートは、図9に示す第1実施形態と、図10に示す第2実施形態を組み合せた例であり、図11に示す左側の処理であるステップS10−S20は、図9に示すステップS10−S20に一致し、図11に示す右側の処理であるステップS15a−S19aが図10に示すステップS15−S19に相当する。この方法によれば、一方の処理(左側の処理)では濃度ヒストグラムによりレーンマーク境界位置を決定し、他方の処理(右側の処理)ではエッジヒストグラムよりレーンマーク境界位置を決定するようにしたので、これらの2つの処理は走行する路面状況に応じて切り替える様にすることもできる。例えば、白線30が標示される路面の状態をセンサ等により検出し、路面状態に応じてスイッチ等の切替手段によって、2つのレーン検出処理を並列処理しても良い。また、これとは別に、並列処理でなく、直列処理も行えることは言うまでもない。
【0059】
上記した様に、本実施形態においては、境界線を構成する白線群の中で、最も内側の境界位置または、白線群31の中央位置あるいは重心位置を検出する方法を取るので、白線群間31の隙間の境界を検出しなくても良い。このため、走行路面において白線30の汚れや影等による外乱が存在しても、安定して走行レーンのレーンマーク境界位置を特定できる。また、画像処理における画像信号に対しての分解能が低くても、安定した状態にてレーン境界位置を特定することができる。
【0060】
【発明の効果】
本発明によれば、撮像手段により所定領域の車線を含む移動体の走行レーンを撮像し、得られた画像データに基づき、ヒストグラムを作成してヒストグラムの集まりを検出してグループ化を行う。そして、グループ化されたヒストグラムの中で、個々のヒストグラムの中央となる第1中央位置を検出し、第1中央位置に基づき、グループ化されたヒストグラムの集まりの中で中央となる第2中央位置を検出し、異なるグループのヒストグラム間どうしの第2中央位置に基づき、レーンマークまたはレーンマークが複数存在するレーンマーク群の中央を検出し、レーンマーク境界位置を決めるようにしたので、画像データに基づくヒストグラムの作成により、安定したレーンマーク境界位置の検出を行ことができる。例えば、走行レーンにおいて車線の汚れ、剥がれ、影、低コントラスト等による外乱により、白線情報の欠陥があっても、ヒストグラム自体は大きく変化せず、画像データのヒストグラムを基にし、安定した状態で走行レーンのレーンマーク境界位置を特定することができる。これによって、この車線境界検出装置を車両に適用した場合には、レーンマーク境界位置を安定した状態で特定できるので、レーンマーク境界位置を制御内で使用する制御装置(例えば、自動走行装置、自動操舵装置、レーン逸脱警報装置等)の信頼性を向上させることができる。
【0061】
この場合、ヒストグラムは、画像データの画像濃度による画像ヒストグラムあるいは画像データの微分により求められるエッジのエッジヒストグラムであるため、所定領域の画像濃度を単に累積することによって画像ヒストグラムの作成ができる。あるいは、画像データを単に微分することによりエッジを求め、そのエッジを所定領域累積することによってエッジヒストグラムが作成できるので、簡単な方法により、走行レーンのレーンマーク境界位置を特定することができる。
【0062】
また、画像データを微分して、正負のエッジを求め、グループ化された中での正負のエッジの状態に基づき走行レーンを求め、走行レーンの幅W0、グル
ープ化されたレーンマーク群の左右のレーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRを検出し、レーンマーク群の左右の走行レーン幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRより、レーンマークの標示形態を割り当て、標示形態によりレーンマーク境界位置を求めるようにしたので、画像データからの正負のエッジを基にして走行レーンを求め、自車に最も近い走行レーンと他の走行レーンとの間で最も広い空間を検出し、その空間を走行レーンの路面幅W0と見なすことができる。そして、走行レーンの左右の走行レーン幅WL,WRおよび左右の走行レーン数NL,NRを求め、レーンマーク表示形態を割り当てることによって、レーンマーク境界位置を簡単な方法により求めることができる。
【0063】
この場合、レーンマークまたはレーンマーク群が、単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジを境界位置とすれば、レーンマークまたはレーンマーク群が単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジがレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置を特定することができる。
【0064】
また、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央をレーンマーク境界位置とすれば、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央をレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置を特定することができる。
【0065】
更に、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置とすれば、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置を特定することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態における車線境界検出装置の構成を示したブロック図である。
【図2】一般に路面に設けられる白線の標示形態の一例を示す説明図である。
【図3】図1に示す車線境界検出装置の撮像部によって撮像された画像データを示す平面図である。
【図4】図1に示す撮像部より撮像された画像データ(原画像)から濃度のヒストグラムを求め、エッジ検出を行うタイミングチャートである。
【図5】図1に示す撮像部より撮像された画像データ(原画像)から濃度のヒストグラムを求め、エッジ検出を行い白線群の中央位置を求めるタイミングチャートである。
【図6】本発明の一実施形態における車線境界検出装置によって決定された走行レーンと白線との車線境界(内のり)を示す説明図である。
【図7】本発明の一実施形態における車線境界検出装置によって決定された走行レーンと白線との車線境界(中央)を示す説明図である。
【図8】本発明の一実施形態における車線境界検出装置によって決定された走行レーンと白線との車線境界(内のり+α)を示す説明図である。
【図9】第1実施形態におけるレーン検出の処理を示すフローチャートである。
【図10】第2実施形態におけるレーン検出の処理を示すフローチャートである。
【図11】第3実施形態におけるレーン検出の処理を示すフローチャートである。
【符号の説明】
1 車線境界検出装置
2 撮像部(撮像手段)
6 エッジ検出部(グループ作成手段)
7 濃度分布測定部(ヒストグラム作成手段)
10 中央位置検出部
(第1中央位置検出手段、第2中央位置検出手段、車線中央位置検出手段)
29 ウィンドウ(所定領域)
30 白線(レーンマーク)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a lane boundary detection device that detects a boundary position of a lane mark (for example, a white line) provided in a travel lane when the mobile body travels on a travel path (travel lane), The present invention relates to a lane boundary detection device that detects the boundary position regardless of the type of lane mark.
[0002]
[Prior art]
In recent years, in a vehicle, an automatic traveling device that causes the vehicle to follow the traveling lane, a steering steering mechanism provided in the vehicle when the vehicle is separated from the traveling lane, apart from the driver's intention due to crosswind or doze The vehicle is moved away from the driving lane due to the automatic steering device that automatically steers the steering mechanism using the vehicle to follow the traveling direction of the vehicle with respect to the driving lane, or the driver falls asleep while driving the vehicle. In such a case, it is necessary to detect a white line in a lane departure warning device that issues a warning to alert the driver.
[0003]
For example, in such an apparatus, a camera (for example, a CCD camera) is attached to the vehicle in the traveling direction of the vehicle, and an image ahead of the traveling lane is acquired by the CCD camera provided in the vehicle. Then, white line detection is performed using an image processing technique based on the camera image captured by the camera.
[0004]
For example, in the white line detection device disclosed in Japanese Patent Laid-Open No. 63-142478, an external environment is imaged by a camera, and edge detection is performed from a set of points where the camera image captured by the camera changes in brightness. Then, a white line is detected by classifying a white line pattern from a set of center points of the area, and applying a Hough transform to a region whose edge width is equal to or smaller than a predetermined width.
[0005]
In general, white line detection in a travel lane distinguishes between the travel lane and the white line from the image captured by the camera using the characteristic that the white line is brighter than the road surface. Specifically, differentiation is performed on the camera image obtained by the camera, and after extracting the outline data of the white line, the width of the white line is 15 to 20 cm in the pattern extending in the direction along the road surface. If the mutual interval is equivalent to the design standard value as the lane width, it is determined as a white line (see, for example, JP-A-6-119594).
[0006]
[Problems to be solved by the invention]
However, the above-described white line detection method always assumes that there is one white line on both sides of the travel lane on which the vehicle travels. Usually, not only one white line but also a plurality of white lines or There are many types such as lanes and block-shaped white lines. For example, as shown in FIG. 2, when there are a plurality of traveling lanes, a white line (a) having a lane width L, a white line (b) on one lane, one on the uphill lane, and the other on a block-shaped white line ( c) White lines (d) and (e) composed of solid lines and broken lines and block-shaped white lines provided at places where the speed is reduced in front of curves and tunnels, white lines indicating center lines and roadsides, highways, etc. White lines (g) and (h) provided in the temporary shared section provided in the location of one lane on one side, white lines (i) provided in the zebra zone that prohibits the vehicle from entering the predetermined area, branch points and junctions There are various things such as the white line (j) provided in the. The marking form of the lane mark represented by these white lines is defined by laws and regulations.
[0007]
When a vehicle travels along a white line provided on the road surface and the white line is provided on the driving lane, a plurality of parallel line segments appear along the direction of the driving lane. For this reason, it becomes difficult to specify the boundary position (lane mark boundary position) with the white line of the traveling lane. As described above, when it becomes difficult to specify the lane mark boundary position of the traveling lane, the lane deviated from the traveling lane is detected.
[0008]
Therefore, when this lane detection is applied to a vehicle control device that controls the traveling of a moving body, a case where desired performance cannot be achieved may occur.
[0009]
Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to detect a lane boundary of a traveling lane in a stable state.
[0010]
[Means for Solving the Problems]
The technical means taken in order to solve the above-mentioned problem is that the imaging means provided on the moving body images the lane mark of the predetermined area and the traveling lane of the moving body, and performs image processing on the captured image data. In a lane boundary detection device that detects at least a boundary of a single lane mark,
Based on the image data, An edge of an edge obtained by image histogram based on image density of the image data or differentiation of the image data Histogram creation means for creating a histogram, group creation means for grouping the set of histograms, and a first center for detecting a first center position that is the center of each histogram among the grouped histograms Based on the position detection means, the second center position detection means for detecting the second center position that is the center of the grouped histogram based on the first center position, and the second center position between different groups, A lane center position detecting means for detecting the center of a lane mark or a lane mark group having a plurality of lane marks,
The lane boundary detection device further includes: The image data is differentiated to obtain a positive / negative edge, a traveling lane is obtained based on the state of the positive / negative edge in the group, and the width W of the traveling lane 0 The width W of the left and right lane mark groups with respect to the grouped lane mark group L , W R And the number N of lane marks in the left and right lane mark groups L , N R , And the width W of the lane mark group L , W R And the number N of lane marks in the left and right lane mark groups L , N R Assigning the marking form of the lane mark to the marking form Depending on the lane mark or the center of the lane mark group including a plurality of lane marks, or the positive and negative edges. Find the lane mark boundary position.
[0011]
According to the above-mentioned means, the image data is obtained by imaging the traveling lane of the moving body including the lane in the predetermined area by the imaging means. A histogram is created based on the obtained image data, and a group of histograms is detected and grouped. Then, a first center position that is the center of each histogram is detected from the grouped histograms, and a second center position that is the center in the group of the grouped histograms based on the first center position. Is detected. Further, since the center of the lane mark group where a plurality of lane marks or a plurality of lane marks exist is detected based on the second center position between the histograms of different groups and the lane mark boundary position is determined, the histogram based on the image data This makes it possible to detect a stable lane mark boundary position. For example, even if there is disturbance due to lane stains or shadows in the lane, the histogram itself does not change greatly, and the lane mark boundary position of the lane is specified in a stable state based on the histogram of the image data. .
[0012]
In this case, the histogram is an image histogram based on the image density of the image data or an edge histogram of edges obtained by differentiation of the image data. For The image histogram can be created by simply accumulating the image density in a predetermined area. Alternatively, the edge is obtained by simply differentiating the image data, and the edge histogram is obtained and created by accumulating the edges in a predetermined area, so that the lane mark boundary position of the traveling lane is specified by a simple method.
[0014]
as mentioned above, Differentiate image data do it Then, a travel lane is obtained based on the positive and negative edges from the image data, and the widest space is created between the travel lane closest to the vehicle and other travel lanes, and this space is regarded as the road surface width W0 of the travel lane. It can be done. The widths WL and WR of the left and right lane mark groups of the traveling lane and the numbers NL and NR of the lane marks in the left and right lane mark groups are obtained, and the lane mark display position is assigned, thereby simplifying the lane mark boundary position. Determined by the method.
[0015]
In this case, if the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at If the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at Becomes the lane mark boundary position, and the lane mark boundary position is reliably specified by the marking form.
[0016]
If the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group Center Is the lane mark boundary position, and if the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group In the middle It becomes the lane mark boundary position, and the lane mark boundary position is surely specified by the marking form.
[0017]
Furthermore, when the lane mark group is a composite line section or a roadway outer line / lane boundary line of the composite line section, it is the innermost side with respect to the lanes on both sides of the lane. On a positive or negative edge If the lane mark boundary position is defined by adding the predetermined range α, when the lane mark group is a compound line section or a roadway outside line / lane boundary line of a compound line section, it is on the inside On a positive or negative edge The lane mark boundary position is obtained by adding the predetermined range α, and the lane mark boundary position is reliably specified by the marking form.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0019]
FIG. 1 is a system configuration diagram of a lane boundary detection device (hereinafter simply referred to as this device) 1. The
[0020]
The
[0021]
The information (camera image) obtained by the
[0022]
The center
[0023]
Thereafter, the
[0024]
The
[0025]
Further, each block described above will be described in detail.
[0026]
The
[0027]
The
[0028]
The edge
[0029]
The
[0030]
As shown in FIG. 3, the density
[0031]
The center
[0032]
In addition, a white line group (for example, a
[0033]
The appearance
[0034]
When a composite line composed of various types of
[0035]
The
[0036]
(1) Road surface width W formed by the left and right
[0037]
Specifically, in the following case, the innermost boundary position between the left and right white lines (in the present embodiment, this is defined as “inner”) with respect to the
[0038]
[Table 1]
Single line: The
Junction / branch / hill slope oblique line: One (right) lane boundary line is 15 cm or 20 cm, and the other (left)
[0039]
Zebra: One (right) lane boundary is 15 cm or 20 cm, and the other (left) white line is a
[0040]
Multiple lines: The
[0041]
(2) Road surface width W that is the distance between the left and right
[0042]
[Table 2]
Multiple lines: The number of white lines having the same thickness is an odd number, or the total width is equal to or less than a predetermined width. L , W R Is 35 cm or more. In this case, the number N of left and right straight lines in the white line region L , N R Is 3 (see FIGS. 7A and 7B).
[0043]
Composite line section: Consists of a combination of a single broken line and a block-shaped white line. L , W R Is 45 cm or more. In this case, the number N of left and right straight lines in the white line region L , N R Is 3 (see FIGS. 7C and 7D).
[0044]
(3) Road width W that is the distance between the left and right
[0045]
[Table 3]
Compound line section: Abrupt lane width W 0 If the presence of a block-shaped road marking inside the lane boundary position before the decrease is recognized, the W L , W R Is 45 cm or more, and the number of straight lines N on the left and right of the white line region L , N R Is 3 (see FIG. 8A).
[0046]
Roadway outside line of compound line section: It is composed of a combination of a single solid line and a block line. L , W R Is 45 cm or more, and the number of straight lines N on the left and right of the white line region L , N R Is 3 (see FIG. 8B).
[0047]
Lane boundary line of compound line section: It consists of a combination of a single-line broken line and a block line, but the boundary line of each white line is unclear, and W in the left and right white line areas L , W R Is 45 to 85 cm, and the number of straight lines N on the left and right of the white line region L , N R Becomes 1 (see FIG. 8C).
[0048]
Road outside line of compound line section: It is composed of a combination of a single solid line and a block line, but the boundary of each white line is unclear, and the left and right white line area W L , W R Is 45 to 55 cm, and the number of straight lines N on the left and right of the white line region L , N R Becomes 1 (see FIG. 8D).
[0049]
The
[0050]
In the present embodiment, similarly to the process for the density histogram output by the density
[0051]
Next, processing of the
[0052]
(First embodiment)
FIG. 9 shows a lane detection method in the first embodiment. In this lane detection process, in step S10, a landscape including the
[0053]
In step S14, the road surface width W with respect to the traveling
[0054]
When the
[0055]
In the lane detection method according to the first embodiment shown in FIG. 9, the density histogram is created from the image data, and the geometric gravity center position or the center position of the left and right density histograms with respect to the
[0056]
(Second Embodiment)
Next, a second embodiment of the lane detection process will be described with reference to FIG. In the second embodiment shown in FIG. 10, the basic lane detection processing method is the same as that of the first embodiment shown in FIG. However, in the first embodiment shown in FIG. 9, instead of obtaining the center position or the center of gravity position of the left and right
[0057]
That is,
[0058]
(Third embodiment)
FIG. 11 shows a third embodiment. The flowchart shown in FIG. 11 is an example in which the first embodiment shown in FIG. 9 and the second embodiment shown in FIG. 10 are combined. Steps S10 to S20 which are the processes on the left side shown in FIG. Steps S15a to S19a that correspond to steps S10 to S20 shown in FIG. 11 and that are the processes on the right side shown in FIG. 11 correspond to steps S15 to S19 shown in FIG. According to this method, in one process (the process on the left side), the lane mark boundary position is determined from the density histogram, and in the other process (the process on the right side), the lane mark boundary position is determined from the edge histogram. These two processes can be switched in accordance with the road surface condition on which the vehicle is traveling. For example, the state of the road surface on which the
[0059]
As described above, in the present embodiment, a method of detecting the innermost boundary position or the center position or the center of gravity position of the
[0060]
【The invention's effect】
According to the present invention, a traveling lane of a moving body including a lane in a predetermined area is imaged by an imaging unit, and a histogram is created based on the obtained image data, and a group of histograms is detected and grouped. Then, a first center position that is the center of each histogram is detected from the grouped histograms, and a second center position that is the center in the group of the grouped histograms based on the first center position. , And based on the second center position between the histograms of different groups, the center of the lane mark group including a plurality of lane marks or lane marks is detected and the lane mark boundary position is determined. A stable lane mark boundary position can be detected by generating a histogram based on the histogram. For example, even if there is a defect in white line information due to disturbance due to lane contamination, peeling, shadows, low contrast, etc. in the driving lane, the histogram itself does not change greatly, and it runs stably based on the histogram of the image data. The lane mark boundary position of the lane can be specified. As a result, when this lane boundary detection device is applied to a vehicle, the lane mark boundary position can be specified in a stable state, and therefore, a control device (for example, an automatic traveling device, an automatic driving device) that uses the lane mark boundary position in the control. The reliability of a steering device, a lane departure warning device, etc.) can be improved.
[0061]
In this case, the histogram is an image histogram based on the image density of the image data or an edge histogram of edges obtained by differentiation of the image data. For An image histogram can be created by simply accumulating the image density of a predetermined area. Alternatively, the edge is obtained by simply differentiating the image data, and the edge histogram can be created by accumulating the edges in a predetermined area, so that the lane mark boundary position of the traveling lane can be specified by a simple method.
[0062]
Differentiate image data do it The positive and negative edges are obtained, the driving lane is obtained based on the state of the positive and negative edges in the group, the driving lane width W0,
The widths WL and WR of the left and right lane mark groups of the grouped lane mark group and the numbers NL and NR of the lane marks in the left and right lane mark groups are detected, and the left and right traveling lane widths WL, The lane mark labeling form is assigned from the WR and the number of lane marks NL and NR in the left and right lane mark groups, and the lane mark boundary position is obtained by the signing form. Thus, the travel lane is obtained, the widest space between the travel lane closest to the host vehicle and the other travel lanes is detected, and the space can be regarded as the road surface width W0 of the travel lane. Then, the left and right traveling lane widths WL and WR and the left and right traveling lane numbers NL and NR of the traveling lane are obtained, and the lane mark display form is assigned, whereby the lane mark boundary position can be obtained by a simple method.
[0063]
In this case, if the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at If the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at Becomes the lane mark boundary position, and the lane mark boundary position can be reliably specified by the marking form.
[0064]
If the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group Center Is the lane mark boundary position, and if the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group Center Becomes the lane mark boundary position, and the lane mark boundary position can be reliably specified by the marking form.
[0065]
Furthermore, when the lane mark group is a composite line section or a roadway outer line / lane boundary line of the composite line section, it is the innermost side with respect to the lanes on both sides of the lane. On a positive or negative edge If the lane mark boundary position is defined by adding the predetermined range α, when the lane mark group is a compound line section or a roadway outside line / lane boundary line of a compound line section, it is on the inside On a positive or negative edge The lane mark boundary position is obtained by adding the predetermined range α, and the lane mark boundary position can be reliably specified by the marking form.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a lane boundary detection device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of a white line marking form generally provided on a road surface.
3 is a plan view showing image data picked up by an image pickup unit of the lane boundary detection device shown in FIG. 1; FIG.
4 is a timing chart in which a density histogram is obtained from image data (original image) imaged by the imaging unit shown in FIG. 1 and edge detection is performed.
5 is a timing chart for obtaining a density histogram from image data (original image) imaged by the imaging unit shown in FIG. 1 and performing edge detection to obtain the center position of a white line group.
FIG. 6 is an explanatory diagram showing a lane boundary (inner) between a travel lane and a white line determined by a lane boundary detection device according to an embodiment of the present invention.
FIG. 7 is an explanatory diagram showing a lane boundary (center) between a travel lane and a white line determined by a lane boundary detection device according to an embodiment of the present invention.
FIG. 8 is an explanatory diagram showing a lane boundary (inner + α) between a travel lane and a white line determined by the lane boundary detection device according to the embodiment of the present invention.
FIG. 9 is a flowchart showing a lane detection process in the first embodiment.
FIG. 10 is a flowchart showing a lane detection process in the second embodiment.
FIG. 11 is a flowchart showing a lane detection process in the third embodiment.
[Explanation of symbols]
1 Lane boundary detection device
2 Imaging unit (imaging means)
6 Edge detector (group creation means)
7 Concentration distribution measurement unit (histogram creation means)
10 Center position detector
(First center position detecting means, second center position detecting means, lane center position detecting means)
29 windows (predetermined area)
30 White line (lane mark)
Claims (4)
前記画像データに基づき、前記画像データの画像濃度による画像ヒストグラムあるいは前記画像データの微分により求められるエッジのエッジヒストグラムを作成するヒストグラム作成手段と、前記ヒストグラムの集まりに対して、グループ化を行うグループ作成手段と、グループ化された中で、個々のヒストグラムの中央となる第1中央位置を検出する第1中央位置検出手段と、前記第1中央位置に基づき、グループ化されたヒストグラムの中央となる第2中央位置を検出する第2中央位置検出手段と、異なるグループ間の前記第2中央位置に基づき、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の中央を検出する車線中央位置検出手段とを備え、
前記車線境界検出装置は、さらに、前記画像データを微分して正負のエッジを求め、前記グループ化された中での正負のエッジの状態に基づき走行レーンを求め、該走行レーンの幅W0、グループ化されたレーンマーク群に対する左右のレーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRを検出し、前記レーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRより、前記レーンマークの標示形態を割り当て、該標示形態に応じて、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の前記中央、もしくは前記正負のエッジに基づきレーンマーク境界位置を求めることを特徴とする車線境界検出装置。A lane boundary that captures a lane mark in a predetermined area by an imaging means provided in the moving body, images the travel lane of the moving body, performs image processing on the captured image data, and detects a boundary of at least a single lane mark In the detection device,
Histogram creation means for creating an image histogram based on the image density of the image data based on the image data or an edge histogram of edges obtained by differentiation of the image data , and group creation for grouping the collection of histograms Means, a first center position detecting means for detecting a first center position that is the center of each histogram in the grouped group, and a first center that is the center of the grouped histogram based on the first center position. 2 second center position detecting means for detecting the center position, and lane center position detecting means for detecting the center of the lane mark or a group of lane marks in which a plurality of lane marks exist based on the second center position between different groups. And
The lane boundary detecting device further obtains positive and negative edges by differentiating the image data, obtains a traveling lane based on the state of the positive and negative edges in the grouped, and the width W 0 of the traveling lane, The widths W L and W R of the left and right lane mark groups with respect to the grouped lane mark groups and the numbers N L and N R of the lane marks in the left and right lane mark groups are detected, and the width W L of the lane mark group is detected. , W the number N L of the lane mark in the R and the left and right lane marks group from N R, assigns the indication form of the lane mark, according to the indication mode, the lane mark or the lane mark there are a plurality of A lane boundary detection device that determines a lane mark boundary position based on the center of the lane mark group or the positive and negative edges .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001379166A JP4032727B2 (en) | 2001-12-12 | 2001-12-12 | Lane boundary detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001379166A JP4032727B2 (en) | 2001-12-12 | 2001-12-12 | Lane boundary detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003178399A JP2003178399A (en) | 2003-06-27 |
JP4032727B2 true JP4032727B2 (en) | 2008-01-16 |
Family
ID=19186656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001379166A Expired - Fee Related JP4032727B2 (en) | 2001-12-12 | 2001-12-12 | Lane boundary detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4032727B2 (en) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3864945B2 (en) | 2003-09-24 | 2007-01-10 | アイシン精機株式会社 | Road lane detection device |
WO2006014974A2 (en) * | 2004-07-26 | 2006-02-09 | Automotive Systems Laboratory, Inc. | Vulnerable road user protection system |
JP4532372B2 (en) * | 2005-09-02 | 2010-08-25 | トヨタ自動車株式会社 | Road marking line detection device |
JP4572822B2 (en) * | 2005-11-30 | 2010-11-04 | アイシン・エィ・ダブリュ株式会社 | Route guidance system and route guidance method |
EP1968014B1 (en) * | 2005-12-28 | 2012-12-19 | Honda Motor Co., Ltd. | Vehicle and lane mark detection device |
JP4738203B2 (en) * | 2006-02-20 | 2011-08-03 | 学校法人同志社 | Music generation device for generating music from images |
JP4605145B2 (en) * | 2006-11-14 | 2011-01-05 | トヨタ自動車株式会社 | Lane detection device |
JP4951481B2 (en) * | 2007-12-10 | 2012-06-13 | 日立オートモティブシステムズ株式会社 | Road marking recognition device |
JP4710981B2 (en) | 2009-01-23 | 2011-06-29 | トヨタ自動車株式会社 | Marking line recognition apparatus and marking line recognition method used in the apparatus |
WO2011117950A1 (en) * | 2010-03-23 | 2011-09-29 | 日本電気株式会社 | Linear marking detection system, linear marking detection method, and non-transitory computer readable medium on which linear marking detection program is stored |
JP5402828B2 (en) * | 2010-05-21 | 2014-01-29 | 株式会社デンソー | Lane boundary detection device, lane boundary detection program |
JP5677900B2 (en) * | 2011-06-29 | 2015-02-25 | 株式会社日本自動車部品総合研究所 | In-vehicle white line recognition device |
JP5799784B2 (en) * | 2011-12-06 | 2015-10-28 | 富士通株式会社 | Road shape estimation apparatus and program |
JP2013228944A (en) | 2012-04-26 | 2013-11-07 | Nippon Soken Inc | Traveling section line recognition apparatus |
JP5997962B2 (en) * | 2012-07-27 | 2016-09-28 | クラリオン株式会社 | In-vehicle lane marker recognition device |
CN104680171B (en) * | 2013-11-27 | 2018-10-02 | 富士通株式会社 | The detection device, method of zebra stripes in image |
JP5689521B2 (en) * | 2013-12-02 | 2015-03-25 | 本田技研工業株式会社 | Vehicle travel support device |
JP6483446B2 (en) * | 2015-01-15 | 2019-03-13 | トヨタ自動車株式会社 | Composite line determination apparatus and composite line determination method |
JP6798860B2 (en) * | 2016-11-29 | 2020-12-09 | 株式会社Soken | Boundary line estimation device |
JP2018116369A (en) | 2017-01-16 | 2018-07-26 | 株式会社Soken | Lane recognition device |
US10860868B2 (en) | 2018-04-18 | 2020-12-08 | Baidu Usa Llc | Lane post-processing in an autonomous driving vehicle |
JP7342832B2 (en) * | 2020-09-30 | 2023-09-12 | いすゞ自動車株式会社 | Travel position determination device |
-
2001
- 2001-12-12 JP JP2001379166A patent/JP4032727B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003178399A (en) | 2003-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4032727B2 (en) | Lane boundary detection device | |
JP2917661B2 (en) | Traffic flow measurement processing method and device | |
JP4650079B2 (en) | Object detection apparatus and method | |
EP1667086B1 (en) | Device for detecting road traveling lane | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
EP0945319A1 (en) | Process for determining dynamic properties of motor vehicles | |
EP1667085A1 (en) | Device for detecting road traveling lane | |
JP2002024986A (en) | Pedestrian detector | |
JPH11282999A (en) | Moving object measurement device | |
CN108764075A (en) | The method of container truck location under gantry crane | |
JP3807651B2 (en) | White line recognition device | |
JP3153845B2 (en) | Road surface monitoring device and road surface monitoring method | |
JP2004030484A (en) | Traffic information providing system | |
JP3662218B2 (en) | Lane boundary detection device | |
JP3771729B2 (en) | Traffic flow measurement system | |
JP4697761B2 (en) | Queue detection method and queue detection apparatus | |
JP3790817B2 (en) | Chuo line shift processing equipment | |
JP2946620B2 (en) | Automatic number reading device with speed measurement function | |
JP2885216B2 (en) | Lane change detection device | |
JP4334744B2 (en) | Traffic flow measuring device | |
JP2001283374A (en) | Traffic flow measuring system | |
JPH0251800A (en) | Traffic jam state detecting system | |
JPH09259388A (en) | Vehicle information detection device and car type judging device | |
CN106874842B (en) | A method for detecting distance between car and curb based on digital image | |
JP2757629B2 (en) | Moving object measurement device and traffic flow measurement image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060801 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060929 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070403 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070703 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070828 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071002 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071015 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101102 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111102 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121102 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131102 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |