[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4032727B2 - Lane boundary detection device - Google Patents

Lane boundary detection device Download PDF

Info

Publication number
JP4032727B2
JP4032727B2 JP2001379166A JP2001379166A JP4032727B2 JP 4032727 B2 JP4032727 B2 JP 4032727B2 JP 2001379166 A JP2001379166 A JP 2001379166A JP 2001379166 A JP2001379166 A JP 2001379166A JP 4032727 B2 JP4032727 B2 JP 4032727B2
Authority
JP
Japan
Prior art keywords
lane
boundary
lane mark
group
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001379166A
Other languages
Japanese (ja)
Other versions
JP2003178399A (en
Inventor
俊明 柿並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Aisin Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Aisin Corp filed Critical Aisin Seiki Co Ltd
Priority to JP2001379166A priority Critical patent/JP4032727B2/en
Publication of JP2003178399A publication Critical patent/JP2003178399A/en
Application granted granted Critical
Publication of JP4032727B2 publication Critical patent/JP4032727B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、移動体が走行路(走行レーン)を移動走行する場合、走行レーンに設けられているレーンマーク(例えば、白線)の境界位置を検出する車線境界検出装置に関するものであり、特に、レーンマークの種類によらず、その境界位置を検出する車線境界検出装置に係わる。
【0002】
【従来の技術】
近年、車両においては、車両を走行レーンに沿って車両を追従させる自動走行装置、横風や居眠り等によりドライバーの意図とは別に、車両が走行レーンより離れた場合、車両に備え付けられたステアリング操舵機構を用いて自動的にステアリング操舵機構を転舵して、車両の進行方向を走行レーンに対して追従させる自動操舵装置、或いは、車両走行中にドライバーの居眠り等により、車両が走行レーンから離れた場合に、ドライバーに対して注意を促す警報を発するレーン逸脱警報装置等において、白線の検出が必要となってくる。
【0003】
例えば、この様な装置では、車両の進行方向に向けてカメラ(例えば、CCDカメラ)を車両に取り付け、車両に設けられたCCDカメラにより、走行レーン前方の画像を取得する。そして、カメラによって撮像したカメラ画像を基に、画像処理技術を用いて、白線検出が行われる。
【0004】
例えば、特開昭63−142478号公報に示される白線検出装置では、カメラにより外部環境を撮像し、カメラで撮像されたカメラ画像が明暗の変化する点集合からエッジ検出を行っている。そして、エッジの幅が所定幅以下である領域を白線候補とし、その領域の中心点の集合から白線のパターンを分類して、ハフ変換を施すことにより、白線検出を行う。
【0005】
一般的に、走行レーンにおける白線検出は、カメラによって撮像した画像の中から、白線は路面よりも明るいという特性を利用し、走行レーンと白線とを区別する。具体的には、カメラにより得られたカメラ画像に対して微分を行い、白線の輪郭データを抽出後、路面に沿った方向に伸びるパターンの中で、白線の幅が15〜20cmであり、白線相互の間隔はレーン幅として設計基準値相当であれば白線と判断している(例えば、特開平6−119594号公報参照)。
【0006】
【発明が解決しようとする課題】
しかしながら、上記した白線検出の方法では、常に、車両が走行する走行レーンの両側に、1本の白線が存在することを前提としており、通常は1本の白線だけでなく、複数本の白線や車線、ブロック状の白線といった数々の種類が存在する。例えば、図2に示される様に、複数の走行レーンがある場合におけるレーン幅Lの白線(a)、片側一車線における白線(b)、登坂車線における一方が破線で他方がブロック状の白線(c)、カーブやトンネル等の手前でスピードを落とす場所に設けられる実線と破線とブロック状白線で構成される白線(d),(e)、センターラインと路側とを示す白線、高速道路等において片側一車線の場所に設けられる暫定共用区間に設けられる白線(g),(h)、車両が所定領域内部に進入することを禁止するゼブラゾーンに設けられる白線(i)、分岐点や合流点に設けられた白線(j)等の様々なものが存在する。これら白線に代表されるレーンマークの標示形態は、法令により定義されている。
【0007】
上記した白線が路面上に設けられ、複数の白線が走行レーンに設けられた区間を、車両がその白線に沿って進行する場合、走行レーンの方向に沿って、平行な線分が複数本現れるため、走行レーンの白線との境界位置(レーンマーク境界位置)の特定が困難になってしまう。この様に、走行レーンのレーンマーク境界位置の特定が困難になると、走行レーンからずれたレーン検出を行う事となる。
【0008】
よって、このレーン検出を、移動体の走行を制御する車両制御装置に応用した場合には、所望の性能が出せない場合が生じ得る。
【0009】
よって、本発明は上記の問題点に鑑みてなされたものであり、走行レーンの車線境界を安定した状態で検出することを技術的課題とする。
【0010】
【課題を解決するための手段】
上記の課題を解決するために講じた技術的手段は、移動体に設けられた撮像手段によって所定領域のレーンマークを前記移動体の走行レーンを撮像し、撮像した画像データに対して画像処理を行い、少なくとも単一のレーンマークの境界を検出する車線境界検出装置において、
前記画像データに基づき、前記画像データの画像濃度による画像ヒストグラムあるいは前記画像データの微分により求められるエッジのエッジヒストグラムを作成するヒストグラム作成手段と、前記ヒストグラムの集まりに対して、グループ化を行うグループ作成手段と、グループ化された中で、個々のヒストグラムの中央となる第1中央位置を検出する第1中央位置検出手段と、前記第1中央位置に基づき、グループ化されたヒストグラムの中央となる第2中央位置を検出する第2中央位置検出手段と、異なるグループ間の前記第2中央位置に基づき、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の中央を検出する車線中央位置検出手段とを備え、
前記車線境界検出装置は、さらに、前記画像データを微分して正負のエッジを求め、前記グループ化された中での正負のエッジの状態に基づき走行レーンを求め、該走行レーンの幅W、グループ化されたレーンマーク群に対する左右のレーンマーク群の幅W,Wおよび左右のレーンマーク群の中のレーンマークの数N,Nを検出し、前記レーンマーク群の幅W,Wおよび左右のレーンマーク群の中のレーンマークの数N,Nより、前記レーンマークの標示形態を割り当て、該標示形態に応じて、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の前記中央、もしくは前記正負のエッジに基づきレーンマーク境界位置を求める。
【0011】
上記した手段によれば、撮像手段により所定領域の車線を含む移動体の走行レーンを撮像して、画像データを得る。この得られた画像データに基づき、ヒストグラムを作成し、ヒストグラムの集まりを検出してグループ化を行う。そして、グループ化されたヒストグラムの中で、個々のヒストグラムの中央となる第1中央位置を検出し、第1中央位置に基づき、グループ化されたヒストグラムの集まりの中で中央となる第2中央位置を検出する。更に、異なるグループのヒストグラム間どうしの第2中央位置に基づき、レーンマークまたはレーンマークが複数存在するレーンマーク群の中央を検出し、レーンマーク境界位置を決めるようにしたので、画像データに基づくヒストグラムの作成により、安定したレーンマーク境界位置の検出が行える。例えば、走行レーンにおいて車線の汚れや影等による外乱が存在しても、ヒストグラム自体は大きく変化せず、画像データのヒストグラムを基にし、安定した状態で走行レーンのレーンマーク境界位置が特定される。
【0012】
この場合、ヒストグラムは、画像データの画像濃度による画像ヒストグラムあるいは画像データの微分により求められるエッジのエッジヒストグラムであるため、所定領域の画像濃度を単に累積することによって画像ヒストグラムの作成が行える。あるいは、画像データを単に微分することによりエッジを求め、そのエッジを所定領域累積することによってエッジヒストグラムが求められて作成されるので、簡単な方法により走行レーンのレーンマーク境界位置が特定される。
【0014】
上記のように、画像データを微分して、画像データからの正負のエッジを基にして走行レーンを求め、自車に最も近い走行レーンと他の走行レーンとの間で最も広い空間を出し、その空間を走行レーンの路面幅W0と見なせ得る。そして、走行レーンの左右のレーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRを求め、レーンマーク表示形態を割り当てることによって、レーンマーク境界位置が簡単な方法により求められる。
【0015】
この場合、レーンマークまたはレーンマーク群が、単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジを境界位置とすれば、レーンマークまたはレーンマーク群が単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジがレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置が特定される。
【0016】
また、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央をレーンマーク境界位置とすれば、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央がレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置が特定される。
【0017】
更に、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置とすれば、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置が特定される。
【0018】
【発明の実施の形態】
以下、本発明の一実施形態について、図面を参照して説明する。
【0019】
図1は、車線境界検出装置(以下、本装置と単に称す)1のシステム構成図である。本装置1は、図2および図3に示す、様々なレーンマーク(ここでは、白線30の標示形態(a)〜(j))を安定した状態で検出する。そこで、本装置1について、図1を参照して説明に入る前に、以下に示す事項を定義する。本実施形態においては、本装置1を移動体に搭載した例(具体的には、車両の前方に向けて撮像部2が取り付けられ、車両の進行方向を撮像する構成)についての説明を行うが、移動体は車両には限定されるものではなく、移動が行える電子機械(例えば、ロボット等)であっても良い。また、撮像部2の取り付け方向は、車両の前後方向ではなく白線30が撮像される様、車幅方向であっても良い。更に、本実施形態においては、路面上に付設され、白色および黄色で書かれた線に代表されるレーンマークの事を、総称して白線30と称し、レーンマークがかたまって複数存在する集まりをレーンマーク群(白線群)31として定義する。
【0020】
そこで、図1を参照して、本装置1を説明する。本装置1では、車両の進行方向における走行レーン29を含む風景が、車両の進行方向に向けて設けられた撮像部(カメラ)2により撮像される。この場合、車両の進行方向を撮像するカメラは、本実施形態では一例としてCCDカメラを用いているが、これに限定されるものではなく、赤外線カメラであっても良い。
【0021】
撮像部2により得られた情報(カメラ画像)はアナログ信号であり、このアナログ信号はA/D変換器3に送られ、A/D変換器3によりデジタル化される。デジタル化された情報(デジタル画像データ)は、その後、フレームバッファ4に送られて、その後、エッジ検出部6および濃度分布測定部7に送られる。エッジ検出部6では画像データからエッジが検出される。ここで検出されたエッジは、次にエッジ分布測定部5に入力される。また、これと同時に、エッジ検出部6により検出されたエッジはエッジ分析部9へと送られ、エッジ分析部9にて白線と走行レーンとの区別がなされる。
【0022】
中央位置検出部10は、エッジ分布測定部5および濃度分布測定部7からの情報により、白線30または白線群31の中央の値あるいはその幾何学的重心位置を検出する。更に、度数測定部11では検出された白線30または白線群31の状態が連続的な直線であるのか断続的な直線であるのかを測定する。
【0023】
その後、判定部12ではこれらの検出された情報に基づき、図2に示す白線30の標示形態における走行レーン29と白線30とのレーンマーク境界位置判定を行う。そして、その判定結果を出力部13に伝える。出力部13は検出され特定された白線30の標示形態およびそのレーンマーク境界位置情報を、外部の制御装置に出力する。尚、オフセット設定部8は、所定範囲内に白線がいくつも検出される複合線が白線群31の中に検出された場合、このオフセット設定部8にて設定される定数によって、白線30と走行レーン29とのレーンマーク境界位置を+αだけ広げるよう、白線間の間隔(走行レーンの間隔)を所定範囲+αだけ、広げる作用を有するものである。
【0024】
この様な構成の本装置1は、外部に接続される図示しない制御装置に対して必要な情報(白線形態あるいは白線30と走行レーン29とのレーンマーク境界位置に関する情報)が送られる。この場合、上記した制御装置は、車両を走行レーン29に沿って追従させる自動走行装置、横風や居眠り等によりドライバーの意図とは別に、車両が走行レーン29より離れた場合にステアリング操舵機構を自動的に転舵して、車両の向きを走行レーン29に対して追従させる自動操舵装置、或いは、車両走行中にドライバーの居眠り等により、車両が走行レーンから離れた場合にドライバーに対して注意を促す警報を発するレーン逸脱警報装置等に、信号出力を出力して渡すことができる。
【0025】
更に上記した各ブロックについて、詳細に説明することにする。
【0026】
撮像部2は、CCDカメラにより走行レーン29を含む風景を撮影し、撮像により得られたアナログデータを、A/D変換器3に伝達してデジタルデータ化して画像データを得る。画像データは、その情報を一時的に記憶するフレームバッファ部4に格納される。
【0027】
エッジ検出部6は、フレームバッファ部4に格納された画像データに対し、エッジ検出処理を施して、画像データから輪郭線部分のデータを抽出する。この際、画像データからのエッジ検出は、公知のPrewittsのオペレータを画像データに作用させて微分画像を得て、画像ノイズとなるレベル(ノイズレベル)以上の強度を有する領域を検出し、その領域の重心位置を測定することにより、エッジの中央位置を求め、エッジ点の集まりを検出する。この様な方法によって、カメラ画像からエッジ点群を求めるが、この際、画像データをある走査線41に対して微分した場合、微分の極性が正のエッジデータ群と、負のエッジデータ群とをそれぞれ分けて、記憶する。
【0028】
エッジ分布測定部5は、フレームバッファ部4に格納された画像データに対し、走行レーン29の白線30が映り、且つ、走行レーン幅の最大値を考慮したカメラ画像上の範囲内でウィンドウ42の領域(ウィンドウ領域)を設定する。そして、このウィンドウ領域内でカメラ画像の横方向であるX座標ごとにエッジが検出された点数(エッジ点数)を累積し、エッジヒストグラムを作成する。この場合、エッジヒストグラムは、ウィンドウ42により定義される所定領域の画像データで作成してもよいし、1本以上の走査線41の画像データのみで作成しても良い。また、エッジヒストグラムは、あるタイミングで撮像した1枚の画像から作成しても良いし、時間的に連続した複数枚の画像の画像データから作成しても良い。
【0029】
エッジ分析部9は、エッジ検出部6にて求めた正と負のそれぞれのエッジ点群に対して、公知のHough変換を適用して直線を検出する。この際、検出される直線は1本とは限らない。エッジ分析部9にて検出された直線群に対して、自車に最も近い直線と、それとは異なる直線との間隔が最も広い空間を探し求め、その最も広い空間を、走行レーン29の路面幅Wと見なす。この場合、その路面幅Wの左側に位置する直線は、負のエッジ群により生成される直線であり、その右側に位置する直線は、正のエッジ群により生成される直線である。この車線幅W介して負のエッジ群により生成される直線と正のエッジ群により生成される直線との組み合わせを走行レーン29における最も内側の境界線を表すペア直線と見なすようにしている。また、このエッジ分析部9では、直線の数と幅をカウントする。つまり、後述の白線形態の分類処理の為に、路面幅Wの左のエッジ群により生成された直線の数Nをカウントすると共に、その右のエッジ群により生成された直線の数Nとをカウントする。更には、路面幅Wの左のエッジ群による直線群の最大間隔Wと、右のエッジ群による直線群の最大間隔Wをエッジの間隔より算出する(図4参照)。上記した直線の数N、Nと、左のエッジ群の最大間隔Wおよび右のエッジ群の最大間隔Wは、図3に示す様に、撮像部2により進行方向の白線30を撮像し、あるタイミングにて撮像した1枚のカメラ画像から求めても良いし、時間的に連続した複数枚のカメラ画像から作成した値の平均値により求めても良い。
【0030】
濃度分布測定部7は、フレームバッファ部4に格納された画像データに対し、図3の如く、走行レーン29の左右の白線30が映り、走行レーンの路面幅Wの最大値を考慮した所定の画像範囲内において、エッジ検出を行うウィンドウ42を設定する。このウィンドウ42の範囲(ウィンドウ領域)内で、X座標毎にウィンドウ42の進行方向に対するY座標の奥行き分(ウィンドウ42でのY方向の幅)だけ濃度を累積して濃度ヒストグラムを作成する。この場合、濃度ヒストグラムを求める原画像の画像データは所定のウィンドウ42の画像データで作成しても良いし、1本以上の走査線41による画像データのみで濃度ヒストグラムを作成しても良い。また、別の形態として、濃度ヒストグラムのデータは、所定タイミングにて撮像した1枚の画像データから作成しても良いし、時間的に連続した複数の画像データを用いて作成しても良い。
【0031】
中央位置検出部10は、濃度分布測定部7が出力する図4の(a)に示される画像データの原画像におけるデータに対して、路面濃度以上の高いしきい値を設定し、そのしきい値以上となる範囲でヒストグラムを作成している。例えば、図3において、撮像部2は、図3におけるカメラ画像において、左から右に走査線41を走査する。そして、原画像の濃度が路面濃度により決まる所定のしきい値以上となる範囲で、図4の(b)の様に濃度ヒストグラムを原画像データより求める。その後、個々の濃度ヒストグラムにおいて幾何学的な中心位置あるいは重心位置となる中央位置1を求め、図4の(c)の如く、各白線30の中央位置である中央位置1を検出する。この様な処理をX座標の右端の位置まで繰り返して、白線30の数と位置を検出する。
【0032】
また、走行レーン29の左側に存在する、濃度がしきい値以上であるヒストグラムが単一の白線30だけでなく、複数の白線30が集まった白線群(例えば、実線32,破線33等)31である場合には、白線群31における個々のヒストグラムの全てに対する幾何学的な重心位置あるいは中央位置を算出し、路面幅Wの左側に存在する白線群31の中心位置を求める。同様にして、路面幅Wの右側に存在する所定の濃度しきい値以上となるヒストグラムの全てに対する幾何学的な重心位置あるいは中央位置を求め、路面幅Wの右側に存在する白線群31の中央位置を求める。以上により、走行レーン29の左右両側に存在する白線30間の境界を確実に検出することができる(図4の(d)参照)。
【0033】
出現度数測定部11は、濃度分布測定部7にて作成された濃度ヒストグラムのデータに対して路面の濃度値より高いしきい値を設定し、ヒストグラムのデータが所定しきい値以上となる範囲を1グループとしてグループ化して、1画像データ内でのグループ化された複数のグループの出現頻度Nと、その各グループの時系列的な出現頻度Nの度数をカウントする。所定の時間内におけるグループの出現頻度Nと時系列的なグループの出現頻度Nの大きい方の和、または、積を求めると、実線32による白線30の場合は時系列的にグループの出現度数が高くなる。一方、破線33やブロック状34の白線では時系列で見ると、出現頻度が低くなる。よって、この様な出現頻度の現れ方の特性を利用して、白線30の構成要素である実線32、破線33、或いは、ブロック状34の白線30を正確に判定することができる。
【0034】
オフセット設定部8は、実線32や破線33と言った様々な種類の白線30により構成される複合線が検出される場合に、走行レーン両側の白線の内側境界から外側方向に対して、所定値(α)を加え、走行レーンの路面幅を広くするため、その所定値を本装置内のメモリに記憶させて、設定することができるようになっている。
【0035】
判定部12は、走行レーン29を区分する境界線、つまり、1本または複数の白線30にて構成されているとき、図2に示す複数の白線形態からパターンが判定され、白線30の標示形態により、どこからの位置を走行レーン20の境界(レーン境界)と見なすかを判定するものであり、以下に白線30の標示形態からの判定方法について説明する。
【0036】
(1)単線、偶数本の多重線、ゼブラで構成される車線の境界線であるとき、左右の白線群31で形成される路面幅Wが道路幅相当であり、(表1)に該当する場合には、路面幅Wに接する直線を走行レーン29の境界を示す位置として出力部13に出力する。
【0037】
具体的には、以下の場合には白線30により決定される走行レーン29に対して、左右の白線間の最も内側の境界位置(本実施形態においては、これを「内のり」と定義する)を、レーンマーク境界線とする。
【0038】
【表1】

Figure 0004032727
単線:白線30は単線であり、その幅Wが15〜20cmである実線32、または、白線30は単線で、その幅が15〜20cmである破線33(図6の(a),(b)参照)
合流・分岐・登坂斜線:一方(右)の車線境界線が15cmまたは20cmであり且つ他方(左)の白線30が幅の広いブロック状34,35であり、左右の白線領域のW,Wは、30〜100cmである(図6の(c),(d)参照)。
【0039】
ゼブラ:一方(右)の車線境界線が15cmまたは20cmであり且つ他方(左)の白線が幅の広いゼブラ37であり、左右の白線領域のW,Wは、30cm以上の不定である(図6の(e)参照)。
【0040】
多重線:多重線38,39は、同じ太さの白線が所定本数(偶数本)以上、あるいは、合計の幅が所定以上で構成されており、左右の白線領域のW,Wは、30cm以上である。この場合、白線領域の左右の直線数N,Nは、2か4以上となる(図6の(f),(g)参照)。
【0041】
(2)奇数本の多重線、複合線区間の車線境界線51,52であるとき、左右の白線群31の距離となる路面幅Wが道路幅相当であり、(表2)に該当する場合には、濃度分布の中央位置出力2の位置を走行レーンの境界を示す位置として出力部13に出力する。
【0042】
【表2】
Figure 0004032727
多重線:同じ太さの白線が奇数本、あるいは、合計の幅が所定以下で構成されており、左右の白線領域のW,Wは、35cm以上である。この場合、白線領域の左右の直線数N,Nは、3となる(図7の(a),(b)参照)。
【0043】
複合線区間:単線の破線とブロック状の白線との組み合せで構成されており、左右の白線領域のW,Wは、45cm以上である。この場合、白線領域の左右の直線数N,Nは、3となる(図7の(c),(d)参照)。
【0044】
(3)複合区間、複合線区間の車道外側線61、複合線区間の車線境界線62、複合線区間の車道外側線61であるとき、左右の白線群31の距離となる路面幅Wが道路幅相当であり、(表3)に該当する場合には、路面幅Wに接する直線に対して走行レーン29の外側方向に所定値(α)を加えた位置を走行レーン29の境界を示す位置として出力部13に出力する。
【0045】
【表3】
Figure 0004032727
複合線区間: 急激にレーン幅Wが減少し、また、減少前のレーン境界位置より内側のブロック状道路標示の存在を認めた場合、左右の白線領域のW,Wは、45cm以上であり、白線領域の左右の直線数N,Nは、3となる(図8の(a)参照)。
【0046】
複合線区間の車道外側線: 単線実線とブロック線との組み合せで構成されており、左右の白線領域のW,Wは、45cm以上であり、白線領域の左右の直線数N,Nは、3となる(図8の(b)参照)。
【0047】
複合線区間の車線境界線: 単線破線とブロック線との組み合せで構成されているが、各白線の境界線が不明瞭であり、左右の白線領域のW,Wは、45〜85cmであり、白線領域の左右の直線数N,Nは、1となる(図8の(c)参照)。
【0048】
複合線区間の車道外側線: 単線実線とブロック線との組み合わせで構成されているが、各白線の境界線が不明瞭であり、左右の白線領域のW,Wは、45〜55cmであり、白線領域の左右の直線数N,Nは、1となる(図8の(d)参照)。
【0049】
出力部13は、判定部12により決定されたレーンマーク境界位置を示す信号が、外部の警報装置や速度制御装置等に代表されるシステム制御装置に対して出力される。
【0050】
本実施形態においては、濃度分布測定部7が出力する濃度ヒストグラムに対する処理と同様に、エッジ分布測定部5が出力するエッジヒストグラムに対して、中央位置検出部10と出現度数測定部11との処理を行い、レーン境界位置を求めることができる。
【0051】
次に、走行レーンのレーン検出における本装置1の処理について、図9から図11を参照して説明する。
【0052】
(第1実施形態)
図9に第1実施形態におけるレーン検出方法を示す。このレーン検出処理では、ステップS10にて、撮像部2により車両の進行方向の白線30を含む風景を撮像し、その撮像した情報をカメラ画像としてフレームバッファ部4に入力する。ステップS11では画像データを微分することによりエッジ検出がなされる。エッジ検出後、ステップS12では、画像データを微分した場合、極性が負となる負エッジ群と、極性が正となる正エッジ群を求める。また、エッジがかたまって存在するエッジ点群に対し、左右のエッジ群にて分類する。ステップS12で求めた左右のエッジ群に対して、ステップS13では公知のHough変換を行い、エッジ群から直線を決定する。そして、ステップS14では、負エッジ群より生成された直線と正エッジ群より生成された直線の組み合せにより、自車に最も近い直線と別の直線とで間隔が最も広い空間において、その空間の一方が負のエッジとなり、他方が正のエッジとなる幅を路面幅Wとして、図4に示す様に決定する。
【0053】
ステップS14にて走行レーン29に対して、路面幅Wの両端のエッジにより左右の境界線が検出されると、この境界線を基にして、ステップS15ではエィンドウ42の領域設定が行われる。ここでは、左右両方の境界線が含まれ、検出対象となる領域においてY方向の奥行きが決定されて、ウィンドウ42の領域が設定される。この場合、X方向およびY方向のウィンドウ42の大きさは固定であっても、走行状態により大きさを変化させても良い。
【0054】
ウィンドウ42の設定がなされると、ステップS16では、図4の(b)に示す如く、ウィンドウ42の範囲内での原画像に対して、濃度ヒストグラムの作成が行われる。そして、ノイズレベル(ノイズの濃度しきい値)以上の画像データから、ステップS17では濃度ヒストグラムの幾何学的重心あるいは中央位置を公知の算出方法により求め、その点を個々に存在する白線中央位置とする(図4の(c)に示す中央位置1)。また、ステップS17にて個々の白線中央位置が求まると、今度は、ステップS18にて出現度数の測定がなされる。この出現度数の測定とは、濃度ヒストグラムのデータに対して路面の濃度以上となる濃度領域をグループ化する。そして、画面内での出現度数Nと時間的な出現度数Nをカウントして、所定時間内の出現頻度Nと出現度数Nの和または積等の比較を行う。次のステップS19ではレーンマーク境界位置を求めるレーン境界位置判定を行い、ここでは、(表1)から(表3)に従う判定により、白線30を実線32、破線33、ブロック状34、ゼブラ37、多重線38,39等に形態により分類する。そして、ステップS20にて、ステップS19より判定したレーンマーク境界位置として、外部の制御装置に出力する。
【0055】
図9に示す第1実施形態におけるレーン検出方法では、画像データからの濃度ヒストグラムを作成することにより、走行レーン29に対する左右の濃度ヒストグラムの幾何学的な重心位置あるいは中央位置を求めることによって、走行レーン29の左右に存在する個々の白線30あるいは白線群31の中央位置がわかる。これによって、レーンマーク境界位置を正確に検出し、外部装置に対しても正確なレーン境界情報を出力することができる。
【0056】
(第2実施形態)
次に、レーン検出処理の第2実施形態について、図10を参照して説明する。図10に示す第2実施形態では、基本的なレーン検出処理方法は、図9に示す第1実施形態と概略は同じである。しかし、図9の第1実施形態においては、濃度ヒストグラムデータから左右の白線群31の中央位置あるいは重心位置を求めていたものに代わって、図10に示す第2実施形態では、画像データを微分した場合に検出されるエッジに基き、エッジヒストグラムより左右の白線群31の中央位置あるいは重心位置を求める方法が、図9と異なっている。
【0057】
つまり、図9に示すステップ16が、図10ではステップS16aに代わっている。このステップS16aでは、原画像からの正のエッジおよび負のエッジを検出し、検出された正および負のエッジをウィンドウ42のY方向における奥行き分(Y方向の幅分)だけ累積することにより、図5の(c)に示す如く、個々の正負のエッジヒストグラムを作成する。このエッジに基づくエッジヒストグラムより幾何学的重心あるいは中央位置を、図5の(d)に示す如く、正と負で求める。そして、その正と負のエッジの中心を、図5の(e)の如く、個々の白線の中央位置として求める。更にその後、白線群31の中央となる位置を、図5の(f)の如く求め、エッジヒストグラムよりレーンマーク境界位置を正確に検出し、外部装置に対しても正確なレーン境界情報を出力することができる。この様に、ヒストグラムにエッジを用いることにより、レーンマーク境界位置を決定し易くできる。
【0058】
(第3実施形態)
図11に、第3実施形態を示す。この図11に示すフローチャートは、図9に示す第1実施形態と、図10に示す第2実施形態を組み合せた例であり、図11に示す左側の処理であるステップS10−S20は、図9に示すステップS10−S20に一致し、図11に示す右側の処理であるステップS15a−S19aが図10に示すステップS15−S19に相当する。この方法によれば、一方の処理(左側の処理)では濃度ヒストグラムによりレーンマーク境界位置を決定し、他方の処理(右側の処理)ではエッジヒストグラムよりレーンマーク境界位置を決定するようにしたので、これらの2つの処理は走行する路面状況に応じて切り替える様にすることもできる。例えば、白線30が標示される路面の状態をセンサ等により検出し、路面状態に応じてスイッチ等の切替手段によって、2つのレーン検出処理を並列処理しても良い。また、これとは別に、並列処理でなく、直列処理も行えることは言うまでもない。
【0059】
上記した様に、本実施形態においては、境界線を構成する白線群の中で、最も内側の境界位置または、白線群31の中央位置あるいは重心位置を検出する方法を取るので、白線群間31の隙間の境界を検出しなくても良い。このため、走行路面において白線30の汚れや影等による外乱が存在しても、安定して走行レーンのレーンマーク境界位置を特定できる。また、画像処理における画像信号に対しての分解能が低くても、安定した状態にてレーン境界位置を特定することができる。
【0060】
【発明の効果】
本発明によれば、撮像手段により所定領域の車線を含む移動体の走行レーンを撮像し、得られた画像データに基づき、ヒストグラムを作成してヒストグラムの集まりを検出してグループ化を行う。そして、グループ化されたヒストグラムの中で、個々のヒストグラムの中央となる第1中央位置を検出し、第1中央位置に基づき、グループ化されたヒストグラムの集まりの中で中央となる第2中央位置を検出し、異なるグループのヒストグラム間どうしの第2中央位置に基づき、レーンマークまたはレーンマークが複数存在するレーンマーク群の中央を検出し、レーンマーク境界位置を決めるようにしたので、画像データに基づくヒストグラムの作成により、安定したレーンマーク境界位置の検出を行ことができる。例えば、走行レーンにおいて車線の汚れ、剥がれ、影、低コントラスト等による外乱により、白線情報の欠陥があっても、ヒストグラム自体は大きく変化せず、画像データのヒストグラムを基にし、安定した状態で走行レーンのレーンマーク境界位置を特定することができる。これによって、この車線境界検出装置を車両に適用した場合には、レーンマーク境界位置を安定した状態で特定できるので、レーンマーク境界位置を制御内で使用する制御装置(例えば、自動走行装置、自動操舵装置、レーン逸脱警報装置等)の信頼性を向上させることができる。
【0061】
この場合、ヒストグラムは、画像データの画像濃度による画像ヒストグラムあるいは画像データの微分により求められるエッジのエッジヒストグラムであるため、所定領域の画像濃度を単に累積することによって画像ヒストグラムの作成ができる。あるいは、画像データを単に微分することによりエッジを求め、そのエッジを所定領域累積することによってエッジヒストグラムが作成できるので、簡単な方法により、走行レーンのレーンマーク境界位置を特定することができる。
【0062】
また、画像データを微分して、正負のエッジを求め、グループ化された中での正負のエッジの状態に基づき走行レーンを求め、走行レーンの幅W0、グル
ープ化されたレーンマーク群の左右のレーンマーク群の幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRを検出し、レーンマーク群の左右の走行レーン幅WL,WRおよび左右のレーンマーク群の中のレーンマークの数NL,NRより、レーンマークの標示形態を割り当て、標示形態によりレーンマーク境界位置を求めるようにしたので、画像データからの正負のエッジを基にして走行レーンを求め、自車に最も近い走行レーンと他の走行レーンとの間で最も広い空間を検出し、その空間を走行レーンの路面幅W0と見なすことができる。そして、走行レーンの左右の走行レーン幅WL,WRおよび左右の走行レーン数NL,NRを求め、レーンマーク表示形態を割り当てることによって、レーンマーク境界位置を簡単な方法により求めることができる。
【0063】
この場合、レーンマークまたはレーンマーク群が、単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジを境界位置とすれば、レーンマークまたはレーンマーク群が単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、走行レーン両側のレーンマークに対して最も内側にある正負のエッジがレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置を特定することができる。
【0064】
また、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央をレーンマーク境界位置とすれば、レーンマーク群が、奇数本の多重線、複合線区間の車線境界線の場合には、グループ化されたレーンマーク群の中央をレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置を特定することができる。
【0065】
更に、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置とすれば、レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、走行レーン両側の車線に対して最も内側にある正負のエッジに所定範囲α を加えたものをレーンマーク境界位置となり、標示形態により確実にレーンマーク境界位置を特定することができる。
【図面の簡単な説明】
【図1】本発明の一実施形態における車線境界検出装置の構成を示したブロック図である。
【図2】一般に路面に設けられる白線の標示形態の一例を示す説明図である。
【図3】図1に示す車線境界検出装置の撮像部によって撮像された画像データを示す平面図である。
【図4】図1に示す撮像部より撮像された画像データ(原画像)から濃度のヒストグラムを求め、エッジ検出を行うタイミングチャートである。
【図5】図1に示す撮像部より撮像された画像データ(原画像)から濃度のヒストグラムを求め、エッジ検出を行い白線群の中央位置を求めるタイミングチャートである。
【図6】本発明の一実施形態における車線境界検出装置によって決定された走行レーンと白線との車線境界(内のり)を示す説明図である。
【図7】本発明の一実施形態における車線境界検出装置によって決定された走行レーンと白線との車線境界(中央)を示す説明図である。
【図8】本発明の一実施形態における車線境界検出装置によって決定された走行レーンと白線との車線境界(内のり+α)を示す説明図である。
【図9】第1実施形態におけるレーン検出の処理を示すフローチャートである。
【図10】第2実施形態におけるレーン検出の処理を示すフローチャートである。
【図11】第3実施形態におけるレーン検出の処理を示すフローチャートである。
【符号の説明】
1 車線境界検出装置
2 撮像部(撮像手段)
6 エッジ検出部(グループ作成手段)
7 濃度分布測定部(ヒストグラム作成手段)
10 中央位置検出部
(第1中央位置検出手段、第2中央位置検出手段、車線中央位置検出手段)
29 ウィンドウ(所定領域)
30 白線(レーンマーク)[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a lane boundary detection device that detects a boundary position of a lane mark (for example, a white line) provided in a travel lane when the mobile body travels on a travel path (travel lane), The present invention relates to a lane boundary detection device that detects the boundary position regardless of the type of lane mark.
[0002]
[Prior art]
In recent years, in a vehicle, an automatic traveling device that causes the vehicle to follow the traveling lane, a steering steering mechanism provided in the vehicle when the vehicle is separated from the traveling lane, apart from the driver's intention due to crosswind or doze The vehicle is moved away from the driving lane due to the automatic steering device that automatically steers the steering mechanism using the vehicle to follow the traveling direction of the vehicle with respect to the driving lane, or the driver falls asleep while driving the vehicle. In such a case, it is necessary to detect a white line in a lane departure warning device that issues a warning to alert the driver.
[0003]
For example, in such an apparatus, a camera (for example, a CCD camera) is attached to the vehicle in the traveling direction of the vehicle, and an image ahead of the traveling lane is acquired by the CCD camera provided in the vehicle. Then, white line detection is performed using an image processing technique based on the camera image captured by the camera.
[0004]
For example, in the white line detection device disclosed in Japanese Patent Laid-Open No. 63-142478, an external environment is imaged by a camera, and edge detection is performed from a set of points where the camera image captured by the camera changes in brightness. Then, a white line is detected by classifying a white line pattern from a set of center points of the area, and applying a Hough transform to a region whose edge width is equal to or smaller than a predetermined width.
[0005]
In general, white line detection in a travel lane distinguishes between the travel lane and the white line from the image captured by the camera using the characteristic that the white line is brighter than the road surface. Specifically, differentiation is performed on the camera image obtained by the camera, and after extracting the outline data of the white line, the width of the white line is 15 to 20 cm in the pattern extending in the direction along the road surface. If the mutual interval is equivalent to the design standard value as the lane width, it is determined as a white line (see, for example, JP-A-6-119594).
[0006]
[Problems to be solved by the invention]
However, the above-described white line detection method always assumes that there is one white line on both sides of the travel lane on which the vehicle travels. Usually, not only one white line but also a plurality of white lines or There are many types such as lanes and block-shaped white lines. For example, as shown in FIG. 2, when there are a plurality of traveling lanes, a white line (a) having a lane width L, a white line (b) on one lane, one on the uphill lane, and the other on a block-shaped white line ( c) White lines (d) and (e) composed of solid lines and broken lines and block-shaped white lines provided at places where the speed is reduced in front of curves and tunnels, white lines indicating center lines and roadsides, highways, etc. White lines (g) and (h) provided in the temporary shared section provided in the location of one lane on one side, white lines (i) provided in the zebra zone that prohibits the vehicle from entering the predetermined area, branch points and junctions There are various things such as the white line (j) provided in the. The marking form of the lane mark represented by these white lines is defined by laws and regulations.
[0007]
When a vehicle travels along a white line provided on the road surface and the white line is provided on the driving lane, a plurality of parallel line segments appear along the direction of the driving lane. For this reason, it becomes difficult to specify the boundary position (lane mark boundary position) with the white line of the traveling lane. As described above, when it becomes difficult to specify the lane mark boundary position of the traveling lane, the lane deviated from the traveling lane is detected.
[0008]
Therefore, when this lane detection is applied to a vehicle control device that controls the traveling of a moving body, a case where desired performance cannot be achieved may occur.
[0009]
Therefore, the present invention has been made in view of the above-described problems, and an object of the present invention is to detect a lane boundary of a traveling lane in a stable state.
[0010]
[Means for Solving the Problems]
The technical means taken in order to solve the above-mentioned problem is that the imaging means provided on the moving body images the lane mark of the predetermined area and the traveling lane of the moving body, and performs image processing on the captured image data. In a lane boundary detection device that detects at least a boundary of a single lane mark,
Based on the image data, An edge of an edge obtained by image histogram based on image density of the image data or differentiation of the image data Histogram creation means for creating a histogram, group creation means for grouping the set of histograms, and a first center for detecting a first center position that is the center of each histogram among the grouped histograms Based on the position detection means, the second center position detection means for detecting the second center position that is the center of the grouped histogram based on the first center position, and the second center position between different groups, A lane center position detecting means for detecting the center of a lane mark or a lane mark group having a plurality of lane marks,
The lane boundary detection device further includes: The image data is differentiated to obtain a positive / negative edge, a traveling lane is obtained based on the state of the positive / negative edge in the group, and the width W of the traveling lane 0 The width W of the left and right lane mark groups with respect to the grouped lane mark group L , W R And the number N of lane marks in the left and right lane mark groups L , N R , And the width W of the lane mark group L , W R And the number N of lane marks in the left and right lane mark groups L , N R Assigning the marking form of the lane mark to the marking form Depending on the lane mark or the center of the lane mark group including a plurality of lane marks, or the positive and negative edges. Find the lane mark boundary position.
[0011]
According to the above-mentioned means, the image data is obtained by imaging the traveling lane of the moving body including the lane in the predetermined area by the imaging means. A histogram is created based on the obtained image data, and a group of histograms is detected and grouped. Then, a first center position that is the center of each histogram is detected from the grouped histograms, and a second center position that is the center in the group of the grouped histograms based on the first center position. Is detected. Further, since the center of the lane mark group where a plurality of lane marks or a plurality of lane marks exist is detected based on the second center position between the histograms of different groups and the lane mark boundary position is determined, the histogram based on the image data This makes it possible to detect a stable lane mark boundary position. For example, even if there is disturbance due to lane stains or shadows in the lane, the histogram itself does not change greatly, and the lane mark boundary position of the lane is specified in a stable state based on the histogram of the image data. .
[0012]
In this case, the histogram is an image histogram based on the image density of the image data or an edge histogram of edges obtained by differentiation of the image data. For The image histogram can be created by simply accumulating the image density in a predetermined area. Alternatively, the edge is obtained by simply differentiating the image data, and the edge histogram is obtained and created by accumulating the edges in a predetermined area, so that the lane mark boundary position of the traveling lane is specified by a simple method.
[0014]
as mentioned above, Differentiate image data do it Then, a travel lane is obtained based on the positive and negative edges from the image data, and the widest space is created between the travel lane closest to the vehicle and other travel lanes, and this space is regarded as the road surface width W0 of the travel lane. It can be done. The widths WL and WR of the left and right lane mark groups of the traveling lane and the numbers NL and NR of the lane marks in the left and right lane mark groups are obtained, and the lane mark display position is assigned, thereby simplifying the lane mark boundary position. Determined by the method.
[0015]
In this case, if the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at If the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at Becomes the lane mark boundary position, and the lane mark boundary position is reliably specified by the marking form.
[0016]
If the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group Center Is the lane mark boundary position, and if the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group In the middle It becomes the lane mark boundary position, and the lane mark boundary position is surely specified by the marking form.
[0017]
Furthermore, when the lane mark group is a composite line section or a roadway outer line / lane boundary line of the composite line section, it is the innermost side with respect to the lanes on both sides of the lane. On a positive or negative edge If the lane mark boundary position is defined by adding the predetermined range α, when the lane mark group is a compound line section or a roadway outside line / lane boundary line of a compound line section, it is on the inside On a positive or negative edge The lane mark boundary position is obtained by adding the predetermined range α, and the lane mark boundary position is reliably specified by the marking form.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[0019]
FIG. 1 is a system configuration diagram of a lane boundary detection device (hereinafter simply referred to as this device) 1. The present apparatus 1 detects various lane marks (in this case, marking forms (a) to (j) of the white line 30) shown in FIGS. 2 and 3 in a stable state. Therefore, the following items are defined for the apparatus 1 before entering the description with reference to FIG. In the present embodiment, an example in which the apparatus 1 is mounted on a moving body (specifically, a configuration in which the imaging unit 2 is attached toward the front of the vehicle and images the traveling direction of the vehicle) will be described. The moving body is not limited to a vehicle, and may be an electronic machine (for example, a robot) that can move. Further, the mounting direction of the imaging unit 2 may be the vehicle width direction so that the white line 30 is captured instead of the vehicle front-rear direction. Furthermore, in the present embodiment, the lane marks attached to the road surface and represented by the lines written in white and yellow are collectively referred to as the white line 30, and a group of a plurality of lane marks is collected. A lane mark group (white line group) 31 is defined.
[0020]
The apparatus 1 will be described with reference to FIG. In the present apparatus 1, a landscape including a travel lane 29 in the traveling direction of the vehicle is imaged by an imaging unit (camera) 2 provided in the traveling direction of the vehicle. In this case, the camera that captures the traveling direction of the vehicle uses a CCD camera as an example in the present embodiment, but is not limited thereto, and may be an infrared camera.
[0021]
The information (camera image) obtained by the imaging unit 2 is an analog signal, which is sent to the A / D converter 3 and digitized by the A / D converter 3. The digitized information (digital image data) is then sent to the frame buffer 4 and then sent to the edge detection unit 6 and the density distribution measurement unit 7. The edge detection unit 6 detects an edge from the image data. The detected edge is input to the edge distribution measuring unit 5 next. At the same time, the edge detected by the edge detection unit 6 is sent to the edge analysis unit 9, and the edge analysis unit 9 distinguishes between the white line and the travel lane.
[0022]
The center position detection unit 10 detects the center value of the white line 30 or the white line group 31 or the geometric center of gravity position based on the information from the edge distribution measurement unit 5 and the density distribution measurement unit 7. Furthermore, the frequency measuring unit 11 measures whether the detected white line 30 or white line group 31 is a continuous straight line or an intermittent straight line.
[0023]
Thereafter, the determination unit 12 determines the lane mark boundary position between the traveling lane 29 and the white line 30 in the marking form of the white line 30 shown in FIG. 2 based on the detected information. Then, the determination result is transmitted to the output unit 13. The output unit 13 outputs the detected form of the identified white line 30 and the lane mark boundary position information to an external control device. Note that when a composite line in which a number of white lines are detected within a predetermined range is detected in the white line group 31, the offset setting unit 8 travels with the white line 30 according to a constant set by the offset setting unit 8. The distance between the white lines (the distance between the driving lanes) is increased by a predetermined range + α so that the lane mark boundary position with the lane 29 is increased by + α.
[0024]
The apparatus 1 having such a configuration sends necessary information (information on the white line form or the lane mark boundary position between the white line 30 and the traveling lane 29) to a control device (not shown) connected to the outside. In this case, the control device described above is an automatic traveling device that causes the vehicle to follow the traveling lane 29, and automatically controls the steering mechanism when the vehicle leaves the traveling lane 29, apart from the driver's intention due to a crosswind or doze. Automatically steer and follow the direction of the vehicle with respect to the driving lane 29, or when the vehicle leaves the driving lane due to the driver falling asleep during driving, etc. A signal output can be output and passed to a lane departure warning device or the like that issues a warning to prompt.
[0025]
Further, each block described above will be described in detail.
[0026]
The imaging unit 2 captures a landscape including the traveling lane 29 with a CCD camera, transmits analog data obtained by the imaging to the A / D converter 3 and converts it to digital data to obtain image data. The image data is stored in the frame buffer unit 4 that temporarily stores the information.
[0027]
The edge detection unit 6 performs edge detection processing on the image data stored in the frame buffer unit 4 and extracts contour line data from the image data. At this time, the edge detection from the image data is performed by applying a known Prewitts operator to the image data to obtain a differential image, detecting a region having an intensity higher than a level (noise level) that becomes image noise, and detecting the region. By measuring the position of the center of gravity, the center position of the edge is obtained, and a collection of edge points is detected. By such a method, an edge point group is obtained from a camera image. At this time, when the image data is differentiated with respect to a certain scanning line 41, an edge data group having a positive polarity and a negative edge data group are obtained. Are stored separately.
[0028]
The edge distribution measuring unit 5 shows the white line 30 of the traveling lane 29 in the image data stored in the frame buffer unit 4 and the window 42 within the range on the camera image considering the maximum value of the traveling lane width. Set the area (window area). Then, the number of points (edge points) at which edges are detected is accumulated for each X coordinate in the horizontal direction of the camera image within this window region, and an edge histogram is created. In this case, the edge histogram may be created from image data of a predetermined area defined by the window 42, or may be created from only image data of one or more scanning lines 41. The edge histogram may be created from one image captured at a certain timing, or may be created from image data of a plurality of images that are temporally continuous.
[0029]
The edge analysis unit 9 detects a straight line by applying a known Hough transform to each of the positive and negative edge point groups obtained by the edge detection unit 6. At this time, the detected straight line is not necessarily one. With respect to the straight line group detected by the edge analysis unit 9, a space having the widest distance between the straight line closest to the vehicle and a different straight line is searched for, and the widest space is determined as the road surface width W of the driving lane 29. 0 Is considered. In this case, the road width W 0 The straight line located on the left side of is a straight line generated by a negative edge group, and the straight line located on the right side thereof is a straight line generated by a positive edge group. This lane width W 0 Thus, the combination of the straight line generated by the negative edge group and the straight line generated by the positive edge group is regarded as a pair straight line representing the innermost boundary line in the travel lane 29. The edge analysis unit 9 counts the number and width of straight lines. In other words, the road surface width W for the white line form classification process described later. 0 Number N of straight lines generated by the left edge group of L And the number N of straight lines generated by the right edge group R And count. Furthermore, the road surface width W 0 Maximum distance W between straight lines by the left edge group L And the maximum distance W between straight lines by the right edge group R Is calculated from the edge interval (see FIG. 4). Number of straight lines N L , N R And the maximum interval W of the left edge group L And the maximum spacing W of the right edge group R As shown in FIG. 3, the white line 30 in the traveling direction is imaged by the imaging unit 2, and may be obtained from one camera image captured at a certain timing, or a plurality of temporally continuous camera images. You may obtain | require by the average value of the value produced from.
[0030]
As shown in FIG. 3, the density distribution measurement unit 7 displays the left and right white lines 30 of the travel lane 29 on the image data stored in the frame buffer unit 4, and the road surface width W of the travel lane. 0 A window 42 for edge detection is set within a predetermined image range in consideration of the maximum value of. Within the range (window region) of this window 42, the density histogram is created by accumulating the density for each X coordinate by the depth of the Y coordinate (the width in the Y direction in the window 42) with respect to the traveling direction of the window 42. In this case, the image data of the original image for obtaining the density histogram may be created from the image data of the predetermined window 42, or the density histogram may be created only from the image data of one or more scanning lines 41. As another form, the density histogram data may be created from one piece of image data captured at a predetermined timing, or may be created using a plurality of temporally continuous image data.
[0031]
The center position detection unit 10 sets a threshold value higher than the road surface density to the data in the original image of the image data shown in FIG. A histogram is created in the range that exceeds the value. For example, in FIG. 3, the imaging unit 2 scans the scanning line 41 from left to right in the camera image in FIG. Then, a density histogram is obtained from the original image data as shown in FIG. 4B within a range where the density of the original image is not less than a predetermined threshold determined by the road surface density. Thereafter, the center position 1 which is the geometric center position or the center of gravity position is obtained in each density histogram, and the center position 1 which is the center position of each white line 30 is detected as shown in FIG. Such processing is repeated up to the right end position of the X coordinate, and the number and position of the white lines 30 are detected.
[0032]
In addition, a white line group (for example, a solid line 32, a broken line 33, etc.) 31 in which a plurality of white lines 30 are collected in addition to a single white line 30 in the histogram present on the left side of the traveling lane 29 and having a density equal to or higher than a threshold value. Is calculated, the geometric center-of-gravity position or center position for all of the individual histograms in the white line group 31 is calculated, and the road surface width W 0 The center position of the white line group 31 existing on the left side is obtained. Similarly, road width W 0 The geometric center-of-gravity position or center position for all histograms that are equal to or higher than a predetermined density threshold existing on the right side of the road is obtained, and the road surface width W 0 The center position of the white line group 31 existing on the right side of is obtained. As described above, the boundary between the white lines 30 existing on the left and right sides of the traveling lane 29 can be reliably detected (see FIG. 4D).
[0033]
The appearance frequency measuring unit 11 sets a threshold value higher than the density value of the road surface for the density histogram data created by the density distribution measuring unit 7, and sets a range in which the histogram data is equal to or greater than a predetermined threshold value. Appearance frequency N of a plurality of groups grouped in one image data as one group S And the time-series appearance frequency N of each group T Count the frequency of. Group appearance frequency N within a predetermined time S And frequency of appearance of time-series groups N T When the sum or product of the larger one is obtained, in the case of the white line 30 by the solid line 32, the frequency of appearance of the group increases in time series. On the other hand, the appearance frequency of the broken line 33 and the white line of the block 34 is low when viewed in time series. Therefore, it is possible to accurately determine the solid line 32, the broken line 33, or the block-shaped white line 30 that is a constituent element of the white line 30 by using such a characteristic of appearance frequency.
[0034]
When a composite line composed of various types of white lines 30 such as a solid line 32 and a broken line 33 is detected, the offset setting unit 8 determines a predetermined value from the inner boundary of the white line on both sides of the lane to the outer side. In order to increase the road surface width of the traveling lane by adding (α), the predetermined value can be stored in the memory in the apparatus and set.
[0035]
The determination unit 12 determines a pattern from a plurality of white line forms shown in FIG. 2 when a boundary line that divides the lane 29, that is, one or a plurality of white lines 30, and indicates a white line 30 sign form. Thus, the position from which the position is regarded as the boundary (lane boundary) of the traveling lane 20 is determined, and the determination method from the indication form of the white line 30 will be described below.
[0036]
(1) Road surface width W formed by the left and right white line group 31 when it is a boundary line of a lane composed of a single line, an even number of multiple lines, and a zebra 0 Is equivalent to the road width, and if it falls under (Table 1), the road surface width W 0 Is output to the output unit 13 as a position indicating the boundary of the traveling lane 29.
[0037]
Specifically, in the following case, the innermost boundary position between the left and right white lines (in the present embodiment, this is defined as “inner”) with respect to the travel lane 29 determined by the white line 30. Lane mark boundary line.
[0038]
[Table 1]
Figure 0004032727
Single line: The white line 30 is a single line and its width W 0 Is a solid line 32 having a length of 15 to 20 cm, or a white line 30 is a single line, and a broken line 33 having a width of 15 to 20 cm (see FIGS. 6A and 6B).
Junction / branch / hill slope oblique line: One (right) lane boundary line is 15 cm or 20 cm, and the other (left) white line 30 is wide blocks 34 and 35, and W in the left and right white line regions L , W R Is 30 to 100 cm (see FIGS. 6C and 6D).
[0039]
Zebra: One (right) lane boundary is 15 cm or 20 cm, and the other (left) white line is a wide zebra 37. L , W R Is indefinite of 30 cm or more (see FIG. 6E).
[0040]
Multiple lines: The multiple lines 38 and 39 are configured such that white lines having the same thickness are equal to or greater than a predetermined number (even number) or a total width is equal to or greater than a predetermined width. L , W R Is 30 cm or more. In this case, the number N of left and right straight lines in the white line region L , N R Is 2 or 4 or more (see (f) and (g) of FIG. 6).
[0041]
(2) Road surface width W that is the distance between the left and right white line groups 31 when the lane boundary lines 51 and 52 are an odd number of multiple lines and composite line sections. 0 Is equivalent to the road width and corresponds to (Table 2), the position of the central position output 2 of the concentration distribution is output to the output unit 13 as a position indicating the boundary of the traveling lane.
[0042]
[Table 2]
Figure 0004032727
Multiple lines: The number of white lines having the same thickness is an odd number, or the total width is equal to or less than a predetermined width. L , W R Is 35 cm or more. In this case, the number N of left and right straight lines in the white line region L , N R Is 3 (see FIGS. 7A and 7B).
[0043]
Composite line section: Consists of a combination of a single broken line and a block-shaped white line. L , W R Is 45 cm or more. In this case, the number N of left and right straight lines in the white line region L , N R Is 3 (see FIGS. 7C and 7D).
[0044]
(3) Road width W that is the distance between the left and right white line group 31 when the composite section, the roadway outer line 61 of the composite line section, the lane boundary line 62 of the composite line section, and the roadway outer line 61 of the composite line section 0 Is equivalent to the road width, and in the case of (Table 3), the road surface width W 0 A position obtained by adding a predetermined value (α) in the outward direction of the travel lane 29 with respect to the straight line in contact with the travel lane 29 is output to the output unit 13 as a position indicating the boundary of the travel lane 29.
[0045]
[Table 3]
Figure 0004032727
Compound line section: Abrupt lane width W 0 If the presence of a block-shaped road marking inside the lane boundary position before the decrease is recognized, the W L , W R Is 45 cm or more, and the number of straight lines N on the left and right of the white line region L , N R Is 3 (see FIG. 8A).
[0046]
Roadway outside line of compound line section: It is composed of a combination of a single solid line and a block line. L , W R Is 45 cm or more, and the number of straight lines N on the left and right of the white line region L , N R Is 3 (see FIG. 8B).
[0047]
Lane boundary line of compound line section: It consists of a combination of a single-line broken line and a block line, but the boundary line of each white line is unclear, and W in the left and right white line areas L , W R Is 45 to 85 cm, and the number of straight lines N on the left and right of the white line region L , N R Becomes 1 (see FIG. 8C).
[0048]
Road outside line of compound line section: It is composed of a combination of a single solid line and a block line, but the boundary of each white line is unclear, and the left and right white line area W L , W R Is 45 to 55 cm, and the number of straight lines N on the left and right of the white line region L , N R Becomes 1 (see FIG. 8D).
[0049]
The output unit 13 outputs a signal indicating the lane mark boundary position determined by the determination unit 12 to a system control device represented by an external alarm device, a speed control device, or the like.
[0050]
In the present embodiment, similarly to the process for the density histogram output by the density distribution measurement unit 7, the process of the center position detection unit 10 and the appearance frequency measurement unit 11 for the edge histogram output by the edge distribution measurement unit 5. To obtain the lane boundary position.
[0051]
Next, processing of the present apparatus 1 in lane detection of a traveling lane will be described with reference to FIGS. 9 to 11.
[0052]
(First embodiment)
FIG. 9 shows a lane detection method in the first embodiment. In this lane detection process, in step S10, a landscape including the white line 30 in the traveling direction of the vehicle is imaged by the imaging unit 2, and the captured information is input to the frame buffer unit 4 as a camera image. In step S11, edge detection is performed by differentiating the image data. After the edge detection, in step S12, when the image data is differentiated, a negative edge group having a negative polarity and a positive edge group having a positive polarity are obtained. Further, the edge point group in which the edges are gathered is classified by the left and right edge groups. In step S13, a well-known Hough transform is performed on the left and right edge groups obtained in step S12, and a straight line is determined from the edge groups. In step S14, a combination of a straight line generated from the negative edge group and a straight line generated from the positive edge group results in one of the spaces having the widest distance between the straight line closest to the host vehicle and another straight line. Is the negative edge and the other is the positive edge. 0 As shown in FIG.
[0053]
In step S14, the road surface width W with respect to the traveling lane 29. 0 When the left and right boundary lines are detected by the edges at both ends of the area, the area of the window 42 is set in step S15 based on the boundary lines. Here, both the left and right boundary lines are included, the depth in the Y direction is determined in the area to be detected, and the area of the window 42 is set. In this case, the size of the window 42 in the X direction and the Y direction may be fixed or may be changed depending on the traveling state.
[0054]
When the window 42 is set, in step S16, as shown in FIG. 4B, a density histogram is created for the original image within the window 42 range. In step S17, the geometric center of gravity or the center position of the density histogram is obtained from the image data of the noise level (noise density threshold value) or higher by a known calculation method, and the point is determined as the white line center position that exists individually. (Center position 1 shown in FIG. 4C). When the center position of each white line is obtained in step S17, the appearance frequency is measured in step S18. In the measurement of the appearance frequency, density regions that are equal to or higher than the road surface density are grouped with respect to the density histogram data. And the appearance frequency N in the screen S And appearance frequency N T And the appearance frequency N within a predetermined time S And appearance frequency N T Compare the sum or product of. In the next step S19, the lane boundary position determination for obtaining the lane mark boundary position is performed. Here, the white line 30 is represented by the solid line 32, the broken line 33, the block 34, the zebra 37, according to the determination according to (Table 1) to (Table 3). They are classified into multiple lines 38, 39, etc. according to their form. In step S20, the lane mark boundary position determined in step S19 is output to an external control device.
[0055]
In the lane detection method according to the first embodiment shown in FIG. 9, the density histogram is created from the image data, and the geometric gravity center position or the center position of the left and right density histograms with respect to the travel lane 29 is obtained. The center position of each white line 30 or white line group 31 existing on the left and right of the lane 29 can be seen. This makes it possible to accurately detect the lane mark boundary position and output accurate lane boundary information to an external device.
[0056]
(Second Embodiment)
Next, a second embodiment of the lane detection process will be described with reference to FIG. In the second embodiment shown in FIG. 10, the basic lane detection processing method is the same as that of the first embodiment shown in FIG. However, in the first embodiment shown in FIG. 9, instead of obtaining the center position or the center of gravity position of the left and right white line groups 31 from the density histogram data, the second embodiment shown in FIG. The method for obtaining the center position or the center of gravity position of the left and right white line groups 31 from the edge histogram based on the detected edge is different from that shown in FIG.
[0057]
That is, step 16 shown in FIG. 9 is replaced with step S16a in FIG. In this step S16a, positive edges and negative edges from the original image are detected, and the detected positive and negative edges are accumulated by the depth in the Y direction of the window 42 (the width in the Y direction). As shown in FIG. 5C, individual positive and negative edge histograms are created. From the edge histogram based on this edge, the geometric center of gravity or the center position is obtained as positive and negative as shown in FIG. Then, the center of the positive and negative edges is obtained as the center position of each white line as shown in FIG. Thereafter, the center position of the white line group 31 is obtained as shown in FIG. 5F, the lane mark boundary position is accurately detected from the edge histogram, and accurate lane boundary information is also output to the external device. be able to. In this way, by using the edge in the histogram, the lane mark boundary position can be easily determined.
[0058]
(Third embodiment)
FIG. 11 shows a third embodiment. The flowchart shown in FIG. 11 is an example in which the first embodiment shown in FIG. 9 and the second embodiment shown in FIG. 10 are combined. Steps S10 to S20 which are the processes on the left side shown in FIG. Steps S15a to S19a that correspond to steps S10 to S20 shown in FIG. 11 and that are the processes on the right side shown in FIG. 11 correspond to steps S15 to S19 shown in FIG. According to this method, in one process (the process on the left side), the lane mark boundary position is determined from the density histogram, and in the other process (the process on the right side), the lane mark boundary position is determined from the edge histogram. These two processes can be switched in accordance with the road surface condition on which the vehicle is traveling. For example, the state of the road surface on which the white line 30 is marked may be detected by a sensor or the like, and the two lane detection processes may be processed in parallel by a switching unit such as a switch according to the road surface state. In addition to this, it goes without saying that serial processing can be performed instead of parallel processing.
[0059]
As described above, in the present embodiment, a method of detecting the innermost boundary position or the center position or the center of gravity position of the white line group 31 among the white line groups constituting the boundary line is adopted. It is not necessary to detect the boundary of the gap. For this reason, the lane mark boundary position of the traveling lane can be identified stably even if there is a disturbance due to dirt or shadow of the white line 30 on the traveling road surface. Even if the resolution for the image signal in the image processing is low, the lane boundary position can be specified in a stable state.
[0060]
【The invention's effect】
According to the present invention, a traveling lane of a moving body including a lane in a predetermined area is imaged by an imaging unit, and a histogram is created based on the obtained image data, and a group of histograms is detected and grouped. Then, a first center position that is the center of each histogram is detected from the grouped histograms, and a second center position that is the center in the group of the grouped histograms based on the first center position. , And based on the second center position between the histograms of different groups, the center of the lane mark group including a plurality of lane marks or lane marks is detected and the lane mark boundary position is determined. A stable lane mark boundary position can be detected by generating a histogram based on the histogram. For example, even if there is a defect in white line information due to disturbance due to lane contamination, peeling, shadows, low contrast, etc. in the driving lane, the histogram itself does not change greatly, and it runs stably based on the histogram of the image data. The lane mark boundary position of the lane can be specified. As a result, when this lane boundary detection device is applied to a vehicle, the lane mark boundary position can be specified in a stable state, and therefore, a control device (for example, an automatic traveling device, an automatic driving device) that uses the lane mark boundary position in the control. The reliability of a steering device, a lane departure warning device, etc.) can be improved.
[0061]
In this case, the histogram is an image histogram based on the image density of the image data or an edge histogram of edges obtained by differentiation of the image data. For An image histogram can be created by simply accumulating the image density of a predetermined area. Alternatively, the edge is obtained by simply differentiating the image data, and the edge histogram can be created by accumulating the edges in a predetermined area, so that the lane mark boundary position of the traveling lane can be specified by a simple method.
[0062]
Differentiate image data do it The positive and negative edges are obtained, the driving lane is obtained based on the state of the positive and negative edges in the group, the driving lane width W0,
The widths WL and WR of the left and right lane mark groups of the grouped lane mark group and the numbers NL and NR of the lane marks in the left and right lane mark groups are detected, and the left and right traveling lane widths WL, The lane mark labeling form is assigned from the WR and the number of lane marks NL and NR in the left and right lane mark groups, and the lane mark boundary position is obtained by the signing form. Thus, the travel lane is obtained, the widest space between the travel lane closest to the host vehicle and the other travel lanes is detected, and the space can be regarded as the road surface width W0 of the travel lane. Then, the left and right traveling lane widths WL and WR and the left and right traveling lane numbers NL and NR of the traveling lane are obtained, and the lane mark display form is assigned, whereby the lane mark boundary position can be obtained by a simple method.
[0063]
In this case, if the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at If the lane mark or lane mark group is a single line, merge / branch, uphill lane, zebra, even number of multiple lines, the innermost lane mark on both sides of the lane Positive and negative edge at Becomes the lane mark boundary position, and the lane mark boundary position can be reliably specified by the marking form.
[0064]
If the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group Center Is the lane mark boundary position, and if the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section, the grouped lane mark group Center Becomes the lane mark boundary position, and the lane mark boundary position can be reliably specified by the marking form.
[0065]
Furthermore, when the lane mark group is a composite line section or a roadway outer line / lane boundary line of the composite line section, it is the innermost side with respect to the lanes on both sides of the lane. On a positive or negative edge If the lane mark boundary position is defined by adding the predetermined range α, when the lane mark group is a compound line section or a roadway outside line / lane boundary line of a compound line section, it is on the inside On a positive or negative edge The lane mark boundary position is obtained by adding the predetermined range α, and the lane mark boundary position can be reliably specified by the marking form.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a lane boundary detection device according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram showing an example of a white line marking form generally provided on a road surface.
3 is a plan view showing image data picked up by an image pickup unit of the lane boundary detection device shown in FIG. 1; FIG.
4 is a timing chart in which a density histogram is obtained from image data (original image) imaged by the imaging unit shown in FIG. 1 and edge detection is performed.
5 is a timing chart for obtaining a density histogram from image data (original image) imaged by the imaging unit shown in FIG. 1 and performing edge detection to obtain the center position of a white line group.
FIG. 6 is an explanatory diagram showing a lane boundary (inner) between a travel lane and a white line determined by a lane boundary detection device according to an embodiment of the present invention.
FIG. 7 is an explanatory diagram showing a lane boundary (center) between a travel lane and a white line determined by a lane boundary detection device according to an embodiment of the present invention.
FIG. 8 is an explanatory diagram showing a lane boundary (inner + α) between a travel lane and a white line determined by the lane boundary detection device according to the embodiment of the present invention.
FIG. 9 is a flowchart showing a lane detection process in the first embodiment.
FIG. 10 is a flowchart showing a lane detection process in the second embodiment.
FIG. 11 is a flowchart showing a lane detection process in the third embodiment.
[Explanation of symbols]
1 Lane boundary detection device
2 Imaging unit (imaging means)
6 Edge detector (group creation means)
7 Concentration distribution measurement unit (histogram creation means)
10 Center position detector
(First center position detecting means, second center position detecting means, lane center position detecting means)
29 windows (predetermined area)
30 White line (lane mark)

Claims (4)

移動体に設けられた撮像手段によって所定領域のレーンマークを前記移動体の走行レーンを撮像し、撮像した画像データに対して画像処理を行い、少なくとも単一のレーンマークの境界を検出する車線境界検出装置において、
前記画像データに基づき、前記画像データの画像濃度による画像ヒストグラムあるいは前記画像データの微分により求められるエッジのエッジヒストグラムを作成するヒストグラム作成手段と、前記ヒストグラムの集まりに対して、グループ化を行うグループ作成手段と、グループ化された中で、個々のヒストグラムの中央となる第1中央位置を検出する第1中央位置検出手段と、前記第1中央位置に基づき、グループ化されたヒストグラムの中央となる第2中央位置を検出する第2中央位置検出手段と、異なるグループ間の前記第2中央位置に基づき、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の中央を検出する車線中央位置検出手段とを備え、
前記車線境界検出装置は、さらに、前記画像データを微分して正負のエッジを求め、前記グループ化された中での正負のエッジの状態に基づき走行レーンを求め、該走行レーンの幅W、グループ化されたレーンマーク群に対する左右のレーンマーク群の幅W,Wおよび左右のレーンマーク群の中のレーンマークの数N,Nを検出し、前記レーンマーク群の幅W,Wおよび左右のレーンマーク群の中のレーンマークの数N,Nより、前記レーンマークの標示形態を割り当て、該標示形態に応じて、前記レーンマークまたは前記レーンマークが複数存在するレーンマーク群の前記中央、もしくは前記正負のエッジに基づきレーンマーク境界位置を求めることを特徴とする車線境界検出装置。
A lane boundary that captures a lane mark in a predetermined area by an imaging means provided in the moving body, images the travel lane of the moving body, performs image processing on the captured image data, and detects a boundary of at least a single lane mark In the detection device,
Histogram creation means for creating an image histogram based on the image density of the image data based on the image data or an edge histogram of edges obtained by differentiation of the image data , and group creation for grouping the collection of histograms Means, a first center position detecting means for detecting a first center position that is the center of each histogram in the grouped group, and a first center that is the center of the grouped histogram based on the first center position. 2 second center position detecting means for detecting the center position, and lane center position detecting means for detecting the center of the lane mark or a group of lane marks in which a plurality of lane marks exist based on the second center position between different groups. And
The lane boundary detecting device further obtains positive and negative edges by differentiating the image data, obtains a traveling lane based on the state of the positive and negative edges in the grouped, and the width W 0 of the traveling lane, The widths W L and W R of the left and right lane mark groups with respect to the grouped lane mark groups and the numbers N L and N R of the lane marks in the left and right lane mark groups are detected, and the width W L of the lane mark group is detected. , W the number N L of the lane mark in the R and the left and right lane marks group from N R, assigns the indication form of the lane mark, according to the indication mode, the lane mark or the lane mark there are a plurality of A lane boundary detection device that determines a lane mark boundary position based on the center of the lane mark group or the positive and negative edges .
前記レーンマークまたは前記レーンマーク群が、単線、合流・分岐、登坂車線、ゼブラ、偶数本の多重線の場合には、前記走行レーン両側のレーンマークに対して最も内側にある前記正負のエッジを境界位置とすることを特徴とする請求項1に記載の車線境界検出装置。When the lane mark or the lane mark group is a single line, merge / branch, uphill lane, zebra, or even number of multiple lines, the positive and negative edges that are on the innermost side with respect to the lane mark on both sides of the traveling lane The lane boundary detection device according to claim 1, wherein the lane boundary detection device is a boundary position. 前記レーンマーク群が、奇数本の多重線、複合線区間の車線境界線との場合には、グループ化されたレーンマーク群の前記中央をレーンマーク境界位置とすることを特徴とする請求項1に記載の車線境界検出装置。The center of the grouped lane mark group is set as a lane mark boundary position when the lane mark group is an odd number of multiple lines or a lane boundary line of a composite line section. A lane boundary detection device according to claim 1. 前記レーンマーク群が、複合線区間、複合線区間の車道外側線/車線境界線の場合には、前記走行レーン両側の車線に対して最も内側にある前記正負のエッジに所定範囲α を加えたものをレーンマーク境界位置とすることを特徴とする請求項1に記載の車線境界検出装置。When the lane mark group is a composite line section or a roadway outer line / lane boundary line of the composite line section , a predetermined range α is added to the positive and negative edges that are innermost with respect to the lanes on both sides of the lane. The lane boundary detection device according to claim 1, wherein the lane mark boundary position is set as a lane mark boundary position.
JP2001379166A 2001-12-12 2001-12-12 Lane boundary detection device Expired - Fee Related JP4032727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001379166A JP4032727B2 (en) 2001-12-12 2001-12-12 Lane boundary detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001379166A JP4032727B2 (en) 2001-12-12 2001-12-12 Lane boundary detection device

Publications (2)

Publication Number Publication Date
JP2003178399A JP2003178399A (en) 2003-06-27
JP4032727B2 true JP4032727B2 (en) 2008-01-16

Family

ID=19186656

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001379166A Expired - Fee Related JP4032727B2 (en) 2001-12-12 2001-12-12 Lane boundary detection device

Country Status (1)

Country Link
JP (1) JP4032727B2 (en)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3864945B2 (en) 2003-09-24 2007-01-10 アイシン精機株式会社 Road lane detection device
WO2006014974A2 (en) * 2004-07-26 2006-02-09 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
JP4532372B2 (en) * 2005-09-02 2010-08-25 トヨタ自動車株式会社 Road marking line detection device
JP4572822B2 (en) * 2005-11-30 2010-11-04 アイシン・エィ・ダブリュ株式会社 Route guidance system and route guidance method
EP1968014B1 (en) * 2005-12-28 2012-12-19 Honda Motor Co., Ltd. Vehicle and lane mark detection device
JP4738203B2 (en) * 2006-02-20 2011-08-03 学校法人同志社 Music generation device for generating music from images
JP4605145B2 (en) * 2006-11-14 2011-01-05 トヨタ自動車株式会社 Lane detection device
JP4951481B2 (en) * 2007-12-10 2012-06-13 日立オートモティブシステムズ株式会社 Road marking recognition device
JP4710981B2 (en) 2009-01-23 2011-06-29 トヨタ自動車株式会社 Marking line recognition apparatus and marking line recognition method used in the apparatus
WO2011117950A1 (en) * 2010-03-23 2011-09-29 日本電気株式会社 Linear marking detection system, linear marking detection method, and non-transitory computer readable medium on which linear marking detection program is stored
JP5402828B2 (en) * 2010-05-21 2014-01-29 株式会社デンソー Lane boundary detection device, lane boundary detection program
JP5677900B2 (en) * 2011-06-29 2015-02-25 株式会社日本自動車部品総合研究所 In-vehicle white line recognition device
JP5799784B2 (en) * 2011-12-06 2015-10-28 富士通株式会社 Road shape estimation apparatus and program
JP2013228944A (en) 2012-04-26 2013-11-07 Nippon Soken Inc Traveling section line recognition apparatus
JP5997962B2 (en) * 2012-07-27 2016-09-28 クラリオン株式会社 In-vehicle lane marker recognition device
CN104680171B (en) * 2013-11-27 2018-10-02 富士通株式会社 The detection device, method of zebra stripes in image
JP5689521B2 (en) * 2013-12-02 2015-03-25 本田技研工業株式会社 Vehicle travel support device
JP6483446B2 (en) * 2015-01-15 2019-03-13 トヨタ自動車株式会社 Composite line determination apparatus and composite line determination method
JP6798860B2 (en) * 2016-11-29 2020-12-09 株式会社Soken Boundary line estimation device
JP2018116369A (en) 2017-01-16 2018-07-26 株式会社Soken Lane recognition device
US10860868B2 (en) 2018-04-18 2020-12-08 Baidu Usa Llc Lane post-processing in an autonomous driving vehicle
JP7342832B2 (en) * 2020-09-30 2023-09-12 いすゞ自動車株式会社 Travel position determination device

Also Published As

Publication number Publication date
JP2003178399A (en) 2003-06-27

Similar Documents

Publication Publication Date Title
JP4032727B2 (en) Lane boundary detection device
JP2917661B2 (en) Traffic flow measurement processing method and device
JP4650079B2 (en) Object detection apparatus and method
EP1667086B1 (en) Device for detecting road traveling lane
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
EP0945319A1 (en) Process for determining dynamic properties of motor vehicles
EP1667085A1 (en) Device for detecting road traveling lane
JP2002024986A (en) Pedestrian detector
JPH11282999A (en) Moving object measurement device
CN108764075A (en) The method of container truck location under gantry crane
JP3807651B2 (en) White line recognition device
JP3153845B2 (en) Road surface monitoring device and road surface monitoring method
JP2004030484A (en) Traffic information providing system
JP3662218B2 (en) Lane boundary detection device
JP3771729B2 (en) Traffic flow measurement system
JP4697761B2 (en) Queue detection method and queue detection apparatus
JP3790817B2 (en) Chuo line shift processing equipment
JP2946620B2 (en) Automatic number reading device with speed measurement function
JP2885216B2 (en) Lane change detection device
JP4334744B2 (en) Traffic flow measuring device
JP2001283374A (en) Traffic flow measuring system
JPH0251800A (en) Traffic jam state detecting system
JPH09259388A (en) Vehicle information detection device and car type judging device
CN106874842B (en) A method for detecting distance between car and curb based on digital image
JP2757629B2 (en) Moving object measurement device and traffic flow measurement image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070403

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070703

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071002

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111102

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121102

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131102

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees