[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5944781B2 - 移動体認識システム、移動体認識プログラム、及び移動体認識方法 - Google Patents

移動体認識システム、移動体認識プログラム、及び移動体認識方法 Download PDF

Info

Publication number
JP5944781B2
JP5944781B2 JP2012169709A JP2012169709A JP5944781B2 JP 5944781 B2 JP5944781 B2 JP 5944781B2 JP 2012169709 A JP2012169709 A JP 2012169709A JP 2012169709 A JP2012169709 A JP 2012169709A JP 5944781 B2 JP5944781 B2 JP 5944781B2
Authority
JP
Japan
Prior art keywords
moving body
risk
camera
feature points
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012169709A
Other languages
English (en)
Other versions
JP2014029604A (ja
Inventor
育郎 佐藤
育郎 佐藤
玉津 幸政
玉津  幸政
邦博 後藤
邦博 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2012169709A priority Critical patent/JP5944781B2/ja
Priority to CN201210407065.9A priority patent/CN103578115B/zh
Priority to EP15175825.7A priority patent/EP2960886A1/en
Priority to EP12194786.5A priority patent/EP2693416A3/en
Priority to US13/689,196 priority patent/US9824586B2/en
Publication of JP2014029604A publication Critical patent/JP2014029604A/ja
Application granted granted Critical
Publication of JP5944781B2 publication Critical patent/JP5944781B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、単視点画像を用いて移動体を認識する移動体認識システム、移動体認識プログラム、及び移動体認識方法に関するものである。
従来、車両周辺の移動体を認識して、ドライバへの報知ないし警告や車両の自動制動(以下単に「報知」という。)を行なう移動体認識システムが知られている。自車両から移動体までの距離は、ミリ波レーダ等の距離センサを用いて直接測定でき、又はステレオカメラを用いて画像処理を行なって測定できる。測定された距離を時系列に並べて分析することで、移動体の移動方向及び自車両に対する相対速度を求めることができる。そして、移動体の移動方向や自車両に対する相対速度を求めることで、その移動体が車両に衝突する可能性(危険性)を求めることができ、その危険性に基づいて報知を行なうことができる。
また、より簡易で安価な移動体認識システムとして、一系統の光学系及び撮像素子しかない単眼のカメラによって移動体を認識するシステムも知られている。このシステムは、単眼カメラによって連続的に撮影を行なうことで、時系列に並んだ複数の単視点の画像を得る。これらの複数の単視点の画像から移動体の検出を行なう技術として特許文献1に記載の技術が知られている。
特許文献1に記載の技術では、時系列に並んだ複数の単視点画像の各々から抽出された特徴点とその動きベクトル(オプティカルフロー)に基づいて、特徴点群を移動体ごとにグルーピングする。このグルーピングは、オプティカルフローの消失点への収束性と外分比のばらつきに従って行なわれる。これにより不正確に算出されたオプティカルフローが混在していても、確実な移動体の検出を行なうことができる。
特許第4919036号公報
車載の移動体認識システムにおいては、衝突の危険性のない移動体についてはむしろドライバに報知をせず、飛び出しなど衝突の危険性のある移動体のみについて報知をすることが望ましい。なぜなら、あらゆる移動体について報知をすることはドライバにとって煩わしく、運転に負の影響を及ぼす可能性があるためである。
車載の移動体認識システムにおいて、認識処理の結果の確実性と、衝突の危険性は、必ずしも一致しない。つまり、認識処理の結果の確実性が高いにも関わらず、衝突の危険性がない場合もありえるし、その逆もありえる。多くのドライバにとって役立つ情報とは、認識処理の確実性ではなく、認識された移動体の自車両への衝突の危険性である。
本発明は、上記の問題に鑑みてなされたものであり、ステレオカメラや距離センサなど比較的高価なセンサを使うことなく、単眼カメラを使い、移動体の衝突の危険性を検知する移動体認識システムを提供することを目的とする。
本発明のある態様の移動体認識システムは、車両に設置され、複数の連続する単視点の画像を撮影するカメラと、前記カメラにて撮影された複数の画像を用いて、画像中の移動体を検出する移動体検出部と、前記移動体検出部にて検出された移動体の前記カメラに対する相対的進入角度を推定する相対的進入角度推定部と、前記相対的進入角度と、前記カメラから前記移動体に向かう移動体方向との関係に基づいて、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部とを備えた構成を有する。
この構成によれば、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記相対的進入角度と前記移動体方向とのずれが小さいほど危険度を高くしてよい。
相対的進入角度と移動体方向とが一致するということは、移動体が相対的に車両に向かってきているということであり、従って、相対的進入角度と移動体方向とのずれが小さいほど危険性が高いといえる。よって、この構成によれば、移動体が車両に衝突する危険度を好適に算出できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記相対的進入角度に基づいて危険ゾーンを設定し、前記移動体が危険ゾーンに存在する確率に基づいて前記危険度を算出してよい。
この構成によれば、移動体が車両に衝突する危険度を、その移動体の車両に対する相対的進入角度のみではなく、それに基づいて設定される危険ゾーンによって正確に算出できる。
上記の移動体認識システムにおいて、前記危険ゾーンは、前記カメラを原点として、前記カメラの光軸方向をZ方向とし、鉛直方向をY方向とし、水平方向をX方向としたときのXZ平面に設定され、前記車両から前記車両の幅で前記相対的進入角度の方向に延びる領域であってよい。
この構成によれば、危険ゾーンは、車両の幅をもって車両から相対的進入角度の方向に延びるように設定されるので、車両のいずれかの部分に衝突する危険度を算出できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離の上限値を推定する距離推定部と、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイの、前記カメラから前記上限値までの線分のうち、前記危険ゾーンに入る線分の割合を前記危険度として算出する危険度算出部とを備えていてよい。
この構成によれば、危険ゾーンの上限が設けられるので、移動体までの距離を求めることができなくとも、移動体方向を特定すればその移動体が危険ゾーンにある確率を算出することができる。
上記の移動体認識システムにおいて、前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備えていてよく、前記距離推定部は、グルーピングされた前記移動体上の複数の特徴点から、高さが最も低い最下特徴点を選出し、前記最下特徴点と前記光学中心とを結ぶ直線と前記車両が走行する地面との交点を地面点として、前記地面点のZ座標を前記カメラから前記移動体までの前記Z方向の距離の上限値として推定してよい。
移動体としてグルーピングされた複数の特徴点どうしの間の距離がカメラからの距離と比べて十分に小さいという仮定は、車両周辺の移動体を認識する移動体認識システムでは妥当性を有する。よって、この構成によれば、簡易な計算によって、好適に移動体の距離の上限を推定できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離を推定する距離推定部と、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイ上の、前記カメラから前記推定された距離を有する点が前記危険ゾーンにある場合に、前記点が前記危険ゾーンにない場合より高い危険度を算出する危険度算出部とを備えていてよい。
この構成によれば、移動体までの距離が推定されるので、移動体が危険ゾーンにいる確率ではなく、危険ゾーンにいるか否かを判断でき、危険ゾーンにいると判断される場合には、高い危険度を算出することができる。なお、危険度は、移動体が衝突する車両の部位に応じてレベル分けされてもよい。
上記の移動体認識システムにおいて、前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備えていてよく、前記距離推定部は、前記消失点に基づいて前記移動体が前記車両に衝突するまでの衝突時間を求め、前記衝突時間と前記車両の速度に基づいて前記カメラから前記移動体までの前記Z方向の距離を推定してよい。
進行する車両にとって危険な存在である移動体は車両の進行方向を横切る移動体であるので(例えば、車両とすれ違う移動体はあまり危険ではない)、車両周辺の移動体を認識する移動体認識システムでは、移動体が自車両に対して直交して併進移動している(即ち、移動体のカメラの光軸方向の速度成分が0である)と仮定することは妥当性を有する。よって、この構成によれば、簡易な計算によって、好適に移動体の距離を推定できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離の確率分布を決定する距離推定部と、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイが前記危険ゾーンにある距離範囲での前記確率分布の確率密度関数の積分値に基づいて前記危険度を算出する危険度算出部とを備えていてよい。
この構成によれば、距離が1つの値に推定されるのではなく、確率分布として求められるので、危険ゾーンにかかっている確率分布の確率密度関数の積分値の割合に応じて好適に危険度を算出できる。
上記の移動体認識システムにおいて、前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備えていてよく、前記距離推定部は、前記消失点に基づいて前記移動体が前記車両に衝突するまでの衝突時間を求め、前記衝突時間に基づいて、所定の正規分布に従って前記距離の確率分布を決定してよい。
車両周辺の移動体を認識する移動体認識システムでは、距離の確率分布が正規分布となるという仮定は妥当性を有するので、この構成によれば、簡易な計算によって、好適に移動体の距離の確率分布を決定できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離の上限値を推定し、かつ前記カメラから前記移動体までの前記Z方向の距離の確率分布を決定する距離推定部と、前記上限値までの距離範囲での前記確率分布の確率密度関数の積分値に対する、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイが前記危険ゾーンにある距離範囲での前記確率分布の確率密度関数の積分値の割合に基づいて危険度を算出する危険度算出部とを備えていてよい。
この構成によれば、距離が1つの値に推定されるのではなく、確率分布として求められ、かつ、その確率変数の推定上限値より大きい部分を切り捨てるので、残りの値域での確率密度関数の積分値のうちの危険ゾーンにかかっている確率密度関数の積分値の割合に応じて好適に危険度を算出できる。
上記の移動体認識システムにおいて、前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備えていてよく、前記距離推定部は、グルーピングされた前記移動体上の複数の特徴点から、高さが最も低い最下特徴点を選出し、前記最下特徴点と前記光学中心とを結ぶ直線と前記車両が走行する地面との交点を地面点として、前記地面点のZ座標を前記カメラから前記移動体までの前記Z方向の距離の上限値として推定し、前記消失点に基づいて前記移動体が前記車両に衝突するまでの衝突時間を求め、前記衝突時間に基づいて、所定の正規分布に従って前記距離の確率分布を決定してよい。
移動体としてグルーピングされた複数の特徴点どうしの間の距離がカメラからの距離と比べて十分に小さいという仮定は車両周辺の移動体を認識する移動体認識システムでは妥当性を有するので、この構成によれば、簡易な計算によって、好適に移動体の距離の上限を推定できる。また、車両周辺の移動体を認識する移動体認識システムでは、距離の確率分布が正規分布となるという仮定は妥当性を有するので、この構成によれば、簡易な計算によって、好適に移動体の距離の確率分布を決定できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記危険ゾーンを複数のレベルに分けて段階的に設定してよい。
この構成によれば、車両の各部位の衝突した場合の影響の大きさ等に応じて危険度を算出できる。
本発明の別の態様の移動体認識システムは、車両に設置され、複数の連続する単視点の画像を撮影するカメラと、前記カメラにて撮影された複数の画像を用いて、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを生成し、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点をグルーピングすることで、グルーピングされた前記複数の特徴点を移動体として検出する移動体検出部と、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部とを備え、前記衝突危険度算出部は、前記画像における前記消失点との間の距離が近い前記移動体の前記危険度が、前記画像における前記消失点との間の距離が遠い前記移動体の前記危険度よりも高くなるように、前記危険度を算出する。
この構成によっても、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。さらに、消失点と移動体との画像上の距離に基づいて、簡易な計算で危険度を算出できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記移動体上の複数の前記特徴点のうちのいずれかの特徴点、又は前記移動体上の複数の特徴点から求められた点を代表点として、前記代表点が前記車両に衝突する危険度を算出してよい。
この構成によれば、移動体の位置として適切な代表点を特定できる。
上記の移動体認識システムは、前記衝突危険度算出部で算出された危険度に応じて前記車両のドライバに危険を報知する報知部を更に備えていてよい。
この構成によれば、移動体が車両に衝突する危険度に応じてドライバに注意を喚起できる。
上記の移動体認識システムにおいて、前記衝突危険度算出部は、前記移動体が前記車両に衝突するまでの衝突時間に基づいて前記危険度を修正してよい。
この構成によれば、衝突時間も加味してより適切な危険度を得ることができる。
本発明のある態様の移動体認識プログラムは、コンピュータを、車両に設置され、複数の連続する単視点の画像を撮影するカメラにて撮影された複数の画像を用いて、画像中の移動体を検出する移動体検出部、前記移動体検出部にて検出された移動体の前記カメラに対する相対的進入角度を推定する相対的進入角度推定部、及び 前記相対的進入角度と、前記カメラから前記移動体に向かう移動体方向との関係に基づいて、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部して機能させる。
この構成によっても、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。
本発明の別の態様の移動体認識プログラムは、コンピュータを、車両に設置され、複数の連続する単視点の画像を撮影するカメラにて撮影された複数の画像を用いて、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを生成し、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点をグルーピングすることで、グルーピングされた前記複数の特徴点を移動体として検出する移動体検出部、及び前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部であって、前記画像における前記消失点との間の距離が近い前記移動体の前記危険度が、前記画像における前記消失点との間の距離が遠い前記移動体の前記危険度よりも高くなるように、前記危険度を算出する衝突危険度算出部として機能させる。
この構成によっても、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。さらに、消失点と移動体との画像上の距離に基づいて、簡易な計算で危険度を算出できる。
本発明のある態様の移動体認識方法は、車両に設置されたカメラで、複数の連続する単視点の画像を撮影する撮影ステップと、前記カメラにて撮影された複数の画像を用いて、画像中の移動体を検出する移動体検出ステップと、前記移動体検出ステップにて検出された移動体の前記カメラに対する相対的進入角度を推定する相対的進入角度推定ステップと、前記相対的進入角度と、前記カメラから前記移動体に向かう移動体方向との関係に基づいて、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出ステップとを備えた構成を有する。
この構成によっても、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。
本発明の別の態様の移動体認識方法は、車両に設置されたカメラで、複数の連続する単視点の画像を撮影する撮影ステップと、前記カメラにて撮影された複数の画像を用いて、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを生成し、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点をグルーピングすることで、グルーピングされた前記複数の特徴点を移動体として検出する移動体検出ステップと、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出ステップとを備え、前記衝突危険度算出ステップは、前記画像における前記消失点との間の距離が近い前記移動体の前記危険度が、前記画像における前記消失点との間の距離が遠い前記移動体の前記危険度よりも高くなるように、前記危険度を算出する。
この構成によっても、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。さらに、消失点と移動体との画像上の距離に基づいて、簡易な計算で危険度を算出できる。
本発明によれば、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができる。また、この危険度の算出を、ステレオカメラ等の比較的高価な構成を採用することなく、単眼カメラという比較的安価な構成によって実現するので、コストを低減できる。
本発明の実施の形態における移動体認識システムの構成を示すブロック図 (a)本発明の実施の形態における相対的進入角度を説明するための対地速度の例を示す図 (b)本発明の実施の形態における相対的進入角度を示す図 本発明の実施の形態における座標の定義を説明する図 本発明の実施の形態における連結オプティカルフローを説明する図 本発明の実施の形態における三次元空間の点群が単位時間内に並進移動する距離を示す図 本発明の実施の形態における消失点を説明する図 (a)本発明の実施の形態におけるロバスト推定のコスト関数を示すグラフ (b)本発明の実施の形態におけるロバスト推定の影響関数を示すグラフ 本発明の実施の形態におけるアウトライアが発生しやすい画像の例を示す図 (a)本発明の実施の形態における相対的進入角度(θ<0の場合)の定義を説明する図 (b)本発明の実施の形態における相対的進入角度(θ>0の場合)の定義を説明する図 本発明の実施の形態における相対的進入角度と消失点との関係を示す図 本発明の実施の形態における距離推定方法の第1の例の地面点を説明する図 本発明の実施の形態における距離推定方法の第1の例の距離の上限値の算出を説明する図 本発明の実施の形態における距離の上限の推定値に基づく危険度の算出を説明するための図 本発明の実施の形態における距離の推定値に基づく危険度の算出を説明するための図 本発明の実施の形態における距離の推定値に基づく危険度の算出の変形例を説明するための図 本発明の実施の形態における距離の確率密度関数に基づく危険度の算出を説明するための図 本発明の実施の形態における推定された距離の上限及び距離の分布に基づく危険度の算出を説明するための図 本発明の実施の形態におけるTTCを加味した危険度の算出を説明するための図
以下、本発明の実施の形態の移動体認識システムについて、図面を参照しながら説明する。図1は、本発明の実施の形態の移動体認識システムの構成を示すブロック図である。本実施の形態の移動体認識システム100は、移動体が自車両に衝突する危険度を算出してドライバに報知するシステムである。移動体認識システム100は、カメラ10、移動体検出部20、相対的進入角度推定部30、衝突危険度算出部40、及び報知部50を備えている。移動体検出部20、相対的進入角度推定部30、及び衝突危険度算出部40からなる構成は、コンピュータが本発明の実施の形態の移動体認識プログラムを実行することで実現される。移動体認識プログラムは、記憶媒体に記憶されて、記憶媒体からコンピュータによって読み出されて、コンピュータで実行されてよい。
まず、移動体認識システム100の概要を説明する。カメラ10は、車両に搭載され、車両が走行している間に、車両周辺を一定の周期で連続的に撮影して画像を生成し、移動体検出部20に出力する。移動体検出部20は、カメラ10から順次入力される複数の画像を用いて、それらの画像の中から移動体を検出する。自車両(即ちカメラ10)が移動しているので、地面に対して静止している物体も画像内での位置は時々刻々と変化するが、移動体検出部20は、このような複数の画像から、地面に対して移動している物体を移動体として検出する。
相対的進入角度推定部30は、検出された移動体の車両に対する相対的な移動方向を相対的進入角度として推定する。図2は、本発明の実施の形態における相対的進入角度を説明する図である。いま、図2(a)に示すように、車両Cが前方に速度vcで直進しており、その前方で移動体Oが車両の進行方向と直交する方向に速度voで移動しているとすると、相対的進入角度θは、図2(b)に示すように、車両の前方方向とvo−vcのなす角度として求められる。相対的進入角度推定部30は、画像とカメラ10の焦点距離を用いて、この相対的進入角度θを推定する。
衝突危険度算出部40は、自車両から移動体検出部20で検出された移動体までの距離を推定し、その推定された距離と、相対的進入角度推定部30で推定した相対的進入角度とに基づいて、衝突の危険度を算出する。報知部50は、衝突危険度算出部40で算出された危険度に基づいてドライバへの報知を行なう。以下、詳細に説明する。
カメラ10は、車両に搭載されて、車両の周辺を撮影する。特に、本実施の形態の移動体認識システム100は、移動体が自車両に対する衝突の危険性を算出して報知するので、カメラ10は、自車両の進行方向を撮影するように、車両に設置される。カメラ10は車両の前方を撮影するように、例えばルームミラーの裏側(前方側)に設置されてよい。車両は後退することも可能であるので、カメラ10が車両の後方を撮影するように、例えば後ろのナンバープレート近くに設置されてもよい。カメラ10は、一系統の光学系及び撮像素子を備えた単眼のカメラである。カメラ10は、所定の周期で(例えば1/30秒ごとに)連続的に撮像をして画像信号を出力する。
移動体検出部20は、直線運動を行う剛体のモデルとピンホールカメラモデルに基づいて、画像中の特徴点の座標と動きベクトル(オプティカルフロー)の情報から、同一移動体の特徴点をグルーピング(クラスタリング)する(詳細は特開2011−81613号公報を参照)。ここで、オプティカルフローとは、動画などにおいて同じ画像パッチ(例えば5ピクセル四方の小領域)を追跡した軌跡のことである。移動体検出部20は、また、オプティカルフローからカメラ10の回転移動に起因する成分を除去する処理も行なう。移動体検出部20は、連結オプティカルフロー算出部21、回転移動量・消失点推定部22、背景点除去部23、及びグルーピング部24を備えている。
まず、以下の演算において用いる座標を定義する。図3は、本発明の実施の形態における座標の定義を説明する図である。路面が平坦なとき、カメラ10の光軸と路面は平行であると仮定する。カメラ10の光軸をZ軸、鉛直下方向をY軸とし、X軸は右手座標系により定義する。原点(0,0,0)はカメラ10の光学中心とする。なお、本実施の形態ではカメラ10の光軸を路面と平行と仮定するが、カメラ10の光軸と路面が平行でない場合においても適切な回転行列を導入することで容易に一般化が可能である。透視投影モデルを考え、画像座標は(x,y)=(fX/Z,fY/Z)で与えるものとする。ここで、fはカメラ10の焦点距離であり、既知である。
連結オプティカルフロー算出部21は、カメラ10で得られた複数の画像から、複数の画像間で対応する特徴点を抽出し、特徴点ごとにオプティカルフローを算出する(J. shi and C. Tomasi, “Good features to track,”, IEEE CVPR, pp. 593-600, 1994を参照)。本実施の形態ではオプティカルフローの算出アルゴリズムには、LK法を使用する(B. D. Lucas and T. Kanade, “An iterative image registration technique with an application to stereo vision,” IJCAI, pp. 674-679, 1981を参照)。
オプティカルフローの算出においては、アウトライアが少ないことが望ましい。アウトライアとは、一般には想定外の計算結果のことを指し、オプティカルフローのアウトライアとは、特に、誤って追跡された軌跡のことを指す。上記の特許文献1の技術はオプティカルフローのアウトライアに対して頑健であるが、それでもなお稀に複数のオプティカルフローが、アウトライアであるにもかかわらず同一の消失点と外分比を許容誤差の範囲で有することがある。この場合、アウトライアを検出してしまうため、危険度の計算を誤る結果となる。本実施の形態では演算量の低い、アウトライア除去方法を提供する。
オプティカルフローの精度を高めるために、本実施の形態では、互いに隣り合う2つのフレーム間のオプティカルフローを使う代わりに、隣り合うフレーム間のオプティカルフローを連続する複数フレーム分連結したものを使う。本明細書では、互いに隣り合う2つのフレーム間のオプティカルフロー、即ち、あるフレームの特徴点から当該フレームの次のフレームにおける当該特徴点と同じ(対応する)特徴点へのベクトルを「単オプティカルフロー」と呼び、複数の単オプティカルフローを連結して得られたオプティカルフロー、即ち、あるフレームにおける特徴点から、そのフレームから1以上の所定のフレーム数を隔てたフレームにおける当該特徴点と同じ(対応する)特徴点へのベクトルを「連結オプティカルフロー」と呼ぶ。
図4は、本発明の実施の形態における連結オプティカルフローを説明する図である。図4において、左の列は、カメラ10によって連続的に取得された画像を上から順に時系列に並べたものであり、中央の列は、単オプティカルフローを示しており、右の列は、3つの単オプティカルフローを連結した連結オプティカルフローを示している。連結オプティカルフロー算出部21は、同一の(対応する)特徴点の複数フレーム分の単オプティカルフローを連結し、連結オプティカルフローを算出する。
図4に示すように、単オプティカルフローは、隣り合う2つのフレーム間において、同一の特徴点を結ぶことで生成され、連結オプティカルフローは複数の単オプティカルフローを連結することで生成される。図4の例では、3つ(n=3)のオプティカルフローが連結されることで、連結オプティカルフローが生成されている。
回転移動量・消失点推定部22は、連結オプティカルフローから消失点を推定する。一般的に、三次元上の点群が一定の速度で並進移動をするとき、これらの点群を透視投影した二次元の点群の移動の軌跡は、その延長線が一点で交わる特徴を持つ。この交点が消失点である。本明細書では、消失点という用語を、画像平面上の点の軌跡の延長線の交点の意味で用いる。なお、移動体が複数ある場合には、移動体ごとに消失点が推定される。
図5は、三次元空間の点群(移動体上の点)が単位時間内に並進移動する距離(点群の三次元空間内での速度)を示す図である。この速度Vを(ΔX,ΔY,ΔZ) とすると、時刻tにおいて透視投影された画像座標 x(t)=f(X+tΔX)/(Z+tΔZ)、y(t)=f(Y+tΔY)/(Z+tΔZ) は、t→−∞又はt→∞ の極限において、 (fΔX/ΔZ,fΔY/ΔZ) に収束する。よって、消失点の二次元座標は(fΔX/ΔZ,fΔY/ΔZ)と与えられる。なお、t→−∞で収束する点群は、カメラから遠ざかる点群であり、t→∞で収束する点群は、カメラに近づく点群である。
図6は、消失点を説明する図である。図6の例では、特徴点FP1〜6の連結オプティカルフローCOF1〜6の延長線が1つの点で交わっており、この点が消失点VPとなる。回転移動量・消失点推定部22は、各特徴点の連結オプティカルフローを延長して、複数の連結オプティカルフローが交わる点を探索して、それを消失点として推定する。オプティカルフローには、アウトライアや、移動体のオプティカルフローや、背景物体のオプティカルフローが混在していることを考えると、消失点の推定にはロバスト推定を適応するのが妥当である。ロバスト推定とは、はずれ値に対して頑健なパラメタ推定のことをいう。本実施の形態では、ロバスト推定として、M推定(P. J. Huber and E. M. Ronchetti, “Robust Statistice, 2nd Edition,” Wiley Interscienceを参照)を適用する。
なお、例えば演算能力が制限されている等の理由で上述の技術を適応できない場合は、回転移動量・消失点推定部22は、以下の簡易な処理により連結オプティカルフローの消失点を求めてもよい。この方法では、回転移動量・消失点推定部22は、あらかじめカメラ10の画像の中の地平線の位置を記録しておき、地平線と連結オプティカルフローの交点を、この点の軌跡の消失点とする。この方法は、移動体とカメラ10が平らな地面と平行に移動しているとき、移動体の軌跡の消失点は地平線上に存在するという事実に基づいている。但し、連結オプティカルフローの傾きが小さい場合(地平線とほぼ平行である場合)、連結オプティカルフローの誤差が消失点の値を大きく変動させ得るので、連結オプティカルフローの誤差の範囲で消失点の値の範囲が大きすぎる場合には、例外的処理として、この点を検出候補から除外する。
また、回転移動量・消失点推定部22は、カメラ10の回転移動に起因するオプティカルフローの成分を推定して、それを連結オプティカルフローから除去する。いま、三次元の並進移動量(Vx,Vy,Vz)と回転移動量Ω=(Ωx,Ωy,Ωz)を持つカメラによって透視投影された三次元上の点(X,Y,Z)のオプティカルフローをv=(vx,vy)とすると、このオプティカルフローvは下式(1)で表される。
Figure 0005944781
ここで、x=fX/Z、y=fY/Zであり、vx r、vy rは、以下の式(2)で与えられるカメラ10の回転量の一次の項からなるオプティカルフローの成分である。
Figure 0005944781
式(2)からpF=(xF,yF)=(fVx/Vz,fVy/Vz)と置き換えられ、奥行き成分ZとVzを消去すると、以下の式(3)が得られる。
Figure 0005944781
ここで、R(pF,Ω)は、パラメタ空間内の誤差関数であり、理想状態において0をとる。式(3)は即ち、回転成分を取り除いた静止点のオプティカルフローを延長すると、画像上の1点(即ち、拡張焦点:FOE:Focus Of Expansion)で交わることを意味している。
オプティカルフローのはずれ値や移動体の点は、一般的にはRの値が大きいと考えられため、本実施の形態では、回転移動量・消失点推定部22は、式(4)のM推定を使用する。
Figure 0005944781
ここで、ρ(R)は最小値に0を持つ、R=0に対して対称の関数である。はずれ値に対する頑健性の度合いは、影響関数ψ(R)=∂ρ/∂Rによって特徴付けられる。
図7(a)は、ロバスト推定のコスト関数を示すグラフであり、図7(b)は、ロバスト推定の影響関数を示す図である。図7(a)及び(b)において、破線はL2ノルムを示し、実線はCauchy関数を示している。本実施の形態では、図7及び次式(5)で定義されるCauchyの影響関数を用いている。
Figure 0005944781
Cauchyの影響関数は、R>0において単調増加関数ではなく、極値を境に減少に転じるため、誤差の大きな入力の解に対する影響を低く抑えることができる。式(5)の定数Cは、C=2.385である。この値は、平均を0とするガウス分布の最小二乗法の95%の効率を与えるよう設定されている。
回転移動量・消失点推定部22は、M推定の解法として反復再重み付け最小二乗法(IRLS:Iteratively Reweighted Least Squares)を用いる。これは、式(4)のコスト関数を重み付き誤差の二乗和の形に変形し、最小二乗法と重み更新を解が収束するまで交互に繰り返す方法である。この重みは影響関数を用いて、ω=ψ(R)/Rで与えられる。以下に、IRLSのアルゴリズムを示す。
Figure 0005944781
上記のステップ3)のリスケーリングにおける分母1.48mad(R)は、Rが正規分布に従うとき、標準偏差と等しくなるように設定されている。標準偏差の代わりに中央値絶対偏差(mad:median absolute deviation)を用いた理由は、アウトライアの混在によるスケールの変動を小さく抑えるためである。誤差はFOE座標と回転移動量との積の形で表されるため、ステップ4)は、非線形最小二乗法となる。本実施の形態では、回転移動量・消失点推定部22は、ニュートン法によって解を求める。回転移動量・消失点推定部22は、求めた回転移動量に起因する成分を連結オプティカルフローから除去する。
背景点除去部23は、連結オプティカルフローを延長した直線が許容誤差の範囲内で背景の消失点を通る場合に、その連結オプティカルフローを背景、即ち地面に対して移動しない物体として除去する。即ち、地面に対して移動する移動体は、背景とは異なる位置に消失点を有するので、そのような消失点を有する特徴点群を移動体として検出するために、背景点除去部23は、背景の消失点を有する特徴点及びその連結オプティカルフローを除去する。
次に、グルーピング部24について説明する。連結オプティカルフロー算出部21によって生成されて、回転移動量・消失点推定部22によって回転移動量に起因する成分が除去され、かつ背景除去部23によって背景として除去された後に残った連結オプティカルフローは、アウトライアか、正しくトラッキングされた移動体上の特徴点のオプティカルフローのいずれかである。グルーピング部24は、連結オプティカルフローを用いて、アウトライアを除去しつつ、特徴点及びその連結オプティカルフローのグルーピングを行なう。
グルーピング部24は、残った特徴点とその連結オプティカルフローに対し、再度消失点をロバスト推定する。グルーピング部24は、まず、連結オプティカルフローを延長した直線が、許容誤差の範囲でこの消失点を通過する特徴点及びその連結オプティカルフローを仮のグループとしてグルーピングし、この仮のグループからアウトライアを除去し、最終的にグループを確定する。グルーピング部24は、まず、連結オプティカルフローの直進らしさによってアウトライアを判定して除去し、さらに、連結オプティカルフローより算出されるTTCの類似の度合いからアウトライアを判定して除去する。以下、順に説明する。
(直進らしさに基づくアウトライア除去)
特徴点が正しくトラッキングされている場合、その点が三次元空間で等速直線運動をしている限り、その軌跡は直線となる。一般に、十分に短い時間間隔で移動体の位置を観測する場合、等速直線運動モデルは良い近似である。従って、複数の単オプティカルフローが直線的に並んでいるか否かを判定することはアウトライア除去に有効である。
図8は、アウトライアが発生しやすい画像の例を示す図である。図8に示すように、画像の中に樹木があり、似た形状の葉や枝を多く含む画像である場合、即ち、似通ったパターンを複数個含む画像である場合は、複数のフレームについて対応する特徴点を検出すると、本来対応しない点FPt1、FPt2、FPt3、FPt4が対応する特徴点として検出されてしまう。このような特徴点及びそれらを結ぶオプティカルフローは、アウトライアである。このとき、アウトライアとして検出された特徴点FPt1、FPt2、FPt3、FPt4の連結オプティカルフローCOFを求めると、図8に示すように、連結オプティカルフローCOFと各単オプティカルフローとのずれが大きくなる。
このようなアウトライアを判定して除去するために、グルーピング部24は、各単オプティカルフローの、連結オプティカルフローに直交する成分を抽出し、そこから直進らしさの度合いを定量化し、その値と閾値とを比較することによりアウトライアの判定を行う。具体的には、グルーピング部24は、特徴点ごとに、連結オプティカルフローを構成する各単オプティカルフローが直線的であるか否かを次の要領で判定する。
いま、n連結オプティカルフローを構成する単オプティカルフローを時系列に(Vx(i), Vy(i))、i=1,2,…,nとし、n連結オプティカルフローを(Vx(1:n),Vy(1:n))と表記する。まず、グルーピング部24は、連結オプティカルフローに直交する単位ベクトルを算出する。具体的には、この単位ベクトルは(Vy(1:n),−Vx(1:n))/sqrt(Vx(1:n)2+Vy(1:n)2) と与えられる。
次に、n連結オプティカルフローを構成する各単オプティカルフローとこの単位ベクトルの内積の絶対値を算出し、n個分の値の和を取り、この値を直線らしさの指標とする。グルーピング部24は、この直線らしさの指標をあらかじめ定めた閾値と比較し、連結オプティカルフローの直線らしさの指標が閾値よりも大きい特徴点及びその連結オプティカルフローを仮のグループから除外する。
(TTCの類似度に基づくアウトライア除去)
グルーピング部24は、各特徴点の連結オプティカルフローに基づいて、衝突時間(TTC:Time To Collision)を算出する。TTCとは、三次元上の点がカメラに対して接近しているとき、その点が画像平面に到達するまでの時間をいう。なお、衝突時間の算出において、画像平面は無限の広がりを持つものとする。また、点がカメラから遠ざかるときのTTCは負の値を取る。
いま、連結オプティカルフローを表す二次元のベクトルをuとし、そのx成分及びy成分をそれぞれ、ux,uyとすると、u2=ux 2+uy 2を満たし、uxは、三次元座標X,Z と速度ΔX,ΔZによって下式(6)で表される。
Figure 0005944781
ここで、fはカメラ10の焦点距離である。速度の二乗の項は無視できるオーダーであると考えると、下式(7)を得る。
Figure 0005944781
ここで、消失点のx座標x は、時間を無限にさかのぼった(点が接近している場合)ときに収束する位置であるため、下式(8)のように表される。
Figure 0005944781
ここで、TTCをΔTと表記すると、ΔTは、Z/(−ΔZ)で与えられる(特徴点が接近する場合は、ΔZ<0)。オプティカルフローのy成分uyについても同様の導出ができるため、下式(9)が得られる。
Figure 0005944781
式(7)と式(9)を連立して解くと、下式(10)が得られる。
Figure 0005944781
ここで、pは特徴点の画像座標であり、pは点の軌跡の消失点の画像座標であり、「・」は内積演算子である。
グルーピング部24は、各特徴点のn連結オプティカルフロー(Vx(1:n),Vy(1:n))から式(10)を用いて衝突時間ΔTn を算出する。グルーピング部24は、同一の特徴点のΔTn-1,ΔTn-2,……もΔTnと同様の方法で算出する。特徴点が正しくトラッキングされている場合には、その点が三次元空間で等速直線運動をしている限り、ΔTn,ΔTn-1,……は互いに等しくなる。上述のように、十分に短い時間間隔で移動体を観測する場合、等速直線運動モデルは良い近似であるため、ΔTn、ΔTn-1、……は互いに類似するといえる。ΔTn,ΔTn-1,……の類似が崩れている場合、それは点が誤ってトラッキングがなされた結果であり、アウトライアであると判定できる。
グルーピング部24は、n連結オプティカルフローを構成する特徴点群の各々について、衝突時間ΔTn、ΔTn-1、……の類似度を求めて、それを予め定めた閾値と比較し、閾値よりも小さい特徴点及びその連結オプティカルフローを仮のグループから除外する。具体的には、グルーピング部24は、TTCのずれをDj=|ΔTn-j−ΔTn|(j=1,……,n−1) と定量化し、Dj>Dthを満たすjが一つでもある場合、この特徴点及びその連結オプティカルフローをグループから除外する。ここで、Dthはあらかじめ定められた閾値である。
グルーピング部24は、上記の直進らしさに基づく方法、及びTTCの類似度に基づく方法によってアウトライアを除去して連結オプティカルフローのグルーピングを行なう。1つのグループにグルーピングされた複数の連結オプティカルフローの特徴点は、1つの移動体の特徴点である。グルーピング部24は、このようにして特徴点のグルーピングを行なうことで移動体を検出する。なお、グルーピング部24は、上記の直進らしさに基づく方法、及びTTCの類似度に基づく方法のいずれかのみによってアウトライアを除去してもよい。
次に、相対的進入角度推定部30について説明する。相対的進入角度推定部30は、移動体検出部20で検出された移動体について、その移動体の車両に対する相対的進入角度を推定する。図9は、相対的進入角度の定義を説明する図である。図9(a)は、θ<0の場合を示しており、図9(b)はθ>0の場合を示している。図9(a)及び(b)に示すように、三次元上の点がP0からP1まで移動したとき、次式(11)で与えられる角度を相対的進入角度と定義する。
Figure 0005944781
同一の消失点を許容誤差の範囲で共有する点群があるとき、この点群の相対的進入角度が推定可能である。
図10は、相対的進入角度と消失点との関係を示す図である。同一の速度で並進移動する移動体の三次元上の複数の点Pa、Pbがあるとき、これら点の透視投影後の軌跡は消失点を持つ。いま、光学中心から消失点VPに向かうベクトルV=(fΔX/ΔZ,fΔY/ΔZ,f)を考えると、このベクトルVは、点Pa、Pbの速度ベクトルva=vb=(ΔX,ΔY,ΔZ)の定数倍(f/ΔZ倍)である。よって、光学中心から焦点距離fだけZ方向に離れたところにZ方向に垂直な画像平面を設定すると、光学中心から画像上の消失点VPに向かうベクトルVと、同一の速度で並進移動する移動体の三次元上の複数の点Pa、Pbの速度ベクトルva、vbとは、平行である。このことから、相対的進入角度は、次式(12)のとおりとなる。
Figure 0005944781
ここで、x∞=fΔX/ΔZ、sは二次元上の点が消失点から遠ざかるとき(ΔZ<0)に+1、近づくとき(ΔZ>0)に−1と設定する。相対的進入角度算推定部30は、式(12)によって移動体検出部20で検出された移動体の車両に対する相対的進入角度の推定値を算出する。
次に、衝突危険度算出部40について説明する。衝突危険度算出部40は、相対的進入角度やTTCや距離推定値に基づいて移動体と自車両の衝突の危険度を算出する。衝突危険度算出部40は、距離推定部41及び危険度算出部42を備えている。距離推定部41は、自車両から移動体までのZ方向の距離(以下単に「距離」という。)を推定する。危険度算出部42は、距離推定部41にて推定された距離に基づいて、移動体が自車両に衝突する危険度を算出する。
距離推定部41にて距離を推定する方法には、以下に説明する複数の方法がある。距離推定部41は以下のいずれかの一つの推定方法で距離を推定してもよいし、複数の推定方法でそれぞれ推定してもよい。推定された距離は危険度算出部42における危険度の算出に用いられるため、距離推定部41は、危険度算出部42における危険度の算出方法に必要な距離の推定を行なう。以下、それぞれ説明する。
(距離推定方法の第1の例:距離の上限を算出する方法)
第1の例では、距離推定部41は、移動体までの距離の上限を推定する。図11は、距離推定方法の第1の例における地面点を説明する図である。また、図12は、距離推定方法の第1の例における距離の上限値の算出を説明する図である。距離推定部41は、図11に示すように、グルーピングされた特徴点群から、y座標の値が最も大きい特徴点(以下、「最下特徴点」という。)を選び、最下特徴点と光学中心を結ぶ直線と地面Gの交点(以下、「地面点」という。)GPの座標を算出する。
図11に示すように、移動体上の点として検出された特徴点群は、それが地面よりも上にある限り、最下特徴点の指し示す三次元上の点のZ座標は、地面点GPのZ座標よりも小さくなる。グルーピングされた特徴点群の特徴点同士の間の距離が、カメラ10からの距離と比べて十分に小さいと仮定すると、地面点GPのZ座標は、特徴点群のZ座標の上限値とみなすことができる。地面点GPのZ座標、即ち距離の上限値D1は、図12に示すように、D1=Hc*f/y_maxによって与えられる。ここで、Hcはカメラ10の地面からの高さ、y_maxは最下特徴点のy座標、fは焦点距離、即ちカメラの光学中心から画像平面IPまでの距離である。なお、この方法は、y_maxが正の時のみ適応可能である。距離推定部41は、Hc*f/y_maxを距離の上限値D1として算出する。
(距離推定方法の第2の例:距離を直接推定する方法)
第2の例では、距離推定部41は、移動体を代表する1つの代表点を特定して、自車両の並進移動速度と代表点の衝突時間TTCを利用して、距離を直接推定する。距離推定部41は、移動体としてグルーピングされた複数の特徴点のうちのいずれかを代表点として選択する。代表点として選択された特徴点のTTCは移動体検出部20で求まっているので、これを利用する。TTCをΔTとすると、ΔT=Z/(−ΔZ)である。移動体が自車両の進行方向に対して直交して並進移動していると仮定すると、ΔZ=−Vcである。ここで、Vcは自車両の並進移動速度であり、距離推定部41は図示しない構成によって、このVcを取得している。距離推定部41は、Z=ΔTVcによってZ、即ち自車両から移動体までの距離を推定する。
(距離推定方法の第3の例:距離の確率分布を決定する方法)
第3の例では、距離推定部41は、移動体を代表する1つの代表点を特定して、代表点の衝突時間TTCを利用して距離の確率の分布を決定する。距離推定部41は、移動体としてグルーピングされた複数の特徴点のうちのいずれかを代表点として選択する。代表点として選択された特徴点のTTCは移動体検出部20で求まっているので、これを利用する。第3の例において、距離推定部41は、移動体のZ方向の速度の確率分布を仮定する。背景点の相対的進入角度とは異なる相対的進入角度を持って移動する物体は、自車両の並進移動方向に対し非零の角度を持っている。そして、これらの移動体のZ方向の速度の確率分布を、平均0の正規分布と置くことは経験的に妥当である。
距離推定部41は、移動体の代表点のZ方向の速度ΔZの平均−Vを予め記憶しており、その標準偏差σも、例えば3km/hとして予め固定値を記憶している。移動体の代表点のZ方向の速度ΔZの確率の分布は、平均−V、標準偏差σの正規分布に従う。代表点のTTCをΔTと表記すると、代表点の距離はZ=ΔT(−ΔZ)であり、従って、代表点の距離Zの確率分布は、平均ΔT(−V)、標準偏差ΔTσの正規分布に従うことになる。距離推定部41は、代表点の距離Zの確率分布を、平均ΔT(−V)、標準偏差ΔTσの正規分布として決定する。
危険度算出部42は、相対的進入角度推定部30で推定された相対的進入角度θに基づいて危険ゾーンを定義した上で、移動体が自車両に衝突する危険度を算出する。危険ゾーンとは、XZ平面の中の領域であり、ある一定の相対的進入角度を持ってXZ平面上の点が自車両に接近したときに、その点が車両に衝突する範囲をいう。但し、自車両が占めるXZ平面の部分は非危険ゾーンとする。危険度算出部42は、距離推定部41における距離の推定方法に応じた方法で危険度を算出する。以下、順に説明する。
(危険度算出の第1の例:距離の上限の推定値に基づく危険度の算出)
図13は、距離の上限の推定値に基づく危険度の算出を説明するための図である。危険ゾーンDZは、車両Cの進行方向(Z軸方向)から相対的進入角度θだけ傾いた方向に、当該方向に垂直な方向の車両Cの幅で延び、推定された距離の上限D1より車両Cに近い領域である。なお、危険度算出部42は、移動体が車両Cの右側にあるときには、右に相対的進入角度θだけ傾いた危険ゾーンを設定し、移動体が車両Cの左側にあるときには、左に相対的進入角度θだけ傾いた危険ゾーンを設定する。また、光学中心と画像上のある点とを通る直線をXZ平面に正射影したものを、XZレイと呼ぶこととする。換言すれば、XZレイは、傾きがX/Z=x/fで与えられる、原点を通る直線である。図13には、XZレイ(1)とXZレイ(2)が示されている。
危険度算出部42は、移動体を代表する1つの代表点を特定して、当該代表点のXZ例と危険ゾーンDZを用いて、代表点が車両に衝突する危険度を算出する。具体的には、危険度算出部42は、代表点のXZレイの、原点から上限値D1までの間の線分のうち、危険ゾーンDZに入る線分の割合を算出し、この値を危険度とする。図13の例では、XZレイ(1)の危険度は、L1/(L1+L2)となり、XZレイ(2)はすべて危険ゾーンに含まれているので、その危険度は100%(最大)となる。
図13から明らかなように、本例では、XZ平面において、相対的進入角度θの方向と代表点の位置ベクトルの方向とのずれが小さいほど(一致度が高いほど)、危険度が高くなるようにする。このことは、換言すれば、画像内において、消失点と代表点が近いほど危険度が高くなることを意味する。
なお、危険度算出部42は、この割合を四捨五入するなどして離散値化し、複数の段階に分けられたレベルとして危険度を算出してもよい。この場合には、割合が高いほど危険なレベルとなるようにする。
(危険度算出の第2の例:距離の推定値に基づく危険度の算出)
図14は、距離の推定値に基づく危険度の算出を説明するための図である。危険度算出部42は、上記の算出例と同様に、車両Cの進行方向(Z軸方向)から相対的進入角度θだけ傾いた方向に、当該方向に垂直な方向の車両Cの幅で延びる危険ゾーンDZを設定する。なお、本例でも、危険度算出部42は、移動体が車両Cの右側にあるときには、右に相対的進入角度θだけ傾いた危険ゾーンを設定し、移動体が車両Cの左側にあるときには、左に相対的進入角度θだけ傾いた危険ゾーンを設定する。但し、本例では、危険ゾーンの上限は設定しない。本例では、代表点の距離D2が推定されているので、代表点のXZレイと距離の推定値D2との交点は、即ち代表点の(X,Z)座標となる。よって、この代表点の(X,Z)座標が危険ゾーンDZに含まれるか否かを危険度とすることができる。即ち、代表点の(X,Z)座標が危険ゾーンDZに含まれているときは危険であると判定し、代表点の(X,Z)座標が危険ゾーンDZに含まれていないときは危険でないと判定する。
図14において、XZレイ(1)と距離の推定値D2との交点は、危険ゾーンDZの外にあるので、危険ではないと判定される。XZレイ(2)と距離の推定値D2との交点は、危険ゾーンDZ内にあるので、危険であると判定される。
図15は、本例の変形例を説明するための図である。本変形例では、図15に示すように、危険ゾーンDZを複数のレベルに分けて段階的に設定する。この変形例では、車両Cの前方部分(フロントバンパーを含む)をより多く含む領域を危険レベルの高い危険ゾーンDZ1を設定し、その外側に危険レベルが中程度の危険ゾーンDZ2を設定し、危険ゾーンの周りにも比較的低い危険レベルの危険ゾーンDZ3を設定する。そして、危険度算出部42は、上記と同様に、XZレイと距離の推定値D2との交点が含まれる危険ゾーンに応じた危険レベルを求める。なお、このような危険ゾーンのレベル分けは、第1の例及び後述する第3及び第4の例においても行なってよい。
本例でも、XZ平面において、相対的進入角度θの方向と代表点の位置ベクトルの方向とのずれが小さいほど(一致度が高いほど)、危険度が高くなるように、換言すれば、画像内において、消失点と代表点が近いほど危険度が高くなるように、危険度が算出される。
(危険度算出の第3の例:距離の確率分布に基づく危険度の算出)
図16は、距離の確率分布に基づく危険度の算出を説明するための図である。危険度算出部42は、代表点のXZレイ上でちょうど危険ゾーンDZと安全ゾーンSZの境にある境界点BP(XBP,ZBP)を算出する。危険度算出部42は、この境界点BPのZ座標(ZBP)を境にして、距離推定部41で推定された距離の確率分布を二分する。そうすると、確率分布の全体の面積に対する危険ゾーンDZ側の確率分布の確率密度関数の積分値S1は、代表点が危険ゾーンにある確率を示し、確率分布の全体の面積に対する安全ゾーンSZ側の確率分布の確率密度関数の積分値S2は、代表点が安全ゾーンにある確率を示すこととなる。
危険度算出部42は、代表点が危険ゾーンDZ側にある確率をその代表点の危険度とする。なお、距離推定部41で推定された距離分布が正規分布である場合、その積分には、誤差関数を利用できる。また、危険度算出部42は、上記のように確率をそのまま危険度としてもよいし、離散化したレベルで危険度を求めてもよい。
本例でも、XZ平面において、相対的進入角度θの方向と代表点の位置ベクトルの方向とのずれが小さいほど(一致度が高いほど)、危険度が高くなるように、換言すれば、画像内において、消失点と代表点が近いほど危険度が高くなるように、危険度が算出される。
(危険度算出の第4の例:推定された距離の上限及び距離の分布に基づく危険度の算出)
図17は、推定された距離の上限及び距離の分布に基づく危険度の算出を説明するための図である。第4の例では、距離推定部41において、距離の上限が算出され、距離の確率分布が決定される。危険度算出部42は、距離推定部41で決定した距離の確率分布を、距離推定部41で求めた距離の上限の推定値D1で切断して単一切断正規分布とする。危険度算出部42は、距離の上限D1以下の分布を用いて、第3の例と同様に、代表点のXZレイ上で危険ゾーンDZと安全ゾーンSZの境にある境界点BP(XBP,ZBP)を算出して、この境界点BPのZ座標(ZBP)を境にして、単一切断正規分布を二分する。
代表点のXZレイの、距離の上限値D1までの距離範囲での確率密度関数の積分値は、即ち単一切断正規分布の積分値でありS1+S2’となり、これは一般的には100%とはならない。代表点のXZレイの、危険ゾーンにある距離範囲での確率密度関数の積分値は、図17のS1である。本例では、S1+S2’に対するS1の割合S1/(S1+S2’)をこの代表点の危険度とする。本例においても、危険度算出部42は、S1/(S1+S2’)をそのまま危険度としてもよいし、離散化したレベルで危険度を求めてもよい。
本例でも、XZ平面において、相対的進入角度θの方向と代表点の位置ベクトルの方向とのずれが小さいほど(一致度が高いほど)、危険度が高くなるように、換言すれば、画像内において、消失点と代表点が近いほど危険度が高くなるように、危険度が算出される。
以上説明したように、危険度算出の第1ないし第4の例のいずれにおいても、危険度は、XZ平面において、相対的進入角度θの方向と代表点の位置ベクトルの方向とのずれが小さいほど(一致度が高いほど)高くなるように、換言すれば、画像内において、消失点と代表点が近いほど高くなるように、算出される。このような例は他にもあり得る。衝突危険度算出部40は、例えば、相対的進入角度θの方向と代表点の位置ベクトルの方向との間の角度差、即ち、画像内における消失点と代表点との間の距離を危険度として算出してもよい。
(危険度算出の変形例)
この変形例は、上記の第1ないし第4の算出例に対して付加できる。この変形例では、上記の第1ないし第4の算出例で算出した危険度にTTCを加味して判断を行なう。TTCが小さい物体は、当然TTCが大きい物体よりも危険度が高いといえる。従って、この変形例では、TTCが小さいほど危険度が大きくなるように、上記の第1ないし第4の算出例で算出した危険度にTTCの大きさに基づく修正を加える。
具体的には、危険度が連続値で得られている場合には、TTCの逆数をTTCレベルとして、例えば上記の第1ないし第4の算出例で算出した危険度にTTCレベルを掛けることで危険度を修正できる。また、危険度が離散的なレベルで得られている場合には、例えば図18に示すように、TTCの値を3つのレベルに分けて、危険度のレベルとTTCレベルとの組み合わせによって危険度を修正できる。
なお、上述のように、距離推定部41及び/又は危険度算出部42は、移動体としてグルーピングされた複数の特徴点から1点を代表点として距離の推定及び/又は危険度の算出をするが、距離推定部41及び/又は危険度算出部42は、1つの移動体について複数の代表点を特定して、それぞれの代表点について距離の推定及び/又は危険度の算出を行なって、複数の代表点いついて算出された複数の危険度の平均をとってその移動体が自車両に衝突する危険度としてもよい。また、代表点は、その移動体としてグルーピングされた複数の特徴点のうちのいずれかでなくとも、それら複数の特徴点の中点、重心点等、複数の特徴点に基づいて決定される点であってもよい。
報知部50は、衝突危険度算出部40にて算出された衝突の危険度に従って、ドライバに報知を行う。移動体認識システム100は、ヘッドアップディスプレイなどのディスプレイを備えている。ディスプレイには、カメラ10で撮影された画像がリアルタイムで表示される。この画像には、移動体検出部20でグルーピングされた特徴点群を囲む矩形が重畳される。このとき、報知部50は、危険度に応じて矩形の色や太さを変化させる。また、報知部50は、音によって衝突の危険をドライバに報知してもよい。この場合には、危険度が大きくなるに従って音を大きくしたり、周波数を高くしたりするなどして、ドライバの注意を喚起してよい。
なお、報知部50に加えて、又は報知部50に代えて、自動制動システムを設けてもよい。自動制動システムは、危険度算出部40にて算出された危険度の情報を受けて、車両の制動動作を行なう。この自動制動システムにより、危険な状況での車両の自動制動を行なうことができる。また、報知部50に加えて、又は報知部50に代えて、記憶装置を設けてもよい。記憶装置は、危険度算出部40にて算出された危険度の情報をその位置情報や時間情報とともに記憶する。この危険度の記録を参照することで、危険区域や危険時間帯を把握したり、ドライバの安全運転の状況を把握したりすることができる。
以上のように、本発明の実施の形態の移動体認識システム100は、車両に設置されたカメラで複数の連続する単眼画像を取得して、画像中の特徴点を消失点でグルーピングすることでその画像から移動体を検出して、その画像から相対的進入角度を推定するので、相対的進入角度を用いて、その移動体が車両に衝突する危険度を算出できる。この危険度は、物理的に意味を有する指標であることから、その危険度に応じた報知をすることで、ドライバが直感的に危険な状況を知ることができ、あるいは危険な状況に応じた制御を行なうことができる。また、本発明の実施の形態の移動体認識システム100は、相対的進入角度の方向と検出された移動体の位置ベクトルの方向とのずれが小さいほど高くなるように危険度を算出するので、衝突の危険度を好適に算出できる。
また、衝突の危険度を算出するためにステレオカメラや距離センサを用いずに比較的安価な単眼カメラを用いているので、コストを低減できる。なお、本発明の実施の形態の移動体認識システム100は、上記の構成に加えて、距離センサを併用してもよい。この場合には、移動体認識システム100は、距離センサによって得られる移動体の軌跡の情報と、上記の構成によって得られる相対的進入角度、衝突時間、移動体までの推定距離等の情報とを比較することで、検出の確からしさを強化できる。また、距離センサを併用する場合には、距離センサによって得られる移動体までの距離をも使用して、移動体の衝突の危険度の計算精度を向上させることができる。
また、移動体の検出においては、連結オプティカルフローを作成してアウトライアを除去するので、移動体の検出精度を向上できる。
本発明は、車両のドライバの安全運転のために有用な情報として、移動体が車両に衝突する危険度を得ることができるという効果を有し、単視点画像を用いて移動体を認識する移動体認識システム等として有用である。
100 移動体認識システム
10 カメラ
20 移動体検出部
21 連結オプティカルフロー算出部
22 回転移動量・消失点推定部
23 背景点除去部
24 グルーピング部
30 相対的進入角度推定部
40 衝突危険度算出部
41 距離推定部
42 危険度算出部
50 報知部

Claims (19)

  1. 車両に設置され、複数の連続する単視点の画像を撮影するカメラと、
    前記カメラにて撮影された複数の画像を用いて、画像中の移動体を検出する移動体検出部と、
    前記移動体検出部にて検出された移動体の前記カメラに対する相対的進入角度を推定する相対的進入角度推定部と、
    前記相対的進入角度と、前記カメラから前記移動体に向かう移動体方向との関係に基づいて、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部と、
    を備え、
    前記衝突危険度算出部は、前記相対的進入角度に基づいて危険ゾーンを設定し、前記移動体が危険ゾーンに存在する確率に基づいて前記危険度を算出することを特徴とする移動体認識システム。
  2. 前記衝突危険度算出部は、前記相対的進入角度と前記移動体方向とのずれが小さいほど危険度を高くすることを特徴とする請求項1に記載の移動体認識システム。
  3. 前記危険ゾーンは、前記カメラを原点として、前記カメラの光軸方向をZ方向とし、鉛直方向をY方向とし、水平方向をX方向としたときのXZ平面に設定され、前記車両から前記車両の幅で前記相対的進入角度の方向に延びる領域であることを特徴とする請求項1に記載の移動体認識システム。
  4. 前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離の上限値を推定する距離推定部と、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイの、前記カメラから前記上限値までの線分のうち、前記危険ゾーンに入る線分の割合を前記危険度として算出する危険度算出部とを備えたことを特徴とする請求項3に記載の移動体認識システム。
  5. 前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備え、
    前記距離推定部は、グルーピングされた前記移動体上の複数の特徴点から、高さが最も低い最下特徴点を選出し、前記最下特徴点と前記光学中心とを結ぶ直線と前記車両が走行する地面との交点を地面点として、前記地面点のZ座標を前記カメラから前記移動体までの前記Z方向の距離の上限値として推定する
    ことを特徴とする請求項4に記載の移動体認識システム。
  6. 前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離を推定する距離推定部と、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイ上の、前記カメラから前記推定された距離を有する点が前記危険ゾーンにある場合に、前記点が前記危険ゾーンにない場合より高い危険度を算出する危険度算出部とを備えたことを特徴とする請求項3に記載の移動体認識システム。
  7. 前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備え、
    前記距離推定部は、前記消失点に基づいて前記移動体が前記車両に衝突するまでの衝突時間を求め、前記衝突時間と前記車両の速度に基づいて前記カメラから前記移動体までの前記Z方向の距離を推定する
    ことを特徴とする請求項6に記載の移動体認識システム。
  8. 前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離の確率分布を決定する距離推定部と、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイが前記危険ゾーンにある距離範囲での前記確率分布の確率密度関数の積分値に基づいて前記危険度を算出する危険度算出部とを備えたことを特徴とする請求項3に記載の移動体認識システム。
  9. 前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備え、
    前記距離推定部は、前記消失点に基づいて前記移動体が前記車両に衝突するまでの衝突時間を求め、前記衝突時間に基づいて、所定の正規分布に従って前記距離の確率分布を決定する
    ことを特徴とする請求項8に記載の移動体認識システム。
  10. 前記衝突危険度算出部は、前記カメラから前記移動体までの前記Z方向の距離の上限値を推定し、かつ前記カメラから前記移動体までの前記Z方向の距離の確率分布を決定する距離推定部と、前記上限値までの距離範囲での前記確率分布の確率密度関数の積分値に対する、前記カメラと前記カメラから焦点距離だけ離れた前記画像上の前記移動体とを通る直線を前記XZ平面に正射影した線分であるXZレイが前記危険ゾーンにある距離範囲での前記確率分布の確率密度関数の積分値の割合に基づいて危険度を算出する危険度算出部とを備えたことを特徴とする請求項3に記載の移動体認識システム。
  11. 前記移動体検出部は、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを算出するオプティカルフロー算出部と、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点を前記移動体上の複数の特徴点としてグルーピングするグルーピング部を備え、
    前記距離推定部は、グルーピングされた前記移動体上の複数の特徴点から、高さが最も低い最下特徴点を選出し、前記最下特徴点と前記光学中心とを結ぶ直線と前記車両が走行する地面との交点を地面点として、前記地面点のZ座標を前記カメラから前記移動体までの前記Z方向の距離の上限値として推定し、前記消失点に基づいて前記移動体が前記車両に衝突するまでの衝突時間を求め、前記衝突時間に基づいて、所定の正規分布に従って前記距離の確率分布を決定する
    ことを特徴とする請求項10に記載の移動体認識システム。
  12. 前記衝突危険度算出部は、前記危険ゾーンを複数のレベルに分けて段階的に設定することを特徴とする請求項1ないし11のいずれか一項に記載の移動体認識システム。
  13. 車両に設置され、複数の連続する単視点の画像を撮影するカメラと、
    前記カメラにて撮影された複数の画像を用いて、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを生成し、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点をグルーピングすることで、グルーピングされた前記複数の特徴点を移動体として検出する移動体検出部と、
    前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部と、
    を備え、
    前記衝突危険度算出部は、前記画像における前記消失点との間の距離が近い前記移動体の前記危険度が、前記画像における前記消失点との間の距離が遠い前記移動体の前記危険度よりも高くなるように、前記危険度を算出することを特徴とする移動体認識システム。
  14. 前記衝突危険度算出部は、前記移動体上の複数の前記特徴点のうちのいずれかの特徴点、又は前記移動体上の複数の特徴点から求められた点を代表点として、前記代表点が前記車両に衝突する危険度を算出することを特徴とする請求項5、7、9、11、又は13に記載の移動体認識システム。
  15. 前記衝突危険度算出部で算出された危険度に応じて前記車両のドライバに危険を報知する報知部を更に備えたことを特徴とする請求項1ないし14のいずれか一項に記載の移動体認識システム。
  16. コンピュータを、
    車両に設置され、複数の連続する単視点の画像を撮影するカメラにて撮影された複数の画像を用いて、画像中の移動体を検出する移動体検出部、
    前記移動体検出部にて検出された移動体の前記カメラに対する相対的進入角度を推定する相対的進入角度推定部、及び
    前記相対的進入角度と、前記カメラから前記移動体に向かう移動体方向との関係に基づいて、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部、
    として機能させる移動体認識プログラムであって、
    前記衝突危険度算出部は、前記相対的進入角度に基づいて危険ゾーンを設定し、前記移動体が危険ゾーンに存在する確率に基づいて前記危険度を算出することを特徴とする移動体認識プログラム。
  17. コンピュータを、
    車両に設置され、複数の連続する単視点の画像を撮影するカメラにて撮影された複数の画像を用いて、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを生成し、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点をグルーピングすることで、グルーピングされた前記複数の特徴点を移動体として検出する移動体検出部、及び
    前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出部であって、前記画像における前記消失点との間の距離が近い前記移動体の前記危険度が、前記画像における前記消失点との間の距離が遠い前記移動体の前記危険度よりも高くなるように、前記危険度を算出する衝突危険度算出部
    として機能させることを特徴とする移動体認識プログラム。
  18. 車両に設置されたカメラが、複数の連続する単視点の画像を撮影する撮影ステップと、
    移動体検出部が、前記カメラにて撮影された複数の画像を用いて、画像中の移動体を検出する移動体検出ステップと、
    相対的進入角度推定部が、前記移動体検出ステップにて検出された移動体の前記カメラに対する相対的進入角度を推定する相対的進入角度推定ステップと、
    衝突危険度算出部が、前記相対的進入角度と、前記カメラから前記移動体に向かう移動体方向との関係に基づいて、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出ステップと、
    を備え、
    前記衝突危険度算出ステップは、前記相対的進入角度に基づいて危険ゾーンを設定し、
    前記移動体が危険ゾーンに存在する確率に基づいて前記危険度を算出することを特徴とする移動体認識方法。
  19. 車両に設置されたカメラが、複数の連続する単視点の画像を撮影する撮影ステップと、
    移動体検出部が、前記カメラにて撮影された複数の画像を用いて、前記画像から複数の特徴点を抽出して、抽出された特徴点のオプティカルフローを生成し、前記複数の特徴点のうち、延長された前記オプティカルフローが1つの消失点に収束する複数の特徴点をグルーピングすることで、グルーピングされた前記複数の特徴点を移動体として検出する移動体検出ステップと、
    衝突危険度算出部が、前記移動体が前記車両に衝突する危険度を算出する衝突危険度算出ステップと、
    を含み、
    前記衝突危険度算出ステップは、前記画像における前記消失点との間の距離が近い前記移動体の前記危険度が、前記画像における前記消失点との間の距離が遠い前記移動体の前記危険度よりも高くなるように、前記危険度を算出することを特徴とする移動体認識方法。
JP2012169709A 2012-07-31 2012-07-31 移動体認識システム、移動体認識プログラム、及び移動体認識方法 Expired - Fee Related JP5944781B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2012169709A JP5944781B2 (ja) 2012-07-31 2012-07-31 移動体認識システム、移動体認識プログラム、及び移動体認識方法
CN201210407065.9A CN103578115B (zh) 2012-07-31 2012-10-23 移动体识别系统以及移动体识别方法
EP15175825.7A EP2960886A1 (en) 2012-07-31 2012-11-29 Moving object recognition systems, moving object recognition programs, and moving object recognition methods
EP12194786.5A EP2693416A3 (en) 2012-07-31 2012-11-29 Moving object recognition systems, moving object recognition programs, and moving object recognition methods
US13/689,196 US9824586B2 (en) 2012-07-31 2012-11-29 Moving object recognition systems, moving object recognition programs, and moving object recognition methods

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012169709A JP5944781B2 (ja) 2012-07-31 2012-07-31 移動体認識システム、移動体認識プログラム、及び移動体認識方法

Publications (2)

Publication Number Publication Date
JP2014029604A JP2014029604A (ja) 2014-02-13
JP5944781B2 true JP5944781B2 (ja) 2016-07-05

Family

ID=47355839

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012169709A Expired - Fee Related JP5944781B2 (ja) 2012-07-31 2012-07-31 移動体認識システム、移動体認識プログラム、及び移動体認識方法

Country Status (4)

Country Link
US (1) US9824586B2 (ja)
EP (2) EP2693416A3 (ja)
JP (1) JP5944781B2 (ja)
CN (1) CN103578115B (ja)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140218482A1 (en) * 2013-02-05 2014-08-07 John H. Prince Positive Train Control Using Autonomous Systems
KR101480647B1 (ko) * 2013-11-15 2015-01-09 현대자동차주식회사 협로 주행을 위한 조향 위험도 판단 시스템 및 그 판단 방법
WO2015125022A2 (en) * 2014-02-20 2015-08-27 Mobileye Vision Technologies Ltd. Navigation based on radar-cued visual imaging
US10431099B2 (en) * 2014-02-21 2019-10-01 FLIR Belgium BVBA Collision avoidance systems and methods
JP6174514B2 (ja) * 2014-04-14 2017-08-02 本田技研工業株式会社 衝突可能性判定装置、運転支援装置、衝突可能性判定方法、及び衝突可能性判定プログラム
JP2016001464A (ja) * 2014-05-19 2016-01-07 株式会社リコー 処理装置、処理システム、処理プログラム、及び、処理方法
EP2950294B1 (en) * 2014-05-30 2019-05-08 Honda Research Institute Europe GmbH Method and vehicle with an advanced driver assistance system for risk-based traffic scene analysis
CN106796648B (zh) * 2014-06-03 2020-11-24 御眼视觉技术有限公司 用于检测对象的系统和方法
JP6340957B2 (ja) * 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
JP6265095B2 (ja) * 2014-09-24 2018-01-24 株式会社デンソー 物体検出装置
CN104299244B (zh) * 2014-09-26 2017-07-25 东软集团股份有限公司 基于单目相机的障碍物检测方法及装置
JP6532229B2 (ja) * 2014-12-18 2019-06-19 株式会社デンソーテン 物体検出装置、物体検出システム、物体検出方法及びプログラム
EP3038011B1 (de) * 2014-12-22 2019-06-05 Aptiv Technologies Limited Verfahren zum Bestimmen des Abstands eines Objekts von einem Kraftfahrzeug mittels einer monokularen Bilderfassungseinrichtung
JP6557973B2 (ja) * 2015-01-07 2019-08-14 株式会社リコー 地図生成装置、地図生成方法およびプログラム
EP3275174A1 (en) * 2015-03-23 2018-01-31 Longsand Limited Scan face of video feed
KR101639722B1 (ko) * 2015-05-26 2016-07-15 주식회사 피엘케이 테크놀로지 소실점 보정 장치 및 방법
JP6607630B2 (ja) * 2015-06-30 2019-11-20 Kddi株式会社 移動物体抽出装置、方法およびプログラム
JP6090381B2 (ja) * 2015-07-29 2017-03-08 横浜ゴム株式会社 衝突防止システム
JP6465982B2 (ja) * 2015-08-31 2019-02-06 三菱電機株式会社 画像処理装置、画像処理方法及びプログラム
JP6450294B2 (ja) 2015-09-30 2019-01-09 株式会社デンソーアイティーラボラトリ 物体検出装置、物体検出方法、及びプログラム
WO2017056822A1 (ja) * 2015-09-30 2017-04-06 ソニー株式会社 画像処理装置と画像処理方法および車両制御システム
CN105718052B (zh) * 2016-01-18 2018-09-11 京东方科技集团股份有限公司 一种纠正体感交互追踪失败的指示方法及装置
JP6752024B2 (ja) * 2016-02-12 2020-09-09 日立オートモティブシステムズ株式会社 画像処理装置
US10552966B2 (en) * 2016-03-07 2020-02-04 Intel Corporation Quantification of parallax motion
CN107176161B (zh) * 2016-03-10 2021-11-23 松下电器(美国)知识产权公司 识别结果提示装置、识别结果提示方法以及自主移动体
CN107180220B (zh) 2016-03-11 2023-10-31 松下电器(美国)知识产权公司 危险预测方法
CN105589464B (zh) * 2016-03-28 2019-02-26 哈尔滨工程大学 一种基于速度障碍法的uuv动态避障方法
EP3481661A4 (en) 2016-07-05 2020-03-11 Nauto, Inc. AUTOMATIC DRIVER IDENTIFICATION SYSTEM AND METHOD
US10209081B2 (en) 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
JP6597517B2 (ja) * 2016-08-10 2019-10-30 株式会社デンソー 物標検出装置
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
WO2018053175A1 (en) 2016-09-14 2018-03-22 Nauto Global Limited Systems and methods for near-crash determination
US10733460B2 (en) 2016-09-14 2020-08-04 Nauto, Inc. Systems and methods for safe route determination
EP3309721A1 (en) * 2016-09-23 2018-04-18 KPIT Technologies Ltd. Autonomous system validation
DE102016218852A1 (de) * 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion von Objekten aus Bildern einer Kamera
DE102016218849A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Tracking von Objekten aus Bildern einer Kamera
DE102016218853A1 (de) 2016-09-29 2018-03-29 Conti Temic Microelectronic Gmbh Detektion und Validierung von Objekten aus Bildern einer Kamera
EP3520684B1 (en) * 2016-09-30 2024-06-12 Asia Air Survey Co., Ltd. Moving-body information providing system, and moving-body information providing program
US10248872B2 (en) * 2016-10-19 2019-04-02 Texas Instruments Incorporated Estimation of time to collision in a computer vision system
US10246014B2 (en) 2016-11-07 2019-04-02 Nauto, Inc. System and method for driver distraction determination
CN108162858B (zh) * 2016-12-07 2020-05-29 杭州海康威视数字技术股份有限公司 车载监控装置及其方法
JP6565893B2 (ja) 2016-12-26 2019-08-28 トヨタ自動車株式会社 運転支援装置
JP6551384B2 (ja) * 2016-12-26 2019-07-31 トヨタ自動車株式会社 車両用注意喚起装置
EP3364336B1 (en) * 2017-02-20 2023-12-20 Continental Autonomous Mobility Germany GmbH A method and apparatus for estimating a range of a moving object
EP3591613B1 (en) 2017-02-28 2021-12-15 NEC Solution Innovators, Ltd. Mobile entity detector, mobile entity detection method, and computer-readable recording medium
US10522040B2 (en) * 2017-03-03 2019-12-31 Kennesaw State University Research And Service Foundation, Inc. Real-time video analytics for traffic conflict detection and quantification
US10444342B2 (en) * 2017-03-08 2019-10-15 Gm Global Technology Operations Llc. Control of host device using three-dimensional position and velocity
JP6666289B2 (ja) * 2017-03-15 2020-03-13 株式会社東芝 移動体用空間情報算出装置及び衝突回避システム
CN109086650B (zh) * 2017-06-14 2022-04-12 现代摩比斯株式会社 校准方法和校准设备
WO2018229549A2 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
WO2018229550A1 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for adverse vehicle event determination
WO2018229548A2 (en) 2017-06-16 2018-12-20 Nauto Global Limited System and method for contextualized vehicle operation determination
WO2019008581A1 (en) * 2017-07-05 2019-01-10 Cortica Ltd. DETERMINATION OF DRIVING POLICIES
US10304207B2 (en) 2017-07-07 2019-05-28 Samsung Electronics Co., Ltd. System and method for optical tracking
CN111052201B (zh) * 2017-09-01 2022-02-01 株式会社村上开明堂 碰撞预测装置、碰撞预测方法以及存储介质
DE102017223486A1 (de) * 2017-12-21 2019-06-27 Continental Teves Ag & Co. Ohg Verfahren und System zum Vermeiden von lateralen Kollisionen
EP3759700B1 (en) 2018-02-27 2023-03-15 Nauto, Inc. Method for determining driving policy
CN111989728B (zh) * 2018-04-13 2022-08-23 三菱电机株式会社 驾驶辅助装置
CN110706496A (zh) * 2018-07-10 2020-01-17 北京耘科科技有限公司 基于声学的环境感知方法及系统
US10380440B1 (en) 2018-10-23 2019-08-13 Capital One Services, Llc Method for determining correct scanning distance using augmented reality and machine learning models
JP7206938B2 (ja) * 2019-01-18 2023-01-18 株式会社デンソーテン 移動量算出装置
CN110148169B (zh) * 2019-03-19 2022-09-27 长安大学 一种基于ptz云台相机的车辆目标三维信息获取方法
US11488290B2 (en) 2019-03-31 2022-11-01 Cortica Ltd. Hybrid representation of a media unit
PH12019050076A1 (en) * 2019-05-06 2020-12-02 Samsung Electronics Co Ltd Enhancing device geolocation using 3d map data
WO2020246202A1 (ja) * 2019-06-03 2020-12-10 国立大学法人東京大学 計測システム、計測方法、及び計測プログラム
JP7318377B2 (ja) * 2019-07-10 2023-08-01 株式会社Soken 物体検知装置
US11514594B2 (en) 2019-10-30 2022-11-29 Vergence Automation, Inc. Composite imaging systems using a focal plane array with in-pixel analog storage elements
JP7404081B2 (ja) * 2020-01-20 2023-12-25 フォルシアクラリオン・エレクトロニクス株式会社 障害物検出装置
CN113408320A (zh) * 2020-03-16 2021-09-17 上海博泰悦臻网络技术服务有限公司 用于车辆避撞的方法、电子设备和计算机存储介质
EP3920083A1 (en) * 2020-06-05 2021-12-08 Aptiv Technologies Limited Pointing to non-mapped objects outside a vehicle
JP7422029B2 (ja) * 2020-07-29 2024-01-25 本田技研工業株式会社 通信システム、情報処理装置、情報処理方法、移動体、移動体の制御方法、及びプログラム
CN112365706B (zh) * 2020-09-14 2021-11-23 江苏大学 一种基于多源信息的异常车距辨识方法
KR20220037531A (ko) * 2020-09-17 2022-03-25 현대자동차주식회사 차량 및 그 제어방법
US12049116B2 (en) 2020-09-30 2024-07-30 Autobrains Technologies Ltd Configuring an active suspension
KR20220060404A (ko) * 2020-11-04 2022-05-11 현대자동차주식회사 자율 주행 시스템의 동적 검증을 위한 테스트 케이스 생성 방법 및 장치
CN114512027B (zh) * 2020-11-16 2023-07-14 长城汽车股份有限公司 防碰撞控制方法及装置
JP7415892B2 (ja) * 2020-11-25 2024-01-17 トヨタ自動車株式会社 歩行支援システム
CN113012475B (zh) * 2021-03-26 2022-02-18 大连海事大学 一种通过评价船舶航行避碰合规性自主避碰的方法
EP4194300A1 (en) 2021-08-05 2023-06-14 Autobrains Technologies LTD. Providing a prediction of a radius of a motorcycle turn
CN113954867B (zh) * 2021-09-29 2023-10-20 广州文远知行科技有限公司 一种对象至碰时间快速计算方法、装置、设备及存储介质
CN114030488B (zh) * 2022-01-11 2022-05-03 清华大学 实现自动驾驶决策的方法、装置、计算机存储介质及终端
CN114882699B (zh) * 2022-04-08 2023-07-25 武汉理工大学 基于区域内冲突时空关联特征的路段交通风险辨识方法
DE102022204086A1 (de) 2022-04-27 2023-11-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Ermittlung einer dynamischen Fremdobjekt-Fahrkorridor-Assoziation
US20240125939A1 (en) * 2022-10-14 2024-04-18 Here Global B.V. Vehicle mirror assembly with a movable sensor
CN117423093B (zh) * 2023-12-18 2024-03-29 深圳市深航华创汽车科技有限公司 基于行车记录仪的行车检测方法、装置、设备及存储介质

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4143370A (en) * 1972-05-20 1979-03-06 Toyota Kogyo Kabushiki Kaisha Vehicle collision anticipating method and device
FR2713808B1 (fr) * 1993-12-14 1996-01-26 Thomson Csf Dispositif d'anticollision, notamment pour véhicules automobiles.
IL117279A (en) * 1996-02-27 2000-01-31 Israel Aircraft Ind Ltd System for detecting obstacles on a railway track
JPH113499A (ja) * 1997-06-10 1999-01-06 Hitachi Ltd 移動体管理システム,移動体載装置,基地局備装置および移動体管理方法
JP3986683B2 (ja) * 1998-08-25 2007-10-03 本田技研工業株式会社 車両の走行安全装置
JP2000357299A (ja) * 1999-06-16 2000-12-26 Honda Motor Co Ltd 車両の走行安全装置
JP4007723B2 (ja) * 1999-06-16 2007-11-14 本田技研工業株式会社 車両の走行安全装置
JP3838166B2 (ja) 2002-06-20 2006-10-25 日産自動車株式会社 車両用運転操作補助装置
JP4281485B2 (ja) * 2003-09-11 2009-06-17 トヨタ自動車株式会社 衝突被害軽減装置の起動制御装置及びこれに使用するセンサ
JP4396400B2 (ja) * 2004-06-02 2010-01-13 トヨタ自動車株式会社 障害物認識装置
US7409295B2 (en) * 2004-08-09 2008-08-05 M/A-Com, Inc. Imminent-collision detection system and process
JP4539348B2 (ja) 2004-09-07 2010-09-08 日産自動車株式会社 衝突時間算出装置および障害物検出装置
JP4466571B2 (ja) * 2005-05-12 2010-05-26 株式会社デンソー ドライバ状態検出装置、車載警報装置、運転支援システム
JP4169065B2 (ja) * 2006-02-13 2008-10-22 株式会社デンソー 車両制御装置
JP5003674B2 (ja) * 2006-03-27 2012-08-15 株式会社村田製作所 レーダ装置および移動体
JP4676373B2 (ja) 2006-04-27 2011-04-27 株式会社デンソー 周辺認識装置、周辺認識方法、プログラム
JP4919036B2 (ja) * 2007-01-30 2012-04-18 アイシン精機株式会社 移動物体認識装置
JP2008242544A (ja) * 2007-03-26 2008-10-09 Hitachi Ltd 衝突回避装置および方法
US7865277B1 (en) * 2007-05-07 2011-01-04 The United States Of America As Represented By The Secretary Of The Navy Obstacle avoidance system and method
JP5078637B2 (ja) * 2008-01-29 2012-11-21 富士通テン株式会社 レーダ装置、及び物標検出方法
EP2249310A4 (en) * 2008-02-04 2013-11-27 Konica Minolta Holdings Inc PERIPHERAL MONITORING DEVICE AND PERIPHERAL MONITORING METHOD
US8095313B1 (en) * 2008-06-23 2012-01-10 The United States Of America As Represented By The Secretary Of The Navy Method for determining collision risk for collision avoidance systems
US8244458B1 (en) * 2008-06-23 2012-08-14 The United States Of America As Represented By The Secretary Of The Navy Host-centric method for automobile collision avoidance decisions
AT507035B1 (de) * 2008-07-15 2020-07-15 Airbus Defence & Space Gmbh System und verfahren zur kollisionsvermeidung
JP5345350B2 (ja) * 2008-07-30 2013-11-20 富士重工業株式会社 車両の運転支援装置
EP2159779B1 (en) * 2008-08-27 2013-01-16 Saab Ab Using image sensor and tracking filter time-to-go to avoid mid-air collisions
JP5483535B2 (ja) * 2009-08-04 2014-05-07 アイシン精機株式会社 車両周辺認知支援装置
JP5152144B2 (ja) 2009-10-07 2013-02-27 株式会社デンソーアイティーラボラトリ 画像処理装置
JP2011118482A (ja) * 2009-11-30 2011-06-16 Fujitsu Ten Ltd 車載装置および認知支援システム
DE102009054835A1 (de) * 2009-12-17 2011-06-22 Robert Bosch GmbH, 70469 Objektsensor
SE534621C2 (sv) * 2010-01-19 2011-10-25 Volvo Technology Corp Anordning för döda vinkeln-varning
DE102012103134A1 (de) * 2011-04-12 2012-10-18 Conti Temic Microelectronic Gmbh Verfahren zur Warnung eines Fahrers eines Fahrzeugs vor rückwärtigem Verkehr
KR20150058531A (ko) * 2011-04-20 2015-05-28 도요타 지도샤(주) 차량용 주변 경계 장치
CN102303605A (zh) * 2011-06-30 2012-01-04 中国汽车技术研究中心 基于多传感器信息融合的碰撞及偏离预警装置及预警方法
CN103635947B (zh) * 2011-08-31 2015-10-07 日产自动车株式会社 车辆驾驶辅助装置
WO2013046408A1 (ja) * 2011-09-29 2013-04-04 トヨタ自動車株式会社 画像表示装置及び画像表示方法
JP5871006B2 (ja) * 2011-09-29 2016-03-01 トヨタ自動車株式会社 画像表示装置及び画像表示方法
EP2578464B1 (en) 2011-10-06 2014-03-19 Honda Research Institute Europe GmbH Video-based warning system for a vehicle
JP5867273B2 (ja) * 2012-04-27 2016-02-24 富士通株式会社 接近物体検知装置、接近物体検知方法及び接近物体検知用コンピュータプログラム

Also Published As

Publication number Publication date
CN103578115A (zh) 2014-02-12
US9824586B2 (en) 2017-11-21
EP2960886A1 (en) 2015-12-30
CN103578115B (zh) 2018-09-21
EP2693416A3 (en) 2014-11-19
US20140037138A1 (en) 2014-02-06
EP2693416A2 (en) 2014-02-05
JP2014029604A (ja) 2014-02-13

Similar Documents

Publication Publication Date Title
JP5944781B2 (ja) 移動体認識システム、移動体認識プログラム、及び移動体認識方法
KR102109941B1 (ko) 라이다 센서 및 카메라를 이용한 객체 검출 방법 및 그를 위한 장치
EP3258214B1 (en) Object detection device
JP6151150B2 (ja) 物体検出装置及びそれを用いた車両
US10650271B2 (en) Image processing apparatus, imaging device, moving object device control system, and image processing method
US20050232463A1 (en) Method and apparatus for detecting a presence prior to collision
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
JP6328327B2 (ja) 画像処理装置及び画像処理方法
JP5482672B2 (ja) 移動物体検出装置
JP6769477B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
KR102569437B1 (ko) 3차원 영상정보 기반 객체 추적 장치 및 방법
JP6816401B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2014106901A (ja) 距離算出装置、衝突検出システム、距離算出方法、衝突検出方法、及びプログラム
JP2010079582A (ja) 物体を検出する装置、方法及びプログラム
KR101427032B1 (ko) 차량의 보행자 인식 장치 및 방법, 이를 이용한 차량의 보행자 충돌 경고 및 예방 장치 및 방법
JP2017207874A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP5655038B2 (ja) 移動体認識システム、移動体認識プログラム、及び移動体認識方法
US20220171975A1 (en) Method for Determining a Semantic Free Space
JP2017207881A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6812701B2 (ja) 画像処理装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP2017211791A (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
Frémont et al. Visual confirmation of mobile objects tracked by a multi-layer lidar
JP2019160251A (ja) 画像処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
Petersson et al. Smart Cars: The Next Frontier

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150730

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160325

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160414

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160526

R150 Certificate of patent or registration of utility model

Ref document number: 5944781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees