[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2016134090A - 画像処理装置及びそれを用いた運転支援システム - Google Patents

画像処理装置及びそれを用いた運転支援システム Download PDF

Info

Publication number
JP2016134090A
JP2016134090A JP2015009750A JP2015009750A JP2016134090A JP 2016134090 A JP2016134090 A JP 2016134090A JP 2015009750 A JP2015009750 A JP 2015009750A JP 2015009750 A JP2015009750 A JP 2015009750A JP 2016134090 A JP2016134090 A JP 2016134090A
Authority
JP
Japan
Prior art keywords
obstacle
unit
distance
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015009750A
Other languages
English (en)
Inventor
知紀 福島
Tomonori Fukushima
知紀 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2015009750A priority Critical patent/JP2016134090A/ja
Priority to US14/842,442 priority patent/US20160210735A1/en
Publication of JP2016134090A publication Critical patent/JP2016134090A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】移動体と障害物の接触を予測する。【解決手段】一つの実施形態によれば、画像処理装置は、復元部、取得部、距離算出部、及び可視化処理部を有する。復元部は、周囲の3次元情報を復元する。取得部は、3次元データから障害物データを取得する。距離算出部は、移動体から障害物までの最短距離を計算して、移動体に対する障害距離マップを算出する。可視化処理部は、等値線を用いて、障害距離マップを可視化する。【選択図】 図1

Description

本発明の実施形態は、画像処理装置及びそれを用いた運転支援システムに関する。
自動車、ラジコン、飛行機などの移動体では、狭路走行の際、衝突防止のために障害物を精度よく検出する技術が求められている。例えば、運転者が運転する車両では、ヘッドアップディスプレイ等を利用して自車両の前方に仮想的な自車両を投影することで、すれ違い可能かを視覚的に支援する方法等が提案されている。
ところが、実際の狭路走行では、対向車両を避けるために自車両を道端に寄せるような複雑な操作を行うと、仮想的なガイド表示が進行方向と一致しなくなるため、運転支援が機能しなくなるという問題点がある。
特開2005−78414号公報
本発明は、移動体と障害物の接触を予測する画像処理装置及びそれを用いた運転支援システムを提供することにある。
一つの実施形態によれば、画像処理装置は、復元部、取得部、距離算出部、及び可視化処理部を有する。復元部は、周囲の3次元情報を復元する。取得部は、3次元データから障害物データを取得する。距離算出部は、移動体から障害物までの最短距離を計算して、移動体に対する障害距離マップを算出する。可視化処理部は、等値線を用いて、障害距離マップを可視化する。
第一の実施形態に係る画像処理装置の構成を示す図である。 第一の実施形態に係る画像処理装置が搭載された車両を示す概略図である。 第一の実施形態に係る画像処理装置による画像処理を示すフローチャート。 第一の実施形態に係る地面推定を説明する図、図4(a)は一般的な平面、図4(b)はセンサ角度が地面と平行な場合の図である。 第一の実施形態に係るRANSACを用いた平面抽出を示すフローチャート。 第一の実施形態に係るRANSACを用いた平面抽出を示す図である。 第一の実施形態に係る地面推定を示すフローチャート。 第一の実施形態に係る平面一致計算処理部を示すブロック図である。 第一の実施形態に係る平面一致計算処理部の演算ユニットを示すブロックである。 第一の実施形態に係る障害距離計算を示すフローチャート。 第一の実施形態に係る最短距離算出処理部を示すブロック図である。 第一の実施形態に係る最短距離算出処理部の演算ユニットを示すブロックである。 第一の実施形態に係る障害距離マップの一例を示す図である。 第一の実施形態に係る障害距離マップの等値線図である。 第一の実施形態に係る3次元データを示す斜視図である。 第一の実施形態に係る障害物データの一例を示す図である。 第一の実施形態に係る視覚化された障害距離マップの一例を示す図である。 図17を元図像に合成した一例を示す図である。 図18を俯瞰映像に変換した一例を示す図である。 第一の実施形態に係る通行可能・通行不可能の経路を示す図である。 第一の実施形態に係る通行可能・通行不可能の経路を示す上から見た図である。 第二の実施形態に係る画像処理装置の構成を示す図である。 第二の実施形態に係る画像処理装置による画像処理を示すフローチャート。 第三の実施形態に係る画像処理装置の構成を示す図である。 第三の実施形態に係る画像処理装置による画像処理を示すフローチャート。
以下本発明の実施形態について図面を参照しながら説明する。
(第一の実施形態)
まず、本発明の第一の実施形態に係る、画像処理装置及びそれを用いた運転支援システムについて図面を参照して説明する。図1は、画像処理装置の構成を示す図である。図2は、画像処理装置が搭載された車両を示す概略図である。
本実施形態では、画像処理装置を用いて、車両に対する障害物の接触を事前に予測している。
図1に示すように、画像処理装置100は、画像取得部1、記憶部2、及び画像処理演算器3を有する。画像処理装置100は、障害物までの距離を精度よく検出し、車両に対する障害物の接触を事前に予測することができる。詳細は後述する。
画像処理装置100で可視化された画像は、表示部200に表示される。画像処理装置100から出力される障害距離マップ情報は、障害物判定器300に入力される。障害物判定器300は、車両に対する障害物の接触の可能性を事前に判定する。
画像取得部1は、画像センサ11と画像距離センサ12を有する。画像センサ11は、障害物を含む周囲の画像を出力する。例えば、画像センサ11には、可視領域を検出し、昼間の画像を検出するカメラ、近赤外領域或いは遠赤外線領域を検出し、夜間の画像を検出するナイトビジョンカメラ等が搭載される。画像距離センサ12は、障害物との距離情報を取得する。画像距離センサ12には、例えば、昼夜対応できるTOF(Time of Flight)カメラや昼夜対応できる複数台のステレオカメラ等が搭載される。
記憶部2は、カメラ画像部21、距離画像部22、中間画像部23、障害距離マップ部24、及び可視化画像部25を有する。
カメラ画像部21は、画像センサ11で取得されたカメラ画像情報を格納する。距離画像部22は、距離画像センサ12で取得された距離画像情報を格納する。中間画像部23は、画像処理装置100で実行される画像処理によって取得された中間画像を格納する。障害距離マップ部24は、画像処理演算器3で算出された障害距離マップ情報を格納する。可視化画像部25は、画像処理演算器3で算出された可視化画像情報を格納する。
画像処理演算器3は、フィルタ部31、復元部32、取得部33、距離算出部34、及び可視化処理部35を有する。
フィルタ部31は、カメラ画像部21、距離画像部22、及び中間画像部23から出力されるカメラ画像情報、距離画像情報中のノイズを除去する。復元部32は、取得されたカメラ画像情報、距離画像情報から3次元情報の復元を行う。取得部33は、復元された3次元情報から、例えば地面に相当するデータを抽出し、残りを障害物データとして抽出する。距離算出部34は、障害物までの最短距離を算出する。可視化処理部35は、障害物間の位置、障害物との位置関係を可視化する。
図2に示すように、運転者(図示せず)は、車両500に乗車して車両500を走行する。車両500は、画像センサ11、画像距離センサ12、ミラー41、ドア42、表示部200、障害物判定器300、及びECU(Engine Control Unit)400を有する。
車両500は、障害物の接触を事前に予測する運転支援システムを搭載する。運転支援システムは、例えば、記憶部2、画像処理演算器3、画像センサ11、画像距離センサ12、表示部200、及び障害物判定器300から構成される。
画像センサ11は、車両500の左前部に設けられ、障害物600a、600bを含むカメラ画像情報を取得する。画像距離センサ12は、車両500の右前部に設けられ、障害物との距離画像情報を取得する。ECU400は、車両500の後部に設けられ、記憶部2と画像処理演算器3を有する。障害物判定器300は、左後部のドア42付近に設けられ、記憶部2に格納される障害距離マップ情報を入力する。
表示部200は、右部のミラー41付近に設けられ、記憶部2に格納される可視化画像情報を表示する。表示部200は、障害物判定器300から出力される障害物との接触可能性情報を表示する。表示部200には、HUD(Head-Up Display)、車内モニタ等が用いられる。
次に、画像処理装置100の画像処理について、図3乃至21を参照して説明する。図3は画像処理装置100による画像処理を示すフローチャートである。図4乃至21は、画像処理の各ステップの詳細を説明する図である。
図3に示すように、画像センサ11で画像センサ情報が取得される(ステップS1)。距離画像センサ12で距離画像センサ情報が取得される(ステップS2)。取得された画像センサ情報はカメラ画像部21にカメラ画像として格納される(ステップS3)。取得された距離画像センサ情報は距離画像部22に距離画像として格納される(ステップS4)。
復元部32は、カメラ画像、距離画像から、点群(ポイントクラウド)などの3次元座標(x、y、z)を含むデータを有する3次元情報を復元する(ステップS5)。復元部32は、3次元情報を3次元データとする。
取得部33は、地面推定(ステップS6)、地面データ抽出(ステップS7)、障害物データ抽出(ステップS8)を行う。
次に、ステップS6における地面推定を図4(a)、図4(b)、図5を用いて具体的に説明する。ステップS7及びステップS8における地面データ抽出と障害物データ抽出については図6、図7を用いて具体的に説明する。
図4(a)は、一般的な地面での地面推定を説明する図である。図4(b)は、センサ角度が地面と平行な場合での地面推定を説明する図である。図5は、RANSACを用いた平面抽出を示すフローチャートである。図6は、RANSACを用いた平面抽出を示す図である。図7は、地面推定および障害物データ抽出を示すフローチャートである。
取得部33は、取得された3次元データから、地面に相当するデータを抽出し、残りを障害物データとして出力する。
図4(a)に示すように、一般的に3次元空間では、3次元座標を(x、y、z)で表わした場合、地面は平面方程式ax+by+cz+d=0で表わすことができる。
センサが車体等に固定されている場合は、センサの位置・角度と地面の関係が常に同じであることから、係数a、b、c、dは一意に決まる。例えば、図4(b)に示すように、カメラが地面に対して、平行である場合は、地面からの距離をhとすると、y=−h(a=0、b=1、c=0, d=h)と簡単に表すことができる。
センサ位置・画角が変動する(車体の振動などによるブレが大きい場合等を含む)場合は、得られた3次元データにおいて、毎フレーム、地面に相当する平面を推定する必要がある。この場合、多くの点を含む平面方程式の内の1つが地面であると想定できるので、これを選びだす。3次元データは、地面以外にも障害物等の点を多く含むため、単純な最小二乗法ではうまく平面を抽出することはできない。この場合、RANSAC(RANDdom Sample Consensus)アルゴリズムを用いるのが好ましい。本実施形態は、RANSACを利用して平面を抽出する。
図5に示すように、RANSACを用いた平面抽出法では、3次元点群を抽出する(ステップS21)。点群の中からランダムに3点を選出する(ステップS22)。平面方程式の係数(a、b、c、d)を算出する(ステップS23)。3次元点群から1点Pを選択する(ステップS24)。平面Aと点Pの距離dを計算する(ステップS25)。
閾値thが距離dよりも大きいかを判定する(ステップS26)。閾値thが距離dよりも大きな場合、スコアに1を加算する(ステップS27)。閾値thが距離d以下の場合、スコアに0(ゼロ)を加算する(ステップS28)。
全点処理したかを判定する(ステップS29)。全点処理されていない場合、ステップS24に戻る。全点処理されている場合、スコアを出力する(ステップS30)。
試行回数が十分かの判定を行う(ステップS31)。試行回数が不十分の場合、スッテプS22に戻る。試行回数が十分の場合、最もスコアが高い平面Aを出力する(ステップS32)。
多くの場合、センサに対して地面は大きく映るから、RANSAC法による平面推定の結果、地面を推定できる。誤って建物等の壁面が推定された場合、平面の向きとセンサとの関係(カメラに対して地面が垂直に映ることはない)から、容易に誤りであることが判定できる。このため、誤検出した平面データを削除後、再度RANSAC法による平面推定を行う等で、地面を推定することができる。
RANSAC法による平面推定を平面αと平面βを例にした場合を、図6に示す。ここでは、平面αは適合点数が多く、平面βは適合点数が少ない。図6では、2面しか例示していないが、実際は膨大な数の平面をシミュレートし、最適な平面を1つ選び出している。
取得部33は、得られた地面を表す平面方程式を用いて、データを地面であるかどうかを判断する。この際、平面方程式に一致するか、もしくは平面からの距離が一定値以内である場合に地面であると判断する。具体的には、平面からの点までの距離hは、
h=|ax+by+cz+d|/ (a+b+c)1/2・・・・・・式(1)
と表すことができる。距離hが一定の閾値thより小さい(h<=th)場合を、平面と見なす。以上から、点が地面である場合、地面データとして出力する。点が地面データでない場合、障害物データとして出力する。
図7に示すように、地面推定を示す処理フローでは、3次元点群抽出(ステップS21)後、RANSACによる平面抽出を行う(ステップSa)。平面抽出後、ステップS24〜ステップS26までは図5と同じステップである。
閾値thが距離dよりも大きな場合、地面データに追加する(ステップSb)。閾値thが距離d以下の場合、障害物データに追加する(ステップSc)。
全点処理したかを判定する(ステップS29)。全点処理されていない場合、ステップS24に戻る。全点処理されている場合、障害物データを出力する(ステップSd)。
取得部33は、入力された点群データ全点に対し、平面方程式までの距離を計算し、平面に一致するかどうかの判断を行う処理を含むが、これらの計算は各点毎に独立しており、同時に並列処理することが可能である。したがって、マルチコアプロセッサを用いたり、GPGPU(General-Purpose computing on Graphics Processing Unit)を用いて処理を高速化することができる。
次に、取得部33での平面一致計算処理を実行する具体的な回路構成について、図8及び図9を参照して説明する。図8は、取得部33に設けられる平面一致計算処理部を示すブロック図である。図9は、平面一致計算処理部の演算ユニットを示すブロック図である。
図8に示すように、平面一致計算処理部50は、点群データ分配器51、演算ユニットU0乃至Un、結果結合部52を有する。
点群データ分配器51は、3次元点群(ポイントクラウド)データを入力し、データを分配して、分配された3次元座標Pi(x、y、z)(iは0〜n)を演算ユニットU0乃至Unにそれぞれ送付する。
図9に示すように、演算ユニットU0乃至Un(ここでは、演算ユニットUとして代表例示)は、入力される3次元座標P(x、y、z)、係数(a、b、c、d)、閾値thを用いて、演算処理を実行する。演算ユニットUは、平面までの距離が閾値th以内である場合に1を出力し、平面までの距離が閾値thより大きい場合に0(ゼロ)を出力する。
結果結合部52は、演算ユニットU0乃至Unからそれぞれ出力された出力データを入力する。結果結合部52は、1つのデータに結合される(例えば、0からnまで順に0/1を並べてn−bitのデータとする)。この際、1の数を加算し、スコアとして出力してもよい。この結果、結合されたデータ(一致点群の情報)を元に、点群を地面か、障害物に分ける。
平面一致計算処理部50は、複数(n)個の演算ユニットUを並列配置しているので、汎用演算器で長時間演算する場合に比べて、地面推定・分離処理を高速に実現でき、低消費電力化することができる。
次に、距離算出部34は、障害距離算出を行う(ステップS9(図3参照))。障害距離算出の詳細について、図10乃至13を参照して説明する。図10は、障害距離計算を示すフローチャートである。図11は、距離算出部34に設けられる最短距離算出処理部を示すブロック図である。図12は、最短距離算出処理部の演算ユニットを示すブロックである。
図10に示すように、障害距離計算では、移動体(例えば、運転者が運転する車両など)周囲で障害物の認識を支援したい領域を微小領域に分割する(ステップS111)。微小区画の位置座標Pを選択する(ステップS112)。障害物データの点群から1点Oを選択する(ステップS113)。
点pと点Oの距離dを計算する(ステップS114)。例えば、位置情報が3次元の場合、地点P(x0, y0, z0)から障害物O(x1, y1, z1)までの距離dは、
d={(x0−x1)2+(y0−y1)2+(z0−z1)2}1/2・・・・・・・・式(2)
で表わすことができる。
距離dがこれまでの最短距離mini.dよりも小さいかを判定する(ステップS115)。距離dがこれまでの最短距離mini.dよりも小さい場合、最短距離mini.dと判定する(ステップS116)。距離dがこれまでの最短距離mini.dよりも小さくない場合、この距離dを無視する(ステップS117)。全点処理かを判断する(ステップS118)。全点処理されていない場合、ステップS113に戻る。全点処理されている場合、地点Pにおける障害物までの最短距離mini.dを出力する(ステップS119)。
全領域処理かを判断する(ステップS120)。全領域処理されていない場合、ステップS112に戻る。全領域処理されている場合、最短障害距離をマップにして出力する(ステップS121)。
上記ステップでは、障害物マップを作成する場合の疑似コードとして、以下を用いている。
for (float x0=min_x; x0<max_x; x0+=dx) {
for (float y0=min_y; y0<max_y; y0+=dy) {
for (float z0=min_z; z0<max_z; z0+=dz) {
for (int i=0; i<obstacles->size(); i++) {
Point P(x0, y0, z0):
Point O = obstacles->at(i);
float dist = sqrt((P.x − O.x)) + (P.y − O.y)) + (P.z − O.z));
if (dist < min_dist) min_dist = dist;
}
map(x,y, z) = min_dist;
}}}
上述の計算は、区切られた微小領域の数、障害物点の数により、乗数で計算オーダーが増える。しかし、計算自体は単純であることから、専用ハードウェアによる高速化、GPGPU等の並列計算手法が容易に適用できるので、これらの手法を使って高速化することが好ましい。
図11に示すように、距離算出部34に設けられる最短距離算出処理部60は、点群データ分配器51、演算ユニットUU0乃至UUn、最短距離選出部53を有する。
点群データ分配器51は、障害物の3次元点群(ポイントクラウド)データを入力し、データを分配して、分配された3次元座標Pi(x、y、z)(iは0〜n)を演算ユニットUU0乃至UUnにそれぞれ送付する。
図12に示すように、演算ユニットUU0乃至UUn(ここでは、演算ユニットUUとして代表例示)は、障害物の3次元座標O(x、y、z)、ある地点の3次元座標P(x、y、z)を用いて、演算処理を実行する。演算ユニットUUは、距離dの情報を出力する。
最短距離選出部53は、演算ユニットUU0乃至UUnからそれぞれ出力された距離dの情報を入力する。最短距離選出部53は、ある地点Pでの障害物までの最短距離を選出する。
最短距離算出処理部60は、ある地点Pにおける障害物までの最短距離を高速に取得することができる。最短距離算出処理部60は、認識支援したい領域において、微小区間ごとに位置を変えながら(ある地点Pの座標を変更しながら)、上述のハードウェアを利用して、障害物までの最短距離を計算する。
次に、距離算出部34は、得られた障害物までの最短距離を微小区間の代表値として、障害距離マップを作成する(ステップS10(図3参照))。図13に、距離算出部34で作成された障害距離マップの一例を示す。ここでは、例えば、一区画を10cm×10cmとし、記載の数値はcmである。障害物(距離が0(ゼロ)cm)がある箇所が8×8ポイント中、9ポイントあることが明示される。
上述したように、取得部33、距離算出部34における演算は、専用ハードウェアによる実装が望ましいが、これには多数の乗算器など、多くの演算回路を必要となる。このため、他の計算処理での再利用性や、実装面積、電力効率等、システム全体でのバランスを考慮すると、DSP(Digital Signal Processor)やGPU(Graphics processing Unit)を用いたソフトウェアによる処理を用いてもよい。
次に、可視化処理部35は、可視化処理を行い(ステップS11(図3参照))、可視化画像を作成する(ステップS12(図3参照))。図14乃至図21を参照して、可視化処理部35の処理の詳細について説明する。
可視化処理部35は、取得された障害距離マップに対して等値線図を作成する。図14は、障害距離マップの等値線図である。図14に示すように、値が一定以内の領域は識別表示している。ここでは、25cmよりも短い距離の領域を識別表示しているが、代わりに着色表示してもよい。移動体の幅をDとした場合、障害距離D/2以内の領域は、移動体が障害物に接触する可能性があるため、この値を基準に着色すると、接触可能性が容易に判断できるようになる。先の例では、50cmの移動体が識別領域を通過しようとすると、移動体が障害物に接触する恐れがある。
可視化処理部35は、3次元データにも適用できる。図15は、3次元データを示す斜視図である。図15に示すように、例えば、ある領域内で障害物70a乃至70dが認識され、3次元像として表示される。なお、図16は、図16は、障害物データの一例を示す図である。
図17は、視覚化された障害距離マップの一例を示す図である。図17に示すように、障害物70a乃至70cから所定距離(例えば、25cm)よりも短い距離の領域が障害物からの最短距離71aと表示され、障害物70dから所定距離よりも短い距離の領域が障害物からの最短距離71bと表示される。
図18は、図17を元図像に合成した一例を示す図である。図19は、図18を鳥瞰映像に変換した一例を示す図である。
障害物判定器300は、障害物間を移動体(車両や人など)が接触せずに通行できるかを判断する。移動体の幅をDとした場合、障害距離D/2以内の領域は移動体が障害物に接触する恐れがある。図20は、通行可能・不可能の経路を示す図である。図21は、通行可能・不可能の経路を示す上から見た図である。図20及び図21に示すように、通行可能、通行不可能の経路が明示される。
例えば、移動体である車両の幅が180cmの場合、その半分の値である90cmを可視化処理部35に設定すれば、障害間を移動体が通り抜けできるかが一目で判断できるようになる。また、障害物判定機300に設定すれば、運転者の通行可能かどうかの判断が容易となる。
上述したように、画像処理装置及びそれを用いた運転支援システムでは、画像取得部1、記憶部2、及び画像処理演算器3が画像処理装置100に設けられる。画像取得部1は、画像センサ11と画像距離センサ12を有する。記憶部2は、カメラ画像部21、距離画像部22、中間画像部23、障害距離マップ部24、及び可視化画像部25を有する。画像処理演算器3は、フィルタ部31、復元部32、取得部33、距離算出部34、及び可視化処理部35を有する。運転支援システムは、車両500に搭載される。運転支援システムは、記憶部2、画像処理演算器3、画像センサ11、画像距離センサ12、表示部200、及び障害物判定器300から構成される。運転支援システムは、障害物情報を可視化する。
このため、運転者は、車両に対する障害物の接触を事前に予測することができる。運転者は、通行可能の経路を事前に(障害物に到達する前に)選択することができるので、安全運転することができる。
なお、本実施形態では、移動体を運転者が運転する車両としているが、ラジコン、飛行機、移動中の人間や動物、航行中の船舶などであってもよい。
また、画像取得部1に画像センサ11を設けているが、可視情報を使わず、3次元の形状情報のみで一連の処理を実行することもできる。この場合、画像センサ11を省き、距離画像センサ12のみでもよい。
また、3次元情報の取得には、1点測距型やライン型のTOFセンサを使うこともできる。この場合、取得する情報は画像ではなく、点やライン情報となるが、画像情報の一部とみなし、上記のようなセンサは、画像取得部1に含むものとする。
(第二の実施形態)
次に、本発明の第二の実施形態に係る画像処理装置について、図面を参照して説明する。図22は、画像処理装置の構成を示す図である。図23は、画像処理装置による画像処理を示すフローチャートである。本実施形態では、記憶部に通行可能経路情報部を設けている。
以下、第一の実施形態と同一構成部分には、同一符号を付してその部分の説明を省略し、異なる部分のみ説明する。
図22に示すように、画像処理装置100aは、画像取得部1、記憶部2a、及び画像処理演算器3aを有する。画像処理装置100aは、障害物までの距離を精度よく検出し、車両に対する障害物の接触を事前に予測することができる。
記憶部2aは、カメラ画像部21、距離画像部22、中間画像部23、障害距離マップ部24、及び通行可能経路情報部26を有する。
画像処理演算器3aは、フィルタ部31、復元部32、取得部33、距離算出部34、及び通行可能判断部36を有する。
通行可能判断部36は、画像処理演算器3内で生成された障害距離マップと、既知の地図情報などから得られた通行可能な経路情報を組み合わせ、これから通行しうる経路が障害物により通行不可能となっていないかを判断する。
通行可能判断部36は、図23に示すように、通行可能判断し(ステップS14(図23参照))、通行可能な経路と、通行不可能な経路を情報として通行格納経路情報部26に出力する(ステップS15(図23参照))。通行格納経路情報部26は、通行可能な経路情報と通行不可能な経路情報を格納する。通行格納経路情報部26は、カーナビ情報などの経路情報を格納する。
警告部700は、例えば、車両の右前部(図2参照)に設けられる。警告部700は、図?に示すように警告を発する(ステップS16)。
具体的には、警告部700は、通行可能経路情報部26に格納される通行可能経路情報に基づいて、例えば、カーナビ等で設定された経路が、通行不可能となっている場合、運転者に警告を行う。警告は、例えば、カーナビ画面かコクピットに表示し、音による通知にて行うのが好ましい。
上述したように、画像処理装置及びそれを用いた運転支援システムでは、画像取得部1、記憶部2a、及び画像処理演算器3aが画像処理装置100aに設けられる。画像取得部1は、画像センサ11と画像距離センサ12を有する。記憶部2aは、カメラ画像部21、距離画像部22、中間画像部23、障害距離マップ部24、及び通行可能経路情報部26を有する。画像処理演算器3aは、フィルタ部31、復元部32、取得部33、距離算出部34、可視化処理部35、及び通行可能判断部36を有する。運転支援システムは、記憶部2、画像処理演算器3、画像センサ11、画像距離センサ12、表示部200、障害物判定器300、及び警告部700から構成される。運転支援システムは、通行不可能となっている経路を運転者に警告する。
このため、本実施形態では、第一の実施形態と同様の効果を有する。
(第三の実施形態)
次に、本発明の第三の実施形態に係る画像処理装置について、図面を参照して説明する。図24は、画像処理装置の構成を示す図である。図25は、画像処理装置による画像処理を示すフローチャートである。本実施形態では、運転支援システムを用いて自動運転制御を行っている。
以下、第一の実施形態と同一構成部分には、同一符号を付してその部分の説明を省略し、異なる部分のみ説明する。
図24に示すように、画像処理装置100bは、画像取得部1、記憶部2b、及び画像処理演算器3aを有する。
記憶部2bは、カメラ画像部21、距離画像部22、中間画像部23、障害距離マップ部24、及び通行可能経路情報部26aを有する。
障害物移動予測情報部26bは、通行可能判断部36から出力される通行可能な経路情報と通行不可能な経路情報、障害物が固定物か移動物であるかの判断情報を格納する。障害物が移動物である場合、その進行方向、進行速度などの情報が含まれる。進行方向、進行速度などの情報は、画像取得部1、画像処理演算器3aを用いて算出される。
障害物移動予測情報部26bは、障害物移動予測情報を自動運転制御部800へ出力する(ステップS17(図25参照))。
自動運転制御部800は、得られた通行可能・不可能経路を元に、障害物が長時間に渡って変化しないか(障害物が無くなるか)どうかを別で判断し、例えば、障害物が長時間移動しないようであれば、道を迂回して目的地まで到達するようなルートを選択して、自動運転を行う(ステップS18(図25参照))。
上述したように、画像処理装置及びそれを用いた運転支援システムでは、画像取得部1、記憶部2b、及び画像処理演算器3aが画像処理装置100bに設けられる。記憶部2bは、カメラ画像部21、距離画像部22、中間画像部23、障害距離マップ部24、及び通行可能経路情報部26aを有する。運転支援システムは、記憶部2b、画像処理演算器3a、画像センサ11、画像距離センサ12、表示部200、障害物判定器300、及び自動運転制御部800から構成される。運転支援システムは、車両の自動運転を制御する。
このため、本実施形態では、第一の実施形態と同様の効果を有する。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
本発明は、以下の付記に記載されているような構成が考えられる。
(付記1)
障害物を含む周囲の画像を取得する画像センサと、
前記障害物との距離を取得する画像距離センサと、
取得された前記画像及び前記距離の情報から、3次元情報を復元する復元部と、
3次元データから障害物データを取得する取得部と、
運転者が運転する車両から前記障害物までの最短距離を計算して、前記移動体に対する障害距離マップを算出する距離算出部と、
等値線を用いて、前記障害距離マップを可視化する可視化処理部と、
可視化された画像を表示する表示部と、
を具備することを特徴とする運転支援システム。
(付記2)
障害物を含む周囲の画像を取得する画像センサと、
前記障害物との距離を取得する画像距離センサと、
取得された前記画像及び前記距離の情報から、3次元情報を復元する復元部と、
3次元データから障害物データを取得する取得部と、
運転者が運転する車両から前記障害物までの最短距離を計算して、前記移動体に対する障害距離マップを算出する距離算出部と、
前記車両に対する前記障害物の接触の可能性を事前に判定する障害物判定器と、
を具備することを特徴とする運転支援システム。
(付記3)
障害物を含む周囲の画像を取得する画像センサと、
前記障害物との距離を取得する画像距離センサと、
取得された前記画像及び前記距離の情報から、3次元情報を復元する復元部と、
3次元データから障害物データを取得する取得部と、
運転者が運転する車両から前記障害物までの最短距離を計算して、前記移動体に対する障害距離マップを算出する距離算出部と、
通行可能な経路と、通行不可能な経路を判断する通行可能判断部と、
前記通行可能判断部で算出された通行可能経路情報に基づいて、通行経路が、通行不可能となっている場合、前記運転者に警告を行う警告部と、
を具備することを特徴とする運転支援システム。
(付記4)
障害物を含む周囲の画像を取得する画像センサと、
前記障害物との距離を取得する画像距離センサと、
取得された前記画像及び前記距離の情報から、3次元情報を復元する復元部と、
3次元データから障害物データを取得する取得部と、
運転者が運転する車両から前記障害物までの最短距離を計算して、前記移動体に対する障害距離マップを算出する距離算出部と、
通行可能な経路と、通行不可能な経路を判断し、前記障害物が移動物かを判断する通行可能判断部と、
得られた通行可能・不可能経路を元に、前記障害物が長時間に渡って変化しないかどうかを別で判断し、障害物が長時間移動しないようであれば、道を迂回して目的地まで到達するようなルートを選択して、自動運転を行う自動運転制御部と、
を具備することを特徴とする運転支援システム。
(付記5)
前記画像センサは、可視領域を検出して昼間の画像を検出するカメラ、近赤外領域或いは遠赤外線領域を検出して夜間の画像を検出するナイトビジョンカメラを有する
ことを特徴とする付記1乃至4のいずれかに記載の運転支援システム。
(付記6)
前記距離画像センサは、昼夜対応できるTOF(Time of Flight)カメラ、或いは昼夜対応できる複数台のカメラを有する
ことを特徴とする付記1乃至4のいずれかに記載の運転支援システム。
1 画像取得部
2、2a、2b 記憶部
3、3a 画像処理演算器
11 画像センサ
12 距離画像センサ
21 カメラ画像部
22 距離画像部
23 中間画像部
24 障害距離マップ部
25 可視化画像部
26 通行可能経路情報部
26b 障害物移動予測情報部
31 フィルタ部
32 復元部
33 取得部
34 距離算出部
35 可視化処理部
41 ミラー
42 ドア
50 平面一致計算処理部
51 点群データ分配器
52 結果結合部
53 最短距離選出部
60 最短距離算出処理部
70a〜70d、600a、600b 障害物
71a、71b 障害物からの最短距離
100、100a 画像処理装置
200 表示部
300 障害物判定器
400 ECU
500 車両
700 警告部
800 自動運転制御部
U、U0〜Un、UU、UU0〜UUn 演算ユニット

Claims (5)

  1. 周囲の3次元情報を復元する復元部と、
    3次元データから障害物データを取得する取得部と、
    移動体から障害物までの最短距離を計算して、前記移動体に対する障害距離マップを算出する距離算出部と、
    等値線を用いて、前記障害距離マップを可視化する可視化処理部と、
    を具備することを特徴とする画像処理装置。
  2. 前記距離算出部は、前記移動体の周囲を微小領域に分割し、各微小領域の代表点から、障害物データの全点もしくはサンプリングした点に対して距離を計算し、最短の値を障害距離マップ情報として出力する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記可視化処理部は、各微小領域から障害物までの最短距離の値が一定の範囲内である領域を識別・着色し、等値線図として可視化する
    ことを特徴とする請求項1に記載の画像処理装置。
  4. 前記可視化処理部は、各微小領域から障害物までの最短距離と、移動体の幅の1/2を基準とした値を利用して、移動体が障害物へ接触する恐れのある領域を判断し、識別・着色して可視化する
    ことを特徴とする請求項1に記載の画像処理装置。
  5. 周囲の画像情報を取得する画像取得部と、
    取得された画像情報から、3次元情報を復元する復元部と、
    3次元データから障害物データを取得する取得部と、
    運転者が運転する車両から障害物までの最短距離を計算して、前記移動体に対する障害距離マップを算出する距離算出部と、
    等値線を用いて、前記障害距離マップを可視化する可視化処理部と、
    可視化された画像を表示する表示部と、
    を具備することを特徴とする運転支援システム。
JP2015009750A 2015-01-21 2015-01-21 画像処理装置及びそれを用いた運転支援システム Pending JP2016134090A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015009750A JP2016134090A (ja) 2015-01-21 2015-01-21 画像処理装置及びそれを用いた運転支援システム
US14/842,442 US20160210735A1 (en) 2015-01-21 2015-09-01 System for obstacle avoidance around a moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015009750A JP2016134090A (ja) 2015-01-21 2015-01-21 画像処理装置及びそれを用いた運転支援システム

Publications (1)

Publication Number Publication Date
JP2016134090A true JP2016134090A (ja) 2016-07-25

Family

ID=56408205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015009750A Pending JP2016134090A (ja) 2015-01-21 2015-01-21 画像処理装置及びそれを用いた運転支援システム

Country Status (2)

Country Link
US (1) US20160210735A1 (ja)
JP (1) JP2016134090A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097436A (ja) * 2016-12-08 2018-06-21 三菱自動車工業株式会社 自動走行機能を有する車両
JP2018109564A (ja) * 2017-01-05 2018-07-12 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
JP2019028861A (ja) * 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
US11415698B2 (en) 2017-02-15 2022-08-16 Toyota Jidosha Kabushiki Kaisha Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
JP7502411B2 (ja) 2019-07-26 2024-06-18 デカ・プロダクツ・リミテッド・パートナーシップ 自由空間推定のためのシステムおよび方法

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6585006B2 (ja) * 2016-06-07 2019-10-02 株式会社東芝 撮影装置および車両
US9896170B1 (en) * 2016-08-12 2018-02-20 Surveillance International, Inc. Man overboard detection system
JP7192771B2 (ja) * 2017-08-22 2022-12-20 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、車両
SG11202003468PA (en) * 2017-10-17 2020-05-28 Autonomous Control Systems Laboratory Ltd System and program for setting flight plan route of unmanned aerial vehicle
US11077756B2 (en) * 2017-11-23 2021-08-03 Intel Corporation Area occupancy determining device
TWI688502B (zh) * 2018-02-14 2020-03-21 先進光電科技股份有限公司 用於警告車輛障礙物的設備
CN109002039B (zh) * 2018-07-06 2021-04-06 达闼科技(北京)有限公司 避障提醒方法、相关装置及计算机可读存储介质
CN109410272B (zh) * 2018-08-13 2021-05-28 国网陕西省电力公司电力科学研究院 一种变压器螺母识别与定位装置及方法
JP6892461B2 (ja) * 2019-02-05 2021-06-23 ファナック株式会社 機械制御装置
JP6892462B2 (ja) * 2019-02-05 2021-06-23 ファナック株式会社 機械制御装置
CN111767844B (zh) * 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 用于三维建模的方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157430A (ja) * 2007-12-25 2009-07-16 Toyota Motor Corp 座標補正方法、座標補正プログラム、及び自律移動ロボット
JP2011150473A (ja) * 2010-01-20 2011-08-04 Ihi Aerospace Co Ltd 自律型移動体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7741961B1 (en) * 2006-09-29 2010-06-22 Canesta, Inc. Enhanced obstacle detection and tracking for three-dimensional imaging systems used in motor vehicles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009157430A (ja) * 2007-12-25 2009-07-16 Toyota Motor Corp 座標補正方法、座標補正プログラム、及び自律移動ロボット
JP2011150473A (ja) * 2010-01-20 2011-08-04 Ihi Aerospace Co Ltd 自律型移動体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097436A (ja) * 2016-12-08 2018-06-21 三菱自動車工業株式会社 自動走行機能を有する車両
JP2018109564A (ja) * 2017-01-05 2018-07-12 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
US10909411B2 (en) 2017-01-05 2021-02-02 Kabushiki Kaisha Toshiba Information processing apparatus, information processing method, and computer program product
US11415698B2 (en) 2017-02-15 2022-08-16 Toyota Jidosha Kabushiki Kaisha Point group data processing device, point group data processing method, point group data processing program, vehicle control device, and vehicle
JP2019028861A (ja) * 2017-08-02 2019-02-21 ソニー株式会社 信号処理装置、および信号処理方法、プログラム、並びに移動体
US11543532B2 (en) 2017-08-02 2023-01-03 Sony Corporation Signal processing apparatus, signal processing method, program, and mobile object for map generation baded on LiDAR and image processing
JP7502411B2 (ja) 2019-07-26 2024-06-18 デカ・プロダクツ・リミテッド・パートナーシップ 自由空間推定のためのシステムおよび方法

Also Published As

Publication number Publication date
US20160210735A1 (en) 2016-07-21

Similar Documents

Publication Publication Date Title
JP2016134090A (ja) 画像処理装置及びそれを用いた運転支援システム
JP7370944B2 (ja) 予測軌道を有する自律車両ユーザインタフェース
JP7210165B2 (ja) 仮想経路を表示する方法、装置及びディスプレイ装置
US20200307616A1 (en) Methods and systems for driver assistance
EP3235684B1 (en) Apparatus that presents result of recognition of recognition target
JP6486474B2 (ja) 表示制御装置、表示装置及び表示制御方法
US20170330463A1 (en) Driving support apparatus and driving support method
JP2020064047A (ja) コンテンツを視覚化する装置及び方法
US10895912B2 (en) Apparatus and a method for controlling a head- up display of a vehicle
KR102139426B1 (ko) 자율 주행 차량을 위한 차량 위치점 전달 방법
JP6666883B2 (ja) 走行支援装置
US10474907B2 (en) Apparatus that presents result of recognition of recognition target
JP2016090344A (ja) ナビゲーション装置、及びナビゲーションプログラム
JP2016136378A (ja) 自己の乗り物のドライバを支援する方法およびシステム
KR20190052374A (ko) 컨텐츠 시각화 장치 및 방법
JP2021037936A (ja) 予測軌道を有する自律車両ユーザインタフェース
JP6856085B2 (ja) 車両用表示制御装置、方法及びプログラム
JP2021037937A (ja) 予測軌道を有する自律車両ユーザインタフェース
JP2018173862A (ja) 走行支援装置及びコンピュータプログラム
KR20180066618A (ko) 자율주행차량을 위한 거리 데이터와 3차원 스캔 데이터의 정합 방법 및 그 장치
EP3667641A1 (en) Vehicle driving assistance system, vehicle driving assistance method, and vehicle driving assistance program
JP2022159094A (ja) 車両の運転者を支援するための高度運転者支援システム
GB2510698A (en) Driver assistance system
CN109345015B (zh) 用于选取路线的方法和装置
JP2017056747A (ja) 表示制御装置、表示装置および音像位置制御方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160422

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170308

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170922

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171122

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180607