[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5634643B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP5634643B2
JP5634643B2 JP2014516663A JP2014516663A JP5634643B2 JP 5634643 B2 JP5634643 B2 JP 5634643B2 JP 2014516663 A JP2014516663 A JP 2014516663A JP 2014516663 A JP2014516663 A JP 2014516663A JP 5634643 B2 JP5634643 B2 JP 5634643B2
Authority
JP
Japan
Prior art keywords
image
subject
vehicle
distance
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014516663A
Other languages
English (en)
Other versions
JPWO2013175753A1 (ja
Inventor
偉雄 藤田
偉雄 藤田
的場 成浩
成浩 的場
達也 三次
達也 三次
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2014516663A priority Critical patent/JP5634643B2/ja
Application granted granted Critical
Publication of JP5634643B2 publication Critical patent/JP5634643B2/ja
Publication of JPWO2013175753A1 publication Critical patent/JPWO2013175753A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/602Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint
    • B60R2300/605Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective with an adjustable viewpoint the adjustment being automatic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Description

本発明は、車両の運転時に生じる死角領域をカメラで撮影して画像を生成し、運転者による車両周囲の確認を補助する車載画像処理装置に関するものである。
運転者が車両を運転する際には、視覚により車両周囲の状況確認を行う。しかし、自車の車体や障害物の存在により、運転者から視覚で認識できない死角領域が発生する場合がある。「死角」とは、ある角度からはどうしても見えない範囲である。ここでは、運転者から見えない範囲である。「自車」とは、運転者が乗車している車である。このような死角領域の運転者による認識を補助するために、車体に取り付けたカメラによって車両周囲の画像を撮影し、車内に設置された表示装置の画面に表示する技術が提案されている。このような技術として以下に挙げるようなものがある。
特許文献1には、側方カメラと後方カメラを用い、それぞれのカメラ画像から画像を切り出し、張り合わせを行なって表示する技術が記載されている。車速に応じて画像の切出し範囲を変えている。車速が早くなると側方カメラの画像をより広い範囲で切り出す。これにより、張り合わせた表示画像の表示領域が広がり、死角領域の削減を図ることができる。「側方カメラ」とは、車両の左右方向を撮影するカメラである。「後方カメラ」とは、車両の後ろ方向を撮影するカメラである。「車速」とは、車両の速さである。
また特許文献2には、複数のカメラで撮影した車両の周辺画像を表示装置に表示させ、表示装置の画面中に占める表示面積の割合を変化させて合成する方式が記載されている。ハンドル操作の状態により表示割合を変化させることで、同一画面に表示された複数の撮像画像の中から注目すべき画像を目立たせることができる。
特開2004−312523号公報(段落0021〜0024、図2) 特開2005−198160号公報(段落0030〜0038、図1)
しかしながら、上記特許文献1に示された従来技術には、複数のカメラ画像の貼り合わせを行う際に、視点変換を行う方法について具体的に示されていない。各カメラ画像からの領域の切出しと視点変換とを独立して行なった場合には、カメラ画像間の接合部分で直線が折れ曲がって表示され、視覚的に被写体の形状を認識しづらい不自然な形状となる問題があった。
また、上記特許文献2に示された従来技術も、同様にハンドル操作等に応じて表示するカメラ画像の表示割合を切り替えるものである。しかし、画像の視点変換については、同時に表示される画像同士で車両の進行方向が同一となるように向きを揃える観点でのみ記載されている。つまり、特許文献2に示された従来技術は、画像間の接合については考慮されていない。そのため、複数のカメラの境界領域に存在する被写体に対しては、形状が正しく把握できず、運転者が被写体を認識しづらくなる問題があった。
そこで本発明の課題は、運転者が容易に車両の周辺状況の画像を確認するための画像処理装置を提供することにある。つまり、複数のカメラの画像の境界部分においても、被写体の形状の折れ曲がりの程度を低減する。また、被写体が二重に表示されることを抑える。また、被写体の表示が欠けることを抑える。これらにより、本発明の課題は、実際に運転者が視認する場合に近い形状で画面が表示される画像処理装置を提供することである。
上記課題を解決するため、本願発明に係る画像処理装置は、それぞれ異なる位置に配置された複数のカメラで撮影された共通の被写体の複数の撮影画像上での位置を基に基準位置から前記共通の被写体までの第1の被写体距離を算出し、前記第1の被写体距離を基にそれぞれの前記撮影画像における被写体の距離情報を算出する距離情報取得部と、前記被写体の距離情報に基づいて前記基準位置を視点とした投影面の位置を補正し、複数の前記撮影画像から前記投影面に投影した画像に変換して繋ぎ合わせる画像合成部とを備える。
本願発明は、カメラ間の画像の境界部分においても、被写体の形状の折れ曲がりの程度を低減し、視認性を向上できる。
実施の形態1における運転支援装置を示すブロック図である。 実施の形態1における車両へのカメラの取り付け位置を示す図である。 実施の形態1における合成された画像例を示す図である。 実施の形態1におけるハンドルの舵角と画像切り出し位置の対応を示す図である。 実施の形態2における運転支援装置を示すブロック図である。 実施の形態2における被写体のマッチング方法を示す図である。 実施の形態2における複数のカメラ画像を合成する際に生じる被写体位置のずれを示す図である。 実施の形態2における投影面の補正方法について示す図である。 実施の形態2における投影面の補正方法について示す図である。 実施の形態3における運転支援装置を示すブロック図である。 実施の形態3におけるハンドルの舵角と車両後方画像の切り出し位置の対応について示す図である。 実施の形態3における車両前方画像および車両後方画像の表示方法を示す図である。
実施の形態1.
図1は実施の形態1における運転支援装置100の構成を示したブロック図である。本発明に係る運転支援装置100は、カメラ10,11,12,13、舵角検出部20、画像合成部30、画像切出し部32および表示部40を有する。また、運転支援装置100は、メモリ31をさらに有することができる。実施の形態1に係る画像処理装置80は、画像合成部30を有する。また、画像処理装置80は、画像切出し部32を有することができる。画像処理装置80は、メモリ31を有することができる。
カメラ10,11,12,13は、車両の周辺を撮影する。舵角検出部20は、車両のハンドル切り角を検出する。「ハンドル切り角」とは、ハンドルを切る角度である。「ハンドルを切る」とは、ハンドルを回す操作で車両の進行方向を変えることである。つまり、「ハンドル切り角」とは、ハンドルを回す角度で、車両の進行方向を変える程度を表す角度である。
画像合成部30は、カメラ10,11,12,13からの入力画像を合成し、車両の周囲を全周にわたって表した画像を生成する。ここで「合成」とは、各カメラ10,11,12,13の撮影した画像を繋ぎ合わせることである。そのため、「合成」は、各カメラ10,11,12,13の撮影した画像を1つの画像上に重ね合わせることを含まない。なお、後述する方向FR,FL,RR,RLのように、隣接するカメラの両方が撮影している領域では、各カメラから生成する画像の領域を予め定めておき、その領域の設定に基づいて、どちらか1つのカメラの画像を選択する。また、画像合成部30は、カメラ10,11,12,13からの入力画像を合成し、車両の周囲の一部を表した画像を生成することもできる。
メモリ31は、画像合成部30から出力された画像データを記録する。画像切出し部32は、メモリ31に格納された画像を参照し、舵角検出部20の出力値に応じて切出し領域を決定し、画像の切出しを行う。表示部40は、画像切出し部32が切り出した画像を表示する。表示部40は、運転者の位置よりも車両の前方側に配置されている。「画像の切出し」とは、画像の一部を抜き出すことである。「切出し領域」とは、画像を切出す領域である。
カメラ10,11,12,13は、車両の前後左右に取り付けられている。カメラ10,11,12,13は、4つのカメラ10,11,12,13のカメラ画角が車両の周囲の全方向を含むように配置される。「車両の周囲の全方向」とは、車両の周囲の360度の方向である。図2は、車両を上から見た図である。そして、図2は、カメラ10,11,12,13の取り付け位置を示した模式図である。
画像合成部30は、画像の視点変換と合成とを行う。これにより、画像合成部30は、4つのカメラ10,11,12,13の画像が水平方向にすべて繋がるような画像を生成する。複数のカメラ画像を合成し、一点を中心とした水平方向360度の全周画像を生成するためには、各カメラ画像を、一つの共通した仮想の面(投影面)に投影する必要がある。
図2において太い実線は、各カメラ10,11,12,13の画像を投影するための共通した投影面5の例を示している。投影面5は、画像が合成されたときの投影面である。図2に示すように、例えば、投影面5は、車両の上から見て、車両の中心を中心Oとする円形をしている。投影面5は、車両を取り巻くような円筒形状の面である。
図2において、カメラ10は、車両の前方の面の中央に取り付けられている。カメラ11は、車両の左側面の中央に取り付けられている。カメラ12は、車両の後方の面の中央に取り付けられている。カメラ13は、車両の右側面の中央に取り付けられている。カメラの画角範囲510は、カメラ10の画角範囲である。カメラの画角範囲511は、カメラ11の画角範囲である。カメラの画角範囲512は、カメラ12の画角範囲である。カメラの画角範囲513は、カメラ13の画角範囲である。カメラの画角範囲510,511,512,513は、破線で示している。「画角」とは、カメラで撮影される範囲を角度で表したものである。つまり、「画角範囲」とは、カメラで撮影される範囲である。
例えば、カメラ10で撮影した被写体Bは、まずカメラ10と被写体Bの位置とを結ぶ直線53と投影面5が交わる位置Aにあるものとみなされる。位置Aにある被写体Bに対して視点位置がカメラ10の位置から車両の中心位置Oに移動した場合のカメラ画像内における被写体位置の変動を求めることにより視点位置の変換を行う。つまり、視点位置をカメラ10の位置から車両の中心位置Oに移動する場合には、位置Aにある被写体Bのカメラ画像内における被写体の位置の変動を求める。「被写体位置の変動」とは、画像内で被写体の位置が移動することである。画像合成部30は、各カメラ10,11,12,13の画像を繋ぎ合わせる際に、視点位置の変換を行う。これは、各カメラ10,11,12,13の視点位置が異なるからである。
視点位置の変換は、視点位置がカメラ10,11,12,13の位置から車両の中心Oに移動した場合の変換である。例えば、画像合成部30は、位置Aにある被写体Bに対して、視点位置がカメラ10の位置から車両の中心Oに移動した場合のカメラ画像内における被写体Bの位置の変動を求める。つまり、位置Aに被写体Bがあるものとして、車両の中心Oから位置Aの方向に被写体Bがあると視点位置の変換を行う。
カメラ11、カメラ12及びカメラ13で撮影した画像についても同様の視点位置の変換を行う。例えば、各カメラの画像の重なる領域では、事前にどちらかのカメラの画像を採用するように決めておく。
これにより、車両の中心Oを視点とした、車両の前後左右4方向の画像を生成する。このように生成された4枚の画像を、カメラ間の画像が切り替わる部分を境界として接合させる。カメラ10,11,12,13間の画像が切り替わる部分は、車両の斜め方向の部分である。
これにより、車両の中心から360度の視点を持つ画像を生成することができる。「車両の斜め方向」とは、車両の前後方向に対して、前方の右側45度の方向、前方の左側45度の方向、後方の右側45度の方向及び後方の左側45度の方向である。つまり、後述する図8に示す4つの方向FR,FL,RR,RLである。
図3は、このような投影方法を用いて生成される画像を示した図である。投影面5は、なだらかな曲面から構成される。上述のように、図2では、投影面は、車両の上方向から見て円形をしている。これにより、カメラ10,11,12,13の画像間の境界部分において被写体の形状が折れ曲がることなく、全周にわたって運転者が直接視認する場合に近い被写体形状が保たれた合成画像を得ることが可能である。投影面5は、なだらかな曲面であれば図2に示すような円形でなくても構わない。なぜなら、「なだらかな面」であれば、被写体の形状が折れ曲がることが無いからである。
画像切出し部32は、舵角検出部20からの出力信号を受け取る。図1では、メモリ31を介して舵角検出部20からの出力信号を受け取っている。画像切出し部32は、直接、舵角検出部20からの出力信号を受け取っても構わない。そして、画像切出し部32は、ハンドルの舵角に応じて、画像の切出し範囲62(図4参照)を切り替える処理を行う。つまり、ハンドルの舵角に応じて画像切出し位置の変更を行う。「舵角」とは、ハンドルを切る角度のことである。
図4は、ハンドルの舵角と画像切り出し位置の対応を示した図である。図4(A)は、ハンドルの舵角が0度の場合を示す。図4(B)は、ハンドルの舵角が左側に10度の場合を示す。図4(C)は、ハンドルの舵角が右側に10度の場合を示す。図4に示すように、ハンドルを切らない状態(図4(A))では、画像切出し部32は、車両の正面に対応する合成画像6の中心61から左右等距離の画像切出しを行う。「左右等距離」とは、左側からの距離と右側からの距離とが等しいことである。ハンドルを左に切ったとき(図4(B))には、画像切出し部32は、画像の切出し範囲62を左側に移動させる。ハンドルを右に切ったとき(図4(C))には、画像切出し部32は、画像の切出し範囲62を右側に移動させる。
ハンドルの舵角と切出し位置の対応は、ハンドルの舵角に比例して連続的に切出し位置が移動するように演算式で求めても良い。また、ハンドルの舵角と切出し位置の対応は、一定の範囲内のハンドルの舵角に特定の切出し位置を対応させるような場合分け処理を用いても良い。演算式を用いた場合には、画像の切出し位置は連続的に移動する。しかし、場合分け処理を用いた場合には、画像の切出し位置は不連続に移動する。しかし、場合分け処理を用いた場合には、処理量は演算式を用いた場合より低減することができる。運転者の視認性を妨げない場合には、場合分け処理を用いた場合の方が、処理が早くなるという利点がある。
表示部40は、切り出した画像を表示画面に表示して、前方画像を運転者に提示する。
このように構成された運転支援装置100は、ハンドルの舵角に応じて、車両の進行方向前方の画像を表示することができる。また、運転支援装置100は、自車両のセンターピラー等に遮られて確認しづらい車両の斜め後方の障害物又は他の車両の有無の視認性を向上できる。「自車両」とは、運転者が乗車している車両である。「ピラー」とは、自動車のドアなどにある窓の柱である。「センターピラー」とは、自動車のドアの中柱である。
また、カメラ10,11,12,13の画像間の境界部分においても被写体の形状が折れ曲がることを抑え、運転者が直接視認する場合に近い被写体の形状が保たれた画像を表示できる。これにより、運転者の車両の周辺状況に対する視認性を向上させることが可能である。
実施の形態2.
図5は、実施の形態2における運転支援装置110の構成を示したブロック図である。本発明に係る運転支援装置110は、カメラ10,11,12,13、舵角検出部20、画像合成部30、画像切出し部32、距離情報取得部35および表示部40を有する。また、運転支援装置110は、メモリ31をさらに有することができる。実施の形態2に係る画像処理装置81は、画像合成部30及び距離情報取得部35を有する。また、画像処理装置81は、画像切出し部32を有することができる。画像処理装置81は、メモリ31を有することができる。
運転支援装置110は、運転支援装置100に対して、距離情報取得部35を有する点で異なる。運転支援装置110のカメラ10,11,12,13、舵角検出部20、画像合成部30、画像切出し部32、表示部40およびメモリ31は、運転支援装置100のカメラ10,11,12,13、舵角検出部20、画像合成部30、画像切出し部32、表示部40およびメモリ31と同様の機能を有する。このため、特に説明をしない場合には、運転支援装置100で説明した内容と同様である。また、用語の定義に関しても、特に説明をしない場合は、実施の形態1と同様である。
カメラ10,11,12,13は、車両周辺を撮影する。舵角検出部20は、車両のハンドル切り角を検出する。画像合成部30は、カメラ10,11,12,13からの入力画像を合成し、車両の周囲を全周にわたって表した画像を生成する。メモリ31は、画像合成部30から出力された画像データを記録する。画像切出し部32は、メモリ31に格納された画像を参照し、舵角検出部20の出力値に応じて切出し領域を決定し、画像の切出しを行う。距離情報取得部35は、隣接するカメラ10,11,12,13の画像の同一の被写体部分を参照し、カメラ10,11,12,13の画像上での被写体の位置を基にして被写体までの距離を算出する。表示部40は、切り出した画像を表示する。
カメラ10,11,12,13は、実施の形態1と同様に車両の前後左右に取り付けられる。カメラ10,11,12,13は、4つのカメラ10,11,12,13のカメラ画角が車両の周囲の全方向を含むように配置される。「車両の周囲の全方向」とは、車両の周囲の360度の方向である。
距離情報取得部35は、隣接する2つのカメラの画像について被写体のマッチングを行う。そして、距離情報取得部35は、被写体距離を算出する。距離情報取得部35は、車両の周辺を撮影する複数のカメラ10,11,12,13で撮影された共通の被写体Bの複数の撮影画像上での位置を基に共通の被写体Bまでの距離を算出する。図6は、被写体のマッチング方法を示す説明図である。図6(A)は、画像を合成する際の左側のカメラの画像である。図6(B)は、画像を合成する際の右側のカメラの画像である。
距離情報取得部35は、カメラ画像の歪みおよび被写体距離を考慮して、2つのカメラ画像の中で、同一の被写体が撮影される複数の領域を候補として指定する。図6において枠で囲った部分がカメラ画像に対するマッチング枠の例を示している。マッチング枠の中の画像情報を基に、マッチング処理を行う。マッチング枠で示した領域をマッチング領域とする。左カメラの画像64Lでは、距離情報取得部35は、1つのマッチング領域63Lを指定している。一方、右カメラの画像64Rでは、距離情報取得部35は、3つのマッチング領域63A,63B,63Cを指定している。
距離情報取得部35は、マッチング領域63Lに対して指定した複数の位置(マッチング領域63A,63B,63C)でマッチングを行う。そして、距離情報取得部35は、マッチング結果が一番大きい領域に対応する被写体距離を正しい被写体距離と判定する。「マッチング結果が一番大きい領域」とは、最もマッチングした領域である。図6においては、右カメラの画像64Rのマッチング領域63Bが最もマッチングした領域である。また、「被写体距離」とは、マッチング領域に写った被写体Bの車両の中心Oからの距離を示す。マッチング領域63A、マッチング領域63B及びマッチング領域63Cに対応する被写体距離の値は予め計算されたものを保持しておくものとする。
すなわち、マッチング領域63Bの位置で撮影された被写体Bが、マッチング領域63Lの位置で撮影された被写体Bと同一である場合には、カメラの画像64L,64R上での被写体Bの位置を基にして、各カメラ(左カメラ及び右カメラ)の光軸と各カメラの位置を起点とした被写体Bの方向とのなす角度が求められる。つまり、左カメラと被写体Bとを結ぶ直線が、左カメラの光軸に対してなす角度が求められる。また、右カメラと被写体Bとを結ぶ直線が、右カメラの光軸に対してなす角度が求められる。マッチング領域63Bは、右カメラの画像64Rのマッチング領域である。マッチング領域63Lは、左カメラの画像64Lのマッチング領域である。
後述する図8のカメラ10,13を例として説明する。カメラ10は、左カメラである。カメラ13は、右カメラである。被写体Bを被写体Bとして示している。カメラ10の光軸は光軸OA10である。「左カメラの光軸」は、光軸OA10である。「左カメラと被写体Bとを結ぶ直線が、左カメラの光軸に対してなす角度」は、角度αである。つまり、カメラ10の光軸OA10とカメラ10の位置を起点とした被写体Bの方向とのなす角度は角度αである。カメラ13の光軸は光軸OA13である。「右カメラの光軸」は、光軸OA13である。「右カメラと被写体Bとを結ぶ直線が、右カメラの光軸に対してなす角度」は、角度βである。つまり、カメラ13の光軸OA13とカメラ13の位置を起点とした被写体Bの方向とのなす角度は角度βである。
位置C10は、カメラ10の画像上の被写体Bの位置を示している。被写体Bは、カメラ10と位置C10とを結ぶ直線S10上にある。このため、位置C10から角度αを求めることができる。同様に、位置C13は、カメラ13の画像上の被写体Bの位置を示している。被写体Bは、カメラ13と位置C13とを結ぶ直線S13上にある。このため、位置C13から角度βを求めることができる。
二つのカメラ(左カメラ及び右カメラ)の光軸から被写体までの角度に基づいて被写体の距離を算出することができる。ここで、「被写体の距離」は、車両の中心Oから被写体Bまでの距離である。後述する図8のカメラ10,13を例として説明する。「被写体の距離」は、車両の中心Oから被写体Bまでの距離である。上述のように、右カメラの画像64R及び左カメラの画像64Lを基に、角度α,βが求められる。
被写体Bの位置は、直線S10と直線S13との交点の位置となる。カメラ10,13の位置及び車両の中心Oの位置は分かっている。また、光軸OA10,OA13も分かっている。このため、カメラ10,13の位置の座標、車両の中心Oの位置の座標、光軸OA10,OA13及び角度α,βを基にして被写体B1の位置の座標を求めることができる。カメラ10の座標、光軸OA10及び角度αを基に、カメラ10の座標の位置から直線S10を引くことができる。同様に、カメラ13の座標、光軸OA13及び角度βを基に、カメラ13の座標の位置から直線S13を引くことができる。直線S10と直線S13との交点が被写体Bの位置となる。直線S10と直線S13とから、直線S10と直線S13との交点の座標を求めることができる。
距離情報取得部35は、複数のカメラ10,11,12,13の位置、複数のカメラ10,11,12,13の各々の基準となる方向及び基準となる方向に対する共通の被写体Bの位置する方向の角度を基に被写体Bの位置を求める。
マッチング領域がマッチング領域63A又はマッチング領域63Cである場合も同様である。そこで、マッチング領域63Lを固定して、左カメラ64Lのマッチング領域63Lに対する右カメラ64Rの各マッチング領域63A,63B,63Cのそれぞれに対応する被写体距離DA,DB,DCを予め算出し保持しておく。そうすると、各マッチング領域に対応する距離を算出する演算を、その都度行わなくとも被写体距離を算出することができる。ここでの被写体距離DA,DB,DCは、車両の中心Oから被写体Bまでの距離である。上述の例では、マッチング領域63Lを1つに固定しているが、複数のマッチング領域を設定することもできる。
上記の方法により、マッチングを行う領域が、同一の被写体が撮影される領域に限定されるため、演算量を削減することが可能である。マッチング方法としては、テンプレートマッチング方法が挙げられる。また、画像のエッジ又は頂点といった特徴点を抽出して特徴点の一致度を計測する方法などが挙げられる。
画像合成部30は、画像の視点変換と合成を行う。これにより、画像合成部30は、4つのカメラ10,11,12,13の画像が水平方向にすべて繋がるような画像を生成する。複数のカメラ画像を合成し、一点を中心とした水平方向360度の全周画像を生成するためには、各カメラ画像を、一つの共通した仮想の面(投影面)に投影する必要がある。画像合成部30は、画像合成を行う際に、距離情報取得部35で算出された被写体距離情報を参照することにより、合成精度を向上させる。
図7は、複数のカメラの画像を合成する際に生じる被写体の位置のずれについて示した図である。ここでの被写体の位置ずれは、被写体Bと投影面73との位置関係により、投影面73上に投影される被写体Bの位置が異なることである。図7において、図7(A)は、被写体位置74にある被写体Bが被写体位置74に近い位置にある被写体の投影面73に投影される場合の視点変換方法を示す。また、図7(B)は、被写体位置74にある被写体Bが被写体位置74から遠い位置にある被写体の投影面73に投影される場合の視点変換方法を示す。被写体の投影面73は、被写体位置74よりカメラ位置72に近い位置にある。被写体の投影面73は、被写体位置74より画像合成時の中心の位置71に近い位置にある。位置Aは、被写体Bを投影面73に投影した位置を示している。
カメラの位置72と被写体の位置74とをつなぐ直線54は、カメラで撮影した画像内での被写体の方向を示している。つまり、直線54は、カメラの位置72から被写体Bの方向を示している。また、画像合成時の中心位置71と被写体の位置74とをつなぐ直線55は、視点変換処理を実施後の画像合成時の中心位置71から見た画像内での被写体方向を示している。つまり、直線55は、中心位置72から被写体Bの方向を示している。
画像合成部30は、複数のカメラ10,11,12,13に対する共通の基準位置を基準として投影面を生成し、基準位置と被写体Bとを結ぶ直線が投影面に交わる位置に被写体を投影する。画像合成部30は、共通の被写体Bまでの距離を基に複数の撮影画像を1つの投影面上に繋ぎ合わせる。画像合成部30は、共通の被写体Bまでの距離を基に、投影面上の被写体の位置Aを修正する。
図7に示した通り、複数のカメラの画像を合成して、一点を中心とした水平方向360度の全周画像を生成するためには、各カメラ画像を、一つの共通した面に投影する必要がある。その際、カメラ位置72と投影面の中心位置71とが異なる。つまり、カメラ位置72と画像合成時の中心位置71とが異なる。このため、カメラ上で同一の位置に写っている被写体であっても、被写体距離によって正しい投影位置が異なる。
例えば、図7(A)のように被写体が近い場合には、被写体Bの投影位置Aは直線54から近い位置にある。しかし、図7(B)のように被写体が遠い場合には、被写体Bの投影位置Aは直線54から遠い位置にある。このような、被写体Bの投影位置の違いにより、合成画像のカメラ間の境界部分では、被写体が欠けるという現象が発生する。または、合成画像のカメラ間の境界部分では、二重写しとなる現象が発生する。このため、投影面73の中心の位置71から被写体Bまでの距離を算出して、被写体Bの投影面73上での位置を決める。
距離情報取得部35で算出された被写体距離情報を参照することにより、隣接するカメラ間の画角が重複する方向の被写体について、被写体距離の情報を得ることができる。つまり、隣接するカメラ間の画角の重複する部分に位置する被写体から、被写体距離の情報を得ることができる。つまり、4つのカメラ10,11,12,13が車両の前後左右に取り付けられている場合には、車両に対して前方右側の方向FR、前方左側の方向FL、後方右側の方向RRおよび後方左側の方向RLに関しては、被写体距離の情報を得ることができる。方向FR,FL,RR,RLは、車両の中心Oを基点とした方向である。
これに対して、前方右側の方向FRと前方左側の方向FLとの間の方向、前方左側の方向FLと後方左側の方向RLとの間の方向、後方左側の方向RLと後方右側の方向RRとの間の方向および後方右側の方向RRと前方右側の方向FRとの間の方向は、被写体距離の情報を得ることができない。このため、隣接するカメラ間の4箇所の方向FR,FL,RR,RLの被写体距離情報を用いて、中間の角度については内挿した距離となるような投影面を生成して画像の投影を行う。「内挿」とは、二つの点の間の任意の点に対する関数値あるいは近似値を求めることである。
「中間の角度」とは、車両の中心Oから見て、距離情報取得部35によって被写体距離情報が得られる4つの方向FR,FL,RR,RL以外の角度を示す。つまり、中間の角度は、前方右側の方向FRと前方左側の方向FLとの間の角度、前方左側の方向FLと後方左側の方向RLとの間の角度、後方左側の方向RLと後方右側の方向RRとの間の角度および後方右側の方向RRと前方右側の方向FRとの間の角度である。
「内挿した距離」とは、ある角度における被写体の距離を求める場合に、その被写体に最も近い距離情報が得られている二つの被写体の距離情報から角度と距離との対応を線形補間で求めることを示す。つまり、「中間の角度については内挿した距離となるような投影面を生成する」とは、距離情報取得部35によって得られる4つの方向FR,FL,RR,RLに存在する被写体の被写体距離情報に基づき、それ以外の方向での被写体距離を求めることである。
方向FR,FL,RR,RL以外の方向にある被写体の被写体距離の求め方を以下に示す。まず、被写体距離を求める被写体に最も近い2つの方向を方向FR,FL,RR,RLの中から選択する。次に、選択された2つの方向に存在する距離情報の分かっている被写体の距離情報から、被写体距離が角度と線形関係にあるとみなし、線形補間を用いて求める。ここで、「角度」とは、被写体の方向を示す角度である。これにより、カメラの境界で、被写体が欠ける現象を抑えることができる。または、カメラの境界で、二重写しとなる現象を抑えることができる。
図8は、投影面の補正方法について示した図である。図8は、車両を上から見た図である。図8において太い実線で示した面は、各カメラ10,11,12,13の画像を投影するための共通した投影面の例を示している。
図8において、カメラ10は、車両の前方の面の中央に取り付けられている。カメラ11は、車両の左側面の中央に取り付けられている。カメラ12は、車両の後方の面の中央に取り付けられている。カメラ13は、車両の右側面の中央に取り付けられている。
カメラの画角範囲510は、カメラ10の画角範囲である。カメラの画角範囲511は、カメラ11の画角範囲である。カメラの画角範囲512は、カメラ12の画角範囲である。カメラの画角範囲513は、カメラ13の画角範囲である。カメラの画角範囲510,511,512,513は、破線で示している。
投影面51,52は、画像が合成されたときの投影面である。補正前の投影面51は、後述する処理により補正後の投影面52に補正される。投影面51,52は、例えば、車両の上から見て、車両の中心Oを中心とする円形をしている。
画像合成部30は、距離情報取得部35から得られた被写体の距離情報を用いて、隣接するカメラ間の画角が重複する部分について、カメラ画像を投影する面(投影面)の補正を行う。補正された投影面は、上述の投影面のように車両の中心Oを中心とする円形ではない。投影面の補正により、実際の被写体距離を反映した投影面を設定できる。つまり、補正後の投影面は、4つの方向FR,FL,RR,RLに存在する被写体距離の算出された被写体に応じて、投影面の形状を変化させたものである。
このため、複数のカメラで撮影した画像に対して視点変換を行い合成する際に、実際の被写体距離と投影面の距離が異なることによる合成画像の境界での被写体の欠けの発生や二重写しの発生を抑えることができる。なお、4つの方向FR,FL,RR,RLに存在する被写体が変わると、補正された投影面の形状及び位置はその都度変化する。
図8では、補正前の投影面51に対して、補正後の投影面52は、車両の前方右側の方向FRを手前側に補正されている。同様に補正後の投影面52は、車両の後方右側の方向RRの画像を手前側に補正されている。また、補正前の投影面51に対し、補正後の投影面52は、車両の前方左側の方向FLを奥側に補正されている。同様に補正後の投影面52は、車両の後方左側の方向RLの画像を奥側に補正している。中間の角度については、被写体までの距離を補間して求めることによって、投影面を補正する。ここで、「手前側」とは、車両に近い方向を示す。また、「奥側」とは、車両から遠い方向を示す。
1つのカメラで撮影された2つの共通の被写体の間に撮影された距離の不明な被写体までの距離は、距離の不明な被写体を挟む2つの共通の被写体までの距離及び角度の対応を線形補間して求める。
被写体までの距離を補間する際に、角度に対して線形補間をする場合には、中間の角度の被写体までの距離Lの算出式は下記の式(1)の通りである。図8では、中間の角度の被写体を被写体Bで示している。
L=L+(L−L)×(k−k)/(k−k) ・・・(1)
ただし、角度kは、距離Lを求める被写体Bの方向を示す角度である。つまり、車両の中心Oと被写体Bとを結ぶ直線が、車両の中心Oを通る基準軸となす角度である。角度kは、角度kより被写体Bに向かって右側で角度kに最も近い被写体距離情報が既知の方向を示す角度である。角度kは、角度kより被写体に向かって左側で角度kに最も近い被写体距離情報が既知の方向を示す角度である。つまり、角度k,kは、車両の中心Oと既知の位置とを結ぶ直線が、車両の中心Oを通る基準軸となす角度である。
図8では、例として、カメラ10の光軸OA10を基準軸としている。また、被写体Bを被写体Bとして示している。「被写体距離情報が既知の方向」とは、例えば、4つの方向FR,FL,RR,RLである。距離Lは、角度kに対応する被写体までの距離を示す。図8では、車両の中心Oから被写体Bまでの距離である。距離Lは、角度kに対応する被写体までの距離を示す。図8では、車両の中心Oから被写体Bまでの距離である。距離Lは、角度kに対応する被写体までの距離を示す。図8では、車両の中心Oから被写体Bまでの距離である。
図8に示すように、方向FRに存在する被写体Bの距離は、方向FLに存在する被写体Bの距離より短い。このため、車両の前方右側の方向FRを手前側に補正されている。車両の前方左側の方向FLを奥側に補正されている。このように投影面51は、投影面52に補正される。
また、中間の角度を補間する際には、投影面を滑らかに接続するために、被写体の距離情報が既知の方向を基にして、左側の投影面と右側の投影面とで角度の変換量に対する距離の変化量が一致するような補間方法を行うことも可能である。図8では、被写体B1と被写体B3とを滑らかに繋いだ曲線に対応するように投影面を移動させる。このような補間を行う際には、補間する角度に対して左右の各2方向での被写体の距離情報を参照し、三次関数による補間を行う。
この場合の距離の演算式を式(2)に示す。
L=ak+bk+ck+d ・・・(2)
なお、係数a,b,c,dは、下記の式(3)(4)(5)(6)を満たすように決定する。
=ak +bk +ck+d ・・・(3)
=ak +bk +ck+d ・・・(4)
=ak +bk +ck+d ・・・(5)
=ak +bk +ck+d ・・・(6)
ここで、角度kは、距離Lを求める被写体の方向を示す角度である。角度kは、角度kより右側で角度kに最も近い被写体距離情報が既知の方向を示す角度である。図8では、方向FRの基準軸OA10に対する角度である。角度kは、角度kより左側で角度kに最も近い被写体距離情報が既知の方向を示す角度である。図8では、方向FLの基準軸OA10に対する角度である。角度kは、角度kより右側で角度kに二番目に近い被写体距離情報が既知の方向を示す角度である。図8では、方向RRの基準軸OA10に対する角度である。角度kは、角度kより左側で角度kに二番目近い被写体距離情報が既知の方向を示す角度である。図8では、方向RLの基準軸OA10に対する角度である。「被写体距離情報が既知の方向」とは、例えば、4つの方向FR,FL,RR,RLである。
距離Lは、角度kに存在する被写体の車両の中心Oから被写体までの距離を示す。距離Lは、角度kに存在する被写体の車両の中心Oから被写体までの距離を示す。距離Lは、角度kに存在する被写体の車両の中心Oから被写体までの距離を示す。距離Lは、角度kに存在する被写体の車両の中心Oから被写体までの距離を示す。距離Lは、角度kに存在する被写体の車両の中心Oから被写体までの距離を示す。
また、被写体の距離情報が既知の方向を示す角度を用いて補正を行う際には、投影面が常に円形となるようにすることが可能である。このとき、投影面の中心位置及び半径は、例えば、距離情報が既知の被写体の方向を示す角度及び距離情報が既知の被写体の被写体距離の組み合わせを用いて、最小二乗法で算出する。
この場合の距離の計算方法について、図9を用いて説明する。図9は、投影面の補正方法について示す図である。図9において、補正前の投影面51は、中心Oを中心とする円形をしている。中心Oは、車両の中心位置を示している。補正前の投影面51は、破線で示している。補正後の投影面52は、中心Pを中心とする円形をしている。半径Rは補正後の投影面52の半径を示す。補正後の投影面52は、実線で示している。点201、202、203、204は、被写体の距離情報が既知の被写体の位置を示している。点201、202、203、204は、被写体の方向及び距離情報が既知である。
最小二乗法を用いて投影面となる円を決定する際の指標値を値Xとする。値Xは、位置205,206,207,208の距離及び距離情報が既知の点201,202,203,204の距離に基づき、位置205と点201との距離の差の値、位置206と点202との距離の差の値、位置207と点203との距離の差の値及び位置208と点204との距離の差の値をそれぞれ二乗して加算した値である。位置205,206,207,208の距離は、車両の中心Oから位置205,206,207,208までの距離である。点201,202,203,204の距離は、車両の中心Oから点201,202,203,204までの距離である。位置205,206,207,208は、車両の中心Oと距離情報が既知の点201,202,203,204とを結ぶ直線56,57上において、補正後の投影面52が各直線56,57と交わる位置である。値Xが最も小さくなるように、補正後の投影面52の中心Pおよび半径Rを決定する。
画像切出し部32は、実施の形態1と同様に舵角検出部20からの出力信号を受け取る。図5では、メモリ31を介して画像合成部30からの出力信号を受け取っている。画像切出し部32は、直接、画像合成部30からの出力信号を受け取っても構わない。そして、画像切出し部32は、ハンドルの舵角に応じて、画像の切出し範囲を切り替える処理を行う。ハンドルを切らない状態では、画像切出し部32は、車両の正面に対応する合成画像の中心から左右等距離の画像切出しを行う。ハンドルを右に切ったときには、画像切出し部32は、画像の切出し範囲を右側に移動させる。ハンドルを左に切ったときには、画像切出し部32は、画像の切出し範囲を左側に移動させる。
ハンドルの舵角と切出し位置の対応は、ハンドルの舵角に比例して連続的に切出し位置が移動するように演算式で求めても良い。また、ハンドルの舵角と切出し位置の対応は、一定の範囲内のハンドル舵角に特定の切出し位置を対応させるような場合分け処理を用いても良い。演算式を用いた場合には、画像の切出し位置は連続的に移動する。しかし、場合分け処理を用いた場合には、画像の切出し位置は不連続に移動する。しかし、場合分け処理を用いた場合には、処理量は演算式を用いた場合より低減することができる。運転者の視認性を妨げない場合には、場合分け処理を用いた場合の方が、処理が早くなるという利点がある。
表示部40は、切り出した画像を表示画面に表示して、前方画像を運転者に提示する。
上述のように、距離情報取得部35は、車両の周辺を撮影する複数のカメラ10,11,12,13で撮影された共通の被写体Bの複数の撮影画像上での位置を基に車両の基準位置Oから共通の被写体Bまでの被写体距離(第1の被写体距離)を算出し、この被写体距離(第1の被写体距離)を基に複数のカメラ10,11,12,13の内の1つのカメラで撮影された被写体までの被写体距離(第2の被写体距離)を算出している。
また、画像合成部30は、第1の被写体距離(基準位置Oから共通の被写体Bまでの被写体距離)及び第2の被写体距離(1つのカメラで撮影された被写体までの被写体距離)を基に複数のカメラ10,11,12,13を視点とした撮影画像を、基準位置Oを視点とした画像に変換して1つの投影面の上に繋ぎ合わせている。
また、距離情報取得部35は、カメラ10,11,12,13の位置、当該カメラ10,11,12,13の基準となる方向、当該カメラ10,11,12,13の画角及び共通の被写体の撮影画像上の位置を基に、当該カメラ10,11,12,13に対する共通の被写体の方向を求め、2つ以上のカメラに対する共通の被写体の方向から求められる共通の被写体の位置を基に第1の被写体距離(基準位置Oから共通の被写体Bまでの被写体距離)を算出している。
また、画像合成部30は、基準位置Oと被写体Bとを結ぶ直線が投影面に交わる位置に被写体Bを配置している。
また、距離情報取得部35は、第2の被写体距離(1つのカメラで撮影された被写体までの被写体距離)を、第2の被写体距離(1つのカメラで撮影された被写体までの被写体距離)を有する被写体を挟む2つの共通の被写体の第1の被写体距離(基準位置Oから共通の被写体Bまでの被写体距離)及び基準位置Oの基準となる方向に対する角度を基に、被写体距離及び角度の対応を線形補間して求めている。
また、画像合成部30は、複数の共通の被写体の基準位置Oから投影面までの距離と第1の被写体距離(基準位置Oから共通の被写体Bまでの被写体距離)との差の値を二乗した値を加算して、当該加算した値が最も小さくなるように、投影面を変更している。
このように構成された運転支援装置110は、被写体までの距離を測定して画像の合成を行っている。これにより、運転支援装置110は、隣接するカメラ間の画像合成部分において、被写体の二重写し又は被写体の欠落を低減した高画質な合成画像を生成できる。そして、運転支援装置110は、運転者の車両の周辺状況に対する視認性を向上させることが可能である。
実施の形態3.
図10は、実施の形態3における運転支援装置120の構成を示したブロック図である。本発明に係る運転支援装置120は、カメラ10,11,12,13、舵角検出部20、画像合成部30、前方画像切出し部33、後方画像切出し部34および表示部40を有する。また、運転支援装置120は、メモリ31をさらに有することができる。
実施の形態3に係る画像処理装置82は、画像合成部30を有する。また、画像処理装置82は、前方画像切出し部33及び後方画像切出し部34を有することができる。画像処理装置82は、メモリ31を有することができる。
運転支援装置120は、運転支援装置100に対して、画像切出し部32が前方画像切出し部33及び後方画像切出し部34を有する点で異なる。運転支援装置120のカメラ10,11,12,13、舵角検出部20、画像合成部30、表示部40およびメモリ31は、運転支援装置100のカメラ10,11,12,13、舵角検出部20、画像合成部30、表示部40およびメモリ31と同様の機能を有する。このため、特に説明をしない場合には、運転支援装置100で説明した内容と同様である。また、用語の定義に関しても、特に説明をしない場合は、実施の形態1と同様である。また、実施の形態2の運転支援装置110に実施の形態3の前方画像切出し部33及び後方画像切出し部34を採用することもできる。
運転支援装置120の画像切出し部32は、前方画像切出し部33および後方画像切出し部34を有する。カメラ10,11,12,13は、車両周辺を撮影する。舵角検出部20は、車両のハンドル切り角を検出する。画像合成部30は、カメラ10,11,12,13からの入力画像を合成し、車両の周囲を全周にわたって記録した画像を生成する。メモリ31は、画像合成部30から出力された画像データを記録する。前方画像切出し部33は、メモリ31に格納された画像を参照し、舵角検出部20の出力値に応じて切出し領域を決定し、車両の前方に対応する画像の切出しを行う。後方画像切出し部34は、メモリ31に格納された画像を参照し、舵角検出部20の出力値に応じて切出し領域を決定し、車両の後方に対応する画像の切出しを行う。表示部40は、切り出した画像を表示する。
カメラ10,11,12,13は、実施の形態1と同様に車両の前後左右に取り付けられる。カメラ10,11,12,13は、4つのカメラ10,11,12,13のカメラ画角が車両の周囲の全方向を含むように配置される。「車両の周囲の全方向」とは、車両の周囲の360度の方向である。
画像合成部30は、実施の形態1と同様に画像の視点変換と合成を行うことにより、4つのカメラ10,11,12,13の画像が水平方向にすべて繋がるような画像を生成する。
前方画像切出し部33は、舵角検出部20からの出力信号を受け取る。図10では、メモリ31を介して舵角検出部20からの出力信号を受け取っている。そして、前方画像切出し部33は、ハンドルの舵角に応じて、画像の切出し範囲を切り替える処理を行う。ハンドルを切らない状態では、前方画像切出し部33は、車両の前方の正面に対応する合成画像の中心から左右等距離の画像を切出す。「左右等距離」とは、左側からの距離と右側からの距離とが等しいことである。ハンドルを右に切った時には、前方画像切出し部33は、画像の切出し範囲を右側に移動させる。ハンドルを左に切った時には、前方画像切出し部33は、画像の切出し範囲を左側に移動させる。
ハンドルの舵角と切出し位置の対応は、ハンドルの舵角に比例して連続的に切出し位置が移動するように演算式で求めても良い。また、ハンドルの舵角と切出し位置の対応は、一定の範囲内のハンドル舵角に特定の切出し位置を対応させるような場合分け処理を用いても良い。演算式を用いた場合には、画像の切出し位置は連続的に移動する。しかし、場合分け処理を用いた場合には、画像の切出し位置は不連続に移動する。しかし、場合分け処理を用いた場合には、処理量は演算式を用いた場合より低減することができる。運転者の視認性を妨げない場合には、場合分け処理を用いた場合の方が、処理が早くなるという利点がある。
後方画像切出し部34は、舵角検出部20からの出力信号を受け取る。図10では、メモリ31を介して舵角検出部20からの出力信号を受け取っている。そして、後方画像切出し部34は、ハンドルの舵角に応じて、画像の切出し範囲を切り替える処理を行う。ハンドルを切らない状態では、後方画像切出し部34は、車両の後方の正面に対応する合成画像の中心から左右等距離の画像を切出す。ハンドルを右に切った時には、後方画像切出し部34は、画像の切出し範囲を左側に移動させる。ハンドルを左に切った時には、後方画像切出し部34は、画像の切出し範囲を右側に移動させる。「後方の正面」とは、視点位置から前方の正面を向いた場合に、前方の正面から180度後ろ方向のことである。つまり、真後ろのことである。
ハンドルの舵角と切出し位置の対応は、ハンドルの舵角に比例して連続的に切出し位置が移動するように演算式で求めても良い。また、ハンドルの舵角と切出し位置の対応は、一定の範囲内のハンドル舵角に特定の切出し位置を対応させるような場合分け処理を用いても良い。演算式を用いた場合には、画像の切出し位置は連続的に移動する。しかし、場合分け処理を用いた場合には、画像の切出し位置は不連続に移動する。しかし、場合分け処理を用いた場合には、処理量は演算式を用いた場合より低減することができる。運転者の視認性を妨げない場合には、場合分け処理を用いた場合の方が、処理が早くなるという利点がある。
なお、図3に示す合成画像の生成例では、合成後の画像の左端および右端は、画像の後方の正面となる。つまり、運転者が振り返って後方を見たときの正面の画像となる。つまり、「後方の正面」である。運転者が振り返って後方を見たときの正面の画像を生成するために、画像の左端と右端とを接続した画像を生成する。しかし、実施の形態3では、運転者が振り返って後方を見たときの正面の画像とは異なる後方の画像を生成する。前方を向いている運転者の左右方向と後方の画像の左右方向を一致させる。つまり、運転者が振り返って後方を見たときの画像をそのまま表示すると、前方を向いている運転者の左右方向と画像の左右方向とが反対となり一致しない。
画像切出し部33は、画像の切出しを行うとともに、接続部分でつなぎ合せた画像を生成する処理を行う。また、後方の画像については、運転者が画像を確認する時に混乱することがないよう、運転者からみた左右方向と画像の左右方向を一致させるために画像を左右反転させて接合する処理を行う。「左右反転」とは、左側と右側を入れ替えることである。ここで、「運転者からみた左右方向」とは、運転者が車両の前方を見たときの左右方向と後方の画像の左右方向とが一致するということである。このため、「後方の画像」は、運転者が後方を振り返ったときに見える画像と同一ではない。
図11は、ハンドルの舵角と車両の後方画像の切り出し位置の対応について説明する図である。図11に示す通り、ハンドルの舵角に応じて画像の切出し位置の変更を行う。ハンドルを切らない場合(図11(A))には、画像の左端及び右端から等距離の領域をそれぞれ切出し、左右反転して接合させる。接合された画像67は、切出し画像65Aが左右反転された画像66Aと切出し画像65Bが左右反転された画像66Bとが接合されている。つまり、切出し画像65Aの左端65ALと切出し画像65Bの右端65BRとが繋ぎ合わされる。接合画像67の右側は、左端65BLとなり、接合画像67の左側は、右端65ARとなる。ここで、「接合」とは、「合成」と同じ意味である。「合成」とは、画像を繋ぎ合わせることである。そのため、「合成」は、各カメラの撮影した画像を1つの画像上に重ね合わせることを含まない。
図11(A)は、ハンドルの舵角が0度の場合を示している。図11(A)では、切出し画像65A,65Bを合成する際には、切出し画像65A,65Bは左右反転して合成される。図11(A)の場合には、切出し画像65Aと切出し画像65Bとの幅が等しい。図11(B)は、ハンドルの舵角が左側に10度の場合を示している。図11(B)では、切出し画像65A,65Bを合成する際には、切出し画像65A,65Bは左右反転して合成される。図11(B)の場合には、切出し画像65Aの幅が広く、切出し画像65Bの幅が狭い。図11(C)は、ハンドルの舵角が右側に10度の場合を示している。図11(C)では、切出し画像65A,65Bを合成する際には、切出し画像65A,65Bは左右反転して合成される。図11(C)の場合には、切出し画像65Aの幅が狭く、切出し画像65Bの幅が広い。
ハンドルを左に切った場合(図11(B))は、合成画像67の左端からの切出し領域を広げ、画像右端からの切出し領域を狭める。つまり、画像の切出し範囲を右側に移動させている。逆にハンドルを右に切った場合(図11(C))は、合成画像67の右端からの切出し領域を広げ、画像左端からの切出し領域を狭める。つまり、画像の切出し範囲を左側に移動させている。このように画像の切出し、左右反転および接合を行うことによって、ハンドルの舵角に応じ、車両の進行方向に合致した方向の車両後方画像を得ることが可能である。
画像切出し部32は、投影面上の画像の一部を切出す。左側は前記車両の前方に対して左側とし、右側は前記車両の前方に対して右側とすると、画像切出し部32は、車両の後方の画像は、車両の後方で投影面に投影された画像を切断し、その切断された位置の左側の画像65A及び右側の画像65Bを切出す。画像合成部30は、左側の画像65Aを切出し位置65ALが左側となるように配置し、右側の画像65Bを切出し位置65BRが右側となるように配置して、左側の画像65Aの左右及び右側の画像65Bの左右を入れ替えて、左側の画像65A及び右側の画像65Bの切断された位置65AL,65BRを繋ぎ合わせる。
画像切出し部32は、切出す画像の切出し位置が車両の前方の場合には、前記車両の舵角と同じ方向に前記切出し位置を移動する。画像切出し部32は、切出し位置が車両の後方の場合には、車両の舵角と逆の方向に切出し位置を移動する。
表示部40は、切り出した画像の画面表示を行う。表示部40は、前方の画像および後方の画像を接合して運転者に提示する。図12は、車両の前方の画像の表示方法および車両の後方の画像の表示方法を示す図である。図12では、表示部40の表示画面41に、車両の前方画像42と車両の後方画像43とが同時に表示されている。表示画面41上の上側に車両の前方画像42が表示されている。また、表示画面41上の下側に車両の後方画像43が表示されている。
前方の画像および後方の画像を縦に並べて表示することにより、車両の前方の障害物と車両の後方の障害物を同時に確認することが可能である。
このように構成された運転支援装置120は、ハンドルの舵角に応じて、車両の進行方向前方の画像を確認することができる。そして、運転支援装置120は、自車両のピラー等に遮られて確認しづらい車両斜め前方および車両後方の障害物や他車両の有無の視認性を向上できる。
また、車両の前方の画像と反転した車両の後方の画像とを同一画面に表示することで、車両の前方の障害物や他の車両の有無と車両の後方の障害物や他の車両の有無とを一つの画面内で同時に確認することができる。
なお、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。
10,11,12,13 カメラ、 100,110,120 運転支援装置、 20 舵角検出部、 201,202,203,204 点、 205,206,207,208 位置、 30 画像合成部、 31 メモリ、 32 画像切出し部、 33 前方画像切出し部、 34 後方画像切出し部、 35 距離情報取得手段、 40 表示部、 41 表示画面、 42 車両前方画像、 43 車両後方画像、 5 投影面、 510,511,512,513 カメラの画角範囲、 51 補正前の投影面、 52 補正後の投影面、 53,54,55,56,57 直線、 6 合成画像、 61 画像の中心、 62 切出し範囲、 63A,63B,63C,63L マッチング領域、 64R 右カメラ画像、 64L 左カメラ画像、 65A,65B 切出し画像、 66A,66B 左右反転した切出し画像、 67 接合画像、 71 画像合成時の中心位置、 72 カメラ位置、 73 画像合成時の被写体投影面、 74 被写体位置、 80,81,82 画像処理装置 A,C 位置、 B 被写体、 O,P 中心、 R 半径、 S 直線、 L 距離、 X 値、 OA 光軸、 k,k1,k2,α,β 角度、 a,b,c,d 係数、 FR 前方右側の方向、 FL 前方左側の方向、 RR 後方右側の方向、 RL 後方左側の方向、 DA,DB,DC 被写体距離。

Claims (7)

  1. それぞれ異なる位置に配置された複数のカメラで撮影された共通の被写体の複数の撮影画像上での位置を基に基準位置から前記共通の被写体までの第1の被写体距離を算出し、前記第1の被写体距離を基にそれぞれの前記撮影画像における被写体の距離情報を算出する距離情報取得部と、
    前記被写体の距離情報に基づいて前記基準位置を視点とした投影面の位置を補正し、複数の前記撮影画像から前記投影面に投影した画像に変換して繋ぎ合わせる画像合成部と
    を備える画像処理装置。
  2. 前記距離情報取得部は、前記カメラの位置、当該カメラの基準となる方向、当該カメラの画角及び前記共通の被写体の撮影画像上の位置を基に、当該カメラに対する前記共通の被写体の方向を求め、2つ以上の前記カメラに対する前記共通の被写体の方向から求められる前記共通の被写体の位置を基に前記第1の被写体距離を算出する請求項1に記載の画像処理装置。
  3. 前記画像合成部は、前記基準位置と前記撮影画像内での被写体とを結ぶ直線が前記投影面に交わる位置に前記被写体を配置する請求項1又は2に記載の画像処理装置。
  4. 前記距離情報取得部は、前記複数のカメラのうち隣接する2つの前記カメラ間の画角の重複部分ごとに前記第1の被写体距離を算出するものであり、それぞれの前記撮影画像における被写体の距離情報について、当該撮影画像を含む重複部分から得られた2つの前記第1の被写体距離及び各前記第1の被写体距離に対応する前記共通の被写体の方向を示す角度を基に、被写体距離及び角度の対応を線形補間したものを前記撮影画像における被写体の距離情報として求めることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記画像合成部は、前記複数の共通の被写体の前記基準位置から前記投影面までの距離と前記第1の被写体距離との差の値を二乗した値を加算して、当該加算した値が最も小さくなるように、前記投影面を変更させる請求項1から4のいずれか1項に記載の画像処理装置。
  6. 前記複数のカメラは車両に設けられるものであり、
    前記投影面上の画像の一部を切出す画像切出し部をさらに有し、
    左側は前記車両の前方に対して左側とし、右側は前記車両の前方に対して右側とすると、
    前記画像切出し部は、前記車両の後方の画像は、前記車両の後方で前記投影面に投影された画像を切断し、当該切断された位置の左側の画像及び右側の画像を切出し、
    前記画像合成部は、前記左側の画像を前記切出し位置が左側となるように配置し、前記右側の画像を前記切出し位置が右側となるように配置して、前記左側の画像の左右及び前記右側の画像の左右を入れ替えて、前記左側の画像及び前記右側の画像の前記切断された位置を繋ぎ合わせる請求項1から5のいずれか1項に記載の画像処理装置。
  7. 前記画像切出し部は、切出す画像の切出し位置が前記車両の前方の場合には、前記車両の舵角と同じ方向に前記切出し位置を移動し、
    前記切出し位置が前記車両の後方の場合には、前記車両の舵角と逆の方向に前記切出し位置を移動する請求項6に記載の画像処理装置。
JP2014516663A 2012-05-22 2013-05-20 画像処理装置 Active JP5634643B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014516663A JP5634643B2 (ja) 2012-05-22 2013-05-20 画像処理装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012116755 2012-05-22
JP2012116755 2012-05-22
JP2014516663A JP5634643B2 (ja) 2012-05-22 2013-05-20 画像処理装置
PCT/JP2013/003181 WO2013175753A1 (ja) 2012-05-22 2013-05-20 画像処理装置

Publications (2)

Publication Number Publication Date
JP5634643B2 true JP5634643B2 (ja) 2014-12-03
JPWO2013175753A1 JPWO2013175753A1 (ja) 2016-01-12

Family

ID=49623463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014516663A Active JP5634643B2 (ja) 2012-05-22 2013-05-20 画像処理装置

Country Status (5)

Country Link
US (1) US10046700B2 (ja)
JP (1) JP5634643B2 (ja)
CN (1) CN104285441B (ja)
DE (1) DE112013002636B4 (ja)
WO (1) WO2013175753A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018008630A (ja) * 2016-07-14 2018-01-18 三井金属アクト株式会社 表示装置

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015115103A1 (ja) * 2014-01-29 2015-08-06 京セラ株式会社 画像処理装置、カメラシステム、および画像処理方法
DE102014204303A1 (de) * 2014-03-10 2015-09-10 Robert Bosch Gmbh Verfahren zum Zusammenfügen von Einzelbildern, die von einem Kamerasystem aus unterschiedlichen Positionen aufgenommen wurden, zu einem gemeinsamen Bild
US9367895B2 (en) * 2014-03-19 2016-06-14 Digitalglobe, Inc. Automated sliver removal in orthomosaic generation
JP6575445B2 (ja) * 2015-09-30 2019-09-18 アイシン精機株式会社 車両用画像処理装置
JP2017081238A (ja) * 2015-10-23 2017-05-18 株式会社小松製作所 表示システムおよび作業車両
JP6561824B2 (ja) * 2015-12-18 2019-08-21 株式会社デンソー 表示制御装置
FR3047339B1 (fr) * 2016-02-01 2018-04-06 Safran Procede de controle non-destructif par redressement
CN109716386A (zh) * 2016-10-06 2019-05-03 Kai股份公司 利用多个相机获得最佳球形影像的方法
CN106515582A (zh) * 2016-10-26 2017-03-22 深圳市元征科技股份有限公司 安全驾驶预警方法及装置
WO2018092919A1 (ja) * 2016-11-21 2018-05-24 京セラ株式会社 画像処理装置、撮像装置、および表示システム
JP2018085584A (ja) * 2016-11-21 2018-05-31 京セラ株式会社 画像処理装置、撮像装置、および表示システム
JP6769859B2 (ja) * 2016-12-19 2020-10-14 株式会社日立エルジーデータストレージ 画像処理装置及び画像処理方法
KR102551099B1 (ko) 2017-01-13 2023-07-05 엘지이노텍 주식회사 어라운드뷰 제공장치, 제공방법 및 이를 구비한 차량
DE102017201002A1 (de) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Verfahren und Vorrichtung zum Darstellen einer Umgebung eines Fahrzeuges
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
JP6958163B2 (ja) 2017-09-20 2021-11-02 株式会社アイシン 表示制御装置
JP7147248B2 (ja) * 2018-04-27 2022-10-05 株式会社タダノ クレーン車
WO2020009543A1 (en) * 2018-07-06 2020-01-09 Samsung Electronics Co., Ltd. Electronic device for capturing media using a bendable display and method thereof
TWI693578B (zh) * 2018-10-24 2020-05-11 緯創資通股份有限公司 影像拼接處理方法以及其系統
JP7166725B2 (ja) * 2018-11-20 2022-11-08 アルパイン株式会社 表示装置、表示方法および表示プログラム
CN113167894B (zh) * 2018-12-18 2024-02-06 沃尔沃卡车集团 用于确定车辆的坐标的方法
US11092456B2 (en) * 2019-03-08 2021-08-17 Aptiv Technologies Limited Object location indicator system and method
JP2020183166A (ja) * 2019-05-07 2020-11-12 アルパイン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
DE102019216368A1 (de) * 2019-10-24 2021-04-29 Robert Bosch Gmbh Verfahren zum Ausgeben eines Steuersignals an eine Einheit eines Fahrzeugs
WO2021131078A1 (ja) * 2019-12-27 2021-07-01 株式会社ソシオネクスト 画像処理装置、画像処理方法、および画像処理プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369186A (ja) * 2001-06-07 2002-12-20 Sony Corp 車両後方画像表示装置、車両周囲画像表示方法
JP2007049276A (ja) * 2005-08-08 2007-02-22 Sanyo Electric Co Ltd 車載パノラマカメラシステム

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3412945B2 (ja) 1995-01-31 2003-06-03 キヤノン株式会社 画像合成装置及び撮影装置
JP3286306B2 (ja) 1998-07-31 2002-05-27 松下電器産業株式会社 画像生成装置、画像生成方法
JP3695319B2 (ja) 2000-11-30 2005-09-14 トヨタ自動車株式会社 車両周辺モニタ装置
JP4861574B2 (ja) 2001-03-28 2012-01-25 パナソニック株式会社 運転支援装置
KR100866450B1 (ko) 2001-10-15 2008-10-31 파나소닉 주식회사 차량 주위 감시 장치 및 그 조정 방법
JP2004046772A (ja) * 2002-05-13 2004-02-12 3D Media Co Ltd 画像処理方法、画像処理システム、及び画像処理装置
JP3871614B2 (ja) 2002-06-12 2007-01-24 松下電器産業株式会社 運転支援装置
JP2004312523A (ja) 2003-04-09 2004-11-04 Equos Research Co Ltd 車載画像処理装置
JP4467313B2 (ja) 2004-01-09 2010-05-26 株式会社オートネットワーク技術研究所 車両周辺撮像装置
JP4583883B2 (ja) 2004-11-08 2010-11-17 パナソニック株式会社 車両用周囲状況表示装置
JP4468859B2 (ja) 2005-06-06 2010-05-26 アルパイン株式会社 画像合成装置および合成方法
JP4899367B2 (ja) 2005-07-27 2012-03-21 日産自動車株式会社 俯瞰画像表示システム及び俯瞰画像の表示方法
JP4662832B2 (ja) 2005-09-26 2011-03-30 アルパイン株式会社 車両用画像表示装置
JP4674814B2 (ja) 2006-03-20 2011-04-20 アルパイン株式会社 車両用画像表示装置および画像合成方法
CN101146231A (zh) 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
JP5163165B2 (ja) 2008-02-05 2013-03-13 日産自動車株式会社 車両周辺画像処理装置及び車両周辺状況提示方法
CN101498889B (zh) * 2009-03-03 2011-09-21 无锡易斯科电子技术有限公司 一种多目立体摄像方法及装置
TW201103787A (en) 2009-07-31 2011-02-01 Automotive Res & Testing Ct Obstacle determination system and method utilizing bird's-eye images
CN101882306B (zh) 2010-06-13 2011-12-21 浙江大学 一种表面凹凸物体照片的高精度拼接方法
CN101976460B (zh) * 2010-10-18 2012-02-22 无锡维森智能传感技术有限公司 车载多目摄像机环视系统的虚拟视点图像生成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002369186A (ja) * 2001-06-07 2002-12-20 Sony Corp 車両後方画像表示装置、車両周囲画像表示方法
JP2007049276A (ja) * 2005-08-08 2007-02-22 Sanyo Electric Co Ltd 車載パノラマカメラシステム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018008630A (ja) * 2016-07-14 2018-01-18 三井金属アクト株式会社 表示装置

Also Published As

Publication number Publication date
JPWO2013175753A1 (ja) 2016-01-12
DE112013002636T5 (de) 2015-03-19
US20150130942A1 (en) 2015-05-14
DE112013002636B4 (de) 2019-05-09
WO2013175753A1 (ja) 2013-11-28
CN104285441A (zh) 2015-01-14
US10046700B2 (en) 2018-08-14
CN104285441B (zh) 2018-01-05

Similar Documents

Publication Publication Date Title
JP5634643B2 (ja) 画像処理装置
JP4412365B2 (ja) 運転支援方法及び運転支援装置
US11528413B2 (en) Image processing apparatus and image processing method to generate and display an image based on a vehicle movement
JP4497133B2 (ja) 運転支援方法及び運転支援装置
JP3947375B2 (ja) 駐車補助装置
EP1974998B1 (en) Driving support method and driving support apparatus
US9467679B2 (en) Vehicle periphery monitoring device
US9219887B2 (en) Drive assist device
JP5500877B2 (ja) 車載用画像表示装置および画像のトリミング方法
US20030035050A1 (en) Driving assistance display apparatus
JP6392693B2 (ja) 車両周辺監視装置、車両周辺監視方法、及びプログラム
JP5669791B2 (ja) 移動体の周辺画像表示装置
WO2001021446A1 (en) Device for assisting automobile driver
JP2009105656A (ja) 車載用撮像装置
JP2008149878A (ja) 運転支援装置
US11601621B2 (en) Vehicular display system
WO2016129552A1 (ja) カメラパラメータ調整装置
JP4855884B2 (ja) 車両周辺監視装置
JP4927514B2 (ja) 運転支援装置
JP2014129093A (ja) 車両用周辺監視装置
WO2021192508A1 (ja) 画像合成装置、及び、画像合成方法
KR20100005971A (ko) 차량 전방위 감시 시스템
JP4059309B2 (ja) 車載カメラの画像表示制御方法及びその装置
JP4674814B2 (ja) 車両用画像表示装置および画像合成方法
JP4862775B2 (ja) 運転支援方法及び運転支援装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140821

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141014

R150 Certificate of patent or registration of utility model

Ref document number: 5634643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250