[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2021118435A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2021118435A
JP2021118435A JP2020010330A JP2020010330A JP2021118435A JP 2021118435 A JP2021118435 A JP 2021118435A JP 2020010330 A JP2020010330 A JP 2020010330A JP 2020010330 A JP2020010330 A JP 2020010330A JP 2021118435 A JP2021118435 A JP 2021118435A
Authority
JP
Japan
Prior art keywords
image
mask
vehicle
virtual viewpoint
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020010330A
Other languages
English (en)
Inventor
理恵 土生田
Rie Habuta
理恵 土生田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2020010330A priority Critical patent/JP2021118435A/ja
Publication of JP2021118435A publication Critical patent/JP2021118435A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】仮想視点画像の見栄えを向上させることができる画像処理技術を提供する。【解決手段】画像処理装置は、移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像内に映り込んでいる前記移動体を隠すマスクの領域を前記撮影画像に基づいて調整する調整部と、前記仮想視点画像に前記マスクをスーパーインポーズする合成部と、を備える。【選択図】図1

Description

本発明は、移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像処理技術に関する。
従来、移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像処理技術が種々に開発されている(例えば特許文献1参照)。上述した仮想視点画像は、例えば移動体の運転を支援するため等に用いられる。
特許文献1で開示されている画像処理装置では、車両に搭載されるカメラによって撮影された撮影画像における車両が映り込んでいる領域を黒色で塗りつぶすことで、画像内に映り込んでいる車両を隠している。画像内に映り込んでいる車両のボディが車両の近くに存在する障害物と誤認されることを防止するためである。
国際公開第00/64175号(図37及び図38)
特許文献1には、車両のボディの映り込み領域は、カメラの仕様と向き及びカメラを搭載する車両の形状が定まれば、予め一意に決定することができると記載されている。
しかしながら、車両のボディの映り込み領域を予め一意に決定してしまうと、例えば、ユーザーが車両の納車後にエアロパーツ等を取り付けた場合、経年変化や事故等によりバンパー等の形状が変化した場合、経年変化や事故等により車両を基準としたカメラの向き(姿勢)が変化した場合等に、画像内に映り込んでいる車両のボディを隠しきれないおそれがある。
本発明は、上記課題に鑑みて、仮想視点画像の見栄えを向上させることができる画像処理技術を提供することを目的とする。
本発明に係る画像処理装置は、移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像生成部と、前記仮想視点画像内に映り込んでいる前記移動体を隠すマスクの領域を前記撮影画像に基づいて調整する調整部と、前記仮想視点画像に前記マスクをスーパーインポーズする合成部と、を備える構成(第1の構成)である。
上記第1の構成の画像処理装置において、前記調整部は、前記移動体が移動中に異なる時刻に撮影された複数の前記撮影画像に基づいて前記マスクの領域を調整する構成(第2の構成)であってもよい。
上記第1又は第2の構成の画像処理装置において、前記調整部は、前記撮影画像内に映り込んでいる白線の端部位置に基づいて前記マスクの領域を調整する構成(第3の構成)であってもよい。
上記第1〜第3いずれかの構成の画像処理装置において、前記調整部は、前記マスクの領域を変更する際に、ユーザー操作による承認を得てから前記マスクの領域の変更を実行する構成(第4の構成)であってもよい。
上記第1〜第4いずれかの構成の画像処理装置において、前記調整部は、ユーザー操作によるリセット要求に応じて、前記マスクの領域を初期設定に戻す構成(第5の構成)であってもよい。
上記第1〜第5いずれかの構成の画像処理装置において、前記マスクの領域の少なくとも一部が所定範囲を超えたら異常を報知する報知部を備える構成(第6の構成)であってもよい。
本発明に係る画像処理方法は、移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像生成工程と、前記仮想視点画像内に映り込んでいる前記移動体を隠すマスクの領域を前記撮影画像に基づいて調整する調整工程と、前記仮想視点画像に前記マスクをスーパーインポーズする合成工程と、を備える構成(第7の構成)である。
本発明に係る画像処理技術によると、仮想視点画像の見栄えを向上させることができる。
車両周辺監視システムの構成を示すブロック図 4つのカメラが配置された車両を示す模式図 画像処理装置の動作を示すフローチャート 画像生成部が仮想視点画像を生成する手法を説明するための図 合成画像における車両の像が配置される部分を拡大して示した図 バックカメラで撮影された撮影画像を示す模式図 バックカメラで撮影された他の撮影画像を示す模式図 画像処理装置の動作の変形例を示すフローチャート 画像処理装置の動作の他の変形例を示すフローチャート
以下、本発明の例示的な実施形態について、図面を参照しながら詳細に説明する。以下の説明では、移動体として車両を例にとり説明するが、移動体は車両に限定される趣旨ではない。車両には、例えば自動車、電車、無人搬送車等の車輪を有する乗り物が広く含まれる。車両以外の移動体として、例えば船舶や航空機等が挙げられる。
また以下の説明では、車両の直進進行方向であって、運転席からハンドルに向かう方向を「前方向」とする。また、車両の直進進行方向であって、ハンドルから運転席に向かう方向を「後方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の右側から左側に向かう方向を「左方向」とする。また、車両の直進進行方向及び鉛直線に垂直な方向であって、前方向を向いている運転者の左側から右側に向かう方向を「右方向」とする。
<システムの構成>
図1は、本発明の実施の形態に係る車両周辺監視システムSYS1の構成を示すブロック図である。車両周辺監視システムSYS1は、車両ごとに搭載される。車両周辺監視システムSYS1は、当該システムを搭載する車両の周辺状況を監視する機能を有する。図1に示すように、車両監視システムSYS1は、画像処理システムSYS2と、表示装置3と、を備える。
画像処理システムSYS2は、車両の周辺を撮影して画像を生成し、生成した画像を表示装置3に出力する機能を有する。また、画像処理システムSYS2は、車両の周辺を撮影して得られた画像に基づいて、検出対象を検出する機能も有する。本実施の形態では、検出対象には駐車枠が含まれる。なお、これは例示であり、検出対象には、移動体等が含まれてよい。検出した駐車枠情報は、例えば駐車支援等を行う運転支援装置(不図示)によって使用される。画像処理システムSYS2は、車両の周囲を撮影する撮影部1と、画像処理装置2とを備える。
撮影部1は、車両に搭載される4つのカメラ11〜14を備える。すなわち、画像処理システムSYS2は、車両に搭載されるカメラ11〜14を備える。図2は、4つのカメラ11〜14が配置された車両4を示す模式図である。本実施の形態において、車両4は自動車である。撮影部1が備えるカメラの数は例示であり、カメラの数は適宜変更されてよい。各カメラ11〜14は、有線又は無線で画像処理装置2に接続されており、撮影画像を画像処理装置2に送信する。
図2に示すように、カメラ11は車両4の前端に設けられる。このため、カメラ11をフロントカメラ11とも呼ぶ。フロントカメラ11の光軸11aは平面視で車両4の前後方向に沿っている。フロントカメラ11は車両4の前方向を撮影する。カメラ14は車両4の後端に設けられる。このため、カメラ14をバックカメラ14とも呼ぶ。バックカメラ14の光軸14aは平面視で車両4の前後方向に沿っている。バックカメラ14は車両4の後方向を撮影する。フロントカメラ11及びバックカメラ14の取付け位置は、車両4の左右中央であることが望ましいが、左右中央から左右方向に多少ずれた位置であってもよい。
カメラ12は車両4の左側ドアミラー41に設けられる。このため、カメラ12を左サイドカメラ12とも呼ぶ。また自車両がいわゆるドアミラーレス車である場合には、左サイドカメラは、左サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。左サイドカメラ12の光軸12aは平面視で車両4の左右方向に沿っている。左サイドカメラ12は車両4の左方向を撮影する。カメラ13は車両4の右側ドアミラー42に設けられる。このため、カメラ13を右サイドカメラ13とも呼ぶ。また自車両がいわゆるドアミラーレス車である場合には、右サイドカメラは、右サイドドアの回転軸(ヒンジ部)の周辺にドアミラーを介することなく取り付けられる。右サイドカメラ13の光軸13aは平面視で車両4の左右方向に沿っている。右サイドカメラ13は車両4の右方向を撮影する。
各カメラ11〜14のレンズとしては、例えば魚眼レンズが使用される。各カメラ11〜14の水平方向の画角θは180度以上である。このため、4つのカメラ11〜14を利用することで、車両4の水平方向における全周囲を撮影することが可能になっている。
画像処理装置2は、撮影部1によって撮影された撮影画像を取得して、当該撮影画像の処理を行う。また、画像処理装置2は、撮影画像を処理して得られた処理画像を表示装置3に出力する。また、画像処理装置2は、撮影画像を処理して、撮影画像中から検出対象(例えば駐車枠)を検出する。画像処理装置2は、車両4の所定の位置に配置される。すなわち、画像処理装置2は、車両において用いられる。画像処理装置2の詳細については後述する。
表示装置3は、例えばタッチパネル等の操作機能を有する液晶等のディスプレイを備え、画像処理システムSYS2による処理で得られた表示画像を表示する。表示装置3は、車両4の乗員(代表的には運転者)がディスプレイの表示画面を視認できる位置に設けられる。例えば、表示装置3は、車両4のインストルメントパネルに設置される。
<画像処理装置の構成>
画像処理装置2は、ECU(Electronic Control Unit)として構成される。図1に示すように、画像処理装置2は、画像生成部21と、制御部22と、合成部23と、通信部24と、記憶部25と、を備える。
画像生成部21は、撮影部1で撮影された撮影画像を処理して表示用画像を生成する。本実施の形態では、画像生成部21は、各種の画像処理が可能なハードウェア回路として構成されている。本実施の形態では、画像生成部21は、車両4に搭載されるカメラ11〜14による撮影画像に基づいて、仮想視点から見た車両4の周辺を示す仮想視点画像を生成する。仮想視点画像を生成する手法の詳細については後述する。
仮想視点画像は、合成部23によってマスクがスーパーインポーズされた後、通信部24によって表示装置3に出力され、表示装置3の表示画面に表示される。
制御部22は、画像処理装置2の全体を制御する。制御部22は、図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、及びROM(Read Only Memory)を備えるコンピュータである。本実施の形態では、制御部22は、画像制御部221と、表示制御部222と、調整部223と、検出部224と、を備える。制御部22が備えるこれらの各部は、例えばROMに格納されるプログラムに従ってCPUが演算処理を行うことによって実現される機能である。
画像制御部221は、画像生成部21によって実行される画像処理及び合成部23によって実行される画像処理を制御する。例えば、画像制御部221は、画像生成部21に対して、仮想視点画像を生成するために必要となる各種のパラメータ等の指示を行い、合成部23に対して、合成画像を生成するために必要となる各種のパラメータ等の指示を行う。
表示制御部222は、主に画像処理装置2の処理によって得られた画像情報を表示装置3で表示させるための制御を行う。例えば、表示制御部222は、合成部23で生成された合成画像を表示装置3に出力する際の制御を行う。
調整部223は、仮想視点画像内に映り込んでいる車両を隠すマスクの領域を撮影画像に基づいて調整する。
検出部224は、撮影画像に映り込んでいる車両の駐車領域を区画する駐車枠線を検出し、検出された2つの駐車枠間の領域を駐車枠として検出する。駐車枠の検出処理は、適宜実施される。
通信部24は、表示装置3との間で通信を行う。通信部24は、例えば、合成部23で生成された合成画像を表示装置3に出力する。また、通信部24は、運転者等が表示装置3の操作を行った場合に操作部(タッチパネル等)から送信される信号を受信する。
記憶部25は、例えば、フラッシュメモリ等の不揮発性のメモリであり、各種の情報を記憶する。記憶部25は、例えば、ファームウェアとしてのプログラム、画像生成部21が仮想視点画像を生成するための各種のデータを記憶する。また、記憶部25は、調整部223及び検出部224が処理を実行するために必要となる各種のデータを記憶する。
<画像処理装置の構成>
図3は、画像処理装置2の動作を示すフローチャートである。
まず、画像制御部221の指示に従って、画像生成部21が、仮想視点から見た車両4の周辺の様子を示す仮想視点画像を生成する画像生成処理を実行する。(ステップS10)。仮想視点画像を生成する手法の詳細については後述する。
次に、調整部223が、仮想視点画像内に映り込んでいる車両を隠すマスクの領域を撮影画像に基づいて調整する調整処理を実行する(ステップS20)。マスクを調整する手法の詳細については後述する。
最後に、画像制御部221の指示に従って、合成部23が、仮想視点画像にマスクをスーパーインポーズする合成処理を実行する(ステップS30)。合成処理を実行することで得られる合成画像の詳細については後述する。なお、ステップS30の後に適宜、駐車枠の検出処理、表示装置3との間で通信を行う通信処理等が実行される。
<仮想視点画像の生成処理>
画像生成部21が、仮想視点から見た車両4の周辺の様子を示す仮想視点画像を生成する手法について説明する。図4は、画像生成部21が仮想視点画像を生成する手法を説明するための図である。画像生成部21は、仮想視点画像の生成に仮想の立体的な投影面TSを用いることで、現実に近い臨場感のある仮想視点画像を生成する。
フロントカメラ11、左サイドカメラ12、右サイドカメラ13、及び、バックカメラ14によって、車両4の前方、左側方、右側方、及び、後方をそれぞれ示す4つの撮影画像P11〜P14が同時に取得される。これら4つの撮影画像P11〜P14には、車両4の全周囲のデータが含まれている。画像生成部21は、これら4つの撮影画像P11〜P14を取得する。4つの撮影画像P11〜P14内のベタ塗り部分は、撮影画像に映り込んでいる車両4のボディである。
画像生成部21は、これら4つの撮影画像P11〜P14に含まれるデータ(画素の値)を、仮想的な三次元空間における立体的な曲面である投影面TSに投影する。投影面TSは、例えば、略半球状(お椀形状)をしており、その中心部(お椀の底部分)が車両4の位置として定められている。撮影画像P11〜P14に含まれる各画素の位置と、投影面TSの各画素の位置とは予め対応関係が定められている。この対応関係を示すテーブルデータは、記憶部25に記憶されている。投影面TSの各画素の値は、この対応関係と、撮影画像P11〜P14に含まれる各画素の値とに基づいて決定できる。なお、図2に示す斜線領域に対応する投影面TSの領域では、2つのカメラからの撮影画像が投影される。図2に示す斜線領域に対応する投影面TSの領域では、例えば2つのカメラからの撮影画像を所定の割合でブレンドすればよい。
次に、画像生成部21は、画像制御部221の制御により、三次元空間に対して仮想視点VPを設定する。仮想視点VPは、視点位置と視線方向とで規定される。画像生成部21は、任意の視点位置、かつ、任意の視線方向の仮想視点VPを三次元空間に設定できる。画像生成部21は、設定された仮想視点VPに応じて投影面TSにおける必要な領域を切り出す。これにより、任意の仮想視点VPから見た仮想視点画像が生成される。
例えば、図4に示すように、視点位置を車両4の真上、視線方向を直下とした仮想視点VPaを想定した場合、車両4及び車両4の周辺を俯瞰する仮想視点画像(俯瞰画像)に図5を用いて後述するマスク及び車両4の像をスーパーインポーズした合成画像CPaを得ることができる。また、視点位置を車両4の左後方、視線方向を車両4の前方とした仮想視点VPbを想定した場合、車両4の左後方から見た車両4及び車両4の周辺を示す仮想視点画像にマスク及び車両4の像をスーパーインポーズした合成画像CPbを得ることができる。
なお、仮想視点画像CP中に示す車両4の像は、予めビットマップなどのデータとして用意され、記憶部25に記憶されている。合成画像の生成の際には、仮想視点画像の仮想視点VPの視点位置と視線方向とに応じた形状の車両4の像のデータが読み出されて、マスクが既にスーパーインポーズされている仮想視点画像に車両4の像がスーパーインポーズされる。
図5は、合成画像における車両4の像が配置される部分を拡大して示した図である。なお、図5では、上述の仮想視点VPaによる仮想視点画像を想定している。図5に示すように、仮想視点画像にマスク5がスーパーインポーズされている。図5において、マスク5は斜線を施した部分である。本実施の形態において、マスク5の領域は、車両4のボディが映り込む可能性がある領域である。詳細には、マスク5の外縁(境界)は、図5に示すように矩形状である。マスク5は、表示装置3においては、例えば黒色等で表示される。これにより、撮影画像内に映り込んでいる車両が車両の近くに存在する障害物と合成画像を見たユーザーに誤認されることを防止することができる。
マスク5の領域の初期設定は、車両4のボディ形状及びカメラ11〜14の搭載位置によって決まる。このために、マスク5の領域の初期設定は、例えば車種ごと、又は、グレードごとに設定することができる。本実施の形態では、マスク5の領域の初期設定は、カメラ11〜14の取付誤差及びキャリブレーション誤差を考慮して設定されている。詳細には、マスク5の領域の初期設定は、誤差によって車両4のボディが映り込む範囲が最大となる場合でも、車両4のボディ画像が合成画像中に表示されないような設定になっている。マスク5の領域の初期設定に関するデータは、記憶部25に記憶されている。マスク5は、合成画像の生成の際に、仮想視点画像の仮想視点VPの視点位置と視線方向とに応じて仮想視点画像にスーパーインポーズされる。
<マスク領域の調整処理>
調整部223は、例えば画像処理装置2が起動する度に調整処理を実施してもよく、運転者等が表示装置3に対して調整処理の実施を指示する操作を行う度に調整処理を実施してもよい。
調整部223は、マスク5の領域を撮影画像に基づいて調整する。詳細には、調整部223は、撮影画像に基づいて、仮想視点画像内の車両4のボディが映り込んでいる領域を推定し、マスク5がボディの映り込み推定領域を全て覆い、且つ、ボディの映り込み推定領域以外の領域を極力覆わないように、マスク5の領域を調整する。したがって、ボディの映り込み推定領域が広ければ、マスク5の領域も広くなり、ボディの映り込み推定領域が狭ければ、マスク5の領域も狭くなる。
したがって、例えばユーザーが車両の納車後にエアロパーツ等を取り付けた場合、経年変化や事故等によりバンパー等の形状が変化した場合、経年変化や事故等により車両を基準としたカメラの向き(姿勢)が変化した場合等でも、調整部223によってマスク5の領域が調整された後は仮想視点画像内に映り込んでいる車両を隠すことができるので、仮想視点画像の見栄えを向上させることができる。
また、上述した通りマスク5の領域の初期設定では、誤差によって車両4のボディが映り込む範囲が最大となる場合でも、車両4のボディ画像が合成画像中に表示されないようになっている。画像処理装置2によると、調整部223によってマスク5の領域が調整された後は、個々の車両においてマスク5の領域を最適化することができる。つまり、初期設定よりも、仮想視点画像の見栄えを向上させることができる。
また画像処理装置2によると、マスク5の領域を最適化することができるので、マスク5の領域の初期設定を例えば車種ごと、又は、グレードごとに分けて設定せず、共通設定にすることができる。また画像処理装置2によると、マスク5の領域を最適化することができるので、マスク5の領域の初期設定を大雑把な設定することができ、車両のボディ形状に関する詳細なデータを用いることなくマスク5の領域の初期設定が可能となる。
なお、調整部223は、俯瞰画像においてマスク5の外縁(境界)が矩形状を保ちつつ、マスク5の領域を調整する。
また、画像生成部21は、図2に示す斜線領域に対応する投影面TSの領域において、一方のカメラからの撮影画像ではボディの映り込み推定領域でなく、他方のカメラからの撮影画像ではボディの映り込み推定領域である箇所では、上述したブレンド処理を実施せず、一方のカメラからの撮影画像のみを投影させる。
調整部223は、例えば車両が走行中に異なる時刻に撮影された複数の撮影画像に基づいて、仮想視点画像内の車両4のボディが映り込んでいる領域を推定すればよい。車両4のボディはカメラ11に対して常に静止し、撮影画像において同じ画素位置に映っているため、複数の撮影画像間で画素値の変化が少なく、形状も変化しないのに対し、景色はカメラ11〜14に対して動いているので、複数の撮影画像間で画素値の変化が激しく、形状も変化する。よって、車両が走行中に異なる時刻にカメラ11で撮影された2フレームの撮影画像の差分、車両が走行中に異なる時刻にカメラ12で撮影された2フレームの撮影画像の差分、車両が走行中に異なる時刻にカメラ13で撮影された2フレームの撮影画像の差分、及び車両が走行中に異なる時刻にカメラ14で撮影された2フレームの撮影画像の差分から、形状や画素値の変化がない領域を仮想視点画像内の車両4のボディが映り込んでいる領域として推定することができる。この推定手法によると、路面に白線がない場合でも仮想視点画像内の車両4のボディが映り込んでいる領域を推定することができる。なお、カメラのレンズに付着した泥などもカメラに対して静止することになるため、例えば、色相や撮影画像内の場所によって調整部223がレンズ付着物と車両4のボディとを識別することが望ましい。具体的には、車両4のボディは図4のP11〜P14に示すように、撮影画像の下辺に沿って映っているため、静止している領域が撮影画像の下辺に沿っている場合は車両4のボディであると推定することができる。
なお、2フレームの撮影画像の差分だけでは、車両4のボディと景色との区別ができない画素も存在し得るので、3フレーム以上の撮影画像の各画素で画素値の分散を算出し、分散が所定値以上であれば景色に分類し、分散が所定値未満であればボディに分類するようにしてもよい。これにより、推定精度が向上する。
また、画像処理装置2が、例えば車両の速度、車両の位置、車両周辺の明るさ等の情報を取得するようにし、同じ条件下で撮影された撮影画像のみを推定処理に利用することで、さらに推定精度が向上する。
調整部223は、例えば撮影画像内に映り込んでいる白線の端部位置に基づいて、仮想視点画像内の車両4のボディが映り込んでいる領域を推定すればよい。この推定手法では、撮影画像において車両4のボディが白線の一部を隠している場合、車両4のボディが映り込んでいる領域に応じて白線の端部位置が変化することを利用している。例えば、バックカメラ14によって撮影された図6及び図7に示す撮影画像では、車両4のボディが映り込んでいる領域R1によって白線WL1の一部が隠れているため、撮影画像上での白線WL1の端部位置E1は、領域R1と白線WL1との境界となる。図6に示す撮影画像と図7に示す撮影画像とでは、領域R1の形状が互いに異なっているため、撮影画像上での白線WL1の端部位置E1も互いに異なっている。つまり、撮影画像上での白線WL1の端部位置E1と領域R1の形状との間に相関関係があるため、上述したような撮影画像内に映り込んでいる白線の端部位置に基づく仮想視点画像内の車両4のボディが映り込んでいる領域の推定が可能となる。この推定手法によると、車両が走行していない場合でも仮想視点画像内の車両4のボディが映り込んでいる領域を推定することができる。この場合も、画像処理装置2が、例えば車両の位置、車両周辺の明るさ等の情報を取得するようにし、同じ条件下で撮影された撮影画像のみを推定処理に利用することで、推定精度が向上する。
また、調整部223は、マスク5の領域を変更する際に、運転者等が表示装置3に対して変更の承認を示す操作をしてからマスク5の領域の変更を実行するようにしてもよい。これにより、運転者等の意に反してマスク5の領域が調整されることを防止することができる。例えば、エアロパーツ等を取り付けや事故の覚えが無い場合に、運転者等はマスク5の領域が調整されることを承認しないようにすることができる。
また、調整部223は、運転者等が表示装置3に対してリセット要求変更の承認を示す操作をすると、その操作に応じてマスク5の領域を初期設定に戻すようにしてもよい。これにより、マスク5の領域の調整によって不具合が生じた場合でも、元の状態に戻すことができるので、利便性が向上する。
また、調整部223による調整の結果、マスク5の領域の少なくとも一部が所定範囲を超えたら、制御部22が、表示装置3に異常を報知させる報知部として機能するようにしてもよい。これにより、運転者等が気付いていないカメラ11〜14の位置ずれなどを運転者等に気付かせることができる。この場合、例えば図8に示すフローチャートのように、ステップS20とステップS30との間にステップS21及びS22を追加するとよい。なお、図8に示すフローチャートとは異なり、ステップS30の後にステップS21及びS22を追加してもよい。ステップS21において、制御部22は、マスク5の領域の少なくとも一部が所定範囲を超えた否かを判定する。マスク5の領域の少なくとも一部が所定範囲を超えた場合、制御部22が、表示装置3に異常を報知させる報知処理を実行する(ステップS22)。一方、マスク5の領域の少なくとも一部が所定範囲を超えていない場合、ステップS22の報知処理は実行されない。
また、制御部22が、調整部223の最新の調整結果と一つ前の調整結果とを比較した結果を表示装置3に表示させるようにしてもよい。これにより、マスク5の領域が変更したか否かを運転者等に知らせることができる。この場合、例えば図9に示すフローチャートのように、ステップS20とステップS30との間にステップS23及びS24を追加するとよい。なお、図9に示すフローチャートとは異なり、ステップS30の後にステップS23及びS24を追加してもよい。ステップS23において、制御部22は、調整部223の最新の調整結果と一つ前の調整結果とを比較する比較処理を実行する。そして、ステップS24において、制御部22が、調整部223の最新の調整結果と一つ前の調整結果とを比較した結果を表示装置3に表示させる表示処理を実行する。調整部223の最新の調整結果と一つ前の調整結果との間に変化が無い場合にステップS24の表示処理が実行されないようにしてもよい。
<留意事項>
本明細書における実施形態や実施例の構成は、本発明の例示にすぎない。実施形態や変形例の構成は、本発明の技術的思想を超えない範囲で適宜変更されてもよい。また、複数の実施形態及び変形例は、可能な範囲で組み合わせて実施されてよい。
2 画像処理装置
4 車両
11 フロントカメラ
12 左サイドカメラ
13 右サイドカメラ
14 バックカメラ
21 画像生成部
23 合成部
223 調整部

Claims (7)

  1. 移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像生成部と、
    前記仮想視点画像内に映り込んでいる前記移動体を隠すマスクの領域を前記撮影画像に基づいて調整する調整部と、
    前記仮想視点画像に前記マスクをスーパーインポーズする合成部と、
    を備える、画像処理装置。
  2. 前記調整部は、前記移動体が移動中に異なる時刻に撮影された複数の前記撮影画像に基づいて前記マスクの領域を調整する、請求項1に記載の画像処理装置。
  3. 前記調整部は、前記撮影画像内に映り込んでいる白線の端部位置に基づいて前記マスクの領域を調整する、請求項1または請求項2に記載の画像処理装置。
  4. 前記調整部は、前記マスクの領域を変更する際に、ユーザー操作による承認を得てから前記マスクの領域の変更を実行する、請求項1〜3のいずれか一項に記載の画像処理装置。
  5. 前記調整部は、ユーザー操作によるリセット要求に応じて、前記マスクの領域を初期設定に戻す、請求項1〜4のいずれか一項に記載の画像処理装置。
  6. 前記マスクの領域の少なくとも一部が所定範囲を超えたら異常を報知する報知部を備える、請求項1〜5のいずれか一項に記載の画像処理装置。
  7. 移動体に搭載されるカメラによって撮影された撮影画像に基づいて、仮想視点から見た移動体の周辺を示す仮想視点画像を生成する画像生成工程と、
    前記仮想視点画像内に映り込んでいる前記移動体を隠すマスクの領域を前記撮影画像に基づいて調整する調整工程と、
    前記仮想視点画像に前記マスクをスーパーインポーズする合成工程と、
    を備える、画像処理方法。
JP2020010330A 2020-01-24 2020-01-24 画像処理装置及び画像処理方法 Pending JP2021118435A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020010330A JP2021118435A (ja) 2020-01-24 2020-01-24 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020010330A JP2021118435A (ja) 2020-01-24 2020-01-24 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2021118435A true JP2021118435A (ja) 2021-08-10

Family

ID=77175280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020010330A Pending JP2021118435A (ja) 2020-01-24 2020-01-24 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2021118435A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022202892A1 (ja) * 2021-03-25 2022-09-29 いすゞ自動車株式会社 表示制御装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance
JP4045862B2 (ja) * 2002-06-03 2008-02-13 日産自動車株式会社 車載カメラの光軸ずれ検出装置
JP2011182236A (ja) * 2010-03-02 2011-09-15 Toshiba Alpine Automotive Technology Corp カメラキャリブレーション装置
JP2015090591A (ja) * 2013-11-06 2015-05-11 株式会社パスコ 路面オルソ画像の生成装置および生成方法
JP2017139654A (ja) * 2016-02-04 2017-08-10 パナソニックIpマネジメント株式会社 キャリブレーション装置及び車載カメラシステム
JP2018136739A (ja) * 2017-02-22 2018-08-30 クラリオン株式会社 キャリブレーション装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000064175A1 (fr) * 1999-04-16 2000-10-26 Matsushita Electric Industrial Co., Ltd. Dispositif de traitement d'images et systeme de surveillance
JP4045862B2 (ja) * 2002-06-03 2008-02-13 日産自動車株式会社 車載カメラの光軸ずれ検出装置
JP2011182236A (ja) * 2010-03-02 2011-09-15 Toshiba Alpine Automotive Technology Corp カメラキャリブレーション装置
JP2015090591A (ja) * 2013-11-06 2015-05-11 株式会社パスコ 路面オルソ画像の生成装置および生成方法
JP2017139654A (ja) * 2016-02-04 2017-08-10 パナソニックIpマネジメント株式会社 キャリブレーション装置及び車載カメラシステム
JP2018136739A (ja) * 2017-02-22 2018-08-30 クラリオン株式会社 キャリブレーション装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022202892A1 (ja) * 2021-03-25 2022-09-29 いすゞ自動車株式会社 表示制御装置
JP2022149557A (ja) * 2021-03-25 2022-10-07 いすゞ自動車株式会社 表示制御装置

Similar Documents

Publication Publication Date Title
US20220210344A1 (en) Image display apparatus
JP5099451B2 (ja) 車両周辺確認装置
US7974444B2 (en) Image processor and vehicle surrounding visual field support device
US20150109444A1 (en) Vision-based object sensing and highlighting in vehicle image display systems
JP5953824B2 (ja) 車両用後方視界支援装置及び車両用後方視界支援方法
JP5341789B2 (ja) パラメータ取得装置、パラメータ取得システム、パラメータ取得方法、及び、プログラム
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
JP4248570B2 (ja) 画像処理装置並びに視界支援装置及び方法
JP5093611B2 (ja) 車両周辺確認装置
JP2017213933A (ja) 車両用表示装置
JP5697512B2 (ja) 画像生成装置、画像表示システム及び画像表示装置
KR20170067549A (ko) 차량 주변 영상 정보 제공 시스템 및 방법
JP3876761B2 (ja) 車両用周辺監視装置
WO2018159017A1 (ja) 車両用表示制御装置、車両用表示システム、車両用表示制御方法およびプログラム
JP2009105660A (ja) 車載用撮像装置
JP2011217318A (ja) 車両用後方視認システム
JP2017216509A (ja) 車両用表示装置
JP2019028920A (ja) 表示制御装置
JP2018533098A (ja) パネル変換
CN112351242A (zh) 图像处理装置以及图像处理方法
JP2023536976A (ja) 運転者による後方視認のための電子画像ディスプレイを含む車両視認システム及び方法
KR101964864B1 (ko) 차량의 어라운드 뷰 영상의 왜곡 보정 방법
JP2018528514A (ja) 後方交差交通のクイックルック
JP2017111739A (ja) 運転支援装置、運転支援方法
CN112046470A (zh) 控制后视图像显示的方法、装置、介质、控制器及车辆

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20211116

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220407

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230718