JP2016136326A - 情報表示装置および情報表示方法 - Google Patents
情報表示装置および情報表示方法 Download PDFInfo
- Publication number
- JP2016136326A JP2016136326A JP2015011176A JP2015011176A JP2016136326A JP 2016136326 A JP2016136326 A JP 2016136326A JP 2015011176 A JP2015011176 A JP 2015011176A JP 2015011176 A JP2015011176 A JP 2015011176A JP 2016136326 A JP2016136326 A JP 2016136326A
- Authority
- JP
- Japan
- Prior art keywords
- information
- color
- display
- vehicle
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】車両の前方または周囲の景色に重ねて且つ容易に認識可能に情報を表示する。
【解決手段】車両の運転者から見える前方または周囲の景色に重ねて情報を表示するに際して、景色の中で情報が重ねて表示される領域内の色についての情報(色情報)を検出する。そして、検出した色情報に基づいて情報の表示色を決定して、決定した表示色で情報を出力する。こうすれば、情報が重ねて表示される領域に対して目立ち易い表示色で情報を出力することができるので、運転者が容易に認識可能な態様で情報を表示することが可能となる。
【選択図】図2
【解決手段】車両の運転者から見える前方または周囲の景色に重ねて情報を表示するに際して、景色の中で情報が重ねて表示される領域内の色についての情報(色情報)を検出する。そして、検出した色情報に基づいて情報の表示色を決定して、決定した表示色で情報を出力する。こうすれば、情報が重ねて表示される領域に対して目立ち易い表示色で情報を出力することができるので、運転者が容易に認識可能な態様で情報を表示することが可能となる。
【選択図】図2
Description
本発明は、運転者から見える車両の前方または周囲の景色に重ねて、運転者に対する情報を表示する技術に関する。
車両の運転者は、運転に際して、車両の前方の状況だけでなく、車両の周囲の状況も常に把握しておく必要がある。このため車両には、車両の後側方の景色を視認するためのサイドミラーや、後方の景色を視認するためのバックミラーなどが搭載されている。また、車両の運転者には、運転に関連する様々な情報が提示されるので、これらの情報も確認する必要がある。
そこで、車両の前方や周囲の状況を確認した運転者が、大きく視線を動かすことなく様々な情報を確認可能とする技術が提案されている。例えば、サイドミラーの裏面側にモニターを組み込んで、モニターの画像がサイドミラーを通して透けて見えるようにすることで、車両の後側方の状況と共に様々な情報を確認できるようにする技術が提案されている(特許文献1)。
あるいは、車両の窓ガラスや、窓ガラスの手前側に設けた透明な表示板上に画像を投影して虚像表示することで、運転者が前方の景色を確認しながら、投影された画像の情報を把握できるようにした「ヘッドアップディスプレイ」と呼ばれる技術も開発されている。
あるいは、車両の窓ガラスや、窓ガラスの手前側に設けた透明な表示板上に画像を投影して虚像表示することで、運転者が前方の景色を確認しながら、投影された画像の情報を把握できるようにした「ヘッドアップディスプレイ」と呼ばれる技術も開発されている。
しかし、上述した従来の技術では、車両の前方または周囲の景色に重ねて情報が表示されるので、表示された情報が背景に紛れてしまい、容易に認識することができない場合があるという問題があった。
この発明は、従来技術が有する上述した課題に鑑みてなされたものであり、車両の前方または周囲の景色に重ねて表示するにも拘わらず、容易に認識可能な態様で情報を表示する技術の提供を目的とする。
上述した課題を解決するために本発明の情報出力装置および情報出力方法は、運転者から見える前方または周囲の景色の中で、情報が重ねて表示される領域内の色についての情報(色情報)を検出する。そして、検出した色情報に基づいて情報の表示色を決定し、決定した表示色を用いて情報を出力する。
こうすれば、情報が重ねて表示される領域に対して目立ち易い表示色で情報を出力することができるので、運転者が容易に認識可能な態様で情報を表示することが可能となる。
こうすれば、情報が重ねて表示される領域に対して目立ち易い表示色で情報を出力することができるので、運転者が容易に認識可能な態様で情報を表示することが可能となる。
以下では、上述した本願発明の内容を明確にするために実施例について説明する。
A.装置構成 :
図1には、情報出力装置100を搭載した車両1が示されている。図示されるように車両1には、車両1の運転に関する制御を司る運転制御装置4を中心として、各種の機器が車載ネットワーク2を介してデータを通信可能な状態で搭載されている。例えば、車両1の車室内には、前方の状況を撮影する車載カメラ(以下、前方カメラ10F)や、後方の状況を撮影する車載カメラ(以下、後方カメラ10B)が搭載されており、前方カメラ10Fや後方カメラ10Bは、車載ネットワーク2に接続されている。また、車載ネットワーク2には画像解析装置5も接続されており、画像解析装置5は、前方カメラ10Fや後方カメラ10Bで撮影されたカラー画像を、車載ネットワーク2を介して取得する。そして、歩行者や車両や障害物の検出などの所定の画像処理を施した後、得られた結果を車載ネットワーク2に出力する。
A.装置構成 :
図1には、情報出力装置100を搭載した車両1が示されている。図示されるように車両1には、車両1の運転に関する制御を司る運転制御装置4を中心として、各種の機器が車載ネットワーク2を介してデータを通信可能な状態で搭載されている。例えば、車両1の車室内には、前方の状況を撮影する車載カメラ(以下、前方カメラ10F)や、後方の状況を撮影する車載カメラ(以下、後方カメラ10B)が搭載されており、前方カメラ10Fや後方カメラ10Bは、車載ネットワーク2に接続されている。また、車載ネットワーク2には画像解析装置5も接続されており、画像解析装置5は、前方カメラ10Fや後方カメラ10Bで撮影されたカラー画像を、車載ネットワーク2を介して取得する。そして、歩行者や車両や障害物の検出などの所定の画像処理を施した後、得られた結果を車載ネットワーク2に出力する。
また、車両1の左側面には、左後方の状況を撮影する車載カメラ(以下、左側方カメラ10L)が搭載されており、車両1の右側面には、右後方の状況を撮影する車載カメラ(以下、右側方カメラ10R)が搭載されている。左側方カメラ10Lおよび右側方カメラ10Rも、撮影したカラー画像の画像データを車載ネットワーク2に出力し、その画像データを画像解析装置5が車載ネットワーク2を介して取得して、歩行者や車両の検出などの所定の画像処理を実行する。
更に、車両1には、車両1の前方に存在する障害物を検出する検出機器(ここでは、ソナー12R,12L)や、車両1の後方に存在する障害物を検出する検出機器(ここでは、ソナー13R,13L)も搭載されており、これらも車載ネットワーク2に接続されている。尚、障害物を検出する検出機器としては、ソナー12R,12L,13R,13Lの代わりに、あるいはこれらに加えて、レーダーなどを搭載しても良い。
更に、車両1には、車両1の前方に存在する障害物を検出する検出機器(ここでは、ソナー12R,12L)や、車両1の後方に存在する障害物を検出する検出機器(ここでは、ソナー13R,13L)も搭載されており、これらも車載ネットワーク2に接続されている。尚、障害物を検出する検出機器としては、ソナー12R,12L,13R,13Lの代わりに、あるいはこれらに加えて、レーダーなどを搭載しても良い。
また、車載ネットワーク2には、車室内の右側に搭載された表示機器20Rや、車室内の左側に搭載された表示機器20Lや、ステアリングハンドル3の奥側に搭載された表示機器20Cも接続されている。更に、車載ネットワーク2には、これらの表示機器20R,20L,20Cに向かって画像や情報を出力する情報出力装置100も接続されている。右側方カメラ10Rで撮影した画像は、情報出力装置100を介して表示機器20Rに供給されて、表示機器20Rの表示画面に表示される。同様に、左側方カメラ10Lで撮影した画像は、情報出力装置100を介して表示機器20Lに供給されて、表示機器20Lの表示画面に表示される。この結果、表示機器20Rおよび表示機器20Lでは、いわゆる電子サイドミラーが実現される。また、後方カメラ10Bで撮影した画像は、情報出力装置100を介して表示機器20Cに供給されて、表示機器20Cの表示画面に表示される。この結果、表示機器20Cでは、いわゆる電子バックミラー、あるいは車両1の後進時に使用されるバックモニターが実現される。
右側方カメラ10R、左側方カメラ10L、後方カメラ10B、前方カメラ10Fで撮影された画像は、車載ネットワーク2を介して画像解析装置5に供給され、画像に写った車両や歩行者などの位置や距離などが抽出される。そして画像解析装置5は、抽出したそれらの情報を車載ネットワーク2を介して運転制御装置4に出力する。また、ソナー12R,12L,13R,13Lからの情報は運転制御装置4に供給されて障害物の有無および障害物の大まかな位置が検出される。そして運転制御装置4は、これらの情報を必要に応じて車載ネットワーク2に出力する。
情報出力装置100は、車載ネットワーク2を介してこれらの情報を取得して、表示機器20R、20L、20Cに出力する。その結果、表示機器20R、20L、20Cの表示画面上では、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bで撮影した画像に重ねて、これらの情報が表示される。
情報出力装置100は、車載ネットワーク2を介してこれらの情報を取得して、表示機器20R、20L、20Cに出力する。その結果、表示機器20R、20L、20Cの表示画面上では、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bで撮影した画像に重ねて、これらの情報が表示される。
もっとも、撮影した画像に重ねて情報を表示すると、表示された情報が背景に紛れてしまい、運転者が容易に認識することができないことがある。そこで、このような事態を回避するために、本実施例の情報出力装置100は次のような構成を採用している。
図2には、本実施例の情報出力装置100の大まかな内部構造が示されている。図示されるように情報出力装置100は、ネットワーク接続部101や、撮影画像取得部102、画像出力部103、色情報検出部104、表示色決定部105、情報取得部106、情報類別判断部107、対応関係記憶部108、情報出力部109を備えている。
尚、情報出力装置100は、CPUを中心として、メモリーや、タイマー、入出力周辺装置などが、バスを介して相互にデータを通信可能に接続されたマイクロコンピューターによって実現されている。従って、これらの「部」は、情報出力装置100が、表示機器20R,20L,20Cの表示画面上に撮影画像や情報を表示させる機能に着目して、便宜的に情報出力装置100の内部構造を分類したものに過ぎず、情報出力装置100がこれらの部に物理的に区分されることを表すものではない。従って、これらの「部」は、CPUで実行されるコンピュータープログラムとして実現することもできるし、LSIやメモリーを含む電子回路として実現することもできるし、更にはこれらを組合せることによって実現することもできる。
尚、情報出力装置100は、CPUを中心として、メモリーや、タイマー、入出力周辺装置などが、バスを介して相互にデータを通信可能に接続されたマイクロコンピューターによって実現されている。従って、これらの「部」は、情報出力装置100が、表示機器20R,20L,20Cの表示画面上に撮影画像や情報を表示させる機能に着目して、便宜的に情報出力装置100の内部構造を分類したものに過ぎず、情報出力装置100がこれらの部に物理的に区分されることを表すものではない。従って、これらの「部」は、CPUで実行されるコンピュータープログラムとして実現することもできるし、LSIやメモリーを含む電子回路として実現することもできるし、更にはこれらを組合せることによって実現することもできる。
ネットワーク接続部101は、車載ネットワーク2からデータを取得したり、車載ネットワーク2を介して表示機器20R,20L,20Cにデータを出力する機能を有している。
撮影画像取得部102は、ネットワーク接続部101が車載ネットワーク2から取得した各種の情報の中から、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bで撮影されたカラー画像を取得して、画像出力部103および色情報検出部104に供給する。
また、情報取得部106は、ネットワーク接続部101が車載ネットワーク2から取得した各種の情報の中から、表示機器20R,20L,20Cで表示する情報のデータを取得して、色情報検出部104と、情報類別判断部107と、情報出力部109とに供給する。
撮影画像取得部102は、ネットワーク接続部101が車載ネットワーク2から取得した各種の情報の中から、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bで撮影されたカラー画像を取得して、画像出力部103および色情報検出部104に供給する。
また、情報取得部106は、ネットワーク接続部101が車載ネットワーク2から取得した各種の情報の中から、表示機器20R,20L,20Cで表示する情報のデータを取得して、色情報検出部104と、情報類別判断部107と、情報出力部109とに供給する。
色情報検出部104は、情報取得部106から情報を受け取ると、撮影画像中でその情報が重ねて表示される領域内の色情報を検出する。ここで色情報とは、領域の代表的な色を表す情報である。領域の代表的な色としては、その領域を構成する複数の画素の色を平均した色とすることもできるし、領域内の複数の画素の中で最も出現頻度の高い色とすることもできる。そして、検出した色情報は、表示色決定部105に出力する。
一方、情報類別判断部107は、情報取得部106から受け取った情報の類別(例えば、運転者に対して警告する警告情報であるか否か)を判断し、その結果を表示色決定部105に出力する。
一方、情報類別判断部107は、情報取得部106から受け取った情報の類別(例えば、運転者に対して警告する警告情報であるか否か)を判断し、その結果を表示色決定部105に出力する。
そして表示色決定部105は、色情報検出部104から受け取った色情報と、情報類別判断部107から受け取った類別の判断結果に基づいて、情報の表示色を決定する。ここで情報の表示色とは、その情報を表示するために使用する色を言う。例えば、情報の表示色が赤色であった場合には、赤色で情報が表示される。
対応関係記憶部108には、色情報と表示色とを対応付けた対応関係が予め記憶されている。また、この対応関係は、警告情報のような特別な情報に対しては特別な対応関係が予め設定されている。そこで、表示色決定部105は、情報の類別に対応する対応関係を参照して、色情報に対応する表示色を決定した後、決定した表示色を情報出力部109に出力する。
対応関係記憶部108には、色情報と表示色とを対応付けた対応関係が予め記憶されている。また、この対応関係は、警告情報のような特別な情報に対しては特別な対応関係が予め設定されている。そこで、表示色決定部105は、情報の類別に対応する対応関係を参照して、色情報に対応する表示色を決定した後、決定した表示色を情報出力部109に出力する。
情報出力部109は、情報取得部106から受け取った情報を、表示色決定部105で決定した表示色で、画像出力部103に出力する。すると、画像出力部103は、撮影画像取得部102から供給された撮影画像に、情報出力部109から供給された表示色による情報が重ねて表示された画像を生成する。そして、得られた画像を、ネットワーク接続部101を介して車載ネットワーク2に出力する。このとき、撮影画像が右側方カメラ10Rから得られた画像であった場合には、表示機器20Rを指定して出力する。また、撮影画像が左側方カメラ10Lから得られた画像であった場合には表示機器20Lを指定して出力し、後方カメラ10Bから得られた画像であった場合には表示機器20Cを指定して出力する。
こうすれば、対応関係記憶部108に、色情報と表示色との適切な対応関係を記憶しておくことで、表示された情報が背景に紛れてしまう事態を回避することができ、その結果、表示された情報を運転者が容易に認識することが可能となる。以下では、こうしたことを可能とするために、本実施例の情報出力装置100が実行する情報出力処理について説明する。
こうすれば、対応関係記憶部108に、色情報と表示色との適切な対応関係を記憶しておくことで、表示された情報が背景に紛れてしまう事態を回避することができ、その結果、表示された情報を運転者が容易に認識することが可能となる。以下では、こうしたことを可能とするために、本実施例の情報出力装置100が実行する情報出力処理について説明する。
B.情報出力処理 :
図3には、情報出力装置100が、表示機器20R,20L,20Cの表示画面上に表示するための情報を出力する情報出力処理のフローチャートが示されている。
図示されるように情報出力処理では、先ず始めに、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bで撮影されたカラー画像の画像データを取得する(S101)。また、これらの画像データは、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bの何れで撮影された画像データであるかが識別された状態で車載ネットワーク2に出力されるので、情報出力装置100は、撮影したカメラを識別した状態で取得する。
図3には、情報出力装置100が、表示機器20R,20L,20Cの表示画面上に表示するための情報を出力する情報出力処理のフローチャートが示されている。
図示されるように情報出力処理では、先ず始めに、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bで撮影されたカラー画像の画像データを取得する(S101)。また、これらの画像データは、右側方カメラ10R、左側方カメラ10L、後方カメラ10Bの何れで撮影された画像データであるかが識別された状態で車載ネットワーク2に出力されるので、情報出力装置100は、撮影したカメラを識別した状態で取得する。
続いて、取得した撮影画像に重ねて表示する情報があるか否かを判断する(S102)。例えば、画像解析装置5が撮影画像を解析して抽出した情報や、ソナー12R,12L13R.13Lで検出した情報などは、車載ネットワーク2を介して運転制御装置4に供給され、運転制御装置4が必要な情報を、表示機器20R,20L,20Cを指定して車載ネットワーク2に出力する。そこで、情報出力装置100は、運転制御装置4からこのような情報が出力されているか否かを判断する。
その結果、運転制御装置4からこのような情報が出力されていない場合は、撮影画像に重ねて表示する情報が無いと判断して(S102:no)、受け取った撮影画像の画像データを出力する(S110)。受け取った撮影画像が、例えば右側方カメラ10Rで撮影された画像であれば、表示機器20Rに向けて画像データを出力する。また、受け取った撮影画像が、左側方カメラ10Lで撮影された画像であれば表示機器20Lに向けて画像データを出力し、後方カメラ10Bで撮影された画像であれば表示機器20Cに向けて画像データを出力する。
その結果、運転制御装置4からこのような情報が出力されていない場合は、撮影画像に重ねて表示する情報が無いと判断して(S102:no)、受け取った撮影画像の画像データを出力する(S110)。受け取った撮影画像が、例えば右側方カメラ10Rで撮影された画像であれば、表示機器20Rに向けて画像データを出力する。また、受け取った撮影画像が、左側方カメラ10Lで撮影された画像であれば表示機器20Lに向けて画像データを出力し、後方カメラ10Bで撮影された画像であれば表示機器20Cに向けて画像データを出力する。
これに対して、運転制御装置4から情報が出力されている場合は、撮影画像に重ねて表示する情報があると判断して(S102:yes)、表示する情報を車載ネットワーク2から取得する(S103)。
ここでは、図4に例示したように、電子サイドミラーを実現している表示機器20Rの表示画面20aに表示される情報として、追走車両の存在を示す強調枠A3と、追走車両の走行速度A2と、追走車両までの距離A4とを取得したものとする。更に、走行レーンの変更ができない旨の警告A1や、前方を注意する旨の警告も取得したものとする。強調枠A3は、図4に示したように追走車両の画像に重ねて表示される。また、追走車両の走行速度A2は強調枠A3の上方に表示され、追走車両までの距離A4は強調枠A3の下方に表示される。更に、走行レーンの変更に関する警告A1は、表示画面20aの上部中央に表示され、前方を注意する旨の警告A5は、表示画面20aの左下隅に表示される。
ここでは、図4に例示したように、電子サイドミラーを実現している表示機器20Rの表示画面20aに表示される情報として、追走車両の存在を示す強調枠A3と、追走車両の走行速度A2と、追走車両までの距離A4とを取得したものとする。更に、走行レーンの変更ができない旨の警告A1や、前方を注意する旨の警告も取得したものとする。強調枠A3は、図4に示したように追走車両の画像に重ねて表示される。また、追走車両の走行速度A2は強調枠A3の上方に表示され、追走車両までの距離A4は強調枠A3の下方に表示される。更に、走行レーンの変更に関する警告A1は、表示画面20aの上部中央に表示され、前方を注意する旨の警告A5は、表示画面20aの左下隅に表示される。
続いて情報出力装置100は、撮影画像中で情報が表示される領域内の色情報を検出する(S104)。例えば、強調枠A3については、図5中に示した領域B3内の色情報を取得する。また、追走車両の走行速度A2や距離A4については、図5中の領域B2や領域B4内の色情報を、更に、警告A1や警告A5については、図5中の領域B1や領域B5内の色情報を取得する。
また、色情報としては、次のような情報を取得する。先ず、カラー画像の画像データはRGB画像データであり、RGB画像データは次のようにしてカラー画像を表現する。色彩光学の教える処によれば、人間の感じる色は、光の三原色と呼ばれるR(赤色)、G(緑色)、B(青色)の3色の色成分を組み合わせることによって表現することができる。そこで、画像を微細な複数の画素に分割し、それぞれの画素についてRGBの色成分の階調値を設定する。こうすれば、それぞれの画素について自由に色を設定することができ、こうして色が設定された画素の集まりとしてカラー画像を表現することができる。
また、色情報としては、次のような情報を取得する。先ず、カラー画像の画像データはRGB画像データであり、RGB画像データは次のようにしてカラー画像を表現する。色彩光学の教える処によれば、人間の感じる色は、光の三原色と呼ばれるR(赤色)、G(緑色)、B(青色)の3色の色成分を組み合わせることによって表現することができる。そこで、画像を微細な複数の画素に分割し、それぞれの画素についてRGBの色成分の階調値を設定する。こうすれば、それぞれの画素について自由に色を設定することができ、こうして色が設定された画素の集まりとしてカラー画像を表現することができる。
また、RGBの色成分の階調値は、0〜255の範囲の値を取る。そこで、直交する3軸をR軸、G軸、B軸とする色空間を考えて、カラー画像の画素に設定された3つの色成分に対応する座標点をプロットする。すると、それら座標点は、図6に示したように、一辺の長さが255の立方体(色立体と呼ばれることがある)の内部にプロットされる。この色立体内での座標値は色を表しており、座標値が近ければ、似た色を表すと考えることができる。例えば、R成分の階調値が255で、G成分およびB成分の階調値が0の座標値は完全な赤色を表すが、その周辺の座標値であれば赤色を表すと考えて良い。また、R成分およびG成分の階調値が255で、B成分の階調値が0の座標値は完全な黄色を表すが、その周辺の座標値であれば黄色を表すと考えて良い。あるいは、R成分、G成分、およびB成分の階調値が何れも255の座標値は完全な白色を表すが、その周辺の座標値であれば白色を表すと考えて良い。更に、R成分、G成分、およびB成分の階調値が何れも0の座標値は完全な黒色を表すが、その周辺の座標値であれば黒色を表すと考えて良い。
図3に示した情報出力処理のS104では、領域B1〜B5について、それぞれの領域内の画素に設定されたRGB各成分の階調値を取得する。そして、成分毎にそれらの階調値の平均値を算出することによって、各領域についての色情報を取得する。
図3に示した情報出力処理のS104では、領域B1〜B5について、それぞれの領域内の画素に設定されたRGB各成分の階調値を取得する。そして、成分毎にそれらの階調値の平均値を算出することによって、各領域についての色情報を取得する。
あるいは、各領域についての色情報を次のようにして取得しても良い。先ず、図6の色立体を各辺の中央で分割する。すると色立体は、図7(a)に示すように、RGB各成分の階調値が何れも0〜127の範囲となるブロック(以下、ブロックA)と、R成分およびG成分の階調値が0〜127でB成分の階調値が128〜255の範囲となるブロック(以下、ブロックB)、R成分およびB成分の階調値が0〜127でG成分の階調値が128〜255の範囲となるブロック(以下、ブロックC)、R成分の階調値が0〜127でG成分およびB成分の階調値が128〜255の範囲となるブロック(以下、ブロックD)、R成分の階調値が128〜255でG成分およびB成分の階調値が0〜127の範囲となるブロック(以下、ブロックE)、R成分およびB成分の階調値が128〜255でG成分の階調値が0〜127の範囲となるブロック(以下、ブロックF)、R成分およびG成分の階調値が128〜255でB成分の階調値が0〜127の範囲となるブロック(以下、ブロックG)、RGB各成分の階調値が何れも128〜255の範囲となるブロック(以下、ブロックH)の8つのブロックに分割される。
図7(b)および図7(c)に示されるように、これら8つのブロックのうち、ブロックAは黒色(および黒に近い色)を表すブロックであり、ブロックBは青色(および青に近い色)を表すブロックであり、ブロックCは緑色(および緑に近い色)を表し、ブロックDはシアン色(およびシアンに近い色)を表し、ブロックEは赤色(および赤に近い色)を、ブロックFはマゼンタ色(およびマゼンタに近い色)を、ブロックGは黄色(および黄に近い色)を、ブロックHは白色(および白に近い色)を表すブロックである。
続いて、図5に示した領域B1〜B5について、領域内の画素を色立体内の対応する座標値にプロットする。そして、最も多くの座標値がプロットされたブロックを選択し、そのブロックの中央の座標値(あるいは、色立体の8つの頂点の中でそのブロックに含まれる頂点の座標値)を、その領域についての色情報として取得しても良い。
図7(b)および図7(c)に示されるように、これら8つのブロックのうち、ブロックAは黒色(および黒に近い色)を表すブロックであり、ブロックBは青色(および青に近い色)を表すブロックであり、ブロックCは緑色(および緑に近い色)を表し、ブロックDはシアン色(およびシアンに近い色)を表し、ブロックEは赤色(および赤に近い色)を、ブロックFはマゼンタ色(およびマゼンタに近い色)を、ブロックGは黄色(および黄に近い色)を、ブロックHは白色(および白に近い色)を表すブロックである。
続いて、図5に示した領域B1〜B5について、領域内の画素を色立体内の対応する座標値にプロットする。そして、最も多くの座標値がプロットされたブロックを選択し、そのブロックの中央の座標値(あるいは、色立体の8つの頂点の中でそのブロックに含まれる頂点の座標値)を、その領域についての色情報として取得しても良い。
こうして領域内の色情報を検出したら(図3のS104)、今度は、表示する情報が、運転者に対して警告する情報(警告情報)に該当するか否かを判断する(S105)。運転制御装置4は車載ネットワーク2に情報を出力する際に、その情報の類別が警告情報に該当するか否かを示すフラグを付けて出力するので、情報出力装置100は情報が警告情報に該当するか否かを容易に判断することができる。
その結果、警告情報ではないと判断した場合は(S105:no)、標準の対応テーブルを参照することによって、情報の表示色を決定する(S107)。ここで対応テーブルとは、色情報と表示色とを対応付けたテーブルである。従って、対応テーブルを参照すれば、色情報から、対応する表示色を決定することができる。また、本実施例では、上述したように色情報は、色立体内での座標値として求められている。そこで、本実施例の対応テーブルは、色立体の座標値に表示色を対応付けたテーブルとなっている。
その結果、警告情報ではないと判断した場合は(S105:no)、標準の対応テーブルを参照することによって、情報の表示色を決定する(S107)。ここで対応テーブルとは、色情報と表示色とを対応付けたテーブルである。従って、対応テーブルを参照すれば、色情報から、対応する表示色を決定することができる。また、本実施例では、上述したように色情報は、色立体内での座標値として求められている。そこで、本実施例の対応テーブルは、色立体の座標値に表示色を対応付けたテーブルとなっている。
図8には、(警告情報ではない)通常の情報の表示色を決定する際に参照される標準の対応テーブルが概念的に示されている。図示されるように標準の対応テーブルは、図7(a)と同様に色立体を8つのブロックに分割して、それぞれのブロックに表示色が設定されたテーブルとなっている。
例えば、図8(a)に示したように、ブロックAに対しては表示色として白色が設定されており、ブロックBに対しては表示色として黄色が設定されている。同様に、ブロックCに対しては表示色としてマゼンタ色が設定され、ブロックDに対しては表示色として赤色が設定されている。また、図8(b)に示したように、ブロックEに対しては表示色としてシアン色が設定されており、ブロックFに対しては表示色として緑色が設定され、ブロックGに対しては表示色として青色が、ブロックHに対しては表示色として黒色が設定されている。
例えば、図8(a)に示したように、ブロックAに対しては表示色として白色が設定されており、ブロックBに対しては表示色として黄色が設定されている。同様に、ブロックCに対しては表示色としてマゼンタ色が設定され、ブロックDに対しては表示色として赤色が設定されている。また、図8(b)に示したように、ブロックEに対しては表示色としてシアン色が設定されており、ブロックFに対しては表示色として緑色が設定され、ブロックGに対しては表示色として青色が、ブロックHに対しては表示色として黒色が設定されている。
ここで、各ブロックに表示色として設定されている色は、図6に示した色立体の中で、そのブロックの対角に位置するブロックが表す色(以下、反対色と称する)となっている。例えば、ブロックAについて説明すると、色立体中でブロックAの対角に位置するブロックは、白色を表すブロックHである(図7(b)および図7(c)参照)。そこで、ブロックAの表示色は白色に設定する(図8(a)参照)。この白色は、ブロックAが表す色(黒色)の反対色となっている。
ブロックBについても同様に、色立体中でブロックBの対角に位置するブロックは、黄色を表すブロックGであり、そこで、ブロックBの表示色は黄色に設定する(図8(a)参照)。黄色は、ブロックBが表す色(青色)の反対色となっている。
図8(a)および図8(b)には、このようにして各ブロックに表示色が設定された標準の対応テーブルが例示されている。
ブロックBについても同様に、色立体中でブロックBの対角に位置するブロックは、黄色を表すブロックGであり、そこで、ブロックBの表示色は黄色に設定する(図8(a)参照)。黄色は、ブロックBが表す色(青色)の反対色となっている。
図8(a)および図8(b)には、このようにして各ブロックに表示色が設定された標準の対応テーブルが例示されている。
図3に示した情報出力処理のS107では、このような標準の対応テーブルを参照することによって表示色を決定する。例えば、情報を表示しようとする領域の色情報の座標値が、色立体上でブロックB中にあった場合には、ブロックBに設定された黄色を表示色として決定する。
以上では、表示しようとする情報が警告情報ではないと判断した場合に(S105:no)、情報の表示色を決定する処理(S107)について説明した。
これに対して、表示しようとする情報が警告情報と判断した場合は(S105:yes)、警告情報用の対応テーブルを参照して表示色を決定する(S106)。
これに対して、表示しようとする情報が警告情報と判断した場合は(S105:yes)、警告情報用の対応テーブルを参照して表示色を決定する(S106)。
図9には、警告情報用の対応テーブルが概念的に示されている。警告情報用の対応テーブルも、図8に示した標準の対応テーブルと同様に、色立体を8つのブロックに分割して、それぞれのブロックに表示色が設定されたテーブルとなっている。しかし、警告情報用の対応テーブルでは、青色や、緑色、シアン色などのいわゆる寒色系の色は表示色として設定されていない。図9に示した例では、標準の対応テーブルでは、表示色としてシアン色が設定されているブロックEには、黄色が表示色として設定されている。また、標準の対応テーブルでは表示色として緑色が設定されているブロックFには、黒色が表示色として設定されており、表示色として青色が設定されているブロックGや表示色として黒色が設定されているブロックHには、赤色が表示色として設定されている。
表示しようとする情報が警告情報と判断された場合には(図3のS105:yes)、このような警告情報用の対応テーブルを参照することによって表示色を決定する(S106)。
表示しようとする情報が警告情報と判断された場合には(図3のS105:yes)、このような警告情報用の対応テーブルを参照することによって表示色を決定する(S106)。
以上のようにして情報毎の表示色を決定したら、撮影画像上の情報毎に定められた領域に、決定した表示色を用いてそれぞれの情報を書き込むことによって、撮影画像と情報とを合成する(S108)。
そして、情報が合成された撮影画像を、その撮影画像が得られた車載カメラに対応する表示機器に向かって出力する(S109)。例えば、撮影画像が右側方カメラ10Rから得られたものであった場合には、表示機器20Rに向かって出力する。また、撮影画像が左側方カメラ10Lから得られたものであった場合には、表示機器20Lに向かって出力し、後方カメラ10Bから得られた撮影画像であった場合には、表示機器20Cに向かって出力する。
そして、情報が合成された撮影画像を、その撮影画像が得られた車載カメラに対応する表示機器に向かって出力する(S109)。例えば、撮影画像が右側方カメラ10Rから得られたものであった場合には、表示機器20Rに向かって出力する。また、撮影画像が左側方カメラ10Lから得られたものであった場合には、表示機器20Lに向かって出力し、後方カメラ10Bから得られた撮影画像であった場合には、表示機器20Cに向かって出力する。
その後、表示機器20R,20L,20cでの画像の表示を終了するか否かを判断して(S110)、終了しない場合は(S110:no)、処理の先頭に戻って、再び車載ネットワーク2から撮影画像を取得した後(S101)、続く上述した一連の処理(S102〜S110)を繰り返す。こうした処理を繰り返すうちに、画像の表示を終了すると判断したら(S110:yes)、図3の情報出力処理を終了する。
図10には、電子サイドミラーを実現する表示機器20Rの表示画面20a上に、本実施例の情報出力処理によって情報が表示された様子が例示されている。
図10(a)に示した例と、図10(b)に示した例とを比較すると、追走車両の車体の色に応じて、追走車両に重ねて表示される強調枠A3の色が変更されている。これは、強調枠A3の背景となる領域(追走車両が写った部分)の色情報が変わったことにより、強調枠A3の表示色が異なる色に決定されたことによる。そして、図8を用いて前述したように、表示色は、領域の代表的な色の反対色に近い色設定されている。このため、強調枠A3は、背景となる追走車両の車体の色に対してハッキリと目に付く色で表示される。その結果、強調枠A3を追走車両の上に重ねて表示しても、強調枠A3が背景の追走車両に紛れることが無く、運転者は表示された強調枠A3を容易に認識することが可能となる。
図10(a)に示した例と、図10(b)に示した例とを比較すると、追走車両の車体の色に応じて、追走車両に重ねて表示される強調枠A3の色が変更されている。これは、強調枠A3の背景となる領域(追走車両が写った部分)の色情報が変わったことにより、強調枠A3の表示色が異なる色に決定されたことによる。そして、図8を用いて前述したように、表示色は、領域の代表的な色の反対色に近い色設定されている。このため、強調枠A3は、背景となる追走車両の車体の色に対してハッキリと目に付く色で表示される。その結果、強調枠A3を追走車両の上に重ねて表示しても、強調枠A3が背景の追走車両に紛れることが無く、運転者は表示された強調枠A3を容易に認識することが可能となる。
その他の情報(例えば、追走車両の走行速度A2や、追走車両までの距離A4)についても、全く同様にして表示されている。すなわち、追走車両の走行速度A2は、背景となる空の色の反対色に近い色で表示され、追走車両までの距離A4は、背景となる路面の色の反対色に近い色で表示される。このため、追走車両までの距離A4および追走車両までの距離A4は、それぞれの背景に対してハッキリと目に付く色で表示されるので、これらの情報を運転者は容易に認識することができる。
また、図10(a)と図10(b)とを比較すれば分かるように、自車両に重ねて表示される警告A5の色も、自車両の車体の色に応じて変更されている。これも、警告A5の背景となる領域の色情報が変わったことにより、表示色が異なる色に決定されたことによる。
もっとも警告情報については、通常の情報とは異なって、図9に示した警告情報用の対応テーブルを参照して表示色が決定されている。そして、警告情報用の対応テーブルでは、標準の対応テーブルでは青色、シアン色、緑色の寒色系の表示色に設定される処を、赤色や黄色の暖色系、あるいは黒色の表示色が設定されている。このため警告情報は、青色、シアン色、緑色の寒色系の色を除いて、白色や黒色、あるいは赤色、マゼンタ色、黄色の暖色系の色を用いて表示される。
もっとも警告情報については、通常の情報とは異なって、図9に示した警告情報用の対応テーブルを参照して表示色が決定されている。そして、警告情報用の対応テーブルでは、標準の対応テーブルでは青色、シアン色、緑色の寒色系の表示色に設定される処を、赤色や黄色の暖色系、あるいは黒色の表示色が設定されている。このため警告情報は、青色、シアン色、緑色の寒色系の色を除いて、白色や黒色、あるいは赤色、マゼンタ色、黄色の暖色系の色を用いて表示される。
一般的に、青色や、シアン色、緑色の寒色系の色には、観察者をリラックスさせる効果があると言われており、また、赤色、マゼンタ色、黄色の暖色系の色には、観察者の注意を惹いたり興奮させたりする効果があると言われている。このことから、運転者に警告するための情報である警告情報は、寒色系の色よりも、暖色系の色を用いて表示した方が望ましい。この点で、本実施例では、警告情報については、寒色系の色ではなく、暖色系の色や白色または黒色で表示されるので、適切な色で警告情報を表示することができる。
また、他の警告情報(図10に示した例では警告A1)についても、同様にして表示されている。すなわち、警告A1は、背景となる空の色から警告情報用の対応テーブルを参照して決定された表示色で表示される。このため、背景が青空の場合には、黄色や赤色のようにハッキリと目に付く色で表示されるので、運転者は警告A1を容易に認識することができる。また、背景が夕焼け空であった場合でも、黒色あるいは黄色で表示されるので、背景に紛れることなく運転者が警告A1を認識することができる。加えて、赤色の背景に黒色あるいは黄色で警告情報が表示されるので、表示の内容が警告であることも容易に認識することが可能となる。
C.変形例 :
上述した実施例では、車載カメラ(ここでは、右側方カメラ10R、左側方カメラ10L、後方カメラ10B)で撮影した画像も、画像に重ねて表示される情報も、情報出力装置100から表示機器20R,20L,20Cに出力されるものとして説明した。しかし、情報出力装置100は、車両1の前方や周辺の景色に重ねて情報を表示することができれば良く、従って、必ずしも車載カメラで撮影した画像を出力する必要は無い。例えば、今日では、運転席の前方の窓ガラスや、窓ガラスの手前側に設けたコンバイナーと呼ばれる透明板に投影した画像を虚像表示する装置(いわゆるヘッドアップディスプレイ装置)も開発されている。本発明は、このようなヘッドアップディスプレイ装置にも適用することができる。
上述した実施例では、車載カメラ(ここでは、右側方カメラ10R、左側方カメラ10L、後方カメラ10B)で撮影した画像も、画像に重ねて表示される情報も、情報出力装置100から表示機器20R,20L,20Cに出力されるものとして説明した。しかし、情報出力装置100は、車両1の前方や周辺の景色に重ねて情報を表示することができれば良く、従って、必ずしも車載カメラで撮影した画像を出力する必要は無い。例えば、今日では、運転席の前方の窓ガラスや、窓ガラスの手前側に設けたコンバイナーと呼ばれる透明板に投影した画像を虚像表示する装置(いわゆるヘッドアップディスプレイ装置)も開発されている。本発明は、このようなヘッドアップディスプレイ装置にも適用することができる。
図11には、ダッシュボード内に組み込まれたヘッドアップディスプレイ装置30が、窓ガラスに設けられた表示領域30aに、自車両の車速や前方車両の車速などの情報を表示する様子が例示されている。これらの情報も、前方の景色に重ねて表示されるので、情報が背景となる景色に紛れることがないように、適切な表示色で表示する必要がある。そこで、ヘッドアップディスプレイ装置30に対しては、以下のような変形例の情報出力装置200から情報を出力する。
図12には、変形例の情報出力装置200の大まかな内部構造が示されている。変形例の情報出力装置200は、図2を用いて前述した本実施例の情報出力装置100に対して、画像出力部103を有していない点が大きく異なっている。これは、変形例の情報出力装置200は、車載カメラ(ここでは前方カメラ10F)による撮影画像をヘッドアップディスプレイ装置30に出力しないことによる。もっとも、ヘッドアップディスプレイ装置30で表示する情報の表示色を決定するためには、前方カメラ10Fによる撮影画像が必要なので、変形例の情報出力装置200も撮影画像取得部102は備えている。以下、変形例の情報出力装置200について、前述した本実施例の情報出力装置100との相違点を中心として簡単に説明する。
図12に示されるように変形例の情報出力装置200は、ネットワーク接続部101や、撮影画像取得部102、色情報検出部104、表示色決定部105、情報取得部106、情報類別判断部107、対応関係記憶部108、情報出力部109を備えている。
ネットワーク接続部101は、情報出力装置200を車載ネットワーク2に接続する機能を有している。また、撮影画像取得部102は、車載ネットワーク2を介して、前方カメラ10Fで撮影されたカラー画像を取得し、情報取得部106は、車載ネットワーク2を介して、ヘッドアップディスプレイ装置30で表示する情報を取得する。
色情報検出部104は、ヘッドアップディスプレイ装置30で表示する情報を受け取ると、前方カメラ10Fによる撮影画像中でその情報が重ねて表示される領域を特定し、その領域内の色情報を検出する。そして表示色決定部105は、色情報に基づいて情報の表示色を決定する。このとき、表示する情報の類別の判断結果を情報類別判断部107から取得して、警告情報でなかった場合には、対応関係記憶部108に記憶されている標準の対応関係(対応テーブル)を参照して表示色を決定する。これに対して、表示する情報の類別が警告情報であった場合は、対応関係記憶部108に記憶されている警告情報用の対応関係(対応テーブル)を参照して表示色を決定する。
情報出力部109は、こうして決定した表示色で、ヘッドアップディスプレイ装置30に向けて情報を出力する。
こうすれば、ヘッドアップディスプレイ装置30による表示は、運転者から見てその表示の向こう側に見える景色の反対色で表示されることになる。このため、背景となる景色に紛れることが無く、運転者は表示を容易にハッキリと認識することが可能となる。
ネットワーク接続部101は、情報出力装置200を車載ネットワーク2に接続する機能を有している。また、撮影画像取得部102は、車載ネットワーク2を介して、前方カメラ10Fで撮影されたカラー画像を取得し、情報取得部106は、車載ネットワーク2を介して、ヘッドアップディスプレイ装置30で表示する情報を取得する。
色情報検出部104は、ヘッドアップディスプレイ装置30で表示する情報を受け取ると、前方カメラ10Fによる撮影画像中でその情報が重ねて表示される領域を特定し、その領域内の色情報を検出する。そして表示色決定部105は、色情報に基づいて情報の表示色を決定する。このとき、表示する情報の類別の判断結果を情報類別判断部107から取得して、警告情報でなかった場合には、対応関係記憶部108に記憶されている標準の対応関係(対応テーブル)を参照して表示色を決定する。これに対して、表示する情報の類別が警告情報であった場合は、対応関係記憶部108に記憶されている警告情報用の対応関係(対応テーブル)を参照して表示色を決定する。
情報出力部109は、こうして決定した表示色で、ヘッドアップディスプレイ装置30に向けて情報を出力する。
こうすれば、ヘッドアップディスプレイ装置30による表示は、運転者から見てその表示の向こう側に見える景色の反対色で表示されることになる。このため、背景となる景色に紛れることが無く、運転者は表示を容易にハッキリと認識することが可能となる。
以上、本実施例および変形例について説明したが、本発明は上記の実施例および変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
1…車両、 2…車載ネットワーク、 4…運転制御装置、
5…画像解析装置、 10B…後方カメラ、 10F…前方カメラ、
10L…左側方カメラ、 10R…右側方カメラ、
12L,12R,13L,13R…ソナー、
20C,20L,20R…表示機器、 20a…表示画面、
30…ヘッドアップディスプレイ装置、 30a…表示領域、
100…情報出力装置、 101…ネットワーク接続部、
102…撮影画像取得部、 103…画像出力部、 104…色情報検出部、
105…表示色決定部、 106…情報取得部、 107…情報類別判断部、
108…対応関係記憶部、 109…情報出力部、 200…情報出力装置。
5…画像解析装置、 10B…後方カメラ、 10F…前方カメラ、
10L…左側方カメラ、 10R…右側方カメラ、
12L,12R,13L,13R…ソナー、
20C,20L,20R…表示機器、 20a…表示画面、
30…ヘッドアップディスプレイ装置、 30a…表示領域、
100…情報出力装置、 101…ネットワーク接続部、
102…撮影画像取得部、 103…画像出力部、 104…色情報検出部、
105…表示色決定部、 106…情報取得部、 107…情報類別判断部、
108…対応関係記憶部、 109…情報出力部、 200…情報出力装置。
Claims (6)
- 車両(1)の運転者から見える前方または周囲の景色に重ねて表示される情報(A1〜A5)を出力する情報出力装置(100,200)であって、
前記情報が重ねて表示される前記景色の中で該情報の背景となる領域(B1〜B5)内の色についての色情報を検出する色情報検出部(104)と、
前記領域に前記情報を表示するための表示色を、前記検出した色情報に応じて決定する表示色決定部(105)と、
前記決定した表示色で前記情報を出力する情報出力部(109)と
を備える情報出力装置。 - 請求項1に記載の情報出力装置であって、
前記車両の前方または周囲の景色を撮影する車載カメラ(10R,10L,10F,10B)を備え、
前記色情報検出部は、前記車載カメラによる撮影画像から前記色情報を検出する検出部である
情報出力装置。 - 請求項2に記載の情報出力装置(100)であって、
前記撮影画像を表示画面上に出力する画像出力部(103)を備え、
前記情報出力部は、前記表示画面上の前記撮影画像に重ねて前記情報を出力する出力部である
情報出力装置。 - 請求項1ないし請求項3の何れか一項に記載の情報出力装置であって、
前記色情報と前記表示色との対応関係を記憶した対応関係記憶部(108)を備え、
前記表示色決定部は、前記対応関係に基づいて前記色情報に対する前記表示色を決定する決定部である
情報出力装置。 - 請求項4に記載の情報出力装置であって、
前記運転者に対して出力される情報の類別が、前記運転者に警告する警告情報に該当するか否かを判断する情報類別判断部(107)を備え、
前記対応関係記憶部は、標準の前記対応関係に加えて、前記警告情報用の前記対応関係を記憶している記憶部であり、
前記表示色決定部は、前記運転者に対して表示される情報の類別が前記警告情報に該当しない場合には、前記標準の対応関係に基づいて前記表示色を決定し、前記警告情報に該当する場合には前記警告情報用の対応関係に基づいて前記表示色を決定する決定部である
情報出力装置。 - 車両(1)の運転者から見える前方または周囲の景色に重ねて表示される情報(A1〜A5)を出力する情報出力方法であって、
前記情報が重ねて表示される前記景色の中で該情報の背景となる領域(B1〜B5)内の色についての色情報を検出する工程(S104)と、
前記領域に前記情報を表示するための表示色を、前記検出した色情報に応じて決定する工程(S106,S107)と、
前記決定した表示色で前記情報を出力する工程(S108,S109)と
を備える情報出力方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015011176A JP2016136326A (ja) | 2015-01-23 | 2015-01-23 | 情報表示装置および情報表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015011176A JP2016136326A (ja) | 2015-01-23 | 2015-01-23 | 情報表示装置および情報表示方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016136326A true JP2016136326A (ja) | 2016-07-28 |
Family
ID=56512992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015011176A Pending JP2016136326A (ja) | 2015-01-23 | 2015-01-23 | 情報表示装置および情報表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016136326A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190222A (ja) * | 2017-05-09 | 2018-11-29 | 株式会社デンソー | 表示制御装置 |
WO2019186949A1 (ja) * | 2018-03-29 | 2019-10-03 | 本田技研工業株式会社 | 鞍乗型車両 |
JP2023083322A (ja) * | 2018-12-25 | 2023-06-15 | 株式会社ユピテル | システムおよびプログラム等 |
-
2015
- 2015-01-23 JP JP2015011176A patent/JP2016136326A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018190222A (ja) * | 2017-05-09 | 2018-11-29 | 株式会社デンソー | 表示制御装置 |
JP7024209B2 (ja) | 2017-05-09 | 2022-02-24 | 株式会社デンソー | 表示制御装置 |
WO2019186949A1 (ja) * | 2018-03-29 | 2019-10-03 | 本田技研工業株式会社 | 鞍乗型車両 |
JPWO2019186949A1 (ja) * | 2018-03-29 | 2021-07-08 | 本田技研工業株式会社 | 鞍乗型車両 |
US11235831B2 (en) | 2018-03-29 | 2022-02-01 | Honda Motor Co., Ltd | Straddle type vehicle |
JP7089580B2 (ja) | 2018-03-29 | 2022-06-22 | 本田技研工業株式会社 | 鞍乗型車両 |
JP2023083322A (ja) * | 2018-12-25 | 2023-06-15 | 株式会社ユピテル | システムおよびプログラム等 |
JP7471021B2 (ja) | 2018-12-25 | 2024-04-19 | 株式会社ユピテル | システムおよびプログラム等 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10899277B2 (en) | Vehicular vision system with reduced distortion display | |
US11572017B2 (en) | Vehicular vision system | |
US11472338B2 (en) | Method for displaying reduced distortion video images via a vehicular vision system | |
US11553153B2 (en) | Display system and method | |
US10504241B2 (en) | Vehicle camera calibration system | |
JP5953824B2 (ja) | 車両用後方視界支援装置及び車両用後方視界支援方法 | |
US8880344B2 (en) | Method for displaying images on a display device and driver assistance system | |
KR102253553B1 (ko) | 사발형 이미징 시스템에서의 물체 가시화 | |
JP6091586B1 (ja) | 車両用画像処理装置および車両用画像処理システム | |
WO2012096058A1 (ja) | 画像生成装置 | |
WO2012169355A1 (ja) | 画像生成装置 | |
JP4248570B2 (ja) | 画像処理装置並びに視界支援装置及び方法 | |
JP5516998B2 (ja) | 画像生成装置 | |
JP2009105656A (ja) | 車載用撮像装置 | |
CN107027329B (zh) | 将行进工具的周围环境的局部图像拼接成一个图像 | |
KR20190047027A (ko) | 차량의 차량 주변 리어뷰 미러 조망을 제공하는 방법 | |
KR20170135952A (ko) | 차량의 주변 영역을 표시하기 위한 방법 | |
GB2529408A (en) | Display system and method | |
US10793069B2 (en) | Method for assisting the driver of a motor vehicle in maneuvering the motor vehicle with a trailer, driver assistance system as well as vehicle/trailer combination | |
JP2016136326A (ja) | 情報表示装置および情報表示方法 | |
JP7447307B2 (ja) | 信頼性の高いスティッチング画像を作成するためのシステムおよび方法 | |
WO2019177036A1 (ja) | 車両用映像システム | |
JP2018113622A (ja) | 画像処理装置、画像処理システム、及び、画像処理方法 | |
CN117501685A (zh) | 摄像系统及用于摄像系统的方法 | |
US20200231099A1 (en) | Image processing apparatus |