[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5689872B2 - 車両の周辺監視装置 - Google Patents

車両の周辺監視装置 Download PDF

Info

Publication number
JP5689872B2
JP5689872B2 JP2012511534A JP2012511534A JP5689872B2 JP 5689872 B2 JP5689872 B2 JP 5689872B2 JP 2012511534 A JP2012511534 A JP 2012511534A JP 2012511534 A JP2012511534 A JP 2012511534A JP 5689872 B2 JP5689872 B2 JP 5689872B2
Authority
JP
Japan
Prior art keywords
image
display
driver
vehicle
display means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012511534A
Other languages
English (en)
Other versions
JPWO2011132388A1 (ja
Inventor
幸大 松田
幸大 松田
誠 相村
誠 相村
雄介 中村
雄介 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012511534A priority Critical patent/JP5689872B2/ja
Publication of JPWO2011132388A1 publication Critical patent/JPWO2011132388A1/ja
Application granted granted Critical
Publication of JP5689872B2 publication Critical patent/JP5689872B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/593Recognising seat occupancy
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/207Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using multi-purpose displays, e.g. camera image and navigation or video on same display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

この発明は、車両の周辺を監視するための装置に関し、より具体的には、車両の周辺の監視に応じて表示の形態を制御する装置に関する。
従来より、車両の周辺を撮像する撮像装置を該車両に搭載し、該撮像装置によって取得された車両の周辺の画像を表示装置上に表示することが行われている。その際、該取得された画像中に所定の対象物が存在する場合には、該対象物について警報を行うことにより、運転者の注意を喚起することが行われる。
上記のような警報が多発すると、運転者に煩わしさを感じさせるおそれがある。これを抑制するため、特許第2929927号(特許文献1)には、運転者が注視している方向と、運転に必要な情報を得るため注視すべき方向とが一致する頻度を求め、該頻度に基づいて、報知すべき情報の報知レベルを決定することが記載されている。これにより、運転者の煩わしさを低減しつつ、運転者が気づいていない状況については適切な情報を報知するようにしている。
特許第2929927号
表示装置の位置が運転者の視線方向から遠いほど、表示画面を視認するのに必要な視線移動の量が大きくなるため、運転者が、表示画面に映し出された情報をより短時間で理解するのが望まれる(瞬読性の向上)。瞬読性を高めることにより、運転者の前方への注視を促すことができる。
したがって、この発明の一つの目的は、表示装置の位置に応じて、表示画面内の情報量を制御し、運転者の表示画面への注視と前方への注視を最適化するような表示形態を提供することである。
この発明の一つの側面によると、車両の周辺監視装置は、車両の周辺を撮像する撮像装置によって取得された画像に基づいて、車両の周辺の対象物を検出する手段と、前記撮像画像に基づいて生成される表示画像を表示画面上に表示する表示手段と、前記対象物が検出された場合に、該表示手段を介して該対象物の存在を運転者に警報する警報手段と、を備える。前記表示手段は、前記運転者が目視可能な複数の位置に配置されており、前記警報手段は、正面を向いた該運転者の視線を基準として、該運転者が表示画面を視認するのに必要な視線移動量が大きい表示手段ほど、該表示画面上に表示される情報量を低減させる。
一般に、表示画面内に表示される情報量が多いほど、その瞬読性は低下する。この発明によれば、運転者の視線移動の量が大きい表示手段(表示装置)ほど、情報量が低減された形態で表示が行われるので、視線移動の量が大きい表示手段の表示画面ほど、瞬読性を向上させることができ、よって、運転者の表示画面への注視と前方への注視との最適化を図ることができる。
この発明の一実施形態によると、車両が該対象物に到達するまでの到達時間を算出する手段を備え、該到達時間が長いほど、前記複数の位置に配置された表示手段の表示画面間の情報量の差が小さくなるように設定される。
到達時間が長いほど、対象物を確認する余裕が大きくなる。したがって、このような場合には、いずれの表示手段にも、同様の情報量を表示させるようにして、乗員の利便性を図ることができる。
この発明の一実施形態によると、運転者以外の乗員を検知する手段を備え、該乗員の存在を検知した場合には、前記複数の位置に配置された表示手段のうち、該乗員の位置に近い表示手段について、前記情報量を低減する量を抑制する。
この発明によれば、たとえば助手席に乗員が存在していれば、該乗員に近い表示装置の情報量の低減が抑制されるので、該乗員の利便性の向上を図ることができる。
本発明のその他の特徴及び利点については、以下の詳細な説明から明らかである。
この発明の一実施例に従う、車両の周辺監視装置の構成を示すブロック図。 この発明の一実施例に従う、複数の表示装置およびカメラの取り付け位置を示す図。 この発明の一実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明の一実施例に従う、複数の表示装置への表示形態の一例を示す図。 この発明の一実施例に従う、複数の表示装置への表示形態の他の例を示す図。 この発明の他の実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明の他の実施例に従う、複数の表示装置への表示形態の一例を示す図。 この発明のさらなる他の実施例に従う、車両の周辺監視装置の構成を示すブロック図。 この発明のさらなる他の実施例に従う、画像処理ユニットにおけるプロセスを示すフローチャート。 この発明のさらなる他の実施例に従う、複数の表示装置への表示形態の一例を示す図。
次に図面を参照してこの発明の実施の形態を説明する。図1は、この発明の一実施形態に従う、複数の表示装置を備えた、車両の周辺監視装置の構成を示すブロック図であり、図2は、該複数の表示装置とカメラの車両への取り付けを示す図である。ここで、複数の表示装置は、第1〜第3の表示装置31〜33として示されており、いずれも、運転者が目視可能な複数の位置に配置されている。
周辺監視装置は、車両に搭載され、遠赤外線を検出可能な赤外線カメラ1Rおよび1Lと、カメラ1Rおよび1Lによって得られる画像データに基づいて車両周辺の対象物を検出するための画像処理ユニット2と、該検出結果に基づいて音声で警報を発生するスピーカ3と、カメラ1Rまたは1Lからの画像に基づく表示画像を表示するための第1の表示装置31を備えている。さらに、該周辺監視装置は、車両のヨーレートを検出するヨーレートセンサ6と、車両の走行速度(車速)を検出する車速センサ7とを備え、これらのセンサの検出結果は、画像処理ユニット2に送られる。
この実施例では、図2の(b)に示すように、カメラ1Rおよび1Lは、車両10の前方を撮像するよう、車両10の前部に、車幅の中心を通る中心軸に対して対称な位置に配置されている。2つのカメラ1Rおよび1Lは、両者の光軸が互いに平行となり、両者の路面からの高さが等しくなるように車両に固定されている。赤外線カメラ1Rおよび1Lは、対象物の温度が高いほど、その出力信号のレベルが高くなる(すなわち、撮像画像における輝度が大きくなる)特性を有している。
また、図2の(a)および(b)に示すように、第1の表示装置31は、運転者の前方位置に画面が表示されるようにフロントウィンドウに設けられた、いわゆるヘッドアップディスプレイ(以下、HUDと呼ぶ)である。線L1は、車両のハンドル(ステアリング・ホイール)21の中心を通り、かつ車両の前後方向に伸長する線(図には、わかりやすいよう図の垂直方向に伸長するよう示されている)であり、運転者が正面を向いたときの該運転者の視線方向を表している。第1の表示装置31は、その表示画面の車幅方向の中心がほぼ線L1上に位置付けられるように、配置されている。
この実施例では、ナビゲーション装置が車両に搭載されており、該装置は、ナビゲーションユニット5と、第3の表示装置33とを備える。第3の表示装置33は、図2の(a)に示すように、車両のダッシュボード上に配置されており、上記の線L1よりも所定距離離れた位置に設けられている。
ナビゲーションユニット5は、中央処理装置(CPU)およびメモリを備えたコンピュータで実現される。ナビゲーションユニット5は、たとえば人工衛星を利用して車両10の位置を測定するためのGPS信号を、該ナビゲーションユニット5に備えられた通信装置(図示せず)を介して受信し、該GPS信号に基づいて、車両の現在位置を検出する。ナビゲーションユニット5は、車両の周辺の地図情報(これは、ナビゲーション装置の記憶装置に記憶されることもできるし、該通信装置を介して所定のサーバから受信することもできる)に、該現在位置を示す画像を重畳させて、第3の表示装置33に表示する。
また、第3の表示装置33の表示画面はタッチパネルを構成しており、該タッチパネルを介して、またはキーやボタン等の他の入力装置(図示せず)を介して、乗員はナビゲーションユニット5に目的地を入力することができる。ナビゲーションユニット5は、該目的地までの車両の最適経路を算出し、該最適経路を示す画像を地図情報に重畳させて、第3の表示装置33に表示することができる。
ナビゲーションユニット5には、スピーカ3が接続されており、必要に応じて、たとえば一時停止や交差点等の経路案内を行う際に、第3の表示装置33上への表示だけでなく、スピーカ3を介して音または音声によって乗員に知らせることができる。なお、最近のナビゲーション装置には、交通情報の提供や車両近傍の施設案内等、他にも様々な機能が搭載されており、この実施形態では、任意の適切なナビゲーション装置を利用することができる。
さらに、この実施形態では、第2の表示装置32が設けられており、これは、図2の(a)に示すように、車幅(水平)方向に、第1の表示装置31と第3の表示装置33の間であって、インスツルメントパネル上に設けられている。したがって、上記の線L1からの第2の表示装置32の距離は、第3の表示装置33の距離よりも小さい。第2の表示装置32は、複数の所定の情報を表示可能なように構成された液晶表示器であり、いわゆるマルチインフォメーションディスプレイ(MID)と呼ばれる。たとえば、第2の表示装置32は、車両の走行状態(車速、回転数、燃費に関する状態)に関する複数の情報を表示することができるよう構成されている。
画像処理ユニット2は、入力アナログ信号をデジタル信号に変換するA/D変換回路、デジタル化した画像信号を記憶する画像メモリ、各種演算処理を行う中央演算処理装置(CPU)、CPUが演算に際してデータを記憶するのに使用するRAM(ランダムアクセスメモリ)、CPUが実行するプログラムおよび用いるデータ(テーブル、マップを含む)を記憶するROM(リードオンリーメモリ)、スピーカ3に対する駆動信号および上記の第1〜第3の表示装置31〜33に対する表示信号などを出力する出力回路を備えている。カメラ1Rおよび1Lの出力信号は、デジタル信号に変換されてCPUに入力されるよう構成されている。
この実施形態では、第1〜第3の表示装置31〜33は、いずれも、画像処理ユニット2に接続され、画像処理ユニット2により処理された結果の画像を表示することができるようになっている。ここで、第2および第3の表示装置33については、たとえば表示する内容に関する切り換え機構を設けることができる。これにより、第2の表示装置32については、画像処理ユニット2からの画像の表示と、通常の所定の情報の表示とを切り換えることができ、また、第3の表示装置33については、画像処理ユニット2からの画像の表示と、ナビゲーションユニット5から出力された情報の表示とを切り換えることができる。
このように、最近の車両には、上記のように複数の表示装置が設けられることがある。線L1からの距離が遠い所に配置された表示装置ほど、運転者がその表示画面を視認する視線移動の量が大きくなるため、その瞬読性を向上させるのが望ましい。
したがって、この発明では、表示装置の位置に応じて、画像処理ユニット2の処理の結果に基づいて生成される表示画像の情報量を制御する。具体的には、表示装置の位置が、運転者が正面を向いたときの視線(上記の線L1)から水平方向に遠くなるほど、表示画像の情報量を低減させる。これにより、表示装置の位置が運転者から遠ざかるほど、瞬読性の高い表示内容とすることができる。したがって、運転者による表示画像への注視と前方への注視とを最適化する(バランスをとる)ことができる。この具体的な制御手法を、以下に述べる。
図3は、この発明の一実施形態に従う、画像処理ユニット2によって実行されるプロセスを示すフローチャートである。該プロセスは、所定の時間間隔で実行される。
ステップS11〜S13において、カメラ1Rおよび1Lの出力信号(すなわち、撮像画像のデータ)を入力として受け取り、これをA/D変換して、画像メモリに格納する。格納される画像データは、輝度情報を含んだグレースケール画像である。
ステップS14において、カメラ1Rで撮像された右画像を基準画像とし(代替的に、左画像を基準画像としてもよい)、その画像信号の2値化を行う。具体的には、輝度閾値ITHより明るい領域を「1」(白)とし、暗い領域を「0」(黒)とする処理を行う。輝度閾値ITHは、任意の適切な手法で決定されることができる。この2値化処理により、たとえば生体のような所定の温度より高い対象物が、白領域として抽出される。
ステップS15において、2値化した画像データを、ランレングスデータに変換する。具体的には、2値化により白となった領域について、各画素行の該白領域(ラインと呼ぶ)の開始点(各ラインの左端の画素)の座標と、開始点から終了点(各ラインの右端の画素)までの長さ(画素数で表される)とで、ランレングスデータを表す。ここで、画像における垂直方向にy軸をとり、水平方向にx軸をとる。たとえば、y座標がy1である画素行における白領域が、(x1,y1)から(x3,y1)までのラインであるとすると、このラインは3画素からなるので、(x1,y1,3)というランレングスデータで表される。
ステップS16およびS17において、対象物のラベリングを行い、対象物を抽出(検出)する処理を行う。すなわち、ランレングスデータ化したラインのうち、y方向に重なる部分のあるラインを合わせて1つの対象物とみなし、これにラベルを付与する。こうして、1または複数の対象物が抽出(検出)される。
以下では、該抽出された対象物が歩行者である場合について述べる。なお、ステップS17の後に、より精度を高めるため、抽出された対象物が、歩行者であるか否かの判定処理を行ってもよい。この判定処理は、任意の適切な手法で実現されることができる。たとえば、周知のパターンマッチングを利用し、上記のように抽出された対象物と、歩行者を表す所定のパターンとの類似度を算出し、該類似度が高ければ、歩行者であると判定することができる。このような判定処理の例示として、たとえば特開2007−241740号公報、特開2007−334751号公報等に記載されている。
ステップS18において、検出された対象物を表示することによって、該対象物についての警報出力を行う。具体的には、該対象物が撮像されている上記のグレースケール画像に基づいて、第1〜第3の表示装置31〜33のそれぞれに表示する画像(第1〜第3の画像と呼ぶ)を生成し、該生成した第1〜第3の画像を、第1〜第3の表示装置31〜33上に表示する。該生成は、第1から第3の画像に向かってその情報量が低減されるように行われる。ここで、情報量は、実際に表示された画像から人が読みとることのできる画像内容を示す。画像内に撮像されているもの(歩行者等の生体に限らず、建物や他の車両等の人工構造物を含む)が多いほど、その情報量は多くなり、瞬時に該画像の内容を読みとることが困難になる(瞬読性の低下)。以下、第1〜第3の画像に向かって情報量が低減されるよう表示される形態を、第1の表示形態と呼ぶ。
第1の表示形態に従う表示画像の生成手法には、いくつかの手法が考えられ、以下では、第1および第2の手法について述べる。
第1の手法では、第1の画像を、上記の検出された対象物以外のものも表示画面上で視認可能な画像とし、第2の画像を、該検出された対象物のみを実質的に表示画面上で視認可能な画像とし、第3の画像を、該検出された対象物についても表示画面上で視認できないような画像とする。
第1の手法の一具体例について説明すると、第1の画像を、上記のグレースケール画像とする。第2の画像を、上記ステップS17で検出された対象物に対応する画像領域(対象物領域と呼ぶ)以外の画像領域(対象物以外の領域と呼ぶ)を、実質的に判読不可能な状態にする。たとえば、該対象物以外の領域の各画素の背景輝度値に対する輝度差を小さくすることにより、該対象物以外の領域のコントラストを低下させて、実質的に判読不可能な状態とすることができる。代替的に、該対象物以外の領域中の各画素の輝度値を、所定値だけ低下させる、もしくは所定の低い輝度値に変更するようにしてもよい。こうすることにより、実質的に、対象物領域のみが判読可能な第2の画像を生成することができる。
また、第3の画像を、該画像中の対象物領域についても判読不可能な状態となるように、該グレースケール画像中のすべての画素の輝度値を、所定値だけ低下させる、もしくは所定の低い輝度値に変更する。これにより、第3の画像は、何も撮像されていないように見え、撮像した画像を実質的に非表示とすることができる。代替的に、このような画素の輝度値の変換処理を行うことなく、第3の表示装置33への画像表示自体を抑制してもよい(非表示)。
こうして生成された画像の一例を、図4に示す。(a1)は第1の画像を示し、(b1)は第2の画像を示し、(c1)は第3の画像を示す。第1の画像は、グレースケール画像であり、歩行者101以外にも、他の車両103や街灯105等が視認可能なように表示されている。第2の画像は、上記のように、対象物以外の領域のコントラストを低下させたものであり、実質的に、歩行者101という対象物のみが視認可能な画像となっている。第3の画像は、画像が実質的に非表示となっており、これは、前述したように、グレースケール画像のすべての画素が所定の低い輝度値(この例では、黒の輝度値)に変換された結果の画像である。
これらの画像を比較すると、第1の画像から第3の画像に向けて、表示画像から運転者が読みとれる情報の量が低くなっているのがわかる。第1の画像には、歩行者101、他の車両103、街灯105といった情報が含まれて表示されているため、運転者は、これらの物を認識しようとする。第2の画像には、歩行者101しか実質的な情報は含まれていないため、第1の画像に比べて、より短時間で判読可能である。第3の画像には、実質的に何も表示されていないため、情報としては何も受け取らない。表示画像から受け取る情報が少ないほど、前方への注視を促すことができる。
第1の手法の代替例として、第1の画像を、上記のグレースケール画像とし、第2の画像を、該グレースケール画像全体のコントラストを低下させた画像として生成してもよい。たとえば、最大輝度値と最小輝度値の差が小さくなるように、該グレースケール画像中の各画素の輝度値を変更することにより、コントラストの低下した第2の画像を生成することができる。コントラストを低下させるほど、撮像されているすべての対象物の輝度値が背景輝度値に近くなり、全体としてぼけた画像となる。したがって、表示画像から判読可能な情報量が少なくなると言える。しかしながら、好ましくは、第2の画像のコントラストの低下の程度を、検出された対象物が視認可能な程度に設定するのがよい。こうして、対象物領域のみが実質的に視認可能な第2の画像を生成することができる。第3の画像は、実質的に画像の非表示となるように、第2の画像のコントラストをさらに低下させた画像とすることができる。
なお、コントラスト低下に代えて、該グレースケール画像中のすべての画素の輝度値を所定値だけ低くすることにより、暗くした画像を生成するようにしてもよい。この場合も、第2の画像については、対象物領域のみが実質的に視認可能なように該輝度値を低くするのがよい。
図4には、このようなコントラスト低下を行った画像の一形態についても示されている。(a2)は、第1の画像を示し、これは、グレースケール画像である。(b2)は、第2の画像を示し、これは、該グレースケール画像全体のコントラストを低下させた画像である。歩行者101が撮像されている対象物領域は、グレースケール画像において高い輝度値を持っているため、図に示すように、歩行者は視認可能な状態に維持されている。(c2)は、第3の画像を示し、(b2)よりもさらに画像全体のコントラストを低下させた画像である。コントラストを低下する量を増大することにより、図に示すように、実質的に画像を非表示とすることができる。
なお、さらなる代替例として、第1の画像を、グレースケール画像のコントラストを増加させることによって生成し、第2の画像をグレースケール画像とし、第3の画像を、該グレースケール画像のコントラストを低下させることによって生成するようにしてもよい。しかしながら、コントラストを高めすぎると、中間色が排除されるため、逆に情報量が減るおそれがある。したがって、この場合には、第1の画像から判読可能な情報量が第2の画像よりも大きくなるように、コントラストを増大する量を調整するのが好ましい。
次に、第2の手法では、第1の画像を、ステップS17で検出された対象物に強調的な表示を付加した画像とし、第2の画像を、このような強調的な表示を付加しない画像とし、第3の画像を、該対象物についても表示画面上で視認できないような画像とする。
この表示例を、図5に示す。(a3)は、第1の画像を示し、図4の(a1)の画像と、検出された対象物(この実施例では、歩行者)を強調的に表示するための枠111が設けられている点で異なる。この枠111についても、一つの情報として運転者には認識されるため、(a3)の第1の画像は、図4の(a1)の画像よりも、情報量がさらに増えていると考えることができる。(b3)は、第2の画像を示し、これは、図4の(a1)と同じグレースケール画像である。代替的に、図4の(b1)や(b2)の画像に強調枠を重畳したものを、第2の画像としてもよい。(c3)は、第3の画像を示し、これは、図4の(c1)と同じである。代替的に、図4の(c2)のようなコントラストを低下させた画像を第3の画像としてもよい。
図6は、この発明の他の実施形態に従う、画像処理ユニット2により実行される処理のプロセスのフローチャートである。該プロセスは、所定の時間間隔で実行される。図3と異なるのは、対象物までの距離または該対象物までの車両の到達時間に応じて、表示形態を変更する点である。
ステップS11〜S17は、図3のものと同じであるので、説明を省略する。ステップS28において、ステップS17で抽出(検出)された対象物までの距離を算出する。これは、周知の任意の手段で行われることができ、たとえば、特開2001−6096号公報に記載されている。代替的に、該対象物までの車両の到達時間を算出してもよい。到達時間は、該距離を、車両の車速センサ7によって検出された車速で除算することにより算出されることができる。
ステップS29において、こうして算出された距離(または到達時間)が所定値より大きいかどうかを判断する。この判断がNoであれば、ステップS30において、前述した第1の表示形態に従って第1〜第3の表示画像を生成し、これらを第1〜第3の表示装置31〜33にそれぞれ表示することにより、該対象物についての警報出力を行う。この判断がYesであれば、ステップS31において、第2の表示形態に従って第1〜第3の表示画像を生成し、これらを第1〜第3の表示装置31〜33にそれぞれ表示することにより、該対象物についての警報出力を行う。
ここで、第1の表示形態は、図3〜図5を参照して説明したように、第1〜第3の画像に向けてその情報量が低減するように、第1〜第3の表示画像を生成して表示する形態である。第2の表示形態は、第1の表示形態における第1〜第3の画像間の情報量の差を緩和する(小さくする)ように、第1〜第3の表示画像を生成して表示する手法である。
図7の(a4)、(b4)および(c4)は第2の表示形態の一例を示し、これは、第1の表示形態が図4の(a1)、(b1)および(c1)である場合を想定している。(a4)は、第1の画像を示し、これは、図4の(a1)と同じである。(b4)は、第2の画像を示し、これは、(a1)のグレースケール画像の対象物(ここでは、歩行者101)以外の領域のコントラストを低下させたものである。ここで、該コントラストの低下の量は、図4の(b1)の画像を生成したときのコントラストの低下の量よりも小さくしている。結果として、(b4)の画像からは、歩行者101以外の他の車両103等の情報を読み取ることができ、図4の(a1)および(b1)の間の情報量の差に比べ、(a4)および(b4)の間の情報量の差は小さくなっている。
(c4)は、第3の画像を示し、これは、(b4)の画像の対象物以外の領域のコントラストをさらに低下させたものであり、図4の(b1)の画像と同じである。(c4)の画像からは、実質的に歩行者101のみが判読可能な情報として示されている。図4の(a1)および(c1)の間の情報量の差に比べ、(a4)および(c4)の間の情報量の差は小さくなっている。
また、図7の(a5)、(b5)および(c5)は第2の表示形態の他の例を示し、これは、第1の表示形態が図5の(a3)、(b3)および(c3)である場合を想定している。(a5)は、第1の画像を示し、これは、図5の(a3)と同じである。(b5)は、第2の画像を示し、これは、図5の(b3)と同じである。(c5)は、第3の画像を示し、これは、図4の(b1)と同じである。ここで、(a5)および(b5)の間の情報量の差は、図5の(a3)および(b3)の間の情報量の差と同じであるが、(c5)の画像では歩行者101が実質的に判読可能なようになっているため、(a5)または(b5)と、(c5)との間の情報量の差は、図5の(a3)または(b3)と、(c3)との間の情報量の差より小さくなっている。このように、第2の表示形態では、複数の表示装置のうちのいずれか任意の2つの表示装置間の情報量の差を小さくするようにすることもできる。
歩行者101の距離が所定値より大きいとき、あるいは歩行者101までの車両の到達時間が所定値より大きいときには、該対象物に到達するまでに時間的な余裕がある。したがって、このような場合には、情報量の差を小さくして、第2および第3の表示装置32および33への注視時間をある程度許容することができる。
なお、図7に示すものは一例にすぎず、第2の表示形態では、第1〜第3の画像を、すべて同じものとしてもよい(この場合、第1〜第3の画像間の情報量の差はなくなる)。また、この例では、対象物領域は視認可能なように第1〜第3の画像を生成しているが、これに限定されるものではなく、たとえば第3の画像については、図4の(c1)および(c2)のように、歩行者101を視認できないように生成してもよい。
図8は、この発明のさらなる他の実施形態に従う、車両の周辺監視装置のブロック図を示す。図1と異なるのは、運転者以外の乗員が存在するかどうかを検知するための乗員検知手段9を備えることである。この実施例では、運転者以外の乗員として、助手席に乗員が存在するかを検知する。乗員検知手段9は、任意の適切な手段によって実現されることができる。たとえば、人がシートに着座していることを検知する着座センサを助手席に設け、該センサの検知結果に基づいて判断することができる。代替的に、助手席を撮像するカメラを車両内に設け、撮像された画像内に人が検出されたならば、乗員が存在していると検知することができる。
乗員検知手段9によって乗員が助手席に検知されたならば、図3〜図5を参照して説明した第1の表示形態に代えて、第3の表示形態に従って第1〜第3の画像を生成し、第1〜第3の表示装置31〜33に表示する。このプロセスを、図 9を参照して説明する。
図9は、図8の実施形態に従う、画像処理ユニット2によって処理されるプロセスであり、所定の時間間隔で実行される。ステップS11〜S17は、図3のものと同じであるので、説明を省略する。
ステップS38において、乗員検知手段9によって検知された結果を取得する。ステップS39において、該取得した検知結果に基づいて、助手席に乗員が存在するかどうかを判断する。助手席に乗員が存在しなければ、ステップS40に進み、第1の表示形態に従う警報出力を行う。これは、図3のステップS18および図6のステップS30と同じである。
助手席に乗員が存在しなければ、ステップS41に進み、第3の表示形態に従う警報出力を行う。
第3の表示形態は、検知された該乗員に近い表示装置上に表示される画像の情報量の低減の量を、第1の表示形態に比べて抑制する形態である。好ましくは、該乗員に最も近い表示装置が識別され、該識別された表示装置上に表示される画像の情報量については、第1の表示形態のような低減を行わないようにする。
この実施形態では、助手席に最も近い表示装置は第3の表示装置33であるため、第3の画像の情報量を変更する。具体的な一例としては、第3の画像を、第2もしくは第1の画像と同等の情報量とするよう生成し、これを、第3の表示装置33上に表示する。
図10は、第3の表示形態の一例を示す。(a6)から(c6)の画像は、それぞれ、第1の画像、第2の画像および第3の画像を示し、これは、第1の表示形態が図4の(a1)から(c1)である場合を想定している。(c6)の第3の画像は、(a6)の第1の画像と同じであり、第1の表示形態に比べて、第1の画像からの情報量の低減が行われていないことがわかる。また、(c6)の該第3の画像は、(b6)に示す第2の画像からはむしろ情報量が増している。
また、他の例として、(a7)から(c7)の画像は、それぞれ、第1の画像、第2の画像および第3の画像を示し、これは、第1の表示形態が図5の(a3)から(c3)である場合を想定している。(c7)の第3の画像は、(b7)の第2の画像と同じであり、第1の表示形態に比べて、第2の画像からの情報量の低減は行われていないことがわかる。また、第1の表示形態に比べて、(a7)に示す第1の画像からの情報の低減量が小さくなっていることがわかる。
これらの例では、第3の表示形態における第3の画像は、第1または第2の画像と同じよう生成されているが、代替的に、第3の表示形態における第3の画像を、第1または第2の画像ほどの情報量には達しないが、第1の表示形態における第3の画像よりも情報量が多くなるように生成してもよい。たとえば、図10の(c7)の第3の画像に代えて、図10の(b6)のような、検出された対象物(この例では、歩行者101)のみが実質的に視認可能な画像を、第3の画像として用いてもよい。
こうして、助手席に乗員が存在する場合には、該乗員に近い表示装置上の情報量を低減する量が抑制されるので、該乗員に視認しやすい表示画面を提供することができる。乗員が該表示画面を視認してその内容を運転者に知らせることができる。
当然ながら、第2の表示形態を用いる実施形態(図6)と第3の表示形態を用いる実施形態(図10)を組み合わせてもよい。この場合、対象物の距離または到達時間が所定値以上であるときには、第1の表示形態に比べて第1〜第3の画像の情報量の差が小さくなるように、該第1〜第3の画像を生成すると共に、検知された乗員に最も近い表示装置の画像については、第1の表示形態のものに比べて情報量の低減を抑制して生成することができる。
なお、この実施形態では、3つの表示装置を用いているが、この発明は、2つ以上の、任意の数の表示装置に適用可能である。また、3つ以上の表示装置を備える場合には、そのうちの少なくとも2つの表示装置について、第1の表示形態における情報量の低減、第2の表示形態における情報量の差の緩和、および第3の表示形態における情報量の低減の抑制を行えばよく、必ずしもすべての表示装置についてこれを行うことは必要とされない。
さらに、上記の実施形態では、遠赤外線カメラを用いているが、本願発明は、他のカメラ(たとえば、可視カメラ)にも適用可能である。さらに、上記の実施形態では、所定の対象物として歩行者を検出するよう構成されているが、歩行者に加え、または歩行者に代えて、動物を検出するよう構成してもよい。
さらに、上記の実施形態では、表示装置を介して、検出された対象物の警報を発行しているが、これに加え、スピーカ3を介して、対象物の存在を運転者に知らせることを行ってもよい。
以上のように、この発明の特定の実施形態について説明したが、本願発明は、これら実施形態に限定されるものではない。
1R,1L 赤外線カメラ(撮像手段)
2 画像処理ユニット
3 スピーカ
31 第1の表示装置
32 第2の表示装置
33 第3の表示装置

Claims (3)

  1. 車両の周辺を撮像する撮像装置によって取得された画像に基づいて、車両の周辺の対象物を検出する手段と、前記画像に基づいて生成される表示画像を表示画面上に表示する表示手段と、前記対象物が検出された場合に、該表示手段を介して該対象物の存在を運転者に警報する警報手段と、を備える車両の周辺監視装置であって、
    さらに、前記車両が前記対象物に到達するまでの到達時間を算出する手段を備え、
    前記表示手段は、前記運転者が目視可能な位置に配置されている第1表示手段と、前記運転者が目視可能な位置であり、且つ、正面を向いた前記運転者の視線を基準として、前記運転者が表示画面を視認するのに必要な視線移動量が前記第1表示手段より大きい位置に配置された第2表示手段とを有し、
    前記警報手段は、前記画像に基づいて第1表示画像を生成して前記第1表示手段へ出力し、前記画像中の、前記対象物に対応する画像領域以外の画像領域の情報量を、前記第1表示画像より低減した第2表示画像を生成して前記第2表示手段へ出力し、前記到達時間が長いほど、前記第1表示画像と前記第2表示画像との情報量の差が小さくなるように設定する、
    周辺監視装置。
  2. 車両の周辺を撮像する撮像装置によって取得された画像に基づいて、車両の周辺の対象物を検出する手段と、前記画像に基づいて生成される表示画像を表示画面上に表示する表示手段と、前記対象物が検出された場合に、該表示手段を介して該対象物の存在を運転者に警報する警報手段と、を備える車両の周辺監視装置であって、
    さらに、前記車両の運転者以外の乗員を検知する手段を備え、
    前記表示手段は、前記運転者が目視可能な位置に配置されている第1表示手段と、前記運転者が目視可能な位置であり、且つ、正面を向いた前記運転者の視線を基準として、前記運転者が表示画面を視認するのに必要な視線移動量が前記第1表示手段より大きい位置に配置された第2表示手段とを有し、
    前記警報手段は、前記画像に基づいて第1表示画像を生成して前記第1表示手段へ出力し、前記画像中の、前記対象物に対応する画像領域以外の画像領域の情報量を、前記第1表示画像より低減した第2表示画像を生成して前記第2表示手段へ出力し、前記乗員の存在を検知した場合には、前記第1表示手段と前記第2表示手段とのうち、前記乗員の位置に近い表示手段について、前記情報量を低減する量を抑制する、
    周辺監視装置。
  3. 前記警報手段は、前記対象物に対応する画像領域以外の画像領域のコントラストを低下させて前記第2表示画像を生成する、
    請求項1または2に記載の周辺監視装置。
JP2012511534A 2010-04-19 2011-04-14 車両の周辺監視装置 Expired - Fee Related JP5689872B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012511534A JP5689872B2 (ja) 2010-04-19 2011-04-14 車両の周辺監視装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010096054 2010-04-19
JP2010096054 2010-04-19
PCT/JP2011/002206 WO2011132388A1 (ja) 2010-04-19 2011-04-14 車両の周辺監視装置
JP2012511534A JP5689872B2 (ja) 2010-04-19 2011-04-14 車両の周辺監視装置

Publications (2)

Publication Number Publication Date
JPWO2011132388A1 JPWO2011132388A1 (ja) 2013-07-18
JP5689872B2 true JP5689872B2 (ja) 2015-03-25

Family

ID=44833932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012511534A Expired - Fee Related JP5689872B2 (ja) 2010-04-19 2011-04-14 車両の周辺監視装置

Country Status (5)

Country Link
US (1) US20130044218A1 (ja)
EP (1) EP2546819B1 (ja)
JP (1) JP5689872B2 (ja)
CN (1) CN102859567B (ja)
WO (1) WO2011132388A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9073484B2 (en) * 2010-03-03 2015-07-07 Honda Motor Co., Ltd. Surrounding area monitoring apparatus for vehicle
JP6205640B2 (ja) 2012-07-30 2017-10-04 市光工業株式会社 車両用警告装置
JP5991647B2 (ja) * 2013-03-28 2016-09-14 株式会社デンソー 車両用周辺監視制御装置
JP6205923B2 (ja) * 2013-07-11 2017-10-04 株式会社デンソー 走行支援装置
JP6252365B2 (ja) * 2014-06-11 2017-12-27 株式会社デンソー 安全確認支援システム、安全確認支援方法
RU2676931C1 (ru) 2015-09-30 2019-01-11 Ниссан Мотор Ко., Лтд. Устройство и способ представления информации
US9950619B1 (en) 2015-09-30 2018-04-24 Waymo Llc Occupant facing vehicle display
DE102016201939A1 (de) * 2016-02-09 2017-08-10 Volkswagen Aktiengesellschaft Vorrichtung, Verfahren und Computerprogramm zur Verbesserung der Wahrnehmung bei Kollisionsvermeidungssystemen
US10540689B2 (en) * 2016-06-27 2020-01-21 International Business Machines Corporation System, method, and recording medium for fuel deal advertisements
JP6608095B2 (ja) 2017-07-05 2019-11-20 三菱電機株式会社 表示システムおよび表示方法
US11170537B2 (en) * 2017-08-10 2021-11-09 Nippon Seiki Co., Ltd. Vehicle display device
WO2019198172A1 (ja) * 2018-04-11 2019-10-17 三菱電機株式会社 視線誘導装置および視線誘導方法
JP7080788B2 (ja) * 2018-10-09 2022-06-06 住友建機株式会社 ショベル
CN111251994B (zh) * 2018-11-30 2021-08-24 华创车电技术中心股份有限公司 车辆周边物件检测方法及车辆周边物件检测系统
JP2021002182A (ja) * 2019-06-21 2021-01-07 矢崎総業株式会社 車両警報システム
JP7349859B2 (ja) * 2019-09-18 2023-09-25 株式会社Subaru 車外モニタ装置
JP7304378B2 (ja) * 2021-03-30 2023-07-06 本田技研工業株式会社 運転支援装置、運転支援方法、およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007512582A (ja) * 2003-12-01 2007-05-17 ボルボ テクノロジー コーポレイション 情報を表示する方法およびシステム
JP2007145310A (ja) * 2005-10-31 2007-06-14 Denso Corp 車両用表示システム
JP2009205268A (ja) * 2008-02-26 2009-09-10 Honda Motor Co Ltd 障害物表示装置
JP2009292296A (ja) * 2008-06-04 2009-12-17 Toyota Motor Corp 車載表示システム
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置
JPWO2011108217A1 (ja) * 2010-03-01 2013-06-20 本田技研工業株式会社 車両の周辺監視装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2929927B2 (ja) 1993-12-14 1999-08-03 日産自動車株式会社 走行情報提供装置
JP2000168474A (ja) * 1998-12-11 2000-06-20 Mazda Motor Corp 車両の警報装置
JP4154777B2 (ja) * 1998-12-11 2008-09-24 マツダ株式会社 車両の表示装置
JP3515926B2 (ja) 1999-06-23 2004-04-05 本田技研工業株式会社 車両の周辺監視装置
US7561966B2 (en) * 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
JP4683192B2 (ja) * 2005-02-15 2011-05-11 株式会社デンソー 車両用死角監視装置及び車両用運転支援システム
JP4456086B2 (ja) 2006-03-09 2010-04-28 本田技研工業株式会社 車両周辺監視装置
JP4203512B2 (ja) 2006-06-16 2009-01-07 本田技研工業株式会社 車両周辺監視装置
JP4855158B2 (ja) * 2006-07-05 2012-01-18 本田技研工業株式会社 運転支援装置
JP4929997B2 (ja) * 2006-11-15 2012-05-09 アイシン・エィ・ダブリュ株式会社 運転支援装置
JP5194679B2 (ja) * 2007-09-26 2013-05-08 日産自動車株式会社 車両用周辺監視装置および映像表示方法
CN102063204A (zh) * 2009-11-13 2011-05-18 深圳富泰宏精密工业有限公司 触控笔

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007512582A (ja) * 2003-12-01 2007-05-17 ボルボ テクノロジー コーポレイション 情報を表示する方法およびシステム
JP2007145310A (ja) * 2005-10-31 2007-06-14 Denso Corp 車両用表示システム
JP2009205268A (ja) * 2008-02-26 2009-09-10 Honda Motor Co Ltd 障害物表示装置
JP2009292296A (ja) * 2008-06-04 2009-12-17 Toyota Motor Corp 車載表示システム
JP2010044561A (ja) * 2008-08-12 2010-02-25 Panasonic Corp 乗物搭載用監視装置
JPWO2011108217A1 (ja) * 2010-03-01 2013-06-20 本田技研工業株式会社 車両の周辺監視装置

Also Published As

Publication number Publication date
EP2546819B1 (en) 2015-06-03
US20130044218A1 (en) 2013-02-21
EP2546819A4 (en) 2014-01-15
EP2546819A1 (en) 2013-01-16
CN102859567A (zh) 2013-01-02
WO2011132388A1 (ja) 2011-10-27
CN102859567B (zh) 2015-06-03
JPWO2011132388A1 (ja) 2013-07-18

Similar Documents

Publication Publication Date Title
JP5689872B2 (ja) 車両の周辺監視装置
JP5577398B2 (ja) 車両の周辺監視装置
JP5706874B2 (ja) 車両の周辺監視装置
JP5503728B2 (ja) 車両の周辺監視装置
US20160185219A1 (en) Vehicle-mounted display control device
JP6379779B2 (ja) 車両用表示装置
JPWO2018167966A1 (ja) Ar表示装置及びar表示方法
JPWO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
JP5855206B1 (ja) 車両用透過表示装置
JP6182629B2 (ja) 車両用表示システム
JP2017087826A (ja) 電子装置
EP3694740A1 (en) Display device, program, image processing method, display system, and moving body
JP2010044561A (ja) 乗物搭載用監視装置
JP6857695B2 (ja) 後方表示装置、後方表示方法、およびプログラム
JP2007323578A (ja) 車両周辺監視装置
WO2018042976A1 (ja) 画像生成装置、画像生成方法、記録媒体、および画像表示システム
JP5192007B2 (ja) 車両の周辺監視装置
JP5192009B2 (ja) 車両の周辺監視装置
JP2007212342A (ja) 車両用表示装置
JP2007280203A (ja) 情報提示装置、自動車、及び情報提示方法
JP2005294954A (ja) 表示装置及び補助表示装置
JP5831331B2 (ja) 車両の後側方撮影装置
JP2006015803A (ja) 車両用表示装置、および車両用表示装置を搭載した車両
JP2010191666A (ja) 車両の周辺監視装置
JP2005075081A (ja) 車両の表示方法及び表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140318

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150129

R150 Certificate of patent or registration of utility model

Ref document number: 5689872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees