[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2003319383A - On-vehicle image processing apparatus - Google Patents

On-vehicle image processing apparatus

Info

Publication number
JP2003319383A
JP2003319383A JP2002123192A JP2002123192A JP2003319383A JP 2003319383 A JP2003319383 A JP 2003319383A JP 2002123192 A JP2002123192 A JP 2002123192A JP 2002123192 A JP2002123192 A JP 2002123192A JP 2003319383 A JP2003319383 A JP 2003319383A
Authority
JP
Japan
Prior art keywords
image
vehicle
data
contour line
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002123192A
Other languages
Japanese (ja)
Other versions
JP3972722B2 (en
Inventor
Atsushi Sato
敦 佐藤
Toshihiro Mori
俊宏 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2002123192A priority Critical patent/JP3972722B2/en
Publication of JP2003319383A publication Critical patent/JP2003319383A/en
Application granted granted Critical
Publication of JP3972722B2 publication Critical patent/JP3972722B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of supplementing a dead angular area caused by a vehicle existing in front. <P>SOLUTION: The image processing apparatus produces a composite image AB0 resulting from composing an image B0 photographed by a camera of a vehicle existing in front of its own vehicle with an image A0 photographed by a camera of its own vehicle so as to supplement a part A1 being a dead angular area by the vehicle existing in front of its own vehicle. Further, the image processing apparatus overlaps a contour line F symbolizing the shape and the position or the like of the vehicle existing in front of its own vehicle to the position of the vehicle existing in front of its own vehicle and displays the images as if the vehicle existing in front of its own vehicle were seen through and the driver of its own vehicle were able to visually confirm the front scene. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、車両の画像処理
装置にかかり、詳しくは、前方車両によって生じる死角
領域の画像を生成する車載画像処理装置に関するもので
ある。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for a vehicle, and more particularly to an on-vehicle image processing apparatus for generating an image of a blind spot area produced by a vehicle ahead.

【0002】[0002]

【従来の技術】走行している車両の運転者は、視界に入
る進行方向の景色を確認し、認識した情況に応じて、適
宜車両の運転操作を行う。例えば、運転者は、遠方の交
差点の信号を認識し、自車両が通過する時の信号の色を
予測して、車両の走行速度を調節する。一方、混雑時に
は、自車両の前方に他車両が存在することもあり、この
ような場合には、前方の視界は、前方の車両によって遮
られ、死角が生じることとなる。特に、前方車両がトラ
ックやバスなど、車高の高い大型車両である場合には、
特に、広範囲で視界が遮られ、運転者が認識することの
できない死角領域が広くなってしまう。このような場合
に、運転者は、視覚情報を視界の中に入れるために、頭
部を左右を大きく動かし、或いは、車両を若干左右に移
動させて視点を変えてなるなどの動作を試みる。また、
前方車両のウインドー越しに前方の情況を認識し、又は
車間距離を広げるなどの方法を採らざるを得ない。
2. Description of the Related Art A driver of a vehicle that is running checks the scenery in the direction of travel and enters the field of view, and appropriately operates the vehicle according to the recognized situation. For example, the driver recognizes a signal at a distant intersection, predicts the color of the signal when the vehicle is passing, and adjusts the traveling speed of the vehicle. On the other hand, when the vehicle is congested, another vehicle may exist in front of the host vehicle. In such a case, the front vehicle is blocked by the vehicle in front and a blind spot occurs. Especially when the vehicle in front is a large vehicle with a high vehicle height such as a truck or a bus,
In particular, the field of view is obstructed over a wide range, and the blind spot region that the driver cannot recognize becomes wide. In such a case, in order to put the visual information into the field of view, the driver tries to move the head greatly from side to side or slightly move the vehicle left and right to change the viewpoint. Also,
There is no choice but to adopt a method such as recognizing the situation in front of the vehicle in front of the vehicle in front of it or increasing the distance between the vehicles.

【0003】[0003]

【発明が解決しようとする課題】しかし、運転者が頭部
を左右に動かす行為は、運転操作への意識が散漫にな
り、運転操作を損なう恐れがあり、又、そのような行為
によって、必ずしも所望の情報が得られるものでもな
い。さらに、混雑時には、前方車両との車間距離を広く
採ることは、後続車に不快感を与え、割り込みを誘発す
ることにもなる。一方、前方の情報が得られないため
に、直前の信号を認識できず、信号が赤に変わっている
にもかかわらず、交差点に進入してしまう恐れがある。
また、同様に、案内板を見ることができずに、意図しな
いレーンに進入してしまう可能性もある。
However, the act of the driver moving the head to the left or right may distract the driver's consciousness and impair the maneuvering operation. It does not provide the desired information. Further, when the vehicle is congested, widening the inter-vehicle distance from the preceding vehicle causes discomfort to the following vehicle and induces interruption. On the other hand, since the information on the front side cannot be obtained, the immediately preceding traffic light cannot be recognized, and there is a risk of entering the intersection even though the traffic light turns red.
In addition, similarly, there is a possibility that the guide plate cannot be seen and an unintended lane is entered.

【0004】さらに、運転者側においても、必要な情報
が得られないことによるストレスが重なり、通常運転時
に比較して、過度の疲労が蓄積するといった問題もあ
る。この発明は、前方車両によって生成される死角領域
を補完することができる画像処理装置を提供することを
目的とするものである。
Further, even on the driver side, there is a problem that stress is accumulated due to lack of necessary information, and excessive fatigue is accumulated as compared with the case of normal driving. An object of the present invention is to provide an image processing device that can complement a blind spot area generated by a vehicle in front.

【0005】[0005]

【課題を解決するための手段】以上のような目的は、以
下の本発明により達成される。 (1) 自車両の進行方向の画像を取得する撮像手段
と、前方車両が取得した進行方向の画像を、前記前方車
両から受信する前方車両画像受信手段と、該前方車両画
像受信手段により受信した画像と、前記撮像手段により
取得した画像に基づき、前方車両を透過した画像を生成
する画像生成手段とを備えることを特徴とする車載画像
処理装置。
The above objects are achieved by the present invention described below. (1) Image capturing means for acquiring an image of the traveling direction of the own vehicle, forward vehicle image receiving means for receiving the image of the traveling direction acquired by the front vehicle from the front vehicle, and reception by the front vehicle image receiving means. An in-vehicle image processing device, comprising: an image; and an image generation unit that generates an image that is transmitted through a vehicle in front based on the image acquired by the imaging unit.

【0006】(2) 自車両の進行方向の画像を取得す
る撮像手段と、該撮像手段により取得した自車両の進行
方向の画像を、運転者から見た視点の画像に補正する自
車両画像補正手段と、前方車両が取得した進行方向の画
像を、前方車両から受信する前方車両画像受信手段と、
前記前方車両画像受信手段により受信した画像の撮像位
置までの距離を算出する距離算出手段と、前記距離算出
手段により算出した前方車両との距離に基いて、前記前
方車両画像受信手段によって受信した画像を、運転者か
ら見た視点の画像に補正する前方車両画像補正手段と、
前記自車両画像補正手段により補正された画像と、前記
前方車両補正手段により補正された画像とを合成する画
像合成手段とを備えることを特徴とする車載画像処理装
置。
(2) Image pickup means for obtaining an image of the traveling direction of the own vehicle, and image correction of the own vehicle for correcting the image of the traveling direction of the own vehicle obtained by the image pickup means to an image from the viewpoint of the driver. Means, and a front vehicle image receiving means for receiving an image of the traveling direction acquired by the front vehicle from the front vehicle,
The image received by the front vehicle image receiving means based on the distance between the distance calculating means for calculating the distance to the imaging position of the image received by the front vehicle image receiving means and the front vehicle calculated by the distance calculating means. Is a front vehicle image correction means for correcting the image of the viewpoint seen from the driver,
An in-vehicle image processing device comprising: an image synthesizing unit configured to synthesize an image corrected by the own vehicle image correcting unit and an image corrected by the front vehicle correcting unit.

【0007】(3) 前記自車両画像補正手段により補
正された画像から前方車両の輪郭線を抽出する輪郭線抽
出手段を備え、該輪郭線抽出手段により抽出された輪郭
線を、前記画像合成手段で合成された画像に重ねること
を特徴とする上記(1)又は(2)に記載の車載画像処
理装置。
(3) A contour line extracting means for extracting a contour line of a front vehicle from the image corrected by the own vehicle image correcting means is provided, and the contour line extracted by the contour line extracting means is used for the image synthesizing means. The in-vehicle image processing device according to (1) or (2), characterized in that the image is overlaid on the image synthesized in (1).

【0008】(4) 前方車両の車体、バンパー、ライ
ト、ワイパー、タイヤ、座席、及び窓の形状のうち少な
くとも1つを含む車体形状の輪郭線を受信する輪郭線受
信手段を備え、該輪郭線受信手段により受信した前方車
両の輪郭線を、前記画像合成手段に合成された画像に重
ねることを特徴とする上記(1)又は(2)に記載の車
載画像処理装置。
(4) A contour line receiving means for receiving a contour line of a vehicle body shape including at least one of the shapes of a vehicle body, a bumper, a light, a wiper, a tire, a seat, and a window of a front vehicle is provided, and the contour line is provided. The vehicle-mounted image processing device according to (1) or (2) above, characterized in that the contour line of the front vehicle received by the receiving means is superimposed on the image combined by the image combining means.

【0009】(5) 前記画像合成手段により合成され
た画像を、後方車両に送信する後方送信手段を備えるこ
とを特徴とする上記(1)から(4)のいずれか1に記
載の車載画像処理装置。
(5) The vehicle-mounted image processing according to any one of the above (1) to (4), further comprising a rear transmission means for transmitting the image synthesized by the image synthesis means to a rear vehicle. apparatus.

【0010】[0010]

【発明の実施の形態】以下、本発明の好適実施形態につ
いて、添付図面に基づいて詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0011】図1は本発明の車載画像処理装置1の構成
を示すブロック図である。車載画像処理装置1は、画像
処理を行う演算処理装置12と、車体に取り付けられた
撮像手段としてのカメラ13と、画像を表示する表示手
段としての表示装置14と、現在位置検出装置15と、
データ通信装置19と、記憶装置10とを備え、これら
の装置は、システムバス11を介して相互に接続されて
いる。
FIG. 1 is a block diagram showing the configuration of an in-vehicle image processing apparatus 1 of the present invention. The vehicle-mounted image processing device 1 includes an arithmetic processing device 12 for performing image processing, a camera 13 as an image pickup means attached to a vehicle body, a display device 14 as display means for displaying an image, and a current position detection device 15.
A data communication device 19 and a storage device 10 are provided, and these devices are mutually connected via a system bus 11.

【0012】カメラ13は、A/D変換器131を介し
てシステムバス11に接続される。カメラ13は、車両
の前方(前進する場合の進行方向)に向けて取り付けら
れ、車両の進行方向の画像が撮影できるように取り付け
られている。カメラ13から出力された画像信号は、A
/D変換器131によってデジタル信号に変換される。
また、接続されたカメラ13が、デジタル信号出力が可
能なものである場合には、A/D変換器は不要である。
カメラ13は魚眼レンズを用いている。
The camera 13 is connected to the system bus 11 via an A / D converter 131. The camera 13 is attached toward the front of the vehicle (the traveling direction when moving forward), and is attached so that an image of the traveling direction of the vehicle can be taken. The image signal output from the camera 13 is A
It is converted into a digital signal by the / D converter 131.
Further, if the connected camera 13 is capable of outputting a digital signal, the A / D converter is not necessary.
The camera 13 uses a fisheye lens.

【0013】現在位置検出装置15は、舵角センサ15
1、車速センサ152、GPS受信装置153、方位セ
ンサ154、距離センサ155とを備えている。舵角セ
ンサ151は、車の操舵角を検出する。操舵角は、ハン
ドルの回転角または前輪の角度を検出して得られる。車
速センサ152は、車両の走行速度を検出する。GPS
受信装置153は、車両の絶対位置を検出する。方位セ
ンサ154は、車両の向きを検出する。距離センサ15
5は、車両の移動距離を検出する。
The present position detecting device 15 includes a steering angle sensor 15
1, a vehicle speed sensor 152, a GPS receiver 153, a direction sensor 154, and a distance sensor 155. The steering angle sensor 151 detects the steering angle of the vehicle. The steering angle is obtained by detecting the rotation angle of the steering wheel or the angle of the front wheels. The vehicle speed sensor 152 detects the traveling speed of the vehicle. GPS
The receiving device 153 detects the absolute position of the vehicle. The direction sensor 154 detects the direction of the vehicle. Distance sensor 15
5 detects the moving distance of the vehicle.

【0014】記憶装置10は、自車データを記憶する自
車データ記憶部16と、前方車両から受信したデータを
記憶する受信データ記憶部17と、自車データと受信デ
ータとを合成したデータを記憶する合成データ記憶部1
8とを備えている。
The storage device 10 stores a vehicle data storage section 16 for storing vehicle data, a received data storage section 17 for storing data received from a vehicle in front, and data obtained by combining vehicle data and received data. Composite data storage unit 1 to be stored
8 and.

【0015】自車データ記憶部16は、位置データメモ
リ161と、画象データメモリ162と、車両データメ
モリ163と、カメラ設定データメモリ164と、運転
者視点データメモリ165と、視点変換パラメータメモ
リ166と、視点変換画像データメモリ167とを備え
ている。位置データメモリ161は、現在位置検出装置
15で検出された自車両の位置データが記憶されるメモ
リである。画像データメモリ162は、カメラ13が写
した画像を記憶するメモリで、カメラ13から出力され
る画像が連続して記憶される。車両データメモリ163
は、車体の輪郭を表現した輪郭線データ、全長、全幅、
全高などの寸法データが記憶されるメモリである。
The vehicle data storage unit 16 includes a position data memory 161, an image data memory 162, a vehicle data memory 163, a camera setting data memory 164, a driver's viewpoint data memory 165, and a viewpoint conversion parameter memory 166. And a viewpoint conversion image data memory 167. The position data memory 161 is a memory that stores the position data of the vehicle detected by the current position detection device 15. The image data memory 162 is a memory that stores images captured by the camera 13, and images that are output from the camera 13 are continuously stored. Vehicle data memory 163
Is the contour line data representing the contour of the car body, the total length, the full width,
It is a memory that stores dimension data such as the total height.

【0016】カメラ設定データメモリ164は、カメラ
13のレンズ特性、画角、車体の基準位置からの相対位
置等により特定される設置位置、同様に、車体の基準位
置からの相対位置等により特定される視点位置、撮影方
角等が記憶されるメモリである。レンズ特性には、例え
ば、撮影方式やレンズ種類、画角の範囲の像のひずみ率
などが挙げられる。撮影方角は、方位センサ若しくは位
置データを2つ以上取得することにより決定することが
できる。車体の基準位置とは、例えば、GPS受信装置
のアンテナの位置、前輪又は後輪の位置、その他方位セ
ンサ等のセンサの設置位置などが挙げられる。運転者視
点データメモリ165は、上記車体の基準位置からの相
対位置として規定される運転者の視点の位置が記憶され
るメモリである。視点変換パラメータメモリ166は、
カメラ設定データ164に含まれるカメラの視点位置
と、運転者視点データに含まれる運転者の視点位置とか
ら算出された相対距離が記憶されるメモリである。視点
変換画像データメモリ167は、画像データに視点変換
処理を行った後の画像データを記憶するメモリである。
The camera setting data memory 164 is specified by the installation position specified by the lens characteristics of the camera 13, the angle of view, the relative position of the vehicle body from the reference position, and similarly by the relative position of the vehicle body from the reference position. This is a memory that stores the viewpoint position, the shooting direction, and the like. The lens characteristics include, for example, a shooting method, a lens type, and an image distortion rate in the range of the angle of view. The shooting direction can be determined by acquiring two or more direction sensors or position data. Examples of the reference position of the vehicle body include the position of the antenna of the GPS receiving device, the position of the front wheels or the rear wheels, and the installation position of other sensors such as the direction sensor. The driver's viewpoint data memory 165 is a memory for storing the position of the driver's viewpoint defined as a relative position from the reference position of the vehicle body. The viewpoint conversion parameter memory 166 is
This is a memory for storing the relative distance calculated from the viewpoint position of the camera included in the camera setting data 164 and the viewpoint position of the driver included in the driver viewpoint data. The viewpoint-converted image data memory 167 is a memory that stores the image data after the viewpoint conversion processing is performed on the image data.

【0017】上記車両データメモリ163、カメラ設定
データメモリ164、運転者視点データメモリ165に
記憶されている、数値が変更されることのないデータに
ついては、後述する演算処理装置12のリードオンリー
メモリ[ROM]122に記憶してあってもよい。
As for the data stored in the vehicle data memory 163, the camera setting data memory 164, and the driver's viewpoint data memory 165, the numerical values of which are not changed, the read-only memory [of the arithmetic processing unit 12 will be described later]. ROM] 122.

【0018】受信データ記憶部17は、位置データメモ
リ171と、画象データメモリ172と、車両データメ
モリ173と、カメラ設定データメモリ174と、視点
変換パラメータメモリ175と、視点変換画像データメ
モリ176とを備えている。位置データメモリ171
は、前方車両の位置データが記憶されるメモリである。
画像データメモリ172は、前方車両のカメラが取得し
た画像データが記憶されるメモリである。車両データメ
モリ173は、前方車両の車体の輪郭を表現した輪郭線
データ、全長、全幅、全高などの寸法データが記憶され
るメモリである。この輪郭線データは、例えば、車両を
後方から見たときの輪郭線を表現した線画情報である。
輪郭線の例としては、車体を象徴する部位の輪郭線であ
ればよく、例えば、車体、バンパー、テールランプ、リ
ヤウインドーの形状、リヤウインドウワイパー及び後部
車輪等の少なくとも一つを含む輪郭線である。
The reception data storage unit 17 includes a position data memory 171, an image data memory 172, a vehicle data memory 173, a camera setting data memory 174, a viewpoint conversion parameter memory 175, and a viewpoint conversion image data memory 176. Is equipped with. Position data memory 171
Is a memory in which the position data of the vehicle ahead is stored.
The image data memory 172 is a memory in which the image data acquired by the camera of the vehicle ahead is stored. The vehicle data memory 173 is a memory that stores contour line data representing the contour of the vehicle body of the vehicle ahead, and dimension data such as the total length, the total width, and the total height. The contour line data is, for example, line drawing information expressing a contour line when the vehicle is viewed from the rear.
An example of the contour line may be a contour line of a portion that symbolizes the vehicle body, and is, for example, a contour line including at least one of the vehicle body, bumper, tail lamp, rear window shape, rear window wiper, rear wheel, and the like.

【0019】カメラ設定データ174は、カメラのレン
ズ特性、画角、車体の基準位置からの相対位置等により
特定される設置位置、同様に、車体の基準位置からの相
対位置等により特定される視点位置、撮影方角等が記憶
されるメモリである。視点変換パラメータメモリ175
は、カメラ設定データ174に含まれる前方車両のカメ
ラの視点位置と、運転者の視点位置とから算出された相
対距離を記憶するメモリである。視点変換画像データメ
モリ176は、画像データに視点変換処理を行った後の
画像データを記憶するメモリである。
The camera setting data 174 includes the installation position specified by the lens characteristics of the camera, the angle of view, the relative position of the vehicle body with respect to the reference position, and the viewpoint specified by the relative position of the vehicle body with respect to the reference position. It is a memory that stores a position, a shooting direction, and the like. Viewpoint conversion parameter memory 175
Is a memory that stores the relative distance calculated from the viewpoint position of the camera of the vehicle ahead and the viewpoint position of the driver included in the camera setting data 174. The viewpoint-converted image data memory 176 is a memory that stores the image data after the viewpoint conversion processing is performed on the image data.

【0020】合成データ記憶部18は、位置データメモ
リ181と、画象データメモリ182と、車両データメ
モリ183と、カメラ設定データメモリ184とを備え
ている。
The composite data storage unit 18 includes a position data memory 181, an image data memory 182, a vehicle data memory 183, and a camera setting data memory 184.

【0021】位置データメモリ181には、自車位置デ
ータが記憶される。画像データメモリ182には、自車
が取得した画像データと、受信した前方車両の画像デー
タとを合成した合成画像データが記憶される。車両デー
タメモリ183には、自車データの車両データ163が
記憶され、カメラ設定データメモリ184は、後に詳し
く説明するが、前方車両からデータを受信し、合成が可
能であった場合は、運転者視点データ165が記憶さ
れ、合成が不可能であった場合にはカメラ設定データ1
64が記憶される。
The position data memory 181 stores the vehicle position data. The image data memory 182 stores combined image data obtained by combining the image data acquired by the own vehicle and the received image data of the preceding vehicle. The vehicle data memory 183 stores the vehicle data 163 of the own vehicle data, and the camera setting data memory 184, which will be described in detail later, receives the data from the vehicle in front and synthesizes the data. The viewpoint data 165 is stored, and if the composition is impossible, the camera setting data 1
64 is stored.

【0022】画像表示装置14は、例えば液晶ディスプ
レイ等で構成され、合成データ記憶部18の画像データ
182に格納された合成画像が表示される。画像表示装
置14へ送られるデータは、D/A変換器141を介し
てアナログ信号に変換される。また、画像表示装置14
がデジタル信号入力可能な場合には、D/A変換器は不
要となる。
The image display device 14 is composed of, for example, a liquid crystal display or the like, and displays the composite image stored in the image data 182 of the composite data storage section 18. The data sent to the image display device 14 is converted into an analog signal via the D / A converter 141. In addition, the image display device 14
If a digital signal can be input to the device, the D / A converter becomes unnecessary.

【0023】データ通信装置19は、前方車両が無線通
信手段を用いて発信しているデータを受信し、受信した
データをバッファ191に蓄積する。蓄積された前方車
両データは、バスライン11を介して受信データ記憶部
17の各メモリへ送られる。さらに通信可能な車両が後
方に存在する場合には、送信すべきデータを後方の車両
に送信する。送信すべきデータについては後に詳しく説
明する。
The data communication device 19 receives the data transmitted from the preceding vehicle using the wireless communication means, and stores the received data in the buffer 191. The stored forward vehicle data is sent to each memory of the reception data storage unit 17 via the bus line 11. Further, when there is a vehicle that can communicate with the vehicle behind, the data to be transmitted is transmitted to the vehicle behind. The data to be transmitted will be described later in detail.

【0024】演算処理装置12は、中央処理装置[CP
U(Central Processing Unit)]121と、リード
オンリーメモリ[ROM]122と、ランダムアクセス
メモリ[RAM]123とを備えている。中央処理装置
121は、例えば、現在位置検出装置15から得られた
位置データや車両の向きと、受信した前方車両に関する
位置データから、前方車両と自車両との相対位置につい
ての情報を算出し、或いは、記憶装置10から自車両の
画像データ、受信した前方車両の画像データを取得し、
これらのデータから合成画像データを生成するなどの作
用を有する。ROM122には、例えば、中央処理装置
121が画像処理を行うためのソフトウエア等が格納さ
れており、RAM123は、例えば、ワーキングエリア
として使用される。
The arithmetic processing unit 12 is a central processing unit [CP
U (Central Processing Unit)] 121, a read only memory [ROM] 122, and a random access memory [RAM] 123. The central processing unit 121 calculates information about the relative position between the front vehicle and the own vehicle from the position data obtained from the current position detection device 15 and the direction of the vehicle, and the received position data regarding the front vehicle, for example. Alternatively, the image data of the own vehicle and the received image data of the preceding vehicle are acquired from the storage device 10,
It has operations such as generating composite image data from these data. The ROM 122 stores, for example, software for the central processing unit 121 to perform image processing, and the RAM 123 is used as a working area, for example.

【0025】本発明の画像処理装置は、次のような作用
をする。図2は、本発明の画像処理装置を搭載した自車
両21と、その進行方向(前方)に位置する前方車両2
2の位置関係を示す側面全体図である。自車両21の前
方を映すカメラ13aの撮影領域a内には、自車両21
の進行方向(前方)と同じ方向に進む前方車両22が位
置している。このような前方車両22は、自車両21と
同様に前方を映すカメラ13bを備えている。また、こ
の前方車両22は、自車両21と同じ車載画像処理装置
を備えており、カメラ13bで取得した画像は、視点変
換処理等の画像処理を行うことも可能である。また、前
方車両22は、カメラ13bで撮影した画像を、後方の
自車両21へ無線通信手段を介して送信している。
The image processing apparatus of the present invention operates as follows. FIG. 2 shows a host vehicle 21 equipped with the image processing apparatus of the present invention and a front vehicle 2 located in the traveling direction (front) thereof.
2 is an overall side view showing the positional relationship of 2. FIG. In the shooting area a of the camera 13a that reflects the front of the own vehicle 21,
The forward vehicle 22 is located in the same direction as the traveling direction (forward). Such a front vehicle 22 is equipped with a camera 13b that projects the front like the host vehicle 21. Further, the front vehicle 22 is equipped with the same vehicle-mounted image processing device as the own vehicle 21, and the image acquired by the camera 13b can also be subjected to image processing such as viewpoint conversion processing. Further, the front vehicle 22 transmits the image photographed by the camera 13b to the rear own vehicle 21 via the wireless communication means.

【0026】自車両21の撮影領域a内には、前方車両
22によって遮られた死角領域bが生成される。この死
角領域bは、さらに、前方車両22のカメラ13bの撮
影領域cと重なっている。従って、前方車両22の前方
に位置する信号23は、死角領域bに含まれ、自車両2
1側の運転者は、認識できないが、前方車両22のカメ
ラ13bには映し出されているので、前方車両22の画
像データを取得することによって、死角領域bにある信
号23の色の状態を把握することができる。カメラ13
a、13bの設置位置は、運転者の視点の位置が最も好
ましいが、この視点の位置に近い位置でもよい。例え
ば、バックミラーの位置の他、ダッシュボードの中央付
近、座席の肩口の位置などか挙げられる。
In the photographing area a of the own vehicle 21, a blind spot area b blocked by the front vehicle 22 is generated. The blind spot area b further overlaps with the shooting area c of the camera 13b of the front vehicle 22. Therefore, the signal 23 located in front of the front vehicle 22 is included in the blind spot region b, and the own vehicle 2
The driver on the first side cannot recognize it, but since it is reflected on the camera 13b of the front vehicle 22, the color state of the signal 23 in the blind spot area b is grasped by acquiring the image data of the front vehicle 22. can do. Camera 13
The installation positions of a and 13b are most preferably the position of the driver's viewpoint, but may be a position close to the position of this viewpoint. For example, the position of the rearview mirror, the vicinity of the center of the dashboard, the position of the shoulder opening of the seat, etc.

【0027】以上のように構成された本発明の画像処理
装置1の作用について説明する。図3は、処理装置12
の動作を示すフローチャートである。処理の開始は、例
えば、イグニッションオン、若しくは装置スイッチオン
等の操作による。スイッチオンのきっかけは、この他、
シフトチェンジレバーをD位置にセットしたときとして
もよい。最初に、初期化処理が行われる(ステップS1
01)。図4は、初期化処理のサブルーチンを示すフロ
ーチャートである。初期化処理では、最初に自車データ
のチェックを行う(ステップS201)。この自車デー
タとしては、車両データ、カメラ設定データ、運転者視
点データである。チェックしたデータに不足データがあ
るか判断し(ステップS203)、不足データがある場
合には、不足データの入力および記憶装置10への書き
込みを行う(ステップS205)。
The operation of the image processing apparatus 1 of the present invention configured as above will be described. FIG. 3 shows the processing device 12.
3 is a flowchart showing the operation of FIG. The process is started by an operation such as turning on the ignition or turning on the device. The reason for switching on is
It may be when the shift change lever is set to the D position. First, initialization processing is performed (step S1).
01). FIG. 4 is a flowchart showing a subroutine of initialization processing. In the initialization process, first, the own vehicle data is checked (step S201). The own vehicle data includes vehicle data, camera setting data, and driver viewpoint data. It is judged whether or not the checked data has insufficient data (step S203). If there is insufficient data, the insufficient data is input and written to the storage device 10 (step S205).

【0028】データ不足がない場合には、視点変換パラ
メータを算出する(ステップS207)。視点変換パラ
メータは、カメラ設定データに含まれるカメラの視点位
置と、運転者視点データに含まれる運転者の視点位置と
から算出される。算出された視点変換パラメータを視点
変換パラメータメモリ166に書き込む(ステップS2
09)。
If there is no data shortage, viewpoint conversion parameters are calculated (step S207). The viewpoint conversion parameter is calculated from the viewpoint position of the camera included in the camera setting data and the viewpoint position of the driver included in the driver viewpoint data. The calculated viewpoint conversion parameter is written in the viewpoint conversion parameter memory 166 (step S2).
09).

【0029】画像データなどを記憶領域に書き込みがで
きるように、画像データメモリ162に記憶されている
データを検索し、記憶可能領域がない場合は、次に取得
するデータを上書き可能にする準備をし、また画像デー
タと共に記憶された距離や時間などを参照して、今後使
用しないデータを消去する等の、データを書き込む準備
をする(ステップS211)。例えば、視点変換用画像
データメモリ167等に格納された画像の記憶データを
更新するかを判断するための設定値を監視する変数など
を初期化する。
The data stored in the image data memory 162 is searched so that the image data and the like can be written in the storage area. If there is no storable area, the data to be acquired next must be overwritten. In addition, referring to the distance and time stored together with the image data, preparation for writing data such as erasing data not used in the future is performed (step S211). For example, a variable for monitoring a set value for determining whether to update the stored data of the image stored in the viewpoint conversion image data memory 167 or the like is initialized.

【0030】以上のように初期化処理(ステップS10
1)が終了すると、次に現在位置検出装置15と、カメ
ラ13aから、データを取得する(ステップS10
3)。現在位置検出装置15からは、位置データを取得
し、カメラ13aからは画像データを取得する。上述の
ように、自車両内の進行方向の画像を取得することをも
って、本発明の撮像手段とする。
As described above, the initialization process (step S10)
When 1) ends, data is then acquired from the current position detection device 15 and the camera 13a (step S10).
3). The position data is acquired from the current position detection device 15, and the image data is acquired from the camera 13a. As described above, the image of the traveling direction in the vehicle is acquired, which is the image pickup means of the present invention.

【0031】取得された位置データは、自車データ記憶
部16の、位置データメモリ161に書き込まれ、取得
された画像データは、同じく、画象データメモリ162
に書き込まれる(ステップS105)。自車データ記憶
部16の視点変換パラメータメモリ166から、視点変
換パラメータを読み出す(ステップS107)。読み出
した視点変換パラメータに従い、自車画像データを自車
運転者視点画像に変換する(ステップS109)。例え
ば、カメラ設置位置と運転者視点位置との、上下方向及
び左右方向における距離が予め規定されており、その距
離に応じて画像データの中心点(レンズの光軸が直交す
る位置)から、前述の規定値に基いて補正された位置が
中心となるように補正する。この補正された中心点を画
像の中心位置とした画像を視点変換画像とする。このよ
うに、自車両の画像と運転者から見た視点の画像に補正
することをもって、本発明の自車両画像補正手段とす
る。視点変換された画像データを、視点変換画像データ
メモリ167へ書き込む(ステップS111)。
The acquired position data is written in the position data memory 161 of the own vehicle data storage unit 16, and the acquired image data is similarly image data memory 162.
(Step S105). The viewpoint conversion parameter is read from the viewpoint conversion parameter memory 166 of the vehicle data storage unit 16 (step S107). According to the read viewpoint conversion parameter, the own vehicle image data is converted into the own vehicle driver's viewpoint image (step S109). For example, the distances in the up-down direction and the left-right direction between the camera installation position and the driver's viewpoint position are defined in advance, and according to the distances, from the center point of the image data (the position where the optical axes of the lenses are orthogonal), Correction is performed so that the position corrected based on the specified value of is the center. An image in which the corrected center point is the center position of the image is a viewpoint conversion image. In this way, by correcting the image of the own vehicle and the image of the viewpoint of the driver, the own vehicle image correction means of the present invention is provided. The viewpoint-converted image data is written in the viewpoint-converted image data memory 167 (step S111).

【0032】前方車両22からデータ受信が可能か否か
判断する(ステップS113)。データ通信が可能な距
離か否かは、例えば、予め距離センサを設け、前方車両
22との距離を測定し、この測定距離から、通信の可・
不可を判断する。受信が可能である場合には、前方車両
22からデータを受信する(ステップS115)。受信
するデータは、前方車両22の位置データ、前方車両2
2のカメラ13bが取得した画像データ、前方車両22
のカメラ設定データ及び車両データである。車両データ
には、前方車両の車体、バンパー、ライト、ワイパー、
タイヤ、座席、及び窓の形状のうち少なくとも1つを含
む車体形状の輪郭線であり、上記車体形状の輪郭線を受
信することをもって本発明の輪郭線受信手段とする。
It is determined whether or not data can be received from the front vehicle 22 (step S113). Whether or not the data communication is possible is determined by, for example, providing a distance sensor in advance, measuring the distance to the vehicle 22 in front, and determining whether communication is possible from this measured distance.
Judge as impossible. If the data can be received, the data is received from the preceding vehicle 22 (step S115). The data to be received is the position data of the front vehicle 22, the front vehicle 2
Image data acquired by the second camera 13b, the front vehicle 22
2 is the camera setting data and vehicle data. The vehicle data includes the vehicle body of the front vehicle, bumper, light, wiper,
A contour line of a vehicle body shape including at least one of the shapes of a tire, a seat, and a window, and receiving the contour line of the vehicle body shape constitutes the contour line receiving means of the present invention.

【0033】受信したこれらのデータを、データ通信装
置19を介して受信バッファ191に受信データを格納
する(ステップS117)。受信バッファ191からデ
ータを読み出し、受信データ記憶部17の位置データメ
モリ171、画象データメモリ172、車両データメモ
リ173、カメラ設定データメモリ174に、それぞれ
対応するデータを受信データとして書き込む(ステップ
S119)。このように、前方車両が取得した進行方向
の画像を、前方車両から受信することをもって、本発明
の前方車両画像受信手段とする。
The received data is stored in the reception buffer 191 via the data communication device 19 (step S117). Data is read from the reception buffer 191, and corresponding data is written as reception data in the position data memory 171, the image data memory 172, the vehicle data memory 173, and the camera setting data memory 174 of the reception data storage unit 17 (step S119). . In this way, the image of the traveling direction acquired by the front vehicle is received from the front vehicle to form the front vehicle image receiving means of the present invention.

【0034】受信した画像データについて、受信画像デ
ータ視点変換処理を行う(ステップS121)。図5
は、受信画像データ視点変換処理サブルーチンを示すフ
ローチャートである。以下、受信画像データ視点変換処
理について説明する。自車データ記憶部16から、自車
の位置データと運転者視点データを読み出す(ステップ
S301)。
The received image data viewpoint conversion processing is performed on the received image data (step S121). Figure 5
6 is a flowchart showing a received image data viewpoint conversion processing subroutine. The received image data viewpoint conversion process will be described below. The position data of the own vehicle and the driver's viewpoint data are read from the own vehicle data storage unit 16 (step S301).

【0035】読み出した位置データと運転者視点データ
に基いて、運転者視点の座標を算出する(ステップS3
03)。具体的には、位置データとして、GPS受信装
置153のアンテナの座標値が得られる。そして、GP
S受信装置153のアンテナを基準位置とし、この基準
位置からの相対位置として規定されている運転者視点デ
ータにより、運転者視点の座標値が算出される。
The coordinates of the driver's viewpoint are calculated based on the read position data and the driver's viewpoint data (step S3).
03). Specifically, the coordinate value of the antenna of the GPS receiver 153 is obtained as the position data. And GP
Using the antenna of the S reception device 153 as a reference position, the coordinate value of the driver's viewpoint is calculated from the driver's viewpoint data defined as a relative position from this reference position.

【0036】受信データ記憶部17から、前方車両22
の位置データとカメラ設定データを読み出す(ステップ
S305)。読み出した位置データとカメラ設定データ
から、前方車両のカメラ視点の座標値を算出する(ステ
ップS307)。具体的には、位置データとして、前方
車両22のGPS受信装置のアンテナの座標値が得られ
る。そして、GPS受信装置のアンテナを基準位置と
し、この基準位置からの相対位置として規定されている
カメラ設置位置(視点位置)データにより、カメラ視点
の座標値が算出される。上述のように、受信した画像の
撮像位置までの距離を算出することをもって、本発明の
距離算出手段とする。
From the reception data storage unit 17, the forward vehicle 22
Position data and camera setting data are read (step S305). From the read position data and camera setting data, the coordinate value of the camera viewpoint of the vehicle ahead is calculated (step S307). Specifically, the coordinate value of the antenna of the GPS receiving device of the front vehicle 22 is obtained as the position data. Then, using the antenna of the GPS receiver as a reference position, the coordinate value of the camera viewpoint is calculated from the camera installation position (viewpoint position) data defined as the relative position from this reference position. As described above, the distance calculation means of the present invention is to calculate the distance to the imaging position of the received image.

【0037】ステップS303で算出された自車両21
の運転者の視点位置の座標値と、ステップS307で算
出された前方車両22のカメラ視点座標値とから、視点
変換パラメータを算出する(ステップS309)。算出
された視点変換パラメータを視点変換パラメータメモリ
175に書き込む(ステップS311)。
Own vehicle 21 calculated in step S303
A viewpoint conversion parameter is calculated from the coordinate value of the driver's viewpoint position and the camera viewpoint coordinate value of the front vehicle 22 calculated in step S307 (step S309). The calculated viewpoint conversion parameter is written in the viewpoint conversion parameter memory 175 (step S311).

【0038】次に、受信データ記憶部17の画像データ
メモリ172から、前方車両22の画象データを読み出
し(ステップS313)、視点変換パラメータメモリ1
75に記憶されている視点変換パラメータに基づいて、
受信画像データを自車両の運転者視点画像に変換する
(ステップS315)。視点変換した画像データを視点
変換画像データとして、視点変換画像データメモリ17
6に書き込む(ステップS317)。上述のように、距
離算出手段により算出した距離に基いて、受信した前方
車両の画像を、運転者から見た視点の画像に補正するこ
とをもって、本発明の前方車両画像補正手段とする。
Next, the image data of the front vehicle 22 is read from the image data memory 172 of the reception data storage unit 17 (step S313), and the viewpoint conversion parameter memory 1 is read.
Based on the viewpoint conversion parameters stored in 75,
The received image data is converted into a driver's viewpoint image of the own vehicle (step S315). The viewpoint-converted image data memory 17 uses the viewpoint-converted image data as viewpoint-converted image data.
6 (step S317). As described above, based on the distance calculated by the distance calculating means, the received image of the front vehicle is corrected to the image of the viewpoint viewed from the driver, thereby forming the front vehicle image correcting means of the present invention.

【0039】以上のような受信画像データ視点変換処理
が終了すると、自車データ記憶部16の視点変換画像デ
ータメモリ167と、受信データ記憶部17の視点変換
画像データメモリ176とから、それぞれ視点変換画像
データを読み出す(ステップS123)。2つの視点変
換画像データを合成する(ステップS125)。図6
は、画像合成方法を示す図である。受信データ記憶部1
7の視点変換画像データメモリ176から、視点変換画
像B0を読み出して、自車両の運転者視点と、前方車両
のカメラ視点との距離に応じた倍率で、視点変換画像B
0を縮小する(画像B12)。縮小した画像を自車視点
変換画像A0に対応する領域に重ね合わせて合成する。
合成された画像AB0からは、前方車両の姿は消えてい
る。
When the reception image data viewpoint conversion processing as described above is completed, the viewpoint conversion is performed from the viewpoint conversion image data memory 167 of the vehicle data storage unit 16 and the viewpoint conversion image data memory 176 of the reception data storage unit 17, respectively. The image data is read (step S123). The two viewpoint-converted image data are combined (step S125). Figure 6
FIG. 9 is a diagram showing an image synthesizing method. Received data storage unit 1
The viewpoint conversion image B0 is read from the viewpoint conversion image data memory 176 of No. 7 and the viewpoint conversion image B0 is read at a magnification corresponding to the distance between the driver's viewpoint of the own vehicle and the camera viewpoint of the vehicle ahead.
0 is reduced (image B12). The reduced image is superimposed and combined with the area corresponding to the own-vehicle viewpoint conversion image A0.
The figure of the vehicle ahead disappears from the combined image AB0.

【0040】次に、輪郭線表示位置・サイズ算出処理が
行われる(ステップS127)。図7は、輪郭線表示位
置・サイズ算出処理サブルーチンを示すフローチャート
である。受信データ記憶部17の車両データメモリ17
3から車両データを、カメラ設定データメモリ174か
らカメラ設定データを、視点変換パラメータメモリ17
5から視点変換パラメータを読み出す(ステップS40
1)。さらに、自車データ記憶部16のカメラ設置デー
タメモリ164からモニターに映る視野の画角を読み出
す(ステップS403)。
Next, a contour display position / size calculation process is performed (step S127). FIG. 7 is a flowchart showing a contour line display position / size calculation processing subroutine. Vehicle data memory 17 of reception data storage unit 17
3 from the vehicle data, the camera setting data memory 174 from the camera setting data, the viewpoint conversion parameter memory 17
The viewpoint conversion parameter is read out from step 5 (step S40).
1). Further, the angle of view of the field of view displayed on the monitor is read from the camera installation data memory 164 of the vehicle data storage unit 16 (step S403).

【0041】そして、ステップS309で算出した視点
変換パラメータと、受信データ記憶部17の車両データ
173から取得した輪郭線データとによって、前方車両
のカメラ視点位置を基準とした三次元輪郭線を描画生成
し、画面内での輪郭線の表示位置と、表示サイズを算出
する(ステップS405)。
Then, the viewpoint conversion parameter calculated in step S309 and the contour line data acquired from the vehicle data 173 of the received data storage unit 17 are used to draw and generate a three-dimensional contour line based on the camera viewpoint position of the vehicle ahead. Then, the display position of the contour line on the screen and the display size are calculated (step S405).

【0042】図8(A)は、自車両の運転者視点位置T
1と、前方車両22との位置関係を示す平面図であり、
図8(B)は、同じ状態を自車両の表示画面に表示した
合成画像の状態を示すものである。
FIG. 8A shows the driver's viewpoint position T of the own vehicle.
1 is a plan view showing a positional relationship between 1 and a front vehicle 22,
FIG. 8B shows the state of the composite image in which the same state is displayed on the display screen of the vehicle.

【0043】受信した車両データから、前方車両22の
全長(9m)、全幅(3m)が、またカメラ設置データ
から、カメラ13bの位置情報(幅方向の中央部で、前
端から0.5mの位置)が取得される。また、カメラ1
3bの座標値と、運転者視点位置の座標値から、両者の
前後方向の距離(15m)と左右方向の距離(2m)も
算出される。また、自車両のカメラ設置データから、画
面に表示される範囲のカメラ画角(60度)が取得され
る。そして、以上の値から、自車両のカメラ13aが撮
影した画像における前方車両22後端位置での幅aが算
出される。つまり、画面に表示される範囲のカメラ画角
は60度であるから、正三角形の辺の比率√3:1より a=[{15−(9−0.5)}/√3]×2=7.5
(m) また、輪郭線の画像左端からの距離bは、 b=7.5/2−2−3/2=0.25(m) となる。
From the received vehicle data, the total length (9 m) and width (3 m) of the forward vehicle 22, and from the camera installation data, the positional information of the camera 13 b (the center position in the width direction, the position 0.5 m from the front end) ) Is obtained. Also, camera 1
From the coordinate value of 3b and the coordinate value of the driver's viewpoint position, the distance in the front-rear direction (15 m) and the distance in the left-right direction (2 m) are also calculated. Further, the camera angle of view (60 degrees) in the range displayed on the screen is acquired from the camera installation data of the own vehicle. Then, the width a at the rear end position of the front vehicle 22 in the image captured by the camera 13a of the own vehicle is calculated from the above values. That is, since the camera field angle in the range displayed on the screen is 60 degrees, a = [{15- (9-0.5)} / √3] × 2 from the ratio of the sides of the equilateral triangle √3: 1. = 7.5
(M) Further, the distance b from the left end of the image of the contour line is b = 7.5 / 2-2-3 / 2 = 0.25 (m).

【0044】従って、バス後部の輪郭線は画面左端から
画面幅の3.3%(=0.25/7.5)の位置から、
画面幅の40%(=3/7.5)の長さに大きさを調整
(拡大又は縮小)すればよい。なお、生成される輪郭線
は、三次元に描画されるので、図8(B)では、前方車
両の側面も画面に映し出されている。
Therefore, the contour line of the rear part of the bus starts from the position 3.3% (= 0.25 / 7.5) of the screen width from the left end of the screen,
The size may be adjusted (enlarged or reduced) to a length of 40% (= 3 / 7.5) of the screen width. Since the generated contour line is drawn three-dimensionally, the side surface of the front vehicle is also displayed on the screen in FIG. 8 (B).

【0045】なお、前方車両の輪郭線は、受信データか
ら取得するのではなく、自車のカメラ13aで撮影した
画像データから、前方車両22の輪郭線のみを抽出する
輪郭線抽出手段により、輪郭線を取得する構成としても
よい。輪郭線抽出手段とは、例えば、Sobelフィル
タ処理やラプラシアンフィルタ処理などにより輪郭を強
調する処理を行い、輪郭線のみを抽出する処理をするこ
とができる。
The contour line of the front vehicle is not obtained from the received data, but the contour line extraction means for extracting only the contour line of the front vehicle 22 from the image data taken by the camera 13a of the vehicle is used. The line may be acquired. The contour line extracting means can perform processing of emphasizing the contour by, for example, Sobel filter processing or Laplacian filter processing, and processing of extracting only the contour line.

【0046】以上のようにして算出された輪郭線画像F
を、ステップS125で生成された合成画像に重ね合わ
せる(ステップS129)。図6に示されているよう
に、輪郭線Fが画面に加えられ、あたかも前方車両を透
過して、前方が認識できる画像ABとなる。重ね合わせ
て生成された画像は、合成データとして合成データ記憶
部18の画像データメモリ182に書き込まれ、自車両
の位置データは、位置データメモリ181に書き込ま
れ、自車両の車両データは、車両データメモリ183に
書き込まれ、自車両のカメラ設定データと、自車運転者
視点データは、カメラ設定データメモリ184に書き込
まれる(ステップS131)。自車運転者視点データ
は、合成画像が生成された場合に書き込まれる。
The contour line image F calculated as described above
Is superposed on the composite image generated in step S125 (step S129). As shown in FIG. 6, a contour line F is added to the screen, and it becomes an image AB in which the front side can be recognized as if the front side vehicle is transparent. The image generated by superimposing is written in the image data memory 182 of the combined data storage unit 18 as combined data, the position data of the own vehicle is written in the position data memory 181, and the vehicle data of the own vehicle is the vehicle data. The camera setting data of the own vehicle and the driver's viewpoint data of the own vehicle written in the memory 183 are written in the camera setting data memory 184 (step S131). The own-vehicle driver viewpoint data is written when the composite image is generated.

【0047】合成画像データについて正像変換処理を行
う(ステップS133)。図6では、説明を解かりやす
くするために、正像変換処理後の画像を用い、輪郭線も
立体的なものでなく平面的な表示とした。ステップS1
29までの画像処理は、魚眼レンズ画像のままで行われ
る。なお、カメラ13a、13bで取得した画像を最初
に正像変換処理した後、ステップS129までの画像処
理を行ってもよい。
The normal image conversion process is performed on the composite image data (step S133). In FIG. 6, in order to make the explanation easy to understand, the image after the normal image conversion processing is used, and the contour line is not a three-dimensional one but a two-dimensional display. Step S1
The image processing up to 29 is performed with the fisheye lens image as it is. The images acquired by the cameras 13a and 13b may be first subjected to the normal image conversion processing, and then the image processing up to step S129 may be performed.

【0048】正像変換された合成画像データは、表示装
置14へ出力される(ステップS134)。表示装置1
4に出力された画像を視認することによって、運転者
は、前方車両22の向こう側の状態を視覚で把握するこ
とができる。輪郭線が重ねて表示されているので、あた
かも前方車両22を透過したように認識でき、前方車両
22との位置関係を含めて前方の情況を把握することが
できる。
The composite image data that has undergone the normal image conversion is output to the display device 14 (step S134). Display device 1
By visually recognizing the image output to 4, the driver can visually recognize the state of the other side of the front vehicle 22. Since the contour lines are displayed in an overlapping manner, it is possible to recognize the front vehicle 22 as if it was transparent, and it is possible to grasp the situation in the front including the positional relationship with the front vehicle 22.

【0049】また、合成データ記憶部18に記憶されて
いる位置データ、画像データ、車両データ、カメラ設定
データは、送信バッファ191に格納された(ステップ
S135)後、データ通信装置19によりデータ送信さ
れる(ステップS137)。上述のように、合成された
画像を後方車両に送信することをもって、本発明の後方
送信手段とする。送信されたデータは、自車両の後続車
に受信され、後続車の受信データとして処理される。
The position data, the image data, the vehicle data, and the camera setting data stored in the composite data storage unit 18 are stored in the transmission buffer 191 (step S135) and then transmitted by the data communication device 19. (Step S137). As described above, transmitting the combined image to the rear vehicle is the rear transmitting means of the present invention. The transmitted data is received by the following vehicle of the own vehicle and processed as the received data of the following vehicle.

【0050】一方、ステップS113で、前方車両から
データ受信が不可能であると判断した場合には、自車両
の視点変換画像データを視点変換画像データメモリ16
7から読み出して、これを正像変換する(ステップS1
41)。正像変換された画像データは、表示装置14へ
出力される(ステップS143)。そして、自車データ
記憶部16に記憶されている位置データ、画像データ、
車両データ、カメラ設定データは、送信バッファ191
に格納され(ステップS135)、ステップS137が
実行される。
On the other hand, if it is determined in step S113 that data cannot be received from the vehicle ahead, the viewpoint-converted image data of the own vehicle is converted into the viewpoint-converted image data memory 16
7 is read out and this is subjected to normal image conversion (step S1)
41). The image data subjected to the normal image conversion is output to the display device 14 (step S143). Then, the position data, the image data, which are stored in the vehicle data storage unit 16,
The vehicle data and the camera setting data are transmitted to the transmission buffer 191.
(Step S135), and step S137 is executed.

【0051】以上のように作用する本発明の車載画像処
理装置では、全ての車に搭載されるカメラの設置高さ
を、最も車高の低い普通車のカメラの設置高さに合わせ
る構成とすることができる。この場合には、視点変換処
理に対する装置の負担が軽減されるので、画像処理時間
が短縮できる。また、実際の画像と変換画像との差も少
なくなる。
In the vehicle-mounted image processing apparatus of the present invention which operates as described above, the installation height of the cameras mounted on all vehicles is adapted to the installation height of the cameras of ordinary cars having the lowest vehicle height. be able to. In this case, the load on the device for the viewpoint conversion processing is reduced, so that the image processing time can be shortened. Also, the difference between the actual image and the converted image is reduced.

【0052】また、大型車両に取り付けるカメラは、車
体の上部に取り付けた構成とすることもできる。この場
合には、遠くまで見通した画像を得ることができる。さ
らに、バスやトラックのフロントガラスの内側に取り付
けてもよい。この場合には、取り付けが容易となり、ま
た、車内に設置されているために、外部からの衝撃や風
雨にさらされることがないので、故障の発生を抑制でき
る。
Further, the camera mounted on a large vehicle may be mounted on the upper part of the vehicle body. In this case, it is possible to obtain an image looking far away. Further, it may be mounted inside the windshield of a bus or truck. In this case, the mounting is facilitated, and since it is installed in the vehicle, it is not exposed to external impacts or wind and rain, so that the occurrence of failure can be suppressed.

【0053】特に輪郭線を視覚で識別できるように、輪
郭線の色は、合成画像ABの背景の色に対応して変化さ
せる構成としてもよい。例えば,背景色に対して補色と
なる色に設定する。赤や黄色のように、特に鮮やかな色
(目立つ色)を用いてもよい。夜の場合には、明度の高
い色、昼間の場合には明度の低い色とする。この場合に
は,車幅灯のオン/オフに応じて色を切り替えればよ
い。さらに、色の変化は、各画素毎に行っても良いし、
ある領域毎に含まれる画素の平均値に対して行っても良
い。また、背景が明るいところは黒、暗いところは白と
いったようにもモノクロ2値で輪郭線を表現してもよ
い。さらに、輪郭線の表示を点滅させて、背景から際立
たせるように構成することもできる。また、車間距離が
一定の距離以下となった場合には、色を赤に変化させて
警告する構成としてもよい。また、輪郭線のみを合成す
る構成に限らず、前方車両を半透明にして合成してもよ
い。
The color of the contour line may be changed corresponding to the background color of the composite image AB so that the contour line can be visually identified. For example, a color that is complementary to the background color is set. Particularly vivid colors (prominent colors) such as red and yellow may be used. In the case of night, the color has a high lightness, and in the daytime, the color has a low lightness. In this case, the color may be switched according to the on / off of the side lights. Further, the color change may be performed for each pixel,
You may perform with respect to the average value of the pixel contained in every certain area. Further, the contour line may be expressed by monochrome binary such that the bright background is black and the dark background is white. Further, it is also possible to make the display of the contour line blink so as to stand out from the background. Further, when the inter-vehicle distance becomes equal to or less than a certain distance, the color may be changed to red to give a warning. Further, it is not limited to the configuration in which only the contour line is combined, and the front vehicle may be made semitransparent and combined.

【0054】図9は、複数車線の道路を走行している状
態で、後方車両が、横一列に複数台並んだ場合の状態を
示す道路の平面図である。各車両21a、21b、21
cは、それぞれ独自に前方車両22から送信されるデー
タを受信し、画像処理を行い、前方車両22を輪郭線に
置き換え、合成画像に重ね合わせて表示する。
FIG. 9 is a plan view of the road showing a state where a plurality of rear vehicles are lined up in a horizontal row while traveling on a road with a plurality of lanes. Each vehicle 21a, 21b, 21
Each c independently receives data transmitted from the front vehicle 22, performs image processing, replaces the front vehicle 22 with a contour line, and superimposes and displays the composite image.

【0055】図10は、複数車線の道路を走行している
状態で、前方車両が、横一列に複数台並んだ場合の状態
を示す道路の平面図である。この場合、後方の自車両2
1は、前方車両22a、22b、22cからデータを受
信した順に画像処理を行う。また、各車両毎に識別信号
を付し、受信された信号によって前方車両を識別できる
ように構成すれば、直前に位置する前方車両22aの処
理を優先して行う構成とすることもできる。
FIG. 10 is a plan view of the road showing a state in which a plurality of vehicles in front are lined up in a horizontal line while traveling on a road with a plurality of lanes. In this case, the own vehicle 2 behind
1 performs image processing in the order in which data is received from the front vehicles 22a, 22b, 22c. Further, if an identification signal is given to each vehicle and the front vehicle can be identified by the received signal, the front vehicle 22a located immediately before can be preferentially processed.

【0056】図11は、対向車線を走行する車両がある
場合の道路の平面図である。この場合には、送信データ
が、対向車線を走行する車両に拾われることのないよう
に、送信データにカメラの撮影方向や、走行方向につい
てのデータも加える。そして、受信する側は、走行方向
と同じ方向のデータのみ受信する構成とすることによ
り、対向車線の車両側の画像処理を防止できる。
FIG. 11 is a plan view of a road when there is a vehicle traveling in an oncoming lane. In this case, the transmission data is also added to the transmission data so as to prevent the transmission data from being picked up by a vehicle traveling in an oncoming lane. Then, the receiving side can prevent the image processing on the vehicle side of the oncoming lane by configuring to receive only the data in the same direction as the traveling direction.

【0057】図12は、渋滞している状態を示す道路の
平面図である。前方車両22の前にも、車両23が存在
し、連続して車両24が存在する場合、先頭車両24か
ら送信したデータを次の車両23で受信し、合成処理、
輪郭線付与処理を行った後、更に後方車両22に送信す
るというプロセスを繰り返すことで、最後方の車両21
も、最前車両の画像を取得することができる。特に渋滞
の場合に、前方の情況を把握するのに有益である。ここ
で、前方のつながっている車両が処理した全ての輪郭線
を表示すると、後方の車両では輪郭線過多になり、十分
な情報を表示画像から得られない恐れがある。そこで、
車両毎に輪郭線の色を変更したり、直前の車両の輪郭線
のみを表示する構成とすることができる。
FIG. 12 is a plan view of the road showing a state of being congested. When the vehicle 23 is present also in front of the forward vehicle 22, and the vehicles 24 are continuously present, the data transmitted from the leading vehicle 24 is received by the next vehicle 23, and the combining processing,
After the contour line adding process is performed, the process of further transmitting to the rear vehicle 22 is repeated, whereby the rearmost vehicle 21
Also, the image of the front vehicle can be acquired. Especially in the case of traffic congestion, it is useful for understanding the situation ahead. Here, if all the contour lines processed by the connected vehicle in the front are displayed, there is an excessive number of contour lines in the vehicle behind, and there is a possibility that sufficient information cannot be obtained from the displayed image. Therefore,
The color of the contour line can be changed for each vehicle, or only the contour line of the immediately preceding vehicle can be displayed.

【0058】[0058]

【発明の効果】請求項1に記載の発明によれば、前方車
両を透過した画像が得られるので、道路状況や道路標識
の見落としや死角への不安感を低減できる。請求項2に
記載の発明によれば、撮像手段が、あたかも運転者の視
点の位置に設置されているように画像を処理するので、
表示画像が運転者の視界に近い画像となり、進行方向の
道路状況が、画像から把握し易くなる。
According to the first aspect of the present invention, since an image of a vehicle in front is transmitted, it is possible to reduce anxiety about a road condition, a road sign being overlooked and a blind spot. According to the invention described in claim 2, since the image pickup means processes the image as if it were installed at the position of the driver's viewpoint,
The displayed image becomes an image close to the driver's visual field, and the road condition in the traveling direction can be easily grasped from the image.

【0059】請求項3に記載の発明によれば、画像から
前方車両の輪郭線を抽出するので、実際の前方車両の状
態に合致した輪郭線を重ねることができる。請求項4に
記載の発明によれば、既に形成されている輪郭線の画像
情報を受信するので、輪郭線を検出する処理が不要とな
り画像処理時間を短縮できる。
According to the third aspect of the present invention, since the contour line of the front vehicle is extracted from the image, the contour line that matches the actual state of the front vehicle can be superimposed. According to the invention described in claim 4, since the image information of the contour line already formed is received, the processing for detecting the contour line is not necessary, and the image processing time can be shortened.

【0060】請求項5に記載の発明によれば、合成され
た画像をさらに後方車両に送信する手段を設けること
で、前後方向に縦列して走行する車両間で、最前に位置
する車両の画像情報を最後部の車両が受信することが可
能となり、取得できる前方情況の範囲を拡大することが
できる。
According to the fifth aspect of the present invention, by providing means for further transmitting the combined image to the rear vehicle, the image of the vehicle located at the forefront among the vehicles traveling in the longitudinal direction is provided. Information can be received by the rearmost vehicle, and the range of forward conditions that can be acquired can be expanded.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像処理装置の構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of an image processing apparatus of the present invention.

【図2】本発明の画像処理装置を搭載した2つの車両の
側面図である。
FIG. 2 is a side view of two vehicles equipped with the image processing apparatus of the present invention.

【図3】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 3 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図4】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 4 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図5】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 5 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図6】画像処理の手順を示す流れ図である。FIG. 6 is a flowchart showing a procedure of image processing.

【図7】本発明の画像処理装置の作用を示すフローチャ
ートである。
FIG. 7 is a flowchart showing the operation of the image processing apparatus of the present invention.

【図8】自車両の運転者視点位置と前方車両との位置関
係を示す平面図と合成画面の図である。
FIG. 8 is a plan view showing a positional relationship between a driver's viewpoint position of the own vehicle and a front vehicle and a view of a combined screen.

【図9】複数車線の道路を走行している状態で、後方車
両が、横一列に複数台並んだ場合の状態を示す道路の平
面図である。
FIG. 9 is a plan view of the road showing a state where a plurality of rear vehicles are lined up in a horizontal row while traveling on a road with a plurality of lanes.

【図10】複数車線の道路を走行している状態で、前方
車両が、横一列に複数台並んだ場合の状態を示す道路の
平面図である。
FIG. 10 is a plan view of the road showing a state in which a plurality of vehicles in front are lined up in a horizontal row while traveling on a road with a plurality of lanes.

【図11】対向車線を走行する車両がある場合の道路の
平面図である。
FIG. 11 is a plan view of a road when there is a vehicle traveling in an oncoming lane.

【図12】渋滞している状態を示す道路の平面図であ
る。
FIG. 12 is a plan view of a road showing a state of congestion.

【符号の説明】[Explanation of symbols]

1 画像処理装置 10 記憶装置 12 演算処理装置 13 カメラ 14 画像表示装置 15 現在位置検出装置 16 自車データ記憶部 17 受信データ記憶部 18 合成データ記憶部 19 データ通信装置 21 自車両 22 前方車両 1 Image processing device 10 storage device 12 Processor 13 cameras 14 Image display device 15 Current position detector 16 Own vehicle data storage 17 Received data storage 18 Synthetic data storage 19 Data communication equipment 21 own vehicle 22 Forward vehicle

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) B60R 21/00 628 B60R 21/00 628B G06T 1/00 330 G06T 1/00 330B 3/00 100 3/00 100 300 300 Fターム(参考) 5B057 AA16 CD11 CE08 CH01 CH11 CH14 DA16 5C054 AA05 CA04 CE12 CH04 DA01 DA07 EA05 EB05 FC14 FD03 FE13 GA04 GB02 HA30 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) B60R 21/00 628 B60R 21/00 628B G06T 1/00 330 G06T 1/00 330B 3/00 100 3/00 100 300 300 F term (reference) 5B057 AA16 CD11 CE08 CH01 CH11 CH14 DA16 5C054 AA05 CA04 CE12 CH04 DA01 DA07 EA05 EB05 FC14 FD03 FE13 GA04 GB02 HA30

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 自車両の進行方向の画像を取得する撮像
手段と、 前方車両が取得した進行方向の画像を、前記前方車両か
ら受信する前方車両画像受信手段と、 該前方車両画像受信手段により受信した画像と、前記撮
像手段により取得した画像に基づき、前方車両を透過し
た画像を生成する画像生成手段とを備えることを特徴と
する車載画像処理装置。
1. An image pickup means for acquiring an image of a traveling direction of a host vehicle, a front vehicle image receiving means for receiving an image of a traveling direction acquired by a front vehicle from the front vehicle, and the front vehicle image receiving means. An in-vehicle image processing device, comprising: an image received by the image capturing means; and an image generating means for generating an image of a vehicle passing through the vehicle ahead based on the image acquired by the image capturing means.
【請求項2】 自車両の進行方向の画像を取得する撮像
手段と、 該撮像手段により取得した自車両の進行方向の画像を、
運転者から見た視点の画像に補正する自車両画像補正手
段と、 前方車両が取得した進行方向の画像を、前方車両から受
信する前方車両画像受信手段と、 前記前方車両画像受信手段により受信した画像の撮像位
置までの距離を算出する距離算出手段と、 前記距離算出手段により算出した前方車両との距離に基
いて、前記前方車両画像受信手段によって受信した画像
を、運転者から見た視点の画像に補正する前方車両画像
補正手段と、 前記自車両画像補正手段により補正された画像と、前記
前方車両補正手段により補正された画像とを合成する画
像合成手段とを備えることを特徴とする車載画像処理装
置。
2. An image pickup means for obtaining an image of the vehicle in the traveling direction, and an image of the vehicle in the traveling direction obtained by the image pickup means.
The vehicle image correction means for correcting the image from the viewpoint of the driver, the forward vehicle image receiving means for receiving the image of the traveling direction acquired by the front vehicle from the front vehicle, and the front vehicle image receiving means for receiving the image. Based on the distance between the distance calculation means for calculating the distance to the image pickup position and the front vehicle calculated by the distance calculation means, the image received by the front vehicle image reception means is changed from the viewpoint of the driver. An in-vehicle device comprising: a front vehicle image correcting unit that corrects an image, an image combining unit that combines the image corrected by the own vehicle image correcting unit, and the image corrected by the front vehicle correcting unit. Image processing device.
【請求項3】 前記自車両画像補正手段により補正され
た画像から前方車両の輪郭線を抽出する輪郭線抽出手段
を備え、 該輪郭線抽出手段により抽出された輪郭線を、前記画像
合成手段で合成された画像に重ねることを特徴とする請
求項1又は2に記載の車載画像処理装置。
3. A contour line extracting means for extracting a contour line of a forward vehicle from an image corrected by the own vehicle image correcting means, wherein the contour line extracted by the contour line extracting means is used by the image synthesizing means. The vehicle-mounted image processing device according to claim 1, wherein the vehicle-mounted image processing device is superimposed on the combined image.
【請求項4】 前方車両の車体、バンパー、ライト、ワ
イパー、タイヤ、座席、及び窓の形状のうち少なくとも
1つを含む車体形状の輪郭線を受信する輪郭線受信手段
を備え、 該輪郭線受信手段により受信した前方車両の輪郭線を、
前記画像合成手段に合成された画像に重ねることを特徴
とする請求項1又は2に記載の車載画像処理装置。
4. A contour line receiving means for receiving a contour line of a vehicle body shape including at least one of a shape of a vehicle body, a bumper, a light, a wiper, a tire, a seat, and a window of a front vehicle, the contour line receiving means. The contour line of the forward vehicle received by the means,
The vehicle-mounted image processing device according to claim 1 or 2, wherein the image is superimposed on the image combined by the image combining unit.
【請求項5】 前記画像合成手段により合成された画像
を、後方車両に送信する後方送信手段を備えることを特
徴とする請求項1から4のいずれか1に記載の車載画像
処理装置。
5. The vehicle-mounted image processing apparatus according to claim 1, further comprising a rear transmitting unit that transmits the image combined by the image combining unit to a rear vehicle.
JP2002123192A 2002-04-24 2002-04-24 In-vehicle image processing device Expired - Fee Related JP3972722B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002123192A JP3972722B2 (en) 2002-04-24 2002-04-24 In-vehicle image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002123192A JP3972722B2 (en) 2002-04-24 2002-04-24 In-vehicle image processing device

Publications (2)

Publication Number Publication Date
JP2003319383A true JP2003319383A (en) 2003-11-07
JP3972722B2 JP3972722B2 (en) 2007-09-05

Family

ID=29538603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002123192A Expired - Fee Related JP3972722B2 (en) 2002-04-24 2002-04-24 In-vehicle image processing device

Country Status (1)

Country Link
JP (1) JP3972722B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215879A (en) * 2004-01-28 2005-08-11 Mazda Motor Corp Image display device for vehicle, image display method for vehicle, and image display program for vehicle
JP2006048451A (en) * 2004-08-05 2006-02-16 Toshiba Corp Periphery monitoring device and bird's-eye image display method
JP2006193082A (en) * 2005-01-14 2006-07-27 Denso Corp Travel controller for vehicle
JP2007148811A (en) * 2005-11-28 2007-06-14 Toyota Motor Corp Tangent generation method, dead angle area setting method, visible area setting method, visibility determination method, design support device and recording medium
JP2008293095A (en) * 2007-05-22 2008-12-04 Denso Corp Operation support system
JP2009026003A (en) * 2007-07-18 2009-02-05 Denso Corp Operation support system
WO2009051028A1 (en) * 2007-10-19 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki Video display device and video display method
WO2009119110A1 (en) * 2008-03-27 2009-10-01 パナソニック株式会社 Blind spot display device
JP2009251671A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp White line recognition device
JP2010237810A (en) * 2009-03-30 2010-10-21 Mazda Motor Corp System and method for detecting moving object
JP2011039983A (en) * 2009-08-18 2011-02-24 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP4909451B1 (en) * 2011-03-28 2012-04-04 パイオニア株式会社 Information display apparatus and control method
US8179241B2 (en) 2007-09-14 2012-05-15 Denso Corporation Vehicle-use visual field assistance system in which information dispatch apparatus transmits images of blind spots to vehicles
JP2013191054A (en) * 2012-03-14 2013-09-26 Omron Corp Display method of area extraction results, and image processing device
JP2014068308A (en) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system, and image generation method
KR20150019857A (en) * 2013-08-16 2015-02-25 삼성전기주식회사 System for providing around image and method for providing around image
JP2016045825A (en) * 2014-08-26 2016-04-04 三菱重工業株式会社 Image display system
JP2016051920A (en) * 2014-08-28 2016-04-11 株式会社デンソー On-vehicle device and driving support system
JP2016213815A (en) * 2015-05-11 2016-12-15 三星電子株式会社Samsung Electronics Co.,Ltd. Method of providing vehicle surrounding view image, and device and computer readable recording medium therefor
JP2018042206A (en) * 2016-09-09 2018-03-15 株式会社タダノ Overviewing picture system, overviewing picture display method, and program
JP2019050622A (en) * 2018-11-28 2019-03-28 株式会社東芝 Image processing apparatus, image processing method, image processing program, and image processing system
CN109941194A (en) * 2017-12-20 2019-06-28 丰田自动车株式会社 Image display device
CN114782295A (en) * 2022-04-01 2022-07-22 合众新能源汽车有限公司 Image processing method, image processing device, electronic equipment and storage medium
CN115426440A (en) * 2022-07-27 2022-12-02 深圳市富中奇科技有限公司 Implementation method, device and equipment of vehicle all-round looking system and computer storage medium
JP7550067B2 (en) 2021-01-29 2024-09-12 日産自動車株式会社 Information provision method and information provision system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH079886A (en) * 1993-06-29 1995-01-13 Hitachi Ltd Drive information device for vehicle
JPH0937147A (en) * 1995-07-19 1997-02-07 Honda Motor Co Ltd Visual-sensitive device
JPH11195196A (en) * 1997-12-26 1999-07-21 Toyota Motor Corp On-vehicle information providing device
JP2002367080A (en) * 2001-06-12 2002-12-20 Clarion Co Ltd Method and device for visual support for vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH079886A (en) * 1993-06-29 1995-01-13 Hitachi Ltd Drive information device for vehicle
JPH0937147A (en) * 1995-07-19 1997-02-07 Honda Motor Co Ltd Visual-sensitive device
JPH11195196A (en) * 1997-12-26 1999-07-21 Toyota Motor Corp On-vehicle information providing device
JP2002367080A (en) * 2001-06-12 2002-12-20 Clarion Co Ltd Method and device for visual support for vehicle

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005215879A (en) * 2004-01-28 2005-08-11 Mazda Motor Corp Image display device for vehicle, image display method for vehicle, and image display program for vehicle
JP2006048451A (en) * 2004-08-05 2006-02-16 Toshiba Corp Periphery monitoring device and bird's-eye image display method
JP4744823B2 (en) * 2004-08-05 2011-08-10 株式会社東芝 Perimeter monitoring apparatus and overhead image display method
JP4507886B2 (en) * 2005-01-14 2010-07-21 株式会社デンソー Vehicle travel control device
JP2006193082A (en) * 2005-01-14 2006-07-27 Denso Corp Travel controller for vehicle
JP2007148811A (en) * 2005-11-28 2007-06-14 Toyota Motor Corp Tangent generation method, dead angle area setting method, visible area setting method, visibility determination method, design support device and recording medium
JP2008293095A (en) * 2007-05-22 2008-12-04 Denso Corp Operation support system
JP2009026003A (en) * 2007-07-18 2009-02-05 Denso Corp Operation support system
US8179241B2 (en) 2007-09-14 2012-05-15 Denso Corporation Vehicle-use visual field assistance system in which information dispatch apparatus transmits images of blind spots to vehicles
EP2200312A4 (en) * 2007-10-19 2010-10-20 Toyota Jidoshokki Kk Video display device and video display method
EP2200312A1 (en) * 2007-10-19 2010-06-23 Kabushiki Kaisha Toyota Jidoshokki Video display device and video display method
JP2009101718A (en) * 2007-10-19 2009-05-14 Toyota Industries Corp Image display device and image display method
WO2009051028A1 (en) * 2007-10-19 2009-04-23 Kabushiki Kaisha Toyota Jidoshokki Video display device and video display method
JP5208203B2 (en) * 2008-03-27 2013-06-12 パナソニック株式会社 Blind spot display device
WO2009119110A1 (en) * 2008-03-27 2009-10-01 パナソニック株式会社 Blind spot display device
US8395490B2 (en) 2008-03-27 2013-03-12 Panasonic Corporation Blind spot display apparatus
JP2009251671A (en) * 2008-04-01 2009-10-29 Toyota Motor Corp White line recognition device
JP2010237810A (en) * 2009-03-30 2010-10-21 Mazda Motor Corp System and method for detecting moving object
JP2011039983A (en) * 2009-08-18 2011-02-24 Toshiba Alpine Automotive Technology Corp Image display device for vehicle
JP4909451B1 (en) * 2011-03-28 2012-04-04 パイオニア株式会社 Information display apparatus and control method
JP2013191054A (en) * 2012-03-14 2013-09-26 Omron Corp Display method of area extraction results, and image processing device
JP2014068308A (en) * 2012-09-27 2014-04-17 Fujitsu Ten Ltd Image generation device, image display system, and image generation method
US9479740B2 (en) 2012-09-27 2016-10-25 Fujitsu Ten Limited Image generating apparatus
KR101994721B1 (en) 2013-08-16 2019-07-01 삼성전기주식회사 System for providing around image and method for providing around image
KR20150019857A (en) * 2013-08-16 2015-02-25 삼성전기주식회사 System for providing around image and method for providing around image
JP2016045825A (en) * 2014-08-26 2016-04-04 三菱重工業株式会社 Image display system
JP2016051920A (en) * 2014-08-28 2016-04-11 株式会社デンソー On-vehicle device and driving support system
JP2016213815A (en) * 2015-05-11 2016-12-15 三星電子株式会社Samsung Electronics Co.,Ltd. Method of providing vehicle surrounding view image, and device and computer readable recording medium therefor
JP2018042206A (en) * 2016-09-09 2018-03-15 株式会社タダノ Overviewing picture system, overviewing picture display method, and program
CN109941194A (en) * 2017-12-20 2019-06-28 丰田自动车株式会社 Image display device
JP2019050622A (en) * 2018-11-28 2019-03-28 株式会社東芝 Image processing apparatus, image processing method, image processing program, and image processing system
JP7550067B2 (en) 2021-01-29 2024-09-12 日産自動車株式会社 Information provision method and information provision system
CN114782295A (en) * 2022-04-01 2022-07-22 合众新能源汽车有限公司 Image processing method, image processing device, electronic equipment and storage medium
CN115426440A (en) * 2022-07-27 2022-12-02 深圳市富中奇科技有限公司 Implementation method, device and equipment of vehicle all-round looking system and computer storage medium
CN115426440B (en) * 2022-07-27 2024-03-15 深圳市富中奇科技有限公司 Method, device and equipment for realizing vehicle looking-around system and computer storage medium

Also Published As

Publication number Publication date
JP3972722B2 (en) 2007-09-05

Similar Documents

Publication Publication Date Title
JP3972722B2 (en) In-vehicle image processing device
JP4914458B2 (en) Vehicle periphery display device
US7212653B2 (en) Image processing system for vehicle
JP4702348B2 (en) In-vehicle image display device
EP2071491B1 (en) Stereo camera device
JP4593070B2 (en) Image processing apparatus for vehicle
JP4364471B2 (en) Image processing apparatus for vehicle
JP4103518B2 (en) In-vehicle image display device
US10410514B2 (en) Display device for vehicle and display method for vehicle
JP2008222153A (en) Merging support device
JP5966513B2 (en) Rear side photographing device for vehicle
US11601621B2 (en) Vehicular display system
JP2004312523A (en) On-vehicle image processor
JP4552525B2 (en) Image processing apparatus for vehicle
JP2007302238A (en) Vehicular image processing device
US11214197B2 (en) Vehicle surrounding area monitoring device, vehicle surrounding area monitoring method, vehicle, and storage medium storing program for the vehicle surrounding area monitoring device
JP3988551B2 (en) Vehicle perimeter monitoring device
JP7243516B2 (en) Display controller and display control program
CN115210099A (en) Information processing device, vehicle, and information processing method
JP2021154889A (en) Display device for vehicle
JP5723561B2 (en) Driving assistance device
JP3877127B2 (en) Vehicle display device
WO2021020033A1 (en) Display control device, display control method, and display control program
JP2018085584A (en) Image processing apparatus, imaging apparatus, and display system
JP4075172B2 (en) Vehicle obstacle warning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070320

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070604

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3972722

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100622

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110622

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120622

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130622

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140622

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees