[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4614852B2 - Vehicle surrounding monitoring method and apparatus - Google Patents

Vehicle surrounding monitoring method and apparatus Download PDF

Info

Publication number
JP4614852B2
JP4614852B2 JP2005277120A JP2005277120A JP4614852B2 JP 4614852 B2 JP4614852 B2 JP 4614852B2 JP 2005277120 A JP2005277120 A JP 2005277120A JP 2005277120 A JP2005277120 A JP 2005277120A JP 4614852 B2 JP4614852 B2 JP 4614852B2
Authority
JP
Japan
Prior art keywords
vehicle
image
movement
dimensional object
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005277120A
Other languages
Japanese (ja)
Other versions
JP2007087236A (en
Inventor
光一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2005277120A priority Critical patent/JP4614852B2/en
Publication of JP2007087236A publication Critical patent/JP2007087236A/en
Application granted granted Critical
Publication of JP4614852B2 publication Critical patent/JP4614852B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、車両に搭載した複数のカメラにより車外周辺を撮影し、その撮影画像を合成することにより、車両の上方から車両の周囲をカメラで撮影しているような画像を表示し、例えば運転者が狭い車庫や駐車場に容易に車両を操縦して入れることができる等の、運転者に対して車両の周囲を監視できる情報を提示することができるようにした車両周囲監視方法、及びその方法を実施する装置に関する。   The present invention captures the periphery of the vehicle with a plurality of cameras mounted on the vehicle, and combines the captured images to display an image as if the surroundings of the vehicle were photographed from above the vehicle. Vehicle surroundings monitoring method that enables a driver to present information that can monitor the surroundings of a vehicle to a driver, such as being able to easily steer a vehicle into a narrow garage or parking lot, and the like It relates to an apparatus for carrying out the method.

車両を狭い車庫や駐車場に入れるとき、運転者は細心の注意を必要とし、時には周囲の物体と自車両をこする等の事故を発生することもある。また、車両を車庫や駐車場から出すときも、周囲の物体や人間には十分注意する必要がある。更に、車庫や駐車場の出入り以外にも、極めて狭い道路の走行時や狭い道路での対向車とのすれ違いにおける周囲の物体との接触や、溝に車輪が落ちないようにする、等の車両の周囲に十分注意を要する場合も多い。   When putting a vehicle in a narrow garage or parking lot, the driver needs to be very careful and sometimes accidents such as rubbing the surrounding vehicle with the surrounding object may occur. Also, when taking a vehicle out of a garage or parking lot, it is necessary to pay close attention to surrounding objects and people. In addition to entering and exiting garages and parking lots, vehicles such as driving on extremely narrow roads or contacting with surrounding objects when passing on opposite roads on narrow roads, or preventing wheels from falling into grooves, etc. There are many cases where sufficient attention is required around the area.

その対策として、近年車両に広く搭載されるようになっている、車両の後方を撮影してモニタに表示して、車庫入れや駐車を容易にする後方撮影用カメラ、車両の前方両側を撮影して車両が見通しの悪い狭い道路から出るときに、先方の道路を走行する車両等を確認する車両側方撮影用カメラ等の、車外撮影カメラを利用し、車両周囲の状況を監視し、充分確認しながら運転することも行われている。   As countermeasures, the rear camera that has been widely installed in vehicles in recent years is photographed and displayed on the monitor to facilitate garage and parking, and both front sides of the vehicle are photographed. When the vehicle exits a narrow road with poor visibility, use a camera for taking a side view of the vehicle to check the vehicle traveling on the other road, etc. It is also done while driving.

しかしながら、このような車外撮影カメラを超広角カメラを用いたとしても、例えば車両を後退させながら車庫入れ等を行うとき、車両後方周囲に障害物があるときには、車両の後退とともに後方撮影用カメラの視界外になり、その障害物の状態を知ることができなくなる。その対策として、車両の両側にも超広角カメラを設け、前記のような後方撮影用カメラの視界外部分を側方撮影カメラによって見ることができるようにすることも考えられる。   However, even if such an outside-camera camera is used as an ultra-wide-angle camera, for example, when a garage is placed while the vehicle is retracted, and there is an obstacle around the rear of the vehicle, the rear-facing camera will Being out of sight and unable to know the state of the obstacle. As a countermeasure, it is also conceivable to provide super wide-angle cameras on both sides of the vehicle so that the portion outside the field of view of the rear photographing camera can be seen by the side photographing camera.

しかしながら、上記のような超広角カメラの画像では、撮影画像の中心部と周辺部とでは物体の見え方が大きく異なり、単に撮影画像を見ているだけでは、その物体と車両との位置関係が明確ではなく、予期しない衝突やこすりを生じることがある。特に後方撮影用カメラでの画像から側方撮影用カメラの画像に切り換えたとしても、そのときに画面に表示される障害物等の物体の画像は大きく異なり、実際の物体の状態を把握することは容易ではない。   However, in the image of the ultra-wide-angle camera as described above, the appearance of the object differs greatly between the central portion and the peripheral portion of the captured image, and simply looking at the captured image shows the positional relationship between the object and the vehicle. It is not clear and may cause unexpected collisions and rubbing. In particular, even if the image from the rear camera is switched to the image from the side camera, the image of the object such as an obstacle displayed on the screen at that time is very different, and the actual state of the object must be grasped. Is not easy.

そのため、車両に複数の車外撮影用カメラを搭載し、それらのカメラで撮影した画像を合成し、あたかも車両の上方に設置したカメラから車両の周囲を撮影しているような画像を形成してモニタに表示することが提案されている。そのような複数のカメラを用いる際には、車両の後方を撮影する後方撮影用カメラ、車両の右側を撮影する車両右側撮影用カメラ、車両の左側を撮影する車両左側撮影用カメラ、車両の前側を撮影する車両前方撮影用カメラの合計4個のカメラを搭載して、これらのカメラの全ての画像を合成し、あたかも車両の真上に設けたカメラにより車両の全周囲を撮影しているようにモニタに表示することも提案されている。   Therefore, a plurality of cameras for shooting outside the vehicle are mounted on the vehicle, the images shot by these cameras are combined, and an image is formed as if the surroundings of the vehicle were shot from the camera installed above the vehicle. It has been proposed to be displayed. When using such a plurality of cameras, a rear camera for photographing the rear of the vehicle, a right camera for photographing the right side of the vehicle, a left camera for photographing the left side of the vehicle, the front side of the vehicle It is equipped with a total of four cameras for the front of the vehicle that shoot the camera, combines all the images from these cameras, and seems to shoot the entire periphery of the vehicle with the camera installed directly above the vehicle It is also proposed to display on a monitor.

なお、後方撮影用カメラの画像における地上高のある目標物に対して、画面上でマーカー表示を行う技術は下記特許文献1に開示されており、車両の周囲を複数のカメラで撮影して合成画像を得る際に複数カメラの撮影境界領域にある物体が見えなくならないように、カメラの撮影方向を設定する技術は下記特許文献2に開示されている。
特開2004−56219号公報 特開2003−204547号公報
Note that a technique for displaying a marker on a screen for a target with a high ground in an image of a rear-view camera is disclosed in Patent Document 1 below, and a vehicle is photographed and synthesized by a plurality of cameras. A technique for setting the shooting direction of a camera so that an object in the shooting boundary area of a plurality of cameras is not visible when an image is obtained is disclosed in Patent Document 2 below.
JP 2004-56219 A JP 2003-204547 A

上記のように、車両の周囲を撮影するカメラを複数用い、その撮影画像を合成することにより、車両の上方から車両の周囲をカメラで撮影しているような画像を表示する際には、車両周囲の物体の撮影画像が違和感なく表示されるため見やすい車両周囲監視装置とすることができるものであるが、下記のような問題が生じる。   As described above, when a plurality of cameras that capture the periphery of the vehicle are used and the captured images are combined, an image that is captured by the camera around the vehicle from above the vehicle is displayed. Although captured images of surrounding objects are displayed without a sense of incongruity, the vehicle surroundings monitoring device can be made easy to see, but the following problems arise.

即ち、例えば図5に示すように車両1の後に後方カメラB、前に前方カメラF、車両の右側の側方部分を撮影する右側部カメラR、車両の左側の側方部分を撮影する左側部カメラLの4個のカメラを設けて車両の周囲を撮影し、それらのカメラの撮影画像を合成して車両の上方に設けたカメラにより車両の周囲を撮影しているような画像を表示するに際して、車両が車庫に入るため徐行により後退するとき、車両右側斜め後方に平面のマークMが存在するときの状態を(a)の(イ)〜(ハ)に示し、同様の位置にボールのような球状物体Oが存在するときの状態を(b)の(イ)〜(ハ)に示し、同様の位置に前記球状物体よりも高いポール状物体Pが存在する状態の合成画像の状態を(c)(イ)〜(ハ)に示している。   That is, for example, as shown in FIG. 5, the rear camera B after the vehicle 1, the front camera F in front, the right camera R for photographing the right side portion of the vehicle, and the left portion for photographing the left side portion of the vehicle. When the four cameras of the camera L are provided to shoot the surroundings of the vehicle, and the images taken by these cameras are combined to display an image of shooting the surroundings of the vehicle by the camera provided above the vehicle. When the vehicle moves backward by slowing down to enter the garage, the state when the plane mark M exists diagonally rearward on the right side of the vehicle is shown in (a) to (c), and the ball is in the same position. (B) (a) to (c) show the state when the spherical object O is present, and the state of the composite image in the state where the pole-like object P higher than the spherical object exists at the same position ( c) (a) to (c).

図5(a)に示すように車両の右側斜め後方に平面のマークMが存在するときには、最初(イ)に示されるように後方カメラBでこれを撮影し、そのときの撮影画像が同図に示すようにこのマークを車両上方に設けたカメラで見るときのように円形に表示される。その後(ロ)に示されるように車両が後退することにより、後方カメラBで撮影することができる限界の位置になった後は、(ハ)に示すように右側部カメラの撮影範囲内に入っているので、マークMはモニタ画面上では連続的に表示される。したがって平面上のマークMの合成画像は、車両の移動による視点変換後の形状変化が少ないので、常に同形状のマークMが連続的に表示されることとなる。   As shown in FIG. 5 (a), when a plane mark M is present obliquely rearward on the right side of the vehicle, it is first photographed by the rear camera B as shown in FIG. 5 (a), and the photographed image at that time is shown in FIG. As shown in the figure, this mark is displayed in a circle as when viewed with a camera provided above the vehicle. After that, as shown in (b), the vehicle moves backward, and after reaching the limit position where the rear camera B can shoot, it enters the shooting range of the right side camera as shown in (c). Therefore, the mark M is continuously displayed on the monitor screen. Therefore, since the composite image of the mark M on the plane has little shape change after the viewpoint conversion due to the movement of the vehicle, the mark M having the same shape is always displayed continuously.

一方、図5(b)に示すように前記と同様の位置にボールのような球状物体Oが存在するときには、後方カメラBで撮影する画像と右側部カメラRで撮影する画像を合成することにより得られる画像が、後方カメラBによる後方カメラ撮影画像範囲BGと右側部カメラRによる右側部カメラ撮影画像範囲RGとによって形成されることとなる。   On the other hand, as shown in FIG. 5B, when a spherical object O such as a ball exists at the same position as described above, the image captured by the rear camera B and the image captured by the right camera R are combined. The obtained image is formed by the rear camera photographed image range BG by the rear camera B and the right camera photographed image range RG by the right camera R.

上記のような高さのある立体物の撮影画像は、車両の移動と共に視点変換後の形状変化を生じることとなる。そのため特に図5(b)(ハ)に示すように後方カメラ撮影画像範囲BGと、右側部カメラ撮影画像範囲RGとの合成画像境界線BRGL部分では、小さな円形に変形して表示されることとなる。   The captured image of the three-dimensional object having the height as described above causes a shape change after the viewpoint conversion as the vehicle moves. Therefore, in particular, as shown in FIGS. 5B and 5C, the composite image boundary line BRGL of the rear camera photographed image range BG and the right camera photographed image range RG is displayed in a small circular shape. Become.

更に、図5(c)に示すように前記と同様の位置に比較的高さのあるポール状物体Pが存在するときには、この画像合成手法として上方から見た画像を形成するために、地上に高さを合わせた条件で変換することによって、高さ情報が全て平面上に付加され、面積が広くなる現象を生じる。   Further, as shown in FIG. 5C, when there is a pole-like object P having a relatively high height at the same position as described above, in order to form an image viewed from above as this image composition method, By converting under conditions that match the height, all the height information is added on the plane, resulting in a phenomenon that the area becomes wider.

そのため、立体物の見方が不自然になったり、例えば図5(c)(ハ)に示すように、後方カメラ撮影画像範囲BGと、右側部カメラ撮影画像範囲RGとの合成画像境界線BRGL部分では対象物がほとんど消失してしまる。そのためモニタの画面の表示を信頼してハンドル操作を行っている運転者にとって危険な状態にならざるを得ない。   For this reason, the view of the three-dimensional object becomes unnatural, or, for example, as shown in FIGS. 5C and 5C, the composite image boundary line BRGL portion of the rear camera captured image range BG and the right camera captured image range RG Then, almost all objects disappear. For this reason, it is inevitable that the driver who operates the steering wheel by trusting the display on the monitor screen will be in a dangerous state.

したがって本発明は、車両の周囲を複数のカメラで撮影し、撮影画像を合成することにより、あたかも車両の上方に設けたカメラによって車両の周囲を撮影しているようにモニタに表示することにより車両周囲の物体等の状態を運転者等に提示する車両周囲監視装置において、複数のカメラによる撮影画像の合成画像境界部分で立体物がほとんど消失してしまい、立体物の存在が判別できなくなり、運転に支障を生じることを防止することを主たる目的とする。   Therefore, according to the present invention, the vehicle is photographed by photographing the surroundings of the vehicle with a plurality of cameras and combining the photographed images so that the surroundings of the vehicle are photographed by the camera provided above the vehicle. In a vehicle surroundings monitoring device that presents the state of surrounding objects to the driver, etc., the three-dimensional object is almost lost at the composite image boundary part of the images captured by the multiple cameras, and the presence of the three-dimensional object cannot be determined. The main purpose is to prevent troubles.

本発明に係る車両周囲監視方法は上記課題を解決するため、車両外部を撮影する複数のカメラの画像を入力して車両の上方を視点とする合成画像を作成し、前記合成画像上における所定以上の大きさの物体画像を検出し、車両の移動を検出して、該車両の移動に対応する前記合成画像内の移動長さを演算し、 前記検出した所定以上の大きさの物体画像の中で、前記演算した合成画像内の移動長さ以上に移動した部分のある物体を立体物として検出し、前記検出した立体物の画像において最も移動の少ない画像部分にマーカーを表示し、前記マーカーを、前記合成画像において前記立体物の画像が存在するときは前記立体物基部に表示し、前記立体物基部の画像が消えたとき、車両の移動に対応して移動して表示することを特徴とする。 In order to solve the above-described problem, a vehicle periphery monitoring method according to the present invention inputs a plurality of camera images for photographing the outside of the vehicle, creates a composite image with the upper side of the vehicle as a viewpoint, and exceeds a predetermined value on the composite image. An object image of the size of the vehicle, detecting the movement of the vehicle, calculating the movement length in the composite image corresponding to the movement of the vehicle, Then, an object having a portion moved more than the movement length in the calculated composite image is detected as a three-dimensional object, and a marker is displayed on the image portion with the least movement in the detected three-dimensional image, and the marker is displayed. When the three-dimensional object image is present in the composite image, it is displayed on the three-dimensional object base, and when the three-dimensional object base image disappears, the image is moved and displayed in accordance with the movement of the vehicle. To do.

また、本発明に係る車両周囲監視装置は上記課題を解決するため、車両外部を撮影する複数のカメラの画像を入力し、車両の上方を視点とする合成画像を作成する車両上方視点画像合成手段と、前記合成画像上における所定以上の大きさの物体画像を検出する所定物体検出手段と、車両の移動を検出する車両移動検出手段と、前記車両移動検出手段で検出した車両の移動に対応する、前記合成画像内の移動長さを演算する車両移動の画像内移動長さ対応演算手段と、前記所定物体検出手段で検出した物体画像の中で、前記車両移動の画像内移動長さ対応演算手段で演算した画像内長さ以上に移動した部分のある物体を立体物として検出する立体物検出手段と、 前記立体物検出手段で検出した立体物の画像において最も移動の少ない画像部分にマーカーを表示する立体物基部マーカー表示手段とを備え、前記立体物基部マーカー表示手段は、前記合成画像において前記立体物の画像が存在するときは前記立体物基部にマーカー表示し、前記立体物基部の画像が消えたとき、車両の移動に対応してマーカーを移動して表示することを特徴とする。 In order to solve the above problems, the vehicle periphery monitoring device according to the present invention inputs the images of a plurality of cameras that photograph the outside of the vehicle, and creates a vehicle upper viewpoint image composition means for creating a composite image with the viewpoint above the vehicle. Corresponding to the movement of the vehicle detected by the vehicle movement detection means, a predetermined object detection means for detecting an object image of a predetermined size or more on the composite image, a vehicle movement detection means for detecting the movement of the vehicle, In-image movement length correspondence calculation means for calculating the movement length in the composite image, and in-image movement length correspondence calculation of the vehicle movement among the object images detected by the predetermined object detection means A three-dimensional object detecting means for detecting an object having a portion moved more than the image length calculated by the means as a three-dimensional object, and an image portion having the least movement in the three-dimensional object image detected by the three-dimensional object detecting means. A three-dimensional object base marker display means for displaying a marker, wherein the three-dimensional object base marker display means displays a marker on the three-dimensional object base when an image of the three-dimensional object exists in the composite image, and the three-dimensional object base When the image disappears, the marker is moved and displayed in accordance with the movement of the vehicle.

また、本発明に係る他の車両周囲監視装置は、前記車両周囲監視装置において、前記車両移動検出手段は車両の移動距離によって車両の移動を検出し、前記車両移動の画像内移動長さ対応演算手段では前記車両の移動距離に対応する前記合成画像内の移動長さを演算することを特徴とする。   In another vehicle surrounding monitoring apparatus according to the present invention, the vehicle movement detecting means detects the movement of the vehicle based on the moving distance of the vehicle, and calculates the movement length in the image corresponding to the movement of the vehicle. The means calculates a moving length in the composite image corresponding to the moving distance of the vehicle.

また、本発明に係る他の車両周囲監視装置は、前記車両周囲監視装置において、前記車両移動検出手段は、車両の移動距離と車両のハンドル回転角によって車両の移動を検出し、前記車両移動の画像内移動長さ対応演算手段では車両の移動距離と車両のハンドル回転角によって前記合成画像内の各部の移動長さを演算することを特徴とする。   Further, in another vehicle surrounding monitoring apparatus according to the present invention, in the vehicle surrounding monitoring apparatus, the vehicle movement detecting means detects movement of the vehicle based on a moving distance of the vehicle and a steering wheel rotation angle of the vehicle, and The in-image moving length correspondence calculating means calculates the moving length of each part in the composite image based on the moving distance of the vehicle and the steering wheel rotation angle of the vehicle.

また、本発明に係る他の車両周囲監視装置は、前記車両周囲監視装置において、前記車両外部を撮影するカメラが赤外線も検出するカメラであることを特徴とする。   Another vehicle surrounding monitoring apparatus according to the present invention is characterized in that, in the vehicle surrounding monitoring apparatus, the camera that images the outside of the vehicle is a camera that also detects infrared rays.

本発明は上記のように構成したので、車両の周囲を複数のカメラで撮影し、撮影画像を合成することにより、あたかも車両の上方に設けたカメラによって車両の周囲を撮影しているようにモニタに表示することにより車両周囲の物体等の状態を運転者等に提示する車両周囲監視装置において、複数のカメラによる撮影画像の合成画像境界部分で立体物がほとんど消失してしまうときにおいても、立体物の基部が存在するはずの位置にマーカーが表示されているので、運転者は立体物の存在が判らなくなり立体物と衝突する等の危険を防止することができる。   Since the present invention is configured as described above, the camera is photographed as if the surroundings of the vehicle were photographed by the camera provided above the vehicle by photographing the surroundings of the vehicle with a plurality of cameras and combining the photographed images. In the vehicle surroundings monitoring device that presents the state of objects around the vehicle to the driver and the like by displaying the three-dimensional object even when the three-dimensional object almost disappears at the composite image boundary portion of the images captured by the plurality of cameras. Since the marker is displayed at the position where the base of the object should be present, the driver can prevent the danger of collision with the three-dimensional object because the existence of the three-dimensional object is not known.

本発明は、車両の周囲を複数のカメラで撮影し、車両上方を視点とする画像を合成表示するとき、複数のカメラによる撮影画像の合成画像境界部分で立体物がほとんど消失してしまい見えなくなるという問題を、車両外部を撮影する複数のカメラの画像を入力して車両の上方を視点とする合成画像を作成し、前記合成画像上における所定以上の大きさの物体画像を検出し、車両の移動を検出して、該車両の移動に対応する前記合成画像内の移動長さを演算し、前記検出した所定以上の大きさの物体画像の中で、前記演算した合成画像内の移動長さ以上に移動した部分のある物体を立体物として検出し、前記検出した立体物の画像において最も移動の少ない画像部分にマーカーを表示し、前記マーカーを、前記合成画像において前記立体物の画像に関わらず、車両の移動に対応して移動表示することによって解決した。   In the present invention, when a vehicle is photographed with a plurality of cameras and an image with the viewpoint above the vehicle is synthesized and displayed, the three-dimensional object is almost disappeared at the boundary portion of the synthesized image of the images photographed by the plurality of cameras and cannot be seen. The problem is that a plurality of camera images that capture the exterior of the vehicle are input to create a composite image with the top of the vehicle as a viewpoint, and an object image of a predetermined size or larger is detected on the composite image, The movement is detected, the movement length in the composite image corresponding to the movement of the vehicle is calculated, and the calculated movement length in the composite image among the detected object images of a predetermined size or larger is calculated. The object with the moved part is detected as a three-dimensional object, a marker is displayed on the image part with the least movement in the image of the detected three-dimensional object, and the marker is displayed on the synthesized image. Regardless, it was solved by moving the display in response to movement of the vehicle.

本発明の実施例を図面に沿って説明する。図1は本発明の実施例の機能ブロック図である。なお、同図における各機能部は、各機能を行う手段ということもできる。図1に示す実施例においては、車両1の周囲を撮影するために、車両の進行方向に対して左側に配置して主として左側下方を撮影する左側部カメラ2と、右側に配置して主として右側下方を撮影する右側部カメラ3と、車両の後方に配置して主として後方を撮影する後方カメラ4と、車両の前方に配置して主として前方を撮影する前方カメラ5の4個のカメラを搭載した例を示している。これらのカメラは十分に広角度を撮影することができるカメラが用いられる。   Embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a functional block diagram of an embodiment of the present invention. In addition, each function part in the same figure can also be called means to perform each function. In the embodiment shown in FIG. 1, in order to photograph the surroundings of the vehicle 1, a left-side camera 2 that is disposed on the left side with respect to the traveling direction of the vehicle and mainly photographs the lower left side, and a right-side camera that is disposed on the right side. Four cameras are mounted: a right side camera 3 that captures the lower part, a rear camera 4 that is disposed at the rear of the vehicle and mainly captures the rear, and a front camera 5 that is disposed at the front of the vehicle and primarily captures the front. An example is shown. As these cameras, cameras capable of photographing a sufficiently wide angle are used.

図1に示す車両周囲監視装置においては、車両外撮影カメラ画像入力部6において、左側部カメラ画像入力部7、右側部カメラ画像入力部8、後方カメラ画像入力部9、前方カメラ画像入力部10において各々のカメラの画像を入力している。それらの各カメラの画像は車両上方視点画像合成部11において、あたかも車両上方にカメラを設置して車両の周囲を撮影しているように画像を合成する。このような画像合成に際しては、既に開発成果が報告されている手法等、種々の手法を採用することができる。   In the vehicle surrounding monitoring apparatus shown in FIG. 1, the left camera image input unit 7, the right camera image input unit 8, the rear camera image input unit 9, and the front camera image input unit 10 in the outside camera image input unit 6. The image of each camera is input in. The images of these cameras are synthesized in the vehicle upper viewpoint image synthesis unit 11 as if the camera is installed above the vehicle and the surroundings of the vehicle are photographed. In such image synthesis, various methods such as a method for which a development result has already been reported can be employed.

図3には図1に示した車両1に設けた4個のカメラの撮影範囲と、これらのカメラで撮影した画像を合成した例を示しており、図3の例においては、左側部カメラ2は車両左側に設けた左サイドミラーに、右側部カメラ3は同様に右サイドミラーに、後方カメラ4は車体後部に、前方カメラ5はフロントバンパーに設置した例を示している。但し、これらは一例であり、各カメラは車体形状等に合わせて、任意の位置に取り付けることができ、それらのカメラの撮影範囲は互いに重複して撮影することができるようにし、特に車両の近接周辺状態を知ることができるように設置される。   FIG. 3 shows an example in which the shooting ranges of the four cameras provided in the vehicle 1 shown in FIG. 1 and images shot by these cameras are combined. In the example of FIG. Shows a left side mirror provided on the left side of the vehicle, the right camera 3 is similarly installed on the right side mirror, the rear camera 4 is installed on the rear of the vehicle body, and the front camera 5 is installed on the front bumper. However, these are only examples, and each camera can be mounted at any position according to the shape of the vehicle body, etc., so that the shooting range of these cameras can be taken overlapping each other, especially in the proximity of the vehicle It is installed so that you can know the surrounding conditions.

図3(c)は上記のようにして撮影した各カメラの画像を、車両の上方にカメラを設置して車両周辺を撮影したような、車両の上方を視点にした画像を合成した結果の例を示す図であり、この画像は前記図5に示した従来例と同様の画像処理によって得られる。即ち、後方カメラ4の撮影画像による後方カメラ撮影画像範囲BG、前方カメラ5による前方カメラ撮影画像範囲FG、左側部カメラ2による左側部カメラ撮影画像範囲LG、右側部カメラ3による右側部カメラ撮影画像範囲RGによって車両1の周囲の所定の画像が得られる。このような画像合成が、図1における車両上方視点画像合成部11において行なわれ、それにより車両上方視点合成画像GGが得られる。   FIG. 3C shows an example of the result of combining the images taken from the above-described images with the images viewed from above the vehicle, such as when the camera is installed above the vehicle and the periphery of the vehicle is photographed. This image is obtained by the same image processing as the conventional example shown in FIG. That is, the rear camera captured image range BG based on the captured image of the rear camera 4, the front camera captured image range FG based on the front camera 5, the left side camera captured image range LG based on the left side camera 2, and the right side camera captured image based on the right side camera 3. A predetermined image around the vehicle 1 is obtained by the range RG. Such image composition is performed in the vehicle upper viewpoint image composition unit 11 in FIG. 1, thereby obtaining the vehicle upper viewpoint image GG.

本発明による立体画像へのマーク付与とそのマークの移動処理は、この車両上方視点合成画像GGの中で行われるものであるが、その状態を前記図5の従来技術に対応させて説明したのが図4である。図4(a)における(イ)〜(ハ)は、車両1の後に後方カメラB、前に前方カメラF、車両の右側の側方部分を撮影する右側部カメラR、車両の左側の側方部分を撮影する左側部カメラLの4個のカメラを設けて車両の周囲を撮影し、それらのカメラの撮影画像を合成して車両の上方に設けたカメラにより車両の周囲を撮影しているような画像を表示するかを示している。この状態で車両が車庫に入るため徐行により後退するとき、車両右側斜め後方に平面のマークMが存在するときの状態を(a)の(イ)〜(ハ)に示しており、このマークMの位置に(b)及び(c)の(イ)〜(ハ)に示すように、ポール状立体物が存在することを示している。なお、図4の(a)は既に説明したので、ここでの重複説明は省略する。   The mark addition to the stereoscopic image and the movement process of the mark according to the present invention are performed in the vehicle upper viewpoint composite image GG, and the state has been described in correspondence with the prior art of FIG. Is FIG. (A) to (c) in FIG. 4A are a rear camera B after the vehicle 1, a front camera F in front, a right side camera R for photographing a right side portion of the vehicle, and a left side side of the vehicle. The left camera L that shoots the part is provided with four cameras to photograph the surroundings of the vehicle, and the captured images of these cameras are combined to photograph the surroundings of the vehicle with the camera provided above the vehicle. This indicates whether to display a correct image. In this state, when the vehicle moves backward by slowing down because it enters the garage, the state when the flat mark M exists diagonally rearward on the right side of the vehicle is shown in (a) to (c). As shown in (a) to (c) of (b) and (c), a pole-shaped three-dimensional object is present at the position of. In addition, since (a) of FIG. 4 was already demonstrated, the duplication description here is abbreviate | omitted.

図1の所定物体検出部12においては、車両上方視点画像合成部11で合成された画像の中で、所定以上の長さの物体画像を検出することにより、所定以上の高さのある物体である可能性がある物体画像を検出する。即ち、前記図5(c)の説明でも述べたように、比較的高さのある物体が存在するときには、この画像合成手法として上方から見た画像を形成するために、地上に高さを合わせた条件で変換するため、高さ情報が全て平面上に付加され、平面上の長さとして表現される。   In the predetermined object detection unit 12 of FIG. 1, an object image having a predetermined length or more is detected by detecting an object image having a predetermined length or more from the images combined by the vehicle upper viewpoint image combining unit 11. A possible object image is detected. That is, as described in the explanation of FIG. 5 (c), when there is a relatively high object, the height is adjusted to the ground to form an image viewed from above as this image composition method. Therefore, all the height information is added on the plane and expressed as the length on the plane.

したがって画面中で所定の長さの物体を検出することにより、車両にとって障害物になる程度の高さの物体を認識することができる。しかしながら、このような画像が現れた最初の段階では、その画像が単なる平面上のマークのような画像であるのか、前記のような立体物の画像であるのかは、ここではわからない。   Therefore, by detecting an object having a predetermined length on the screen, it is possible to recognize an object that is high enough to be an obstacle for the vehicle. However, at the first stage when such an image appears, it is not known here whether the image is an image like a simple mark on a plane or an image of a three-dimensional object as described above.

図1においては、車両移動検出部13に、車両1が移動していること、及び所定時間内の走行距離等の走行距離を入力する車両走行距離入力部14と、運転者が車両のハンドルを回転操作した角度を検出する車両ハンドル回転角入力部15とを備えており、その信号を車両移動の画像内移動長さ対応演算部16に出力している。この車両移動の画像内移動長さ対応演算部16では、最も基本的には、車両が例えば30cm移動したとき、その移動距離は前記合成画像内でどのくらいの長さに対応しているかを、所定の係数をかける等によって演算する。   In FIG. 1, a vehicle travel detection unit 13 inputs a travel distance such as a travel distance such as a travel distance within a predetermined time and a vehicle travel distance input unit 14 for inputting a travel distance such as a travel distance within a predetermined time. A vehicle handle rotation angle input unit 15 that detects the angle of the rotation operation is provided, and the signal is output to the in-image movement length correspondence calculation unit 16 of vehicle movement. In the in-image movement length correspondence calculation unit 16 of this vehicle movement, most basically, when the vehicle has moved, for example, 30 cm, the predetermined distance indicating how long the movement distance corresponds in the composite image is determined. It is calculated by multiplying the coefficient.

更に、より正確には、その際に車両の走行方向を調節するため運転者がハンドルを操作したときには、それによってカメラで撮影している方向が変化し、単に直線移動しているときとは異なり、画面に表示される物体の画像が回転移動するので、その移動の状態を考慮するために、車両ハンドル回転角入力部15の信号を用いて補正演算する。   Furthermore, more precisely, when the driver operates the steering wheel to adjust the traveling direction of the vehicle at that time, the direction of shooting with the camera changes accordingly, which is different from when the vehicle is simply moving in a straight line. Since the image of the object displayed on the screen rotates and moves, correction calculation is performed using the signal from the vehicle handle rotation angle input unit 15 in order to consider the movement state.

その演算結果は立体物検出部17に出力され、前記所定物体検出部12で検出障害となる立体物である可能性のある画像について、車両走行距離に対応する画像内の長さがL1であるとき、その立体物の可能性のある画像の中で、車両の走行距離に対応する長さL1以上移動した部分があるか否かを演算して判別する。例えば図4(b)の(ロ)に示すように、この長さL1よりも長い、長さL2の部分がある物体画像が存在する時、その画像は平面画像ではなく、障害になりそうな大きさの立体物の画像であることが判る。   The calculation result is output to the three-dimensional object detection unit 17, and for an image that may be a three-dimensional object that becomes a detection obstacle in the predetermined object detection unit 12, the length in the image corresponding to the vehicle travel distance is L1. At this time, it is determined by calculating whether or not there is a part that has moved by a length L1 or more corresponding to the travel distance of the vehicle in an image that may be a three-dimensional object. For example, as shown in (b) of FIG. 4B, when there is an object image having a length L2 longer than the length L1, the image is not a planar image and is likely to become an obstacle. It can be seen that the image is a three-dimensional object having a size.

立体物検出部17で上記のようにして立体物画像を検出したとき、立体物基部検出部18がその立体物画像において車両の移動距離に対応する移動長さL1部分が立体物の地上に設置している、最も車両に近い部分であると判断し、その部分を立体物の基部として検出する。立体物基部マーカー表示部20では、立体物基部検出部18で検出した立体物の基部に対して、例えばL字状、或いは逆L字状等で適宜見やすい色彩を付けたマークAを付与する。この状態を図4(c)の(ロ)に示している。   When the three-dimensional object image is detected by the three-dimensional object detection unit 17 as described above, the three-dimensional object base detection unit 18 sets a movement length L1 portion corresponding to the moving distance of the vehicle in the three-dimensional object image on the ground of the three-dimensional object. It is determined that the portion is closest to the vehicle, and that portion is detected as the base of the three-dimensional object. In the three-dimensional object base marker display unit 20, for example, an L-shaped or inverted L-shaped mark A with a color that is easy to see is given to the three-dimensional object base detected by the three-dimensional object base detection unit 18. This state is shown in (b) of FIG.

マーカー移動演算部19では、車両走行距離入力部14で入力したその後の車両の移動に対応して、更には必要に応じて車両のハンドル回転角度にも対応して、車両移動の画像内移動長さ対応演算部16で演算した結果に基づき、前記のようにして表示したマーカーを画面内で移動する。このような処理を行う結果、図4(c)(ハ)に示すように表示され、前記図5に示した従来例、即ち図5(b)(ハ)に示すように、1つのカメラの撮影画像範囲から他のカメラの撮影画像範囲への接続部において、立体物画像が消えるようなことがあっても、本発明においてはマーカーAは消えることなく、車両の移動と共に画面内で対応して移動して表示されるので、運転者は障害物に気を付けながら安全に後退することができる。   The marker movement calculation unit 19 corresponds to the subsequent movement of the vehicle input by the vehicle travel distance input unit 14, and further corresponds to the steering wheel rotation angle of the vehicle as necessary, and the movement length in the image of the vehicle movement. Based on the result calculated by the correspondence calculation unit 16, the marker displayed as described above is moved within the screen. As a result of such processing, the images are displayed as shown in FIGS. 4C and 4C, and the conventional example shown in FIG. 5, that is, as shown in FIGS. In the present invention, even if the three-dimensional object image disappears at the connection portion from the photographed image range to the photographed image range of another camera, the marker A does not disappear in the present invention, and it corresponds in the screen as the vehicle moves. The driver can safely move backward while paying attention to obstacles.

図1に示すような本発明による車両周囲監視装置は、例えば図2に示す作動フローにしたがって順に作動させることにより実施することができる。図2に示す車外撮影合成画像による立体物マーカーの表示処理においては、最初に複数の車外撮影カメラで四方を撮影する(ステップS1)。次いで、各カメラによる撮影画像によって車両を上から見た、車両上方視点画像を合成する(ステップS2)。この処理は図1の車両上方視点画像合成部11において行なわれる。   The vehicle surrounding monitoring apparatus according to the present invention as shown in FIG. 1 can be implemented by, for example, sequentially operating according to the operation flow shown in FIG. In the display processing of the three-dimensional object marker by the outside-the-car shooting composite image shown in FIG. 2, first, four sides are shot with a plurality of the outside-camera shooting cameras (step S1). Next, a vehicle upper viewpoint image in which the vehicle is viewed from above is synthesized by images taken by the cameras (step S2). This processing is performed in the vehicle upper viewpoint image composition unit 11 in FIG.

その後、この撮影画像内に所定以上の大きさの物体画像はあるか否かを判別する(ステップS3)。ここで所定以上の画像とは、カメラで撮影し画像合成した画像の中で、例えば高さが30cm以上の立体物が危険であるとすると、そのような立体物が平面画像中でどの程度の長さに展開されているかを換算することにより決めることができる。但し、ここでは、そのような大きさの物体画像が存在していても、それが平面状の物体やマークのようなものか、前記のような立体物であるのかは不明の状態となっている。   Thereafter, it is determined whether or not there is an object image having a size larger than a predetermined size in the captured image (step S3). Here, an image of a predetermined size or more is an image that is taken with a camera and combined, and for example, if a three-dimensional object with a height of 30 cm or more is dangerous, how much such a three-dimensional object is in a planar image. It can be determined by converting whether the length has been expanded. However, here, even if an object image of such a size exists, it is unknown whether it is a planar object or mark or a three-dimensional object as described above. Yes.

ステップS3の判別の結果、画像中に所定以上の大きさの物体画像がないと判別したときは、車両が現在移動しているか否かを判別し(ステップS14)、移動していると判別したときには再びステップS3に戻って同様の判別を行い、ステップS14で車両は現在移動していないと判別したときには、エンジンを止めたか否かを判別する(ステップS15)。ここでエンジンを止めたと判別したときには、ステップS16に進んでこの処理を終了する。また、未だエンジンが止まっていないと判別したときにはステップS14に戻り、車両が移動しているか否かを判別して前記作動を繰り返す。   As a result of the determination in step S3, when it is determined that there is no object image larger than a predetermined size in the image, it is determined whether or not the vehicle is currently moving (step S14), and it is determined that the vehicle is moving. Sometimes the process returns to step S3 again to make the same determination. When it is determined in step S14 that the vehicle is not currently moving, it is determined whether or not the engine is stopped (step S15). If it is determined that the engine has been stopped, the process proceeds to step S16 and the process is terminated. If it is determined that the engine has not yet stopped, the process returns to step S14 to determine whether or not the vehicle is moving and the operation is repeated.

ステップS3の判別の結果、画像中に所定以上の大きさの物体画像が存在すると判別したときには、その後車両が移動すると(ステップS4)、その車両の走行距離を計測し(ステップS5)、更に車両のハンドル回転角を計測する(ステップS6)。次いで、合成画像中に車両移動に対応する長さ以上に移動した部分のある物体画像は存在するか否かを判別する(ステップS7)。この処理は、図1の立体物検出部17が、車両移動の画像内移動長さ対応演算部16による演算データと、所定物体検出部12で検出した物体画像の一部の移動長さを比較することにより行われる。その際には、前記のように車両の走行距離に加えて、車両のハンドル回転による車両の方向変化によってカメラの撮影画像が回転することを加味して移動長さを演算することが好ましい。   As a result of the determination in step S3, when it is determined that an object image having a size larger than a predetermined size is present in the image, if the vehicle subsequently moves (step S4), the travel distance of the vehicle is measured (step S5), and further the vehicle The handle rotation angle is measured (step S6). Next, it is determined whether or not there is an object image having a portion that has moved beyond the length corresponding to the vehicle movement in the composite image (step S7). In this process, the three-dimensional object detection unit 17 in FIG. 1 compares the calculation data by the in-image movement length correspondence calculation unit 16 of the vehicle movement and the movement length of a part of the object image detected by the predetermined object detection unit 12. Is done. In that case, it is preferable to calculate the movement length in consideration of the fact that the captured image of the camera is rotated by the change in the direction of the vehicle due to the rotation of the vehicle handle, in addition to the travel distance of the vehicle as described above.

次いで、ステップS7においてそのような物体画像が存在しないと判別したときには、前記ステップS3において判別した撮影画像内に所定以上の大きさの物体は、立体物ではないと判別し、ステップS3に戻って再び撮影画像内に所定以上の大きさの物体画像はあるか否かを判別し、以下同様の作動を繰り返す。ステップS7においてそのような物体画像が存在すると判別したときには、その画像の物体は所定以上の大きさの立体物であることを検出し、その検出した立体物において、車両移動距離と等しい部分にマーカー表示を行う。   Next, when it is determined in step S7 that such an object image does not exist, it is determined that an object of a predetermined size or larger in the captured image determined in step S3 is not a three-dimensional object, and the process returns to step S3. It is determined again whether or not there is an object image of a predetermined size or larger in the captured image, and the same operation is repeated thereafter. When it is determined in step S7 that such an object image exists, it is detected that the object of the image is a three-dimensional object having a size greater than or equal to a predetermined size, and a marker is located at a portion equal to the vehicle movement distance in the detected three-dimensional object. Display.

即ち、ステップS7によって物体画像が立体物の画像であることが判別されたときには、その立体物の画像において、車両の移動距離と等しい部分を、立体物が地面と接している基部であるとして、図1の立体物基部マーカー表示部20が、例えば図4(c)の(ロ)に示すようなマーカーAを表示することにより行われる。なお、マーカーAの形状は利用者に見やすいものであるならば種々のものを用いることができ、また、上記のような立体物が複数存在するときには、それらの各々の基部にマーカー表示を行う。その際には、各マーカーの色を変える等、種々の態様で実施することができる。   That is, when it is determined in step S7 that the object image is an image of a three-dimensional object, a portion equal to the moving distance of the vehicle in the image of the three-dimensional object is assumed to be a base part in contact with the ground. The three-dimensional object base marker display unit 20 in FIG. 1 displays the marker A as shown in (b) of FIG. Various shapes of the marker A can be used as long as they are easy for the user to see. When there are a plurality of three-dimensional objects as described above, a marker is displayed on each of the bases. In that case, it can implement in various aspects, such as changing the color of each marker.

その後、車両は現在移動しているか否かを判別し(ステップS9)、移動していないと判別したときには前記ステップS15と同様にエンジンを止めたか否かを判別する(ステップS13)。ここでエンジンを止めたと判別したときにはこの作動フローを終了する(ステップS16)。また、未だエンジンを止めていないと判別したときには、再びステップS9に戻って前記作動を繰り返す。   Thereafter, it is determined whether or not the vehicle is currently moving (step S9). When it is determined that the vehicle is not moving, it is determined whether or not the engine is stopped as in step S15 (step S13). If it is determined that the engine has been stopped, the operation flow ends (step S16). If it is determined that the engine has not been stopped, the process returns to step S9 and the above operation is repeated.

ステップS9で車両が移動していると判別したときには、図示実施例においては画面中にマーカーを表示した認識立体物は表示されているか否かを判別している(ステップS10)。その判別の結果、マーカーを表示した認識立体物が表示されている、と判別したときには、マーカーを表示した認識立体物の基部に対してマーカーを移動して表示する(ステップS12)。   When it is determined in step S9 that the vehicle is moving, in the illustrated embodiment, it is determined whether or not the recognized solid object displaying the marker is displayed on the screen (step S10). As a result of the determination, when it is determined that the recognized three-dimensional object displaying the marker is displayed, the marker is moved and displayed with respect to the base of the recognized three-dimensional object displaying the marker (step S12).

ステップS10での判別の結果、マーカーを表示した認識立体物が表示されていないと判別したときには、車両の移動距離に相当する分だけマーカーを画面上で移動して表示する(ステップS11)。即ち、一つのカメラの撮影画像範囲とこれに接続する他のカメラの撮影画像範囲との繋ぎ目で、前記のような立体物の画像が消えてしまう現象が生じても、マーカーだけは車両の移動に対応して移動するので、運転者はそのマーカーの移動に注意を払って車両を移動させればよい。ステップS11でマーカーの移動を行った後は、再びステップS9に戻り、車両は現在移動しているか否かの判別を行い、前記と同様の作動を繰り返す。その後、前記のようにステップS12で車両が停止していると判別され、ステップS13でエンジンを止めたと判別されると、ステップS16でこの作動フローを終了する。   As a result of the determination in step S10, when it is determined that the recognized three-dimensional object displaying the marker is not displayed, the marker is moved and displayed on the screen by an amount corresponding to the moving distance of the vehicle (step S11). In other words, even if a phenomenon occurs in which the image of a three-dimensional object disappears at the joint between the captured image range of one camera and the captured image range of another camera connected thereto, only the marker is the vehicle. Since the vehicle moves in response to the movement, the driver may move the vehicle while paying attention to the movement of the marker. After the marker is moved in step S11, the process returns to step S9 again to determine whether or not the vehicle is currently moving, and the same operation as described above is repeated. Thereafter, if it is determined in step S12 that the vehicle is stopped as described above, and it is determined in step S13 that the engine is stopped, the operation flow is ended in step S16.

上記のような車両の周囲の監視は、前記実施例のように車両の後退時以外に車両の前進時にも同様にして作動し、また、夜間の車両周囲の立体物監視のために赤外線カメラを用いて、その画像を前記と同様に合成し、同様の作動を行わせることもできる。その際には一般家庭用のビデオカメラと同様に、カメラ撮影態様を赤外線カメラ態様に切り換えることができるようにし、その際には家庭用ビデオカメラと同様に、周囲に赤外線を照射して撮影することが好ましい。   The monitoring of the surroundings of the vehicle as described above operates in the same manner when the vehicle moves forward as well as when the vehicle moves backward as in the above embodiment, and an infrared camera is used to monitor the three-dimensional object around the vehicle at night. It is also possible to combine the images in the same manner as described above and perform the same operation. In that case, the camera shooting mode can be switched to the infrared camera mode as in a general home video camera, and in that case, as in the home video camera, the surroundings are irradiated with infrared rays and shot. It is preferable.

本発明は一般車両用の周囲監視装置として利用する以外に、特殊車両を含め各種の車両においても同様に利用することができる。   The present invention can be used in various vehicles including special vehicles in addition to being used as a surrounding monitoring device for general vehicles.

本発明の実施例の機能ブロック図である。It is a functional block diagram of the Example of this invention. 同実施例の作動フロー図である。It is an operation | movement flowchart of the Example. 同実施例において車両に車外撮影用カメラを搭載して周囲を撮影し、その撮影画像により車両の上部に設けたカメラにより車両の周囲を撮影しているような画像を合成する例を示す図である。The figure which shows the example which mounts the camera for vehicle outside photography in the Example, image | photographs the circumference | surroundings, and synthesize | combines the image which image | photographs the circumference | surroundings of the vehicle with the camera provided in the upper part of the vehicle by the picked-up image. is there. 本発明において立体物の画像の基部にマーカーを付与する実施例の説明図である。It is explanatory drawing of the Example which provides a marker to the base of the image of a solid object in this invention. 従来の装置において、合成画像により地上のマーカー、球状物、ポール状物体が表示される例を示す図である。It is a figure which shows the example in which a ground marker, a spherical object, and a pole-like object are displayed by the synthesized image in the conventional apparatus.

符号の説明Explanation of symbols

1 車両
6 車両外撮影カメラ画像入力部
11 車両上方視点画像合成部
12 所定物体検出部
13 車両走行距離入力部
14 車両走行距離入力部
15 車両ハンドル回転角入力部
16 車両移動の画像内移動長さ対応演算部
17 立体物検出部
18 立体物基部検出部
19 マーカー移動演算部
20 立体物基部マーカー表示部
DESCRIPTION OF SYMBOLS 1 Vehicle 6 Camera outside camera image input part 11 Vehicle upper viewpoint image synthetic | combination part 12 Predetermined object detection part 13 Vehicle travel distance input part 14 Vehicle travel distance input part 15 Vehicle handle rotation angle input part 16 Intra-image movement length of vehicle movement Corresponding calculation unit 17 Solid object detection unit 18 Solid object base detection unit 19 Marker movement calculation unit 20 Solid object base marker display unit

Claims (5)

車両外部を撮影する複数のカメラの画像を入力して車両の上方を視点とする合成画像を作成し、
前記合成画像上における所定以上の大きさの物体画像を検出し、
車両の移動を検出して、該車両の移動に対応する前記合成画像内の移動長さを演算し、 前記検出した所定以上の大きさの物体画像の中で、前記演算した合成画像内の移動長さ以上に移動した部分のある物体を立体物として検出し、
前記検出した立体物の画像において最も移動の少ない画像部分にマーカーを表示し、
前記マーカーを、前記合成画像において前記立体物の画像が存在するときは前記立体物基部に表示し、前記立体物基部の画像が消えたとき、車両の移動に対応して移動して表示することを特徴とする車両周囲監視方法。
Input images from multiple cameras that capture the exterior of the vehicle and create a composite image with the viewpoint above the vehicle.
Detecting an object image of a predetermined size or more on the composite image;
A movement of the vehicle is detected, a movement length in the composite image corresponding to the movement of the vehicle is calculated, and a movement in the calculated composite image is detected among the detected object images of a predetermined size or larger. Detect an object with a part that has moved more than the length as a three-dimensional object,
In the detected three-dimensional object image, a marker is displayed on the image portion with the least movement,
The marker is displayed on the three-dimensional object base when the image of the three-dimensional object is present in the composite image, and is moved and displayed corresponding to the movement of the vehicle when the image of the three-dimensional object base disappears. A vehicle surrounding monitoring method characterized by the above.
車両外部を撮影する複数のカメラの画像を入力し、車両の上方を視点とする合成画像を作成する車両上方視点画像合成手段と、
前記合成画像上における所定以上の大きさの物体画像を検出する所定物体検出手段と、
車両の移動を検出する車両移動検出手段と、
前記車両移動検出手段で検出した車両の移動に対応する、前記合成画像内の移動長さを演算する車両移動の画像内移動長さ対応演算手段と、
前記所定物体検出手段で検出した物体画像の中で、前記車両移動の画像内移動長さ対応演算手段で演算した画像内長さ以上に移動した部分のある物体を立体物として検出する立体物検出手段と、
前記立体物検出手段で検出した立体物の画像において最も移動の少ない画像部分にマーカーを表示する立体物基部マーカー表示手段とを備え、
前記立体物基部マーカー表示手段は、前記合成画像において前記立体物の画像が存在するときは前記立体物基部にマーカー表示し、前記立体物基部の画像が消えたとき、車両の移動に対応してマーカーを移動して表示することを特徴とする車両周囲監視装置。
Vehicle upper viewpoint image synthesizing means for inputting a plurality of camera images for photographing the outside of the vehicle and creating a composite image with the upper side of the vehicle as a viewpoint;
A predetermined object detecting means for detecting an object image of a predetermined size or more on the composite image;
Vehicle movement detection means for detecting movement of the vehicle;
In-image movement length correspondence calculation means for calculating the movement length in the composite image corresponding to the movement of the vehicle detected by the vehicle movement detection means;
Three-dimensional object detection for detecting, as a three-dimensional object, an object having a portion that has moved more than the in-image length calculated by the in-image moving length correspondence calculating means of the vehicle movement in the object image detected by the predetermined object detecting means. Means,
A three-dimensional object base marker display means for displaying a marker on an image portion having the least movement in the three-dimensional object image detected by the three-dimensional object detection means;
The three-dimensional object base marker display means displays a marker on the three-dimensional object base when the image of the three-dimensional object exists in the composite image, and responds to movement of the vehicle when the image of the three-dimensional object base disappears. A vehicle surroundings monitoring device characterized by moving and displaying a marker.
前記車両移動検出手段は車両の移動距離によって車両の移動を検出し、前記車両移動の画像内移動長さ対応演算手段では前記車両の移動距離に対応する前記合成画像内の移動長さを演算することを特徴とする請求項記載の車両周囲監視装置。 The vehicle movement detection means detects the movement of the vehicle based on the movement distance of the vehicle, and the movement length correspondence calculation means in the image of the vehicle movement calculates a movement length in the composite image corresponding to the movement distance of the vehicle. The vehicle surrounding monitoring apparatus according to claim 2, wherein 前記車両移動検出手段は、車両の移動距離と車両のハンドル回転角によって車両の移動を検出し、前記車両移動の画像内移動長さ対応演算手段では車両の移動距離と車両のハンドル回転角によって前記合成画像内の各部の移動長さを演算することを特徴とする請求項記載の車両周囲監視装置。 The vehicle movement detection means detects the movement of the vehicle based on the movement distance of the vehicle and the steering wheel rotation angle of the vehicle, and the calculation means corresponding to the movement length in the image of the vehicle movement determines the movement based on the movement distance of the vehicle and the steering wheel rotation angle of the vehicle. The vehicle surrounding monitoring apparatus according to claim 2, wherein a moving length of each part in the composite image is calculated. 前記車両外部を撮影するカメラは赤外線も検出するカメラであることを特徴とする請求項記載の車両周囲監視装置。 3. The vehicle surrounding monitoring apparatus according to claim 2, wherein the camera for photographing the outside of the vehicle is a camera that also detects infrared rays.
JP2005277120A 2005-09-26 2005-09-26 Vehicle surrounding monitoring method and apparatus Expired - Fee Related JP4614852B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005277120A JP4614852B2 (en) 2005-09-26 2005-09-26 Vehicle surrounding monitoring method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005277120A JP4614852B2 (en) 2005-09-26 2005-09-26 Vehicle surrounding monitoring method and apparatus

Publications (2)

Publication Number Publication Date
JP2007087236A JP2007087236A (en) 2007-04-05
JP4614852B2 true JP4614852B2 (en) 2011-01-19

Family

ID=37974141

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005277120A Expired - Fee Related JP4614852B2 (en) 2005-09-26 2005-09-26 Vehicle surrounding monitoring method and apparatus

Country Status (1)

Country Link
JP (1) JP4614852B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4816923B2 (en) * 2006-03-01 2011-11-16 日産自動車株式会社 Vehicle peripheral image providing apparatus and method
JP5098397B2 (en) 2007-03-29 2012-12-12 コニカミノルタホールディングス株式会社 Ink jet ink and ink jet recording method
JP2009077022A (en) * 2007-09-19 2009-04-09 Sanyo Electric Co Ltd Driving support system and vehicle
JP5870608B2 (en) * 2011-10-13 2016-03-01 アイシン精機株式会社 Image generation device
JP5961472B2 (en) * 2012-07-27 2016-08-02 日立建機株式会社 Work machine ambient monitoring device
JP6782192B2 (en) * 2017-05-17 2020-11-11 株式会社デンソーアイティーラボラトリ Object detection device, object detection method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166802A (en) * 2000-11-30 2002-06-11 Toyota Motor Corp Device for monitoring around vehicle
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002166802A (en) * 2000-11-30 2002-06-11 Toyota Motor Corp Device for monitoring around vehicle
JP2003132349A (en) * 2001-10-24 2003-05-09 Matsushita Electric Ind Co Ltd Drawing device

Also Published As

Publication number Publication date
JP2007087236A (en) 2007-04-05

Similar Documents

Publication Publication Date Title
JP4707109B2 (en) Multi-camera image processing method and apparatus
US10899277B2 (en) Vehicular vision system with reduced distortion display
US11472338B2 (en) Method for displaying reduced distortion video images via a vehicular vision system
JP4425495B2 (en) Outside monitoring device
US8694195B2 (en) Motor vehicle having a wheel-view camera and method for controlling a wheel-view camera system
EP2429877B1 (en) Camera system for use in vehicle parking
JP5421072B2 (en) Approaching object detection system
KR101243108B1 (en) Apparatus and method for displaying rear image of vehicle
US8044781B2 (en) System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor
JP5132249B2 (en) In-vehicle imaging device
US20150042799A1 (en) Object highlighting and sensing in vehicle image display systems
US8081211B2 (en) Reverse or peripheral sensing system for a vehicle
US20090022423A1 (en) Method for combining several images to a full image in the bird's eye view
US8477191B2 (en) On-vehicle image pickup apparatus
JP4796676B2 (en) Vehicle upper viewpoint image display device
JP5077606B2 (en) Method for calibrating a device comprising at least one omnidirectional camera and an optical display unit
JP2019529242A (en) Method of providing rearview mirror scene around vehicle
JP2009049943A (en) Top view display unit using range image
JP2010215027A (en) Driving assistant device for vehicle
JP4614852B2 (en) Vehicle surrounding monitoring method and apparatus
JP2019110448A (en) Display control device and display system
JP4674814B2 (en) Image display device for vehicle and image composition method
KR102473404B1 (en) Apparatus for providing top view
JP4600999B2 (en) Vehicle perimeter monitoring device
JP2009230225A (en) Periphery monitoring device for vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101019

R150 Certificate of patent or registration of utility model

Ref document number: 4614852

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131029

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees