[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5026398B2 - Vehicle periphery monitoring device - Google Patents

Vehicle periphery monitoring device Download PDF

Info

Publication number
JP5026398B2
JP5026398B2 JP2008302899A JP2008302899A JP5026398B2 JP 5026398 B2 JP5026398 B2 JP 5026398B2 JP 2008302899 A JP2008302899 A JP 2008302899A JP 2008302899 A JP2008302899 A JP 2008302899A JP 5026398 B2 JP5026398 B2 JP 5026398B2
Authority
JP
Japan
Prior art keywords
luminance
vehicle
monitoring device
periphery monitoring
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008302899A
Other languages
Japanese (ja)
Other versions
JP2010128800A (en
Inventor
幸大 松田
誠 相村
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008302899A priority Critical patent/JP5026398B2/en
Publication of JP2010128800A publication Critical patent/JP2010128800A/en
Application granted granted Critical
Publication of JP5026398B2 publication Critical patent/JP5026398B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)

Description

本発明は、車両に搭載された撮像装置によって得られる撮像画像を用いて車両の周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring device that monitors the periphery of a vehicle using a captured image obtained by an imaging device mounted on the vehicle.

車両に搭載されている撮像装置を通じて得られた撮像画像から、第1対象物領域(高輝度領域)と、その下方にあって比較的小さい複数の第2対象物領域(高輝度領域)とが抽出された場合、この対象物が鹿等の四足動物に該当すると判定して、この対象物の存在を運転者に知らせる技術が知られている(特許文献1参照)。
特開2007−310705号公報
From a captured image obtained through an imaging device mounted on a vehicle, there are a first object region (high luminance region) and a plurality of relatively small second object regions (high luminance regions) below the first object region. When extracted, it is determined that the object corresponds to a quadruped animal such as a deer, and a technique for notifying the driver of the presence of the object is known (see Patent Document 1).
JP 2007-310705 A

しかし、前記手法によれば、第1対象物領域およびその下方にある第2対象物領域が撮像装置から抽出されうる車両等の人工構造物が鹿等の四足動物に該当する誤判定される可能性がある。   However, according to the above-described method, the first target region and the second target region below the first target region can be extracted from the imaging device, and an erroneous determination is made that the artificial structure such as a vehicle corresponds to a quadruped animal such as a deer. there is a possibility.

そこで、本発明は、対象物が四足動物に該当するか否かの判定精度の向上を図ることができる装置を提供することを目的とする。   Then, an object of this invention is to provide the apparatus which can aim at the improvement of the determination precision whether a target object corresponds to a quadruped animal.

第1発明の車両周辺監視装置は、車両に搭載されている赤外線撮像装置により得られた赤外線撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記赤外線撮像画像から、該赤外線撮像画像上で高輝度の対象物が存在する領域を対象物領域として抽出する対象物抽出手段と、前記対象物抽出手段により抽出された前記対象物領域を構成する複数の画素を対象として輝度の標準偏差を算定する特徴量抽出手段と、前記特徴量抽出手段により算定された前記標準偏差が閾値以上であることを要件として前記対象物が四足動物の一部または全部に該当すると判定する対象物分類手段とを備えていることを特徴とする。 The vehicle periphery monitoring device of the first invention is a vehicle environment monitoring apparatus for monitoring a periphery of a vehicle using infrared captured image obtained by the infrared imaging apparatus mounted on the vehicle, from the infrared captured image, the Object extraction means for extracting an area where a high-luminance object is present on the infrared captured image as an object area, and luminance for a plurality of pixels constituting the object area extracted by the object extraction means A feature amount extracting means for calculating a standard deviation of the object, and determining that the object corresponds to a part or all of a quadruped animal on the condition that the standard deviation calculated by the feature amount extracting means is equal to or greater than a threshold value And an object classification means.

第1発明の車両周辺監視装置によれば、赤外線撮像画像から抽出された、該赤外線撮像画像上で高輝度の対象物領域の輝度の標準偏差またはばらつき度合いが閾値以上であることを要件として、この対象物が四足動物に該当すると判定される。赤外線撮像画像とは赤外線撮像装置により撮像された原画像のほか、原画像が処理されることにより生成された加工画像をも包含する概念である。四足動物の頭、首または胴体などの表面のうねりまたは体毛のむらなどの原因により、赤外線撮像画像における四足動物には輝度のばらつきが生じる点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かが高精度で判定されうる。なお、四足動物とはすべての四足動物を意味するのではなく、本発明の手法により識別されうる四足動物を意味する。 According to the vehicle periphery monitoring device of the first invention, the requirement that the infrared captured image is extracted from the standard deviation or variation degree of the luminance of the object area of the high luminance on the infrared captured image is equal to or greater than the threshold, It is determined that this object corresponds to a quadruped animal. The infrared captured image is a concept including not only an original image captured by an infrared imaging device but also a processed image generated by processing the original image. In view of the fact that brightness varies in quadruped animals in infrared imaging images due to undulations on the surface of the head, neck or torso of the quadruped animal, or uneven hair, the object is Whether it falls under an animal can be determined with high accuracy. In addition, a quadruped animal does not mean all the quadruped animals, but means a quadruped animal that can be identified by the technique of the present invention.

第2発明の車両周辺監視装置は、車両に搭載されている赤外線撮像装置により得られた赤外線撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、前記赤外線撮像画像から、該赤外線撮像画像上で高輝度の対象物が存在する領域を対象物領域として抽出する対象物抽出手段と、前記対象物抽出手段により抽出された前記対象物領域を構成する複数の画素においてのみ、最高輝度および最低輝度の差を第1輝度差として算定する特徴量抽出手段と、前記特徴量抽出手段により算定された前記第1輝度差が第1閾値以上であることを要件として前記対象物が四足動物の一部または全部に該当すると判定する対象物分類手段とを備えていることを特徴とする。 The vehicle periphery monitoring device of the second invention is a vehicle environment monitoring apparatus for monitoring a periphery of a vehicle using infrared captured image obtained by the infrared imaging apparatus mounted on the vehicle, from the infrared captured image, the Only in a plurality of pixels constituting the object area extracted by the object extraction means, the object extraction means for extracting an area where a high-luminance object exists on the infrared imaged image as the object area. The feature quantity extraction means for calculating the difference between the brightness and the minimum brightness as the first brightness difference, and the target object has four requirements on the condition that the first brightness difference calculated by the feature quantity extraction means is not less than a first threshold value. And an object classification means for determining that it corresponds to a part or all of a paw animal.

第2発明の車両周辺監視装置によれば、赤外線撮像画像から抽出された、該赤外線撮像画像上で高輝度の対象物領域の最高輝度および最低輝度の差としての第1輝度差が第1閾値以上であることを要件として、この対象物が四足動物に該当すると判定される。四足動物の頭、首または胴体などの表面のうねりまたは体毛のむらなどの原因により、赤外線撮像画像における四足動物には輝度のばらつきが生じる点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かが高精度で判定されうる。 According to the vehicle periphery monitoring device of the second invention, extracted from an infrared captured image, the maximum brightness and the first luminance difference is the first threshold value as the difference between the minimum luminance of the object area of the high luminance on the infrared imaging image Based on the above requirements, it is determined that this object corresponds to a quadruped animal. In view of the fact that brightness varies in quadruped animals in infrared imaging images due to undulations on the surface of the head, neck or torso of the quadruped animal, or uneven hair, the object is Whether it falls under an animal can be determined with high accuracy.

第3発明の車両周辺監視装置は、第2発明の車両周辺監視装置において、前記特徴量抽出手段が前記対象物領域の平均輝度と前記対象物領域の背景領域の平均輝度との差を第2輝度差として算定し、前記対象物分類手段が、前記第2輝度差が第2閾値以上であることをさらなる要件として前記対象物が四足動物の一部または全部に該当すると判定することを特徴とする。   In the vehicle periphery monitoring device according to a third aspect of the present invention, in the vehicle periphery monitoring device according to the second aspect of the invention, the feature amount extraction means calculates the difference between the average luminance of the object region and the average luminance of the background region of the object region. It is calculated as a luminance difference, and the object classification means determines that the object corresponds to a part or all of a quadruped animal as a further requirement that the second luminance difference is a second threshold value or more. And

第3発明の車両周辺監視装置によれば、赤外線撮像画像から抽出された対象物領域の平均輝度と、この対象物領域の背景領域の輝度の差としての第2輝度差が第2閾値以上であることを要件として、この対象物が四足動物に該当すると判定される。対象物領域およびその背景画像には比較的大きな輝度差が生じる蓋然性が高い点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かがさらに高精度で判定されうる。
第4発明の車両周辺監視装置は、第1または2発明の車両周辺監視装置において、更に前記対象物抽出手段によって抽出された対象物領域について、該対象物領域に存在する対象物が人間に該当するか否かを判定する人間判定手段を備え、前記特徴量抽出手段は、前記対象物抽出手段により抽出された前記対象物領域のうち、前記人間判定手段により人間に該当しないと判定された対象物領域に対し、該対象物領域を構成する複数の画素のみを対象として輝度の標準偏差を算定することを特徴とする。
According to the vehicle periphery monitoring device of the third aspect of the invention, the second luminance difference as the difference between the average luminance of the object area extracted from the infrared captured image and the luminance of the background area of the object area is greater than or equal to the second threshold value. As a requirement, it is determined that this object corresponds to a quadruped animal. In view of the high probability that a relatively large luminance difference will occur between the object region and its background image, it can be determined with higher accuracy whether or not the object corresponds to a quadruped animal by the determination method.
The vehicle periphery monitoring device according to a fourth aspect of the present invention is the vehicle periphery monitoring device according to the first or second aspect of the present invention, and further, regarding the object region extracted by the object extracting means, the object existing in the object region corresponds to a human being. Human feature determination means for determining whether or not to perform, wherein the feature amount extraction means is a target determined by the human determination means as not being a human being among the target region extracted by the target object extraction means. For the object area, the luminance standard deviation is calculated only for a plurality of pixels constituting the object area.

発明の車両周辺監視装置は、第1〜第4発明の車両周辺監視装置において、前記対象物抽出手段により抽出された前記対象物領域から、指定輝度範囲に属する輝度を有するひとまとまりの画素群により構成され、かつ、指定形状を有する指定領域を抽出する特徴量抽出手段と、前記特徴量抽出手段により抽出された前記指定領域の数が指定値以上であることを要件として前記対象物が四足動物の一部または全部に該当すると判定する対象物分類手段とを備えていることを特徴とする。 A vehicle periphery monitoring device according to a fifth aspect of the present invention is the vehicle periphery monitoring device according to any one of the first to fourth aspects of the present invention , wherein a group of pixels having a luminance belonging to a specified luminance range from the object region extracted by the object extraction means. A feature amount extracting unit configured to extract a specified region having a specified shape and having a specified shape; and the number of the specified regions extracted by the feature amount extracting unit is equal to or greater than a specified value. And an object classifying unit that determines that it corresponds to a part or all of a quadruped animal.

発明の車両周辺監視装置によれば、赤外線撮像画像から抽出された、該赤外線撮像画像上で高輝度の対象物領域において、指定輝度範囲に含まれる輝度を有するひとまとまりの画素群により構成され、かつ、指定形状を有する指定領域が指定値以上存在することを要件として、この対象物が四足動物に該当すると判定される。四足動物の頭、首または胴体などの表面のうねりまたは体毛のむらなどの原因により、撮像画像における四足動物には特有の形状を有する輝度むら部分が検知される可能性がある点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かが高精度で判定されうる。 According to the vehicle periphery monitoring device of the fifth aspect of the present invention structure, extracted from an infrared captured image, in the object region of high intensity on the infrared imaging image, the pixel group of people grouped with luminance included in the designated luminance range In addition, it is determined that the target object corresponds to a quadruped animal on the condition that a specified region having a specified shape is present at a specified value or more. In view of the possibility of detecting uneven brightness portions having a unique shape in the quadruped animal in the captured image due to undulation of the surface of the head, neck or torso of the quadruped animal or uneven hair. The determination method can determine with high accuracy whether or not the object corresponds to a quadruped animal.

本発明の車両周辺監視装置の実施形態について説明する。まず、本実施形態の車両周辺監視装置の構成について説明する。車両周辺監視装置は図1および図2に示されている画像処理ユニット1を備えている。画像処理ユニット1には、車両10の前方を撮像する左右一対の赤外線カメラ(本発明の「撮像装置」に該当する。)2R,2Lが接続されるとともに、車両10の走行状態を検出するセンサとして、車両10のヨーレートを検出するヨーレートセンサ3、車両10の走行速度(車速)を検出する車速センサ4および車両10のブレーキ操作の有無を検出するブレーキセンサ5が接続されている。さらに、画像処理ユニット1には、音声などによる聴覚的な通報情報を出力するためのスピーカ6および赤外線カメラ2R,2Lにより撮像された撮像画像や視覚的な通報情報を表示するためにフロントウィンドウ付近に配置されているHUD(ヘッド・アップ・ディスプレイ)7が接続されている。なお、対象物との距離がレーダーにより測定される場合、1台の赤外線カメラのみが車両10に搭載されてもよい。HUDに代えてまたは加えて、車両10の車速などの走行状態を表示するディスプレイ、あるいは、車載ナビゲーション装置が有するディスプレイが画像表示装置として採用されてもよい。   An embodiment of a vehicle periphery monitoring device of the present invention will be described. First, the structure of the vehicle periphery monitoring apparatus of this embodiment is demonstrated. The vehicle periphery monitoring device includes an image processing unit 1 shown in FIGS. 1 and 2. The image processing unit 1 is connected to a pair of left and right infrared cameras (corresponding to the “imaging device” of the present invention) 2R and 2L that image the front of the vehicle 10 and sensors that detect the traveling state of the vehicle 10. The yaw rate sensor 3 for detecting the yaw rate of the vehicle 10, the vehicle speed sensor 4 for detecting the traveling speed (vehicle speed) of the vehicle 10, and the brake sensor 5 for detecting the presence or absence of a brake operation of the vehicle 10 are connected. Further, the image processing unit 1 has a speaker 6 for outputting auditory report information such as voice and the vicinity of the front window for displaying captured images taken by the infrared cameras 2R and 2L and visual report information. HUD (Head Up Display) 7 is connected. When the distance to the object is measured by a radar, only one infrared camera may be mounted on the vehicle 10. Instead of or in addition to the HUD, a display that displays a traveling state such as the vehicle speed of the vehicle 10 or a display that an in-vehicle navigation device has may be employed as the image display device.

画像処理ユニット1は、A/D変換回路、CPU、RAM、ROM等のメモリ、I/O回路およびこれらを接続するバスなどにより構成されているECU(電子制御ユニット)により構成されている。画像処理ユニット10(詳細にはメモリまたは記憶装置に格納されているプログラムにしたがって演算処理を実行するCPU)が、本発明の「対象物抽出手段」「特徴量抽出手段」および「対象物種類判定手段」を構成する。赤外線カメラ2R,2L、ヨーレートセンサ3、車速センサ4およびブレーキセンサ5から出力されるアナログ信号が、A/D変換回路によりデジタルデータ化され、CPUによりデジタル化されたデータに基づき、人間(歩行者または自転車もしくは二輪自動車の乗員など)または四足動物(鹿、馬または犬など)等の対象物を検出し、検出した対象物が所定の通報要件を満たす場合にスピーカ6やHUD7を通じて対象物の存在、または、車両10と対象物との接触可能性の高低を運転者に通報する。   The image processing unit 1 includes an ECU (electronic control unit) that includes an A / D conversion circuit, a memory such as a CPU, a RAM, and a ROM, an I / O circuit, and a bus that connects these. The image processing unit 10 (specifically, a CPU that executes arithmetic processing in accordance with a program stored in a memory or a storage device) performs “object extraction means”, “feature amount extraction means”, and “object type determination” according to the present invention. Means ". Analog signals output from the infrared cameras 2R, 2L, the yaw rate sensor 3, the vehicle speed sensor 4, and the brake sensor 5 are converted into digital data by the A / D conversion circuit, and based on the data digitized by the CPU, humans (pedestrians) Or an object such as a cyclist or a two-wheeled vehicle) or a quadruped animal (such as a deer, a horse or a dog), and when the detected object satisfies a predetermined notification requirement, the object is detected through the speaker 6 or the HUD 7. The driver is notified of the presence or the possibility of contact between the vehicle 10 and the object.

図2に示されているように、赤外線カメラ2R,2Lは、車両10の前方を撮像するために車両10の前部(図ではフロントグリルの部分)に取り付けられている。右側の赤外線カメラ2Rは車両10の車幅方向の中心よりも右寄りの位置に配置され、左側の赤外線カメラ2Lは車両10の車幅方向の中心よりも左寄りの位置に配置されている。それらの位置は車両10の車幅方向の中心に対して左右対称である。赤外線カメラ2R,2Lは光軸が互いに平行に車両10の前後方向に延在し、且つ、それぞれの光軸の路面からの高さが互いに等しくなるように固定されている。赤外線カメラ2R,2Lは、遠赤外域に感度を有し、それにより撮像される物体の温度が高いほど、出力される映像信号のレベルが高くなる(映像信号の輝度が高くなる)特性を有している。   As shown in FIG. 2, the infrared cameras 2 </ b> R and 2 </ b> L are attached to the front portion of the vehicle 10 (the front grill portion in the figure) in order to image the front of the vehicle 10. The right infrared camera 2R is disposed at a position to the right of the center of the vehicle 10 in the vehicle width direction, and the left infrared camera 2L is disposed at a position to the left of the center of the vehicle 10 in the vehicle width direction. Their positions are symmetrical with respect to the center of the vehicle 10 in the vehicle width direction. The infrared cameras 2R and 2L are fixed so that their optical axes extend in the front-rear direction of the vehicle 10 in parallel with each other, and the heights of the respective optical axes from the road surface are equal to each other. The infrared cameras 2R and 2L have sensitivity in the far-infrared region, and have a characteristic that the higher the temperature of an object to be imaged, the higher the level of the output video signal (the higher the luminance of the video signal). is doing.

次に、前記構成の車両周辺監視装置の機能について説明する。なお、画像処理の詳細は特開2001−006096号公報および特開2007−310705号公報に開示されているので簡単に説明する。まず、赤外線カメラ2R、2Lの赤外画像信号が画像処理ユニット1に入力され、赤外画像信号がA/D変換され、A/D変換された赤外画像信号に基づいてグレースケール画像が生成され、基準となるグレースケール画像(右画像)が2値化される。その上で、2値化画像において対象物が存在する領域が対象物領域Sとして抽出される(図3/STEP002)。具体的には、2値化画像の高輝度領域を構成する画素群がランレングスデータに変換され、基準画像の縦方向に重なりを有するライン群のそれぞれにラベル(識別子)が付され、ライン群のそれぞれが対象物領域Sとして抽出される。これにより、図5(a)(b)に斜線付きで示されているようなひとまとまりの高輝度画素(画素値=1の画素)により構成される高輝度領域が対象物領域Sとして抽出される。   Next, functions of the vehicle periphery monitoring device having the above-described configuration will be described. Details of the image processing are disclosed in Japanese Patent Laid-Open Nos. 2001-006096 and 2007-310705, and will be briefly described. First, infrared image signals of the infrared cameras 2R and 2L are input to the image processing unit 1, the infrared image signal is A / D converted, and a gray scale image is generated based on the A / D converted infrared image signal. Then, the reference grayscale image (right image) is binarized. After that, an area where the object exists in the binarized image is extracted as the object area S (FIG. 3 / STEP002). Specifically, a pixel group constituting a high luminance area of the binarized image is converted into run length data, and a label (identifier) is attached to each of the line groups that overlap in the vertical direction of the reference image. Are extracted as the object region S. As a result, a high-luminance region composed of a group of high-luminance pixels (pixel value = 1 pixel) as shown by hatching in FIGS. 5A and 5B is extracted as the object region S. The

続いて、各対象物の重心の位置(基準画像上での位置)、面積および外接四角形の縦横比が算定される。また、対象物の時刻間追跡が実行され、画像処理ユニット1の演算処理周期毎の対象物の同一性が判定される。さらに、車速センサ4およびヨーレートセンサ5の出力(車速の検出値及びヨーレートの検出値)が読み込まれる。また、外接四角形の縦横比算出および対象物の時刻間追跡と並行して、基準画像のうち、各対象物に対応する領域(たとえば対象物の外接四角形の領域)が探索画像として抽出される。さらに、相関演算が実行されることにより左画像中から探索画像に対応する画像(対応画像)が探索かつ抽出される。また、車両10から対象物までの実空間距離(車両10の前後方向における距離)zが算定される。また、各対象物の実空間位置(車両10に対する相対位置)が算定される。さらに、対象物の実空間位置(X,Y,Z)(図2参照)のうちのX成分が回頭角の時系列データに応じて補正される。また、車両10に対する対象物の相対移動ベクトルが算定される(図3/STEP004)。   Subsequently, the position of the center of gravity of each object (position on the reference image), the area, and the aspect ratio of the circumscribed rectangle are calculated. Further, tracking of the target object is performed, and the identity of the target object is determined for each calculation processing cycle of the image processing unit 1. Further, the outputs (vehicle speed detection value and yaw rate detection value) of the vehicle speed sensor 4 and the yaw rate sensor 5 are read. Further, in parallel with the calculation of the aspect ratio of the circumscribed rectangle and the tracking of the object during the time, the area corresponding to each object (for example, the area of the circumscribed rectangle of the object) is extracted as a search image from the reference image. Furthermore, by executing the correlation calculation, an image (corresponding image) corresponding to the search image is searched and extracted from the left image. Further, a real space distance (distance in the front-rear direction of the vehicle 10) z from the vehicle 10 to the object is calculated. Moreover, the real space position (relative position with respect to the vehicle 10) of each object is calculated. Further, the X component of the real space position (X, Y, Z) (see FIG. 2) of the object is corrected according to the time-series data of the turning angle. Further, the relative movement vector of the object with respect to the vehicle 10 is calculated (FIG. 3 / STEP004).

さらに、車両10と対象物との接触可能性の高低が判定される(図3/STEP006)。この判定手法についても特開2001−006096号公報および特開2007−310705号公報に開示されているので簡単に説明する。まず、対象物の実空間距離zが相対速度Vsと余裕時間Tとの乗算値以下であるか否かが判定される。また、実空間距離zが当該値以下であると判定された場合、対象物が接近判定領域に存在するか否かが判定される(第1の接触判定処理)。接近判定領域は車両10の前方において車両10の左右方向に対称に広がり、車両10の幅にオフセット値を加えた幅を有している。第1の接触判定処理における判定結果が肯定的である場合、対象物が車両10と接触する可能性が高いと判定される。一方、第1の接触判定処理における判定結果が否定的である場合、対象物が接近判定領域の外側にある進入判定領域に存在し、かつ、対象物の相対移動ベクトルが接近判定領域に向かっているか否かがさらに判定される(第2の接触判定処理)。第2の接触判定処理における判定結果が肯定的である場合、対象物が車両10と接触する可能性が高いと判定される。   Furthermore, the level of the possibility of contact between the vehicle 10 and the object is determined (FIG. 3 / STEP006). Since this determination method is also disclosed in Japanese Patent Laid-Open Nos. 2001-006096 and 2007-310705, it will be briefly described. First, it is determined whether or not the real space distance z of the object is equal to or less than the product of the relative speed Vs and the margin time T. When it is determined that the real space distance z is equal to or less than the value, it is determined whether or not the object exists in the approach determination region (first contact determination process). The approach determination area extends symmetrically in the left-right direction of the vehicle 10 in front of the vehicle 10 and has a width obtained by adding an offset value to the width of the vehicle 10. When the determination result in the first contact determination process is affirmative, it is determined that there is a high possibility that the object is in contact with the vehicle 10. On the other hand, when the determination result in the first contact determination process is negative, the object exists in the entry determination area outside the approach determination area, and the relative movement vector of the object moves toward the approach determination area. It is further determined whether or not there is (second contact determination process). When the determination result in the second contact determination process is affirmative, it is determined that there is a high possibility that the target object is in contact with the vehicle 10.

車両10と対象物との接触可能性が高いと判定された場合(第1または第2の接触判定処理における判定結果が肯定的である場合)(図3/STEP006‥YES)、対象物が人工構造物等、その存在の通報の必要性が低い物体に該当するか否かが判定される(図3/STEP008)。たとえば、対象物が歩行者または四足動物には該当し得ないような外形上の特徴がこの対象物において検知された場合、この対象物が人工構造物に該当すると判定される。車両10と対象物との接触可能性が低いと判定された場合(第1および第2の接触判定処理における判定結果が否定的である場合)(図3/STEP006‥NO)、または、対象物が通報対象に該当しないと判定された場合(図3/STEP008‥NO)、後述の通報処理が実行されることなく対象物領域Sの抽出以降の処理が繰り返される(図3/STEP002等参照)。   When it is determined that the possibility of contact between the vehicle 10 and the object is high (when the determination result in the first or second contact determination process is affirmative) (FIG. 3 / STEP006... YES), the object is artificial. It is determined whether or not the object, such as a structure, has a low necessity for reporting its existence (FIG. 3 / STEP008). For example, when an external feature that does not correspond to a pedestrian or a quadruped is detected in this object, it is determined that the object corresponds to an artificial structure. When it is determined that the possibility of contact between the vehicle 10 and the object is low (when the determination results in the first and second contact determination processes are negative) (FIG. 3 / STEP006... NO), or the object Is determined not to fall under the notification target (FIG. 3 / STEP008... NO), the processing subsequent to the extraction of the object region S is repeated without executing the notification processing described later (see FIG. 3 / STEP002, etc.). .

対象物が人工構造物等に該当しないと判定された場合(図3/STEP008‥YES)、この対象物が歩行者または自転車乗員等の人間に該当するか否かが判定される(図3/STEP010)。また、対象物が人間に該当しないと判定された場合(図3/STEP010‥NO)、この対象物が鹿、馬または犬等の四足動物に該当するか否かが判定される(図3/STEP012)。この判定手法の詳細については後述する。   When it is determined that the object does not correspond to an artificial structure or the like (FIG. 3 / STEP008... YES), it is determined whether or not the object corresponds to a person such as a pedestrian or a bicycle occupant (FIG. 3 / (STEP010). When it is determined that the object does not correspond to a human (FIG. 3 / STEP010... NO), it is determined whether or not the object corresponds to a quadruped animal such as a deer, a horse or a dog (FIG. 3). / STEP012). Details of this determination method will be described later.

そして、対象物が人間に該当すると判定された場合(図3/STEP010‥YES)、または、対象物が四足動物に該当すると判定された場合(図3/STEP012‥YES)、「通報処理」が実行される(図3/STEP014)。これにより、スピーカ6から「ピピピ」等の音声が出力される。また、対象物を囲む矩形状のフレームおよび対象物が人間であることを示すマークのうち一方または両方がHUD7に表示される。なお、画像および音声のうち両方ではなく一方のみが出力されてもよい。   When it is determined that the object corresponds to a human (FIG. 3 / STEP010... YES), or when it is determined that the object corresponds to a quadruped animal (FIG. 3 / STEP012... YES), “report processing” Is executed (FIG. 3 / STEP014). As a result, sound such as “beep” is output from the speaker 6. One or both of a rectangular frame surrounding the object and a mark indicating that the object is a human are displayed on the HUD 7. Note that only one of the image and the sound may be output instead of both.

次に、本発明の要部である対象物の四足動物該当性の判定手法について説明する。まず、対象物領域Sが基本要件を満たしているか否かが判定される(図4/STEP202)。具体的には(1)対象物領域Sの重心位置(または外接四角形の重心)Pの実空間位置における高さY(図5(a)参照)が四足動物の胴体の標準的な高さ範囲に含まれること、および、(2)カメラ2R,2Lのそれぞれによる撮像画像において、対象物領域Sを含み、かつ、相関度が設定値以上の領域Rの幅W(図5(b)参照)が横から見たときの四足動物の標準的な横幅範囲に含まれることが基本要件とされている。対象物領域Sが基本要件を満たしていないと判定された場合(図4/STEP202‥NO)、この対象物領域Sは四足動物の一部または前部に該当しないと判定される(図4/STEP240)。なお、基本要件の充足性判定が省略された上で以降の処理が実行されてもよい。   Next, a method for determining whether a subject is a quadruped animal will be described. First, it is determined whether or not the object region S satisfies the basic requirements (FIG. 4 / STEP 202). Specifically, (1) the height Y (see FIG. 5A) of the center of gravity of the object region S (or the center of the circumscribed rectangle) P in the real space position is the standard height of the quadruped animal body. And (2) the width W of the region R that includes the object region S and has a correlation degree equal to or greater than a set value in the captured images of the cameras 2R and 2L (see FIG. 5B). ) Is included in the standard width range of quadrupeds when viewed from the side. When it is determined that the object area S does not satisfy the basic requirements (FIG. 4 / STEP 202... NO), it is determined that the object area S does not correspond to a part or an anterior part of the quadruped animal (FIG. 4). / STEP 240). It should be noted that the subsequent processing may be executed after omitting the satisfaction determination of the basic requirements.

対象物領域Sが基本要件を満たしていると判定された場合(図4/STEP202‥YES)、この対象物領域Sを構成する複数の画素の輝度分布を表わす輝度ヒストグラムが作成される(図4/STEP204)。続いて、この輝度ヒストグラムに基づき、対象物領域Sを構成する複数画素の輝度のばらつき度合を表わす、輝度標準偏差σが算定され(図4/STEP206)、この輝度標準偏差σが閾値σ0以上であるか否かが判定される(図4/STEP208)。そして、輝度標準偏差σが閾値σ0以上であると判定された場合(図4/STEP208‥YES)、第1判定フラグaflag1が「1」に設定される(図4/STEP210)。その一方、輝度標準偏差σが閾値σ0未満であると判定された場合(図4/STEP208‥NO)、第1判定フラグaflag1が「0」に設定される(図4/STEP212)。   When it is determined that the object area S satisfies the basic requirements (FIG. 4 / STEP 202... YES), a luminance histogram representing the luminance distribution of a plurality of pixels constituting the object area S is created (FIG. 4). / STEP 204). Subsequently, based on this luminance histogram, a luminance standard deviation σ representing the degree of variation in luminance of the plurality of pixels constituting the object region S is calculated (FIG. 4 / STEP 206), and this luminance standard deviation σ is greater than or equal to the threshold σ0. It is determined whether or not there is (FIG. 4 / STEP 208). If it is determined that the luminance standard deviation σ is equal to or greater than the threshold σ0 (FIG. 4 / STEP208... YES), the first determination flag aflag1 is set to “1” (FIG. 4 / STEP210). On the other hand, when it is determined that the luminance standard deviation σ is less than the threshold σ0 (FIG. 4 / STEP208... NO), the first determination flag aflag1 is set to “0” (FIG. 4 / STEP212).

また、輝度ヒストグラムに基づき、対象物領域Sを構成する複数の画素の最高輝度および最低輝度の差が第1輝度差ΔL1として算定され(図4/STEP214)、第1輝度差ΔL1が第1閾値Δ1以上であるか否かが判定される(図4/STEP216)。そして、第1輝度差ΔL1が第1閾値Δ1以上であると判定された場合(図4/STEP216‥YES)、対象物領域Sの平均輝度および対象物領域Sの背景画像(たとえば、前記領域R(図5(b)参照)のうち対象物領域Sを除く領域の平均輝度)が算定される(図4/STEP218)。その上で対象物領域Sの平均輝度およびその背景領域の輝度の差が第2輝度差ΔL2として算定され(図4/STEP220)、第2輝度差ΔL2が第2閾値Δ2以上であるか否かが判定される(図4/STEP222)。そして、第2輝度差ΔL2が第2閾値Δ2以上であると判定された場合(図4/STEP222‥YES)、第2判定フラグaflag2が「1」に設定される(図4/STEP224)。その一方、第1輝度差ΔL1が第1閾値Δ1未満であると判定された場合(図4/STEP216‥NO)、または、第2輝度差ΔL2が第2閾値Δ2未満であると判定された場合(図4/STEP222‥YES)、第2判定フラグaflag2が「0」に設定される(図4/STEP226)。なお、STEP218〜STEP222の処理が省略され、第1輝度差ΔL1が第1閾値Δ1以上であることのみを要件として第2判定フラグaflag2が「1」に設定されてもよい。   Further, based on the luminance histogram, the difference between the highest luminance and the lowest luminance of the plurality of pixels constituting the object region S is calculated as the first luminance difference ΔL1 (FIG. 4 / STEP 214), and the first luminance difference ΔL1 is the first threshold value. It is determined whether or not Δ1 or more (FIG. 4 / STEP 216). When it is determined that the first luminance difference ΔL1 is greater than or equal to the first threshold value Δ1 (FIG. 4 / STEP 216... YES), the average luminance of the object area S and the background image of the object area S (for example, the area R The average brightness of the area excluding the object area S) is calculated (see FIG. 4 / STEP 218). Then, the difference between the average luminance of the object region S and the luminance of the background region is calculated as the second luminance difference ΔL2 (FIG. 4 / STEP 220), and whether or not the second luminance difference ΔL2 is equal to or larger than the second threshold value Δ2. Is determined (FIG. 4 / STEP 222). When it is determined that the second luminance difference ΔL2 is greater than or equal to the second threshold value Δ2 (FIG. 4 / STEP222... YES), the second determination flag aflag2 is set to “1” (FIG. 4 / STEP224). On the other hand, when it is determined that the first luminance difference ΔL1 is less than the first threshold value Δ1 (FIG. 4 / STEP216... NO), or when the second luminance difference ΔL2 is determined to be less than the second threshold value Δ2. (FIG. 4 / STEP222... YES), the second determination flag aflag2 is set to “0” (FIG. 4 / STEP226). Note that the processing of STEP 218 to STEP 222 may be omitted, and the second determination flag aflag2 may be set to “1” only on the condition that the first luminance difference ΔL1 is equal to or greater than the first threshold value Δ1.

さらに、前記のように基本要件を満たしていると判定された対象物領域Sから、指定領域が抽出され(図4/STEP228)、抽出された指定領域の数Nが指定値N0以上であるか否かが判定される(図4/STEP230)。指定領域は指定輝度範囲(たとえば標準偏差σまたは平均輝度を基準として定まる輝度範囲)に包含される輝度を有するひとまとまりの画素群より構成され、かつ、指定形状(たとえば赤外線カメラを通じて撮像された四足動物から経験的に抽出される横長の楕円等の形状)を有する。そして、指定領域の抽出数Nが指定値N0以上であると判定された場合(図4/STEP230‥YES)、第3判定フラグaflag3が「1」に設定される(図4/STEP232)。その一方、指定領域の抽出数Nが指定値N0未満であると判定された場合(図4/STEP230‥NO)、第3判定フラグaflag3が「0」に設定される(図4/STEP234)。   Furthermore, the designated area is extracted from the object area S determined to satisfy the basic requirements as described above (FIG. 4 / STEP 228), and the number N of the extracted designated areas is equal to or greater than the designated value N0. It is determined whether or not (FIG. 4 / STEP 230). The designated area is composed of a group of pixels having a luminance included in a designated luminance range (for example, a luminance range determined based on the standard deviation σ or the average luminance), and has a designated shape (for example, four images captured through an infrared camera). A shape such as a horizontally long ellipse empirically extracted from a paw animal. When it is determined that the number N of extractions of the specified area is equal to or greater than the specified value N0 (FIG. 4 / STEP230... YES), the third determination flag aflag3 is set to “1” (FIG. 4 / STEP232). On the other hand, if it is determined that the number N of extractions of the specified area is less than the specified value N0 (FIG. 4 / STEP230... NO), the third determination flag aflag3 is set to “0” (FIG. 4 / STEP234).

続いて前記のように設定された3つの判定フラグの合計Σaflagi(i=1,2,3)が算定され、これが判定閾値Σth以上であるか否かが判定される(図4/STEP236)。判定閾値Σthは「1」「2」または「3」に設定されうる。合計判定フラグΣaflagiが判定閾値Σth以上であると判定された場合(図4/STEP236‥YES)、対象物が四足動物の一部または全部に該当すると判定される(図4/STEP238)。その一方、合計判定フラグΣaflagiが判定閾値Σth未満であると判定された場合(図4/STEP236‥NO)、対象物が四足動物の一部または全部に該当しないと判定される(図4/STEP240)。   Subsequently, the sum Σaflagi (i = 1, 2, 3) of the three determination flags set as described above is calculated, and it is determined whether or not this is equal to or greater than the determination threshold Σth (FIG. 4 / STEP 236). The determination threshold Σth can be set to “1”, “2”, or “3”. When it is determined that the total determination flag Σaflagi is greater than or equal to the determination threshold Σth (FIG. 4 / STEP 236... YES), it is determined that the object corresponds to a part or all of a quadruped animal (FIG. 4 / STEP 238). On the other hand, when it is determined that the total determination flag Σaflagi is less than the determination threshold Σth (FIG. 4 / STEP 236... NO), it is determined that the object does not correspond to part or all of the quadruped animals (FIG. 4 / (STEP 240).

前記機能を発揮する車両周辺監視装置によれば、撮像画像から抽出された対象物領域Sの輝度の標準偏差σまたはばらつき度合いが閾値σ0以上であることを要件として、この対象物が四足動物に該当すると判定されうる(図4/STEP208,STEP236参照)。また、対象物領域Sの最高輝度および最低輝度の差としての第1輝度差ΔL1が第1閾値Δ1以上であることを要件として、この対象物が四足動物に該当すると判定されうる(図4/STEP216,STEP236参照)。四足動物の頭、首または胴体などの表面のうねりまたは体毛のむらなどの原因により、撮像画像における四足動物には特有の輝度のばらつきが生じる点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かが高精度で判定されうる。   According to the vehicle periphery monitoring device that exhibits the above function, it is necessary that the standard deviation σ or the variation degree of the luminance of the target region S extracted from the captured image is equal to or greater than the threshold σ0. (See STEP 208 and STEP 236 in FIG. 4). Moreover, it can be determined that the target object corresponds to a quadruped animal on the condition that the first luminance difference ΔL1 as the difference between the maximum luminance and the minimum luminance of the target region S is equal to or greater than the first threshold value Δ1 (FIG. 4). / STEP 216, STEP 236). In view of the fact that the variation in brightness specific to the quadruped animal in the captured image is caused by the undulation of the surface such as the head, neck or torso of the quadruped animal, or unevenness of the body hair, the above-mentioned determination method makes it possible to detect the four objects. It can be determined with high accuracy whether it corresponds to a paw animal.

さらに、対象物領域Sの平均輝度と、この対象物領域の背景領域の輝度の差としての第2輝度差ΔL2が第2閾値Δ2以上であることを要件として、この対象物が四足動物に該当すると判定されうる(図4/STEP220,STEP236参照)。対象物領域Sおよびその背景画像には比較的大きな輝度差が生じる蓋然性が高い点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かがさらに高精度で判定されうる。   Furthermore, it is required that the second luminance difference ΔL2 as a difference between the average luminance of the target region S and the luminance of the background region of the target region is equal to or greater than the second threshold value Δ2, and this target is a quadruped animal. It can be determined that this is the case (see FIG. 4 / STEP 220, STEP 236). In view of the high probability that a relatively large luminance difference will occur between the object region S and its background image, it can be determined with higher accuracy whether or not the object corresponds to a quadruped animal by the determination method.

また、対象物領域Sにおいて、指定輝度範囲に含まれる輝度を有するひとまとまりの画素群により構成され、かつ、指定形状を有する指定領域が指定値以上存在することを要件として、この対象物が四足動物に該当すると判定されうる(図4/STEP208,STEP230参照)。四足動物の頭、首または胴体などの表面のうねりまたは体毛のむらなどの原因により、撮像画像における四足動物には特有の形状を有する輝度むら部分が検知される可能性がある点に鑑みて、前記判定手法により対象物が四足動物に該当するか否かが高精度で判定されうる。   Further, in the object area S, it is necessary that the object area is composed of a group of pixels having a luminance included in the specified luminance range and that the specified area having the specified shape is greater than or equal to the specified value. It can be determined that it corresponds to a paw animal (see FIG. 4 / STEP 208, STEP 230). In view of the possibility of detecting uneven brightness portions having a unique shape in the quadruped animal in the captured image due to undulation of the surface of the head, neck or torso of the quadruped animal or uneven hair. The determination method can determine with high accuracy whether or not the object corresponds to a quadruped animal.

なお、前記実施形態では3つの判定フラグaflag1〜aflag3が設定され、当該3つの判定フラグの合計が判定閾値Σth以上であるか否かに応じて対象物の四足動物該当性が判定されたが(図4/STEP210,212,224,226,232,234,236参照)、他の実施形態としてこれら3つの判定フラグのうち1つの判定フラグのみが設定され、当該1つの判定フラグが判定閾値「1」以上であるか否かに応じて対象物の四足動物該当性が判定されてもよい。たとえば、第1判定フラグaflag1が1に設定されうる場合、対象物が四足動物の身体部分に該当するとただちに判定されてもよい。また、これら3つの判定フラグのうち2つの判定フラグのみが設定され、当該2つの判定フラグの合計が判定閾値「1」または「2」以上であるか否かに応じて対象物の四足動物該当性が判定されてもよい。   In the above embodiment, the three determination flags aflag1 to aflag3 are set, and whether or not the subject is a quadruped animal is determined depending on whether the total of the three determination flags is equal to or greater than the determination threshold Σth. (See FIG. 4 / STEP 210, 212, 224, 226, 232, 234, 236) As another embodiment, only one determination flag among these three determination flags is set, and the one determination flag is set to the determination threshold “ Depending on whether or not it is “1” or more, the suitability of the quadruped animal of the object may be determined. For example, when the first determination flag aflag1 can be set to 1, it may be determined immediately that the object corresponds to a body part of a quadruped animal. Further, only two determination flags among these three determination flags are set, and depending on whether the total of the two determination flags is equal to or greater than the determination threshold “1” or “2”, the subject quadruped animal Applicability may be determined.

本発明の車両周辺監視装置の構成説明図Configuration explanatory diagram of the vehicle periphery monitoring device of the present invention 車両周辺監視装置が搭載されている車両に関する説明図Explanatory drawing about a vehicle equipped with a vehicle periphery monitoring device 車両周辺監視装置の基本的機能を示すフローチャートFlow chart showing basic functions of vehicle periphery monitoring device 対象物の四足動物該当性の判定方法に関するフローチャートFlow chart regarding a method for determining whether a subject is a quadruped animal 対象物の四足動物該当性の判定方法に関する説明図Explanatory drawing on the method for determining the target of a quadruped animal

符号の説明Explanation of symbols

1‥画像処理ユニット(対象物抽出手段、特徴量抽出手段、対象物分類手段)、2R,2L‥赤外線カメラ(撮像装置) 1. Image processing unit (object extraction means, feature amount extraction means, object classification means), 2R, 2L, infrared camera (imaging device)

Claims (5)

車両に搭載されている赤外線撮像装置により得られた赤外線撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記赤外線撮像画像から、該赤外線撮像画像上で高輝度の対象物が存在する領域を対象物領域として抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された前記対象物領域を構成する複数の画素のみを対象として輝度の標準偏差を算定する特徴量抽出手段と、
前記特徴量抽出手段により算定された前記標準偏差が閾値以上であることを要件として前記対象物が四足動物の一部または全部に該当すると判定する対象物分類手段とを備えていることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using an infrared imaging image obtained by an infrared imaging device mounted on the vehicle,
From the infrared captured image, and the object extracting means for extracting a region where the object of a high luminance on the infrared imaging image exists as the object region,
Feature quantity extraction means for calculating a standard deviation of luminance only for a plurality of pixels constituting the object area extracted by the object extraction means;
An object classification unit that determines that the object corresponds to a part or all of a quadruped animal on the condition that the standard deviation calculated by the feature amount extraction unit is greater than or equal to a threshold value. A vehicle periphery monitoring device.
車両に搭載されている赤外線撮像装置により得られた赤外線撮像画像を用いて車両の周辺を監視する車両周辺監視装置であって、
前記赤外線撮像画像から、該赤外線撮像画像上で高輝度の対象物が存在する領域を対象物領域として抽出する対象物抽出手段と、
前記対象物抽出手段により抽出された前記対象物領域を構成する複数の画素においてのみ、最高輝度および最低輝度の差を第1輝度差として算定する特徴量抽出手段と、
前記特徴量抽出手段により算定された前記第1輝度差が第1閾値以上であることを要件として前記対象物が四足動物の一部または全部に該当すると判定する対象物分類手段とを備えていることを特徴とする車両周辺監視装置。
A vehicle periphery monitoring device that monitors the periphery of a vehicle using an infrared imaging image obtained by an infrared imaging device mounted on the vehicle,
From the infrared captured image, and the object extracting means for extracting a region where the object of a high luminance on the infrared imaging image exists as the object region,
Feature quantity extraction means for calculating a difference between the highest luminance and the lowest luminance as a first luminance difference only in a plurality of pixels constituting the object region extracted by the object extraction means;
Object classification means for determining that the object corresponds to a part or all of a quadruped animal on the condition that the first luminance difference calculated by the feature quantity extraction means is not less than a first threshold value. A vehicle periphery monitoring device characterized by comprising:
請求項2記載の車両周辺監視装置において、
前記特徴量抽出手段が前記対象物領域の平均輝度と前記対象物領域の背景領域の平均輝度との差を第2輝度差として算定し、
前記対象物分類手段が、前記第2輝度差が第2閾値以上であることをさらなる要件として前記対象物が四足動物の一部または全部に該当すると判定することを特徴とする車両周辺監視装置。
In the vehicle periphery monitoring device according to claim 2,
The feature amount extraction means calculates a difference between the average luminance of the object area and the average luminance of the background area of the object area as a second luminance difference,
The vehicle periphery monitoring device, wherein the object classification means determines that the object corresponds to a part or all of a quadruped animal on the further requirement that the second luminance difference is equal to or greater than a second threshold value. .
前記車両周辺監視装置は、更に前記対象物抽出手段によって抽出された対象物領域について、該対象物領域に存在する対象物が人間に該当するか否かを判定する人間判定手段を備え、The vehicle periphery monitoring device further includes a human determination unit that determines whether or not a target object existing in the target region corresponds to a human with respect to the target region extracted by the target object extraction unit.
前記特徴量抽出手段は、前記対象物抽出手段により抽出された前記対象物領域のうち、前記人間判定手段により人間に該当しないと判定された対象物領域に対し、該対象物領域を構成する複数の画素のみを対象として輝度の標準偏差を算定することを特徴とする請求項1または2に記載の車両周辺監視装置。The feature amount extraction unit includes a plurality of object regions that are determined by the human determination unit as not corresponding to a human among the target regions extracted by the target extraction unit. The vehicle periphery monitoring device according to claim 1, wherein the standard deviation of luminance is calculated only for the pixels.
前記対象物抽出手段により抽出された前記対象物領域から、指定輝度範囲に属する輝度を有するひとまとまりの画素群により構成され、かつ、指定形状を有する指定領域を抽出する特徴量抽出手段と、
前記特徴量抽出手段により抽出された前記指定領域の数が指定値以上であることを要件として前記対象物が四足動物の一部または全部に該当すると判定する対象物分類手段とを備えていることを特徴とする請求項1〜4のいずれか1項に記載の車両周辺監視装置。
A feature amount extracting unit configured to extract a designated region having a designated shape, which is configured by a group of pixels having luminance belonging to a designated luminance range, from the target region extracted by the target object extracting unit;
Object classification means for determining that the object corresponds to a part or all of a quadruped animal on the condition that the number of the designated areas extracted by the feature quantity extraction means is equal to or greater than a designated value. The vehicle periphery monitoring device according to any one of claims 1 to 4, wherein
JP2008302899A 2008-11-27 2008-11-27 Vehicle periphery monitoring device Expired - Fee Related JP5026398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008302899A JP5026398B2 (en) 2008-11-27 2008-11-27 Vehicle periphery monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008302899A JP5026398B2 (en) 2008-11-27 2008-11-27 Vehicle periphery monitoring device

Publications (2)

Publication Number Publication Date
JP2010128800A JP2010128800A (en) 2010-06-10
JP5026398B2 true JP5026398B2 (en) 2012-09-12

Family

ID=42329147

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008302899A Expired - Fee Related JP5026398B2 (en) 2008-11-27 2008-11-27 Vehicle periphery monitoring device

Country Status (1)

Country Link
JP (1) JP5026398B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5991647B2 (en) 2013-03-28 2016-09-14 株式会社デンソー Perimeter monitoring and control device for vehicles

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11296653A (en) * 1998-04-06 1999-10-29 Sanyo Electric Co Ltd Image processor and human body detector using the same
JP4060159B2 (en) * 2002-01-18 2008-03-12 本田技研工業株式会社 Vehicle periphery monitoring device
JP4148903B2 (en) * 2004-01-06 2008-09-10 株式会社東芝 Image processing apparatus, image processing method, and digital camera
JP4420459B2 (en) * 2005-06-14 2010-02-24 キヤノン株式会社 Image processing apparatus and method
JP4173901B2 (en) * 2006-05-19 2008-10-29 本田技研工業株式会社 Vehicle periphery monitoring device
JP2008021035A (en) * 2006-07-11 2008-01-31 Fujitsu Ten Ltd Image recognition device, image recognition method, and vehicle control device
JP4993281B2 (en) * 2007-03-12 2012-08-08 サクサ株式会社 Monitoring area setting device

Also Published As

Publication number Publication date
JP2010128800A (en) 2010-06-10

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
WO2010050090A1 (en) System for monitoring the area around a vehicle
JP5198346B2 (en) Vehicle periphery monitoring device
JP4173902B2 (en) Vehicle periphery monitoring device
JP4171501B2 (en) Vehicle periphery monitoring device
JP4377439B1 (en) Vehicle periphery monitoring device
JP4521642B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP4644273B2 (en) Vehicle periphery monitoring device
US7885430B2 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device, and automotive environment monitoring program
JP5172482B2 (en) Vehicle periphery monitoring device
JP5004919B2 (en) Vehicle periphery monitoring device
JP4615061B2 (en) Vehicle periphery monitoring device
JP5004903B2 (en) Vehicle periphery monitoring device
JP5026398B2 (en) Vehicle periphery monitoring device
JP4972073B2 (en) Environment recognition device
JP5907849B2 (en) Vehicle periphery monitoring device
JP5903003B2 (en) Vehicle periphery monitoring device
JP4590654B2 (en) Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring program
JP4815506B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120511

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120612

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees