JP3994954B2 - Object detection apparatus and object detection method - Google Patents
Object detection apparatus and object detection method Download PDFInfo
- Publication number
- JP3994954B2 JP3994954B2 JP2003348384A JP2003348384A JP3994954B2 JP 3994954 B2 JP3994954 B2 JP 3994954B2 JP 2003348384 A JP2003348384 A JP 2003348384A JP 2003348384 A JP2003348384 A JP 2003348384A JP 3994954 B2 JP3994954 B2 JP 3994954B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- person
- area
- data
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、車両に搭載される物体検出装置及び物体検出方法に関する。 The present invention relates to an object detection device and an object detection method mounted on a vehicle.
従来より、車両に搭載される物体検出装置が知られている(例えば、特許文献1)。 Conventionally, an object detection device mounted on a vehicle is known (for example, Patent Document 1).
当該技術では、カメラを用いて熱画像(車両周辺の熱データを有する画像)を取得し、これら熱画像を熱分布に基づいて2値化する。具体的には、あらかじめ基準範囲を設定し、熱画像を、基準範囲以内の熱データ値を有する第1の領域と、基準範囲を超える熱データ値を有する第2の領域とに区別する。 In this technique, a thermal image (an image having thermal data around the vehicle) is acquired using a camera, and these thermal images are binarized based on the thermal distribution. Specifically, a reference range is set in advance, and the thermal image is distinguished into a first region having a thermal data value within the reference range and a second region having a thermal data value exceeding the reference range.
そして、当該第1の領域を抽出し、当該抽出された第1の領域から物体を検出する。さらに当該物体の速度を検出し、当該速度が人物の歩行速度程度である場合には、当該検出された物体が人物であると判定する。これにより、車両周辺の人物を検出する。
しかし、当該技術では、気温が高い日等のように、気温が人物の温度程度となる場合には、熱画像上のほとんどの領域が基準範囲以内の熱データ値を有するので、熱画像上のほとんどの領域が第1の領域として抽出される。このため、気温が人物の温度程度となる場合には、第1の領域が広くなりすぎて人物の検出が困難となるという問題点があった。 However, in this technique, when the temperature is about the temperature of a person, such as a day when the temperature is high, most regions on the thermal image have thermal data values that are within the reference range. Most regions are extracted as the first region. For this reason, when the temperature is about the temperature of a person, there is a problem that it is difficult to detect a person because the first region becomes too wide.
また、2値化により熱画像から熱データが失われてしまうので、人物を検出する手法として単純な手法しか適用することができなくなる。例えば、当該技術では、人物を検出する手法として、第1の領域の縦横比から人物を検出する手法を適用している。このため、人物程度の縦横比を有する他の物体、例えば、高さの低い電柱、太い支柱を有する標識、及び自動販売機等を人物として検出する場合があった。言い換えれば、人物の検出が困難となる場合があった。 Also, since thermal data is lost from the thermal image due to binarization, only a simple technique can be applied as a technique for detecting a person. For example, in this technique, as a technique for detecting a person, a technique for detecting a person from the aspect ratio of the first region is applied. For this reason, other objects having an aspect ratio comparable to that of a person, such as a low-powered telephone pole, a sign having a thick pillar, and a vending machine may be detected as a person. In other words, it may be difficult to detect a person.
本発明はこのような従来の課題を解決するためになされたものであり、その主に目的とするところは、人物をより確実に検出することができる物体検出装置及び物体検出方法を提供することである。 The present invention has been made to solve such a conventional problem, and a main object thereof is to provide an object detection device and an object detection method capable of detecting a person more reliably. It is.
上記目的を達成するため、本願特許請求の範囲に記載の発明は、車両に搭載される物体検出装置において、車両の周辺の状態量データを有する複数の画素からなる第1の画像を取得する第1の画像取得手段と、車両の周辺の状態量データを有する複数の画素からなる第2の画像を取得する第2の画像取得手段と、第1の画像取得手段により取得された第1の画像上の小領域と、第2の画像取得手段により取得された第2の画像上の小領域のうち、第1の画像上の小領域に対応する小領域と、の視差を算出し、且つ、当該算出された視差に基づいて、車両から第1の画像上の小領域に描かれた物体までの距離を算出する距離算出手段と、車両から所定の検出対象物までの距離と、第1の画像を構成する画素が有する検出対象物の状態量データと、の対応データと、距離算出手段により算出された距離と、対応データと、に基づいて、第1の画像上の小領域から、検出対象物の状態量データを有する距離にある小領域を抽出する小領域抽出手段と、小領域抽出手段により抽出された小領域から検出対象物を検出する検出手段と、を備えることを主な特徴とする。 In order to achieve the above object, the invention described in the claims of the present application is a first object for acquiring a first image including a plurality of pixels having state data around a vehicle in an object detection device mounted on the vehicle. 1st image acquisition means, 2nd image acquisition means to acquire the 2nd image which consists of a plurality of pixels which have state quantity data around the vehicle, and 1st image acquired by the 1st image acquisition means Calculating a parallax between the upper small area and a small area corresponding to the small area on the first image among the small areas on the second image acquired by the second image acquisition unit; and Based on the calculated parallax, distance calculation means for calculating a distance from the vehicle to an object drawn in a small area on the first image, a distance from the vehicle to a predetermined detection object, a state quantity data of the detected object pixels have to configure the image Based on the corresponding data, the distance calculated by the distance calculating means, and the corresponding data, a small area at a distance having the state quantity data of the detection target is extracted from the small area on the first image. The main feature is that it comprises a small area extracting means and a detecting means for detecting a detection object from the small area extracted by the small area extracting means.
本願特許請求の範囲に記載の発明では、主に、以下の効果を得ることができる。即ち、第1の画像上の検出対象物画像が有する状態量データ(例えば、熱データ)は、車両Pから当該検出対象物画像に対応する検出対象物(例えば、人物)までの距離に応じて異なる。本発明はこのような特徴を利用し、車両から第1の画像上に描かれた物体までの距離を算出し、当該算出された距離と、上述した対応データと、に基づいて、第1の画像上の小領域から人物候補領域(検出対象物の状態量データを有する距離にある小領域)を抽出する。したがって、第1の画像のうち、人物候補領域とそれ以外の領域を正確に区別することができるので、人物候補領域を確実に抽出することができる。また、気温が人物の温度に近い場合であっても、人物候補領域を確実に抽出することができる。 In the invention described in the claims of the present application, the following effects can be mainly obtained. That is, the state quantity data (for example, thermal data) included in the detection target image on the first image is in accordance with the distance from the vehicle P to the detection target (for example, a person) corresponding to the detection target image. Different. The present invention uses such a feature to calculate the distance from the vehicle to the object drawn on the first image, and based on the calculated distance and the corresponding data described above, the first A person candidate area (small area at a distance having state quantity data of the detection target) is extracted from the small area on the image. Therefore, since the person candidate area and the other area can be accurately distinguished from each other in the first image, the person candidate area can be reliably extracted. Further, even if the temperature is close to the temperature of the person, the person candidate area can be reliably extracted.
(第1の実施の形態)
以下、本発明の第1の実施の形態を図面に基づいて説明する。まず、図1〜図21に基づいて、本発明の一実施の形態に係る物体検出装置1の構成要素及び各構成要素の主な機能について説明する。
(First embodiment)
Hereinafter, a description will be given of a first form state of the present invention with reference to the accompanying drawings. First, based on FIGS. 1-21, the main function of the component of the object detection apparatus 1 which concerns on one embodiment of this invention and each component is demonstrated.
図1は物体検出装置1の構成を示すブロック図であり、図2はカメラ100の設置位置を示す側面図であり、図3は、カメラ100〜101の設置位置を示す平面図である。また、図4〜図5は、カメラ100により取得される熱画像Aの一例を示す説明図である。なお、以下の説明では、図2〜図3に示すように、カメラ100〜101を結ぶ直線の中点を原点、カメラ100〜101の光軸と平行となる方向をz軸、z軸に垂直且つ路面に平行な方向をx軸、z軸及び路面に垂直な方向をy軸とする座標系を基準座標系とする。ここで、カメラ100〜101の光軸とは、カメラ100〜101が有するカメラレンズの中心を通り、且つ、カメラレンズに垂直な軸である。具体的には後述する。 FIG. 1 is a block diagram showing the configuration of the object detection apparatus 1, FIG. 2 is a side view showing the installation position of the camera 100, and FIG. 3 is a plan view showing the installation positions of the cameras 100-101. 4 to 5 are explanatory diagrams illustrating an example of the thermal image A acquired by the camera 100. FIG. In the following description, as shown in FIGS. 2 to 3, the midpoint of the straight line connecting the cameras 100 to 101 is the origin, the direction parallel to the optical axis of the cameras 100 to 101 is the z axis, and the z axis is perpendicular to the z axis. A coordinate system in which the direction parallel to the road surface is the x axis, the z axis, and the direction perpendicular to the road surface is the y axis is a reference coordinate system. Here, the optical axis of the cameras 100 to 101 is an axis that passes through the center of the camera lens of the cameras 100 to 101 and is perpendicular to the camera lens. Details will be described later.
また、図4に示すように、熱画像の左上端部を原点、熱画像の上端から下端に向かう方向をy軸、熱画像の左端から右端に向かう方向をx軸とする座標系を熱画像座標系とする。 Also, as shown in FIG. 4, a thermal image is a coordinate system in which the upper left end of the thermal image is the origin, the direction from the upper end to the lower end of the thermal image is the y axis, and the direction from the left end to the right end of the thermal image is the x axis. Coordinate system.
図1に示すように、物体検出装置1は、カメラ(第1の画像取得手段)100と、カメラ(第2の画像取得手段)101と、画像メモリ102〜103と、小領域設定部104と、小領域の視差または距離算出部(距離算出手段)(以下、「距離算出部」と称する)105と、小領域毎の視差または距離保存部(以下、「距離保存部」と称する)106と、温度対距離の関係グラフ(対応データ)保存部(以下、「関係グラフ保存部」と称する)107と、対象小領域抽出部(小領域抽出部)108と、人物検出部(検出手段)109と、結果出力部110を備える。 As shown in FIG. 1, the object detection apparatus 1 includes a camera (first image acquisition unit) 100, a camera (second image acquisition unit) 101, image memories 102 to 103, and a small region setting unit 104. A small area parallax or distance calculation unit (distance calculation means) (hereinafter referred to as “distance calculation unit”) 105, and a small area parallax or distance storage unit (hereinafter referred to as “distance storage unit”) 106. , A temperature-distance relationship graph (corresponding data) storage unit (hereinafter referred to as a “relation graph storage unit”) 107, a target small region extraction unit (small region extraction unit) 108, and a person detection unit (detection means) 109. And a result output unit 110.
カメラ100は、図2〜図3に示すように、車両Pの前部に設置される。そして、車両P前方を撮影して、車両P前方の熱データを有する熱画像Aを、熱画像データの形式で取得する。熱画像Aの例を図4に示す。なお、熱画像データは複数の画素データで構成され、各画素データには座標データ及び熱データが含まれる。そして、カメラ100は、当該熱画像データを画像メモリ102に出力する。 The camera 100 is installed in the front part of the vehicle P as shown in FIGS. And the vehicle P front is image | photographed and the thermal image A which has the thermal data ahead of the vehicle P is acquired in the format of thermal image data. An example of the thermal image A is shown in FIG. The thermal image data is composed of a plurality of pixel data, and each pixel data includes coordinate data and thermal data. Then, the camera 100 outputs the thermal image data to the image memory 102.
カメラ101は、図2〜図3に示すように、車両Pの前部に設置され、車両P前方を撮影して、車両P前方の熱データを有する熱画像Bを、熱画像データの形式で取得する(熱画像Bの例については、後述する)。そして、当該熱画像データを画像メモリ103に出力する。ここで、熱画像Bには、熱画像Aに描かれる物体と同じ物体が描かれるが、カメラ100の設置位置はカメラ101の設置位置と異なるので、ある物体が熱画像A上で描かれる位置は、当該物体が熱画像B上で描かれる位置と異なる。 As shown in FIGS. 2 to 3, the camera 101 is installed in the front part of the vehicle P, photographs the front of the vehicle P, and generates a thermal image B having thermal data in front of the vehicle P in the form of thermal image data. (An example of the thermal image B will be described later). Then, the thermal image data is output to the image memory 103. Here, in the thermal image B, the same object as the object drawn in the thermal image A is drawn, but the installation position of the camera 100 is different from the installation position of the camera 101, so that a certain object is drawn on the thermal image A. Is different from the position where the object is drawn on the thermal image B.
画像メモリ102は、カメラ100から与えられた熱画像データを保存し、画像メモリ103は、カメラ101から与えられた熱画像データを保存する。 The image memory 102 stores thermal image data supplied from the camera 100, and the image memory 103 stores thermal image data supplied from the camera 101.
小領域設定部104は、画像メモリ102から熱画像データを取得し、図5に示すように、当該取得された熱画像データに基づいて、熱画像Aを数画素*数画素(例えば、4画素*4画素または1画素*1画素等)程度の演算領域a1に分割する。言い換えれば、熱画像データを演算領域a1毎に分割する。そして、演算領域a1毎に分割された熱画像データ、即ち分割画像データを距離算出部105に出力する。 The small region setting unit 104 acquires thermal image data from the image memory 102, and, as shown in FIG. 5, based on the acquired thermal image data, the thermal image A is converted into several pixels * several pixels (for example, four pixels). * 4 pixels or 1 pixel * 1 pixel, etc.). In other words, the thermal image data is divided for each calculation area a1. Then, the thermal image data divided for each calculation area a 1, that is, the divided image data is output to the distance calculation unit 105.
距離算出部105は、小領域設定部104から与えられた分割画像データ及び画像メモリ103に保存される熱画像データに基づいて、熱画像Aに含まれる各画素(小領域)毎に視差を算出する。ここで、距離算出部105により行われる視差算出処理について図6〜図10に基づいて説明する。図6は物体Qとカメラレンズ100a〜101aとの位置関係等を示す平面図であり、図7〜図12は、カメラ100〜101により取得される熱画像A〜Bの一例を示す説明図である。 The distance calculation unit 105 calculates the parallax for each pixel (small region) included in the thermal image A based on the divided image data given from the small region setting unit 104 and the thermal image data stored in the image memory 103. To do. Here, the parallax calculation processing performed by the distance calculation unit 105 will be described with reference to FIGS. 6 is a plan view showing the positional relationship and the like between the object Q and the camera lenses 100a to 101a. FIGS. 7 to 12 are explanatory diagrams showing examples of thermal images A to B acquired by the cameras 100 to 101. FIG. is there.
図6に示すように、車両P前方に物体Qが存在する場合、カメラ100は図7に示す熱画像Aを取得し、カメラ101は図8に示す熱画像Bを取得する。ここで、熱画像Aには、物体Qが描かれた物体画像A1が含まれ、熱画像Bには、物体Qが描かれた物体画像B1が含まれる。また、カメラレンズ100aはカメラ100のカメラレンズであり、カメラレンズ101aは、カメラ101のカメラレンズである。この場合、距離算出部105は、図9に示すように、熱画像Aを所定の大きさの領域に分割し、当該分割により生成された各領域をテンプレートA2として設定する。ここで、テンプレートA2の大きさは、当該テンプレートA2内にエッジまたはテクスチャが含まれるように設定される。例えば、演算領域a1がある程度の大きさ(後述する正規化相関法を適用できる程度の大きさ)を有する場合、演算領域a1をそのままテンプレートA2として設定する。 As shown in FIG. 6, when the object Q exists in front of the vehicle P, the camera 100 acquires the thermal image A shown in FIG. 7, and the camera 101 acquires the thermal image B shown in FIG. Here, the thermal image A includes an object image A1 in which the object Q is drawn, and the thermal image B includes an object image B1 in which the object Q is drawn. The camera lens 100 a is a camera lens of the camera 100, and the camera lens 101 a is a camera lens of the camera 101. In this case, as shown in FIG. 9, the distance calculation unit 105 divides the thermal image A into regions of a predetermined size, and sets each region generated by the division as a template A2. Here, the size of the template A2 is set so that an edge or a texture is included in the template A2. For example, when the calculation area a1 has a certain size (a size to which a normalized correlation method described later can be applied), the calculation area a1 is set as the template A2 as it is.
そして、図10に示すように、各テンプレートA2について、以下の処理を行う。即ち、熱画像BからテンプレートA2と同程度の大きさを有する画像領域を抽出し、当該画像領域についてテンプレートA2に対する類似度を算出する。これを、熱画像Bのすべての部分について行う。 Then, as shown in FIG. 10, the following processing is performed for each template A2. That is, an image region having the same size as the template A2 is extracted from the thermal image B, and the similarity to the template A2 is calculated for the image region. This is performed for all portions of the thermal image B.
ここで、当該類似度は、テンプレートA2が有する熱データを用いた正規化相関法等により算出される。そして、当該類似度が最も高い画像領域B2を抽出し、テンプレートA2及び画像領域B2に基づいて、テンプレートA2に含まれる各画素について視差を算出する。ここで、テンプレートA2に含まれる画素aのx座標をxa、画像領域B2に含まれる画素のうち、当該画素aに対応する(画素aと同じ熱データを有する)画素bのx座標をxbとすると、当該画素aの視差は|xa−xb|となる。 Here, the similarity is calculated by a normalized correlation method using thermal data of the template A2. Then, the image area B2 having the highest similarity is extracted, and the parallax is calculated for each pixel included in the template A2 based on the template A2 and the image area B2. Here, the x coordinate of the pixel a included in the template A2 is xa, and the x coordinate of the pixel b corresponding to the pixel a (having the same thermal data as the pixel a) among the pixels included in the image region B2 is xb. Then, the parallax of the pixel a is | xa−xb |.
そして、当該算出された視差に基づいて、各画素に描かれた物体から車両Pまでのz方向距離z1を算出する。ここで、図6に示すように、当該z方向距離z1は以下の式(1)により算出される。ここで、式(1)中、fは焦点距離であり、Dはカメラレンズ100aからカメラレンズ101aまでの距離である。 Then, based on the calculated parallax, a z-direction distance z1 from the object drawn on each pixel to the vehicle P is calculated. Here, as shown in FIG. 6, the z-direction distance z1 is calculated by the following equation (1). Here, in Expression (1), f is a focal length, and D is a distance from the camera lens 100a to the camera lens 101a.
z1=f*D/|xa−xb| …(1)
そして、分割画像データに、当該類似度に関する類似度データ、及びz方向距離z1に関する距離データを付加して距離保存部106に出力する。
z1 = f * D / | xa−xb | (1)
Then, similarity data related to the similarity and distance data related to the z-direction distance z1 are added to the divided image data and output to the distance storage unit 106.
距離保存部106は、距離算出部105から与えられた分割画像データに基づいて、距離算出部により算出された類似度と、あらかじめ設定された基準類似度とを演算領域a1毎に比較し、熱画像Aから類似度が基準類似度以上となる演算領域a1を抽出する。そして、当該抽出された演算領域a1毎に、当該演算領域a1に含まれる熱データの分散を算出し、当該算出された分散と基準分散とを比較する。この結果、分散が基準分散以上となる演算領域a1を抽出し、距離算出部105から与えられた分割画像データのうち、当該抽出された演算領域a1が有する画素データ及び距離データ、即ち小領域画像データを保存する。 The distance storage unit 106 compares the similarity calculated by the distance calculation unit with a preset reference similarity for each calculation region a1 based on the divided image data given from the distance calculation unit 105, and calculates the heat A calculation area a1 in which the similarity is equal to or higher than the reference similarity is extracted from the image A. Then, for each extracted calculation area a1, the variance of the thermal data included in the calculation area a1 is calculated, and the calculated variance is compared with the reference variance. As a result, a calculation area a1 whose variance is greater than or equal to the reference variance is extracted, and among the divided image data given from the distance calculation unit 105, pixel data and distance data that the extracted calculation area a1 has, that is, a small area image Save the data.
ここで、距離算出部105から与えられた分割画像データのうち、当該抽出された演算領域a1が有する画素データ及び距離データを保存することとしたのは、以下の理由による。即ち、テンプレートA2及び画像領域B2の類似度が低いと、視差が正確に算出されず、したがってz方向距離z1を正確に算出することができないからである。また、テンプレートA2に分散の低い演算領域a1が含まれる場合、当該テンプレートA2に対応する画像領域B2が複数存在する可能性があるので、z方向距離z1を正確に算出することができないからである。画像領域B2が複数存在する場合としては、例えば、カメラ100〜101が図11〜図12に示す熱画像A〜Bを取得した場合が考えられる。ここで、図11は、カメラ100により取得された熱画像Aの一例を示した説明図であり、当該熱画像Aには長方形画像A3が含まれる。また、図12は、カメラ101により取得された熱画像Bの一例を示した説明図であり、当該熱画像Bには、長方形画像A3に対応する長方形画像B3が含まれる。この場合、距離算出部105が長方形画像A3の一部を含む領域をテンプレートA2として設定すると、当該テンプレートA2に対応する画像領域B2は複数存在する。したがって、この場合、距離算出部105は、視差を正確に算出することができないので、z方向距離z1を正確に算出することができない。 Here, among the divided image data given from the distance calculation unit 105, the pixel data and the distance data included in the extracted calculation area a1 are stored for the following reason. That is, if the similarity between the template A2 and the image region B2 is low, the parallax cannot be accurately calculated, and therefore the z-direction distance z1 cannot be accurately calculated. In addition, when the template A2 includes the calculation area a1 having low variance, there is a possibility that a plurality of image areas B2 corresponding to the template A2 exist, and therefore the z-direction distance z1 cannot be accurately calculated. . As a case where there are a plurality of image areas B2, for example, a case where the cameras 100 to 101 obtain the thermal images A to B shown in FIGS. Here, FIG. 11 is an explanatory diagram showing an example of a thermal image A acquired by the camera 100, and the thermal image A includes a rectangular image A3. FIG. 12 is an explanatory diagram showing an example of a thermal image B acquired by the camera 101. The thermal image B includes a rectangular image B3 corresponding to the rectangular image A3. In this case, when the distance calculation unit 105 sets an area including a part of the rectangular image A3 as the template A2, there are a plurality of image areas B2 corresponding to the template A2. Accordingly, in this case, the distance calculation unit 105 cannot accurately calculate the parallax, and thus cannot accurately calculate the z-direction distance z1.
図1に示す関係グラフ保存部107は、例えば図13に示す関係グラフ170を、気温等の環境に応じて保存する。当該関係グラフ170は、車両Pから人物までのz方向距離z2と、カメラ100により検出される当該人物の熱データ値、即ち温度Tとの関係を示す。この関係グラフ170は、人物の実測値に基づいて作成される。具体的には、様々な環境及びz方向距離z2でカメラ100にて人物を撮影し、当該撮影により当該人物の熱データ(温度データ)を取得する。そして、当該熱データを、温度Tを縦軸、z方向距離z2を横軸とした平面上にプロットしていくことで、当該関係グラフ170が作成される。この関係グラフ170が示すように、z方向距離z2が長くなるほど、温度Tは低くなるか、または気温に近づいていく。 The relationship graph storage unit 107 illustrated in FIG. 1 stores, for example, the relationship graph 170 illustrated in FIG. 13 according to an environment such as temperature. The relation graph 170 shows the relation between the z-direction distance z2 from the vehicle P to the person and the thermal data value of the person detected by the camera 100, that is, the temperature T. The relationship graph 170 is created based on the actual measurement value of the person. Specifically, a person is photographed with the camera 100 in various environments and z-direction distances z2, and thermal data (temperature data) of the person is acquired by the photographing. The relationship graph 170 is created by plotting the thermal data on a plane with the temperature T as the vertical axis and the z-direction distance z2 as the horizontal axis. As this relationship graph 170 shows, the longer the z-direction distance z2, the lower the temperature T or the closer to the air temperature.
対象小領域抽出部108は、車両P周辺の環境を検出し、当該検出された環境に対応する関係グラフ170を関係グラフ保存部107から取得する。さらに、距離保存部106から小領域画像データを取得する。 The target small region extraction unit 108 detects the environment around the vehicle P, and acquires the relationship graph 170 corresponding to the detected environment from the relationship graph storage unit 107. Further, small area image data is acquired from the distance storage unit 106.
そして、当該取得された関係グラフ170及び小領域画像データに基づいて、演算領域a1から、人物の熱データを有する画像領域を人物候補領域として抽出する。そして、当該抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部109に出力する。 Then, based on the acquired relation graph 170 and the small area image data, an image area having human thermal data is extracted as a human candidate area from the calculation area a1. Then, the pixel data and distance data of the extracted person candidate area, that is, the person candidate area data is output to the person detection unit 109.
当該処理の一例を、図14〜図16に基づいて説明する。図14は、熱画像Aの一例を示す説明図であり、図15は、熱画像Aに含まれる各画素を、当該各画素の距離データ値(即ちz方向距離z1)が大きいほど濃い色で描いた説明図である。図16は、人物候補領域a2〜a9を示した説明図である。なお、図14〜図16では、熱画像A上のx軸をi軸、熱画像A上のy軸をj軸としている。 An example of the process will be described with reference to FIGS. FIG. 14 is an explanatory diagram illustrating an example of the thermal image A, and FIG. 15 illustrates that each pixel included in the thermal image A has a darker color as the distance data value (that is, the z-direction distance z1) of the pixel increases. It is explanatory drawing drawn. FIG. 16 is an explanatory diagram showing person candidate areas a2 to a9. 14 to 16, the x axis on the thermal image A is the i axis, and the y axis on the thermal image A is the j axis.
即ち、カメラ100が図14に示す熱画像Aを取得した場合、対象小領域抽出部108は、熱画像Aが有する各画素について、当該画素が有する熱データをy座標、当該画素が有する距離データ値をx座標とする座標点が関係グラフ170に含まれるかどうかを判断する。たとえば、熱画像A上の座標(i、j)に属する画素について、当該画素が有する熱データT(i、j)をy座標、当該画素が有する距離データ値z1(i、j)をx座標とする座標点が関係グラフ170に含まれるかどうかを判断する。そして、関係グラフ170に座標点が含まれる画素を抽出し、当該抽出された画素のうち、互いに隣接する画素どうしをまとめることで、画像領域a2〜a9を人物候補領域として抽出する。そして、当該抽出された人物候補領域a2〜a9が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部109に出力する。 That is, when the camera 100 acquires the thermal image A shown in FIG. 14, the target small region extraction unit 108 uses, for each pixel included in the thermal image A, the thermal data included in the pixel as the y coordinate, and the distance data included in the pixel. It is determined whether or not a coordinate point whose value is the x coordinate is included in the relationship graph 170. For example, for a pixel belonging to the coordinate (i, j) on the thermal image A, the thermal data T (i, j) that the pixel has is the y coordinate, and the distance data value z1 (i, j) that the pixel has is the x coordinate. It is determined whether or not the coordinate point to be included in the relation graph 170. Then, pixels whose coordinate points are included in the relation graph 170 are extracted, and among the extracted pixels, adjacent pixels are combined to extract the image regions a2 to a9 as person candidate regions. Then, the pixel data and distance data of the extracted person candidate areas a <b> 2 to a <b> 9, that is, the person candidate area data is output to the person detection unit 109.
人物検出部109は、対象小領域抽出部108から与えられた人物候補領域データに基づいて、人物候補領域から人物を検出する。そして、人物検出部109は、人物が検出された人物候補領域データ、即ち人物領域データを結果出力部110に出力する。 The person detection unit 109 detects a person from the person candidate area based on the person candidate area data given from the target small area extraction unit 108. Then, the person detection unit 109 outputs the person candidate area data in which the person is detected, that is, the person area data to the result output unit 110.
人物検出部109は、具体的には、以下の方法により人物を検出する。即ち、人物候補領域をラベリングし、当該ラベリングされた人物候補領域の縦横比を算出する。そして、当該算出された縦横比が人物の縦横比に一致する場合には、当該人物候補領域から人物を検出する。例えば、人物候補領域データが図16に示す人物候補領域a2〜a9に対応する場合、人物候補領域a5から人物を検出する。 Specifically, the person detection unit 109 detects a person by the following method. That is, the person candidate area is labeled, and the aspect ratio of the labeled person candidate area is calculated. If the calculated aspect ratio matches the aspect ratio of the person, the person is detected from the person candidate area. For example, when the person candidate area data corresponds to the person candidate areas a2 to a9 shown in FIG. 16, a person is detected from the person candidate area a5.
なお、人物検出部109は、人物候補領域データが有する距離データに基づいて人物を検出することもできる。当該検出処理を図17〜図18に基づいて説明する。ここで、図17は、車両P前方の人物Q1とカメラレンズ100a及び撮像面100bとの位置関係を示す側面図であり、図18は、熱画像Aの一例を示す説明図である。なお、図17に示す撮像面100bは、熱画像Aが撮像される面である。 The person detection unit 109 can also detect a person based on distance data included in the person candidate area data. The detection process will be described with reference to FIGS. Here, FIG. 17 is a side view showing the positional relationship between the person Q1 in front of the vehicle P, the camera lens 100a, and the imaging surface 100b, and FIG. 18 is an explanatory view showing an example of the thermal image A. Note that the imaging surface 100b illustrated in FIG. 17 is a surface on which the thermal image A is captured.
図17に示すように、人物Q1からカメラレンズ100aまでの距離をzd1、焦点距離をf、熱画像A中、当該人物Q1が描かれた人物画像の高さをhcd1とすると、人物Q1の実際の高さをH1は、以下の式(2)で表される。 As shown in FIG. 17, assuming that the distance from the person Q1 to the camera lens 100a is zd1, the focal length is f, and the height of the person image in which the person Q1 is drawn in the thermal image A is hcd1, the person Q1 actually The height H1 is expressed by the following formula (2).
H1=zd1*hcd1/f …(2)
したがって、カメラ100が図18に示す熱画像Aを取得し、対象小領域抽出部108が人物候補領域a10〜a11を抽出した場合には、人物検出部109は、人物候補領域a10〜a11にそれぞれ物体が描かれていると推定する。そして、式(2)のz方向距離zd1に人物候補領域a10〜a11の距離データ値をそれぞれ代入し、高さhcd1に人物候補領域a10〜a11の高さhc0〜hc1をそれぞれ代入することで、当該物体の実際の高さを算出する。そして、当該高さが人物程度の高さとなる場合、人物候補領域a10〜a11から人物を検出する。この場合、人物候補領域a10〜a11の何れにおいても、物体の実際の高さが人物程度の高さとなるので、人物検出部109は、人物候補領域a10〜a11のそれぞれから人物を検出する。
H1 = zd1 * hcd1 / f (2)
Therefore, when the camera 100 acquires the thermal image A shown in FIG. 18 and the target small area extraction unit 108 extracts the person candidate areas a10 to a11, the person detection unit 109 sets the person candidate areas a10 to a11, respectively. Estimate that the object is drawn. Then, by substituting the distance data values of the person candidate areas a10 to a11 for the z-direction distance zd1 in the formula (2), and substituting the heights hc0 to hc1 of the person candidate areas a10 to a11 for the height hcd1, respectively. The actual height of the object is calculated. And when the said height turns into the height about a person, a person is detected from person candidate area | region a10-a11. In this case, in any of the person candidate areas a10 to a11, since the actual height of the object is about the height of the person, the person detection unit 109 detects a person from each of the person candidate areas a10 to a11.
結果出力部110は、人物検出部109から与えられた人物領域データに基づいて、人物検出部109により検出された人物の位置座標(x0、z0)を算出する。そして、当該算出された位置座標(x0、z0)に関する位置座標データを、当該位置座標データを必要とする装置、例えば運転支援装置に出力する。 The result output unit 110 calculates the position coordinates (x0, z0) of the person detected by the person detection unit 109 based on the person area data given from the person detection unit 109. Then, the position coordinate data related to the calculated position coordinates (x0, z0) is output to a device that requires the position coordinate data, for example, a driving support device.
ここで、具体的な位置座標(x0、z0)の算出方法を説明する。即ち、結果出力部110は、人物領域データが有する距離データ値z1をそのままz座標z0とすることで、z座標z0を算出する。また、人物領域データが有するx座標データ値xc0に基づいて、x座標x0を算出する。x座標の具体的な算出方法を図19〜図20に基づいて説明する。図19は、人物Q1と、からカメラレンズ100a及び撮像面100bとの位置関係を示す平面図であり、図20は、熱画像Aの一例を示す説明図である。 Here, a specific method for calculating the position coordinates (x0, z0) will be described. That is, the result output unit 110 calculates the z coordinate z0 by using the distance data value z1 of the person area data as the z coordinate z0 as it is. Also, the x coordinate x0 is calculated based on the x coordinate data value xc0 of the person area data. A specific method for calculating the x-coordinate will be described with reference to FIGS. FIG. 19 is a plan view showing the positional relationship between the person Q1 and the camera lens 100a and the imaging surface 100b, and FIG. 20 is an explanatory view showing an example of the thermal image A.
図19に示すように、人物Q1からカメラレンズ100aまでのz方向距離をzd1、焦点距離をf、熱画像A中、人物Q1が描かれた人物画像のx座標をxcd0とすると、人物Q1から光軸(カメラレンズ100aの中心部及び撮像面100bの中心部を通り、カメラレンズ100aに垂直な軸)までの距離xd1(x座標x0に対応)は、以下の式(3)で表される。 As shown in FIG. 19, when the distance in the z direction from the person Q1 to the camera lens 100a is zd1, the focal length is f, and the x coordinate of the person image in which the person Q1 is drawn in the thermal image A is xcd0, The distance xd1 (corresponding to the x coordinate x0) to the optical axis (the axis passing through the central part of the camera lens 100a and the central part of the imaging surface 100b and perpendicular to the camera lens 100a) is expressed by the following equation (3). .
xd1=zd1*xcd0/f …(3)
したがって、カメラ100が図20に示す熱画像Aを取得し、人物検出部109が人物候補領域a12から人物を検出した場合には、結果出力部110は、人物候補領域a12に対応する人物領域データからx座標データ値xc0及び距離データ値z1を取得し、当該x座標データ値xc0を式(3)のx座標xcd0に代入し、距離データ値z1を式(3)中の距離zd1に代入することで、x座標x0を算出する。
xd1 = zd1 * xcd0 / f (3)
Therefore, when the camera 100 acquires the thermal image A shown in FIG. 20 and the person detection unit 109 detects a person from the person candidate area a12, the result output unit 110 displays the person area data corresponding to the person candidate area a12. The x-coordinate data value xc0 and the distance data value z1 are acquired from the above, the x-coordinate data value xc0 is substituted into the x-coordinate xcd0 in the equation (3), and the distance data value z1 is substituted into the distance zd1 in the equation (3). Thus, the x coordinate x0 is calculated.
次に、物体検出装置1による処理の手順を、図21に示すフローチャートに沿って説明する。 Next, a processing procedure by the object detection apparatus 1 will be described with reference to a flowchart shown in FIG.
図21に示すステップS1にて、カメラ100は、車両P前方を撮影して、車両P前方の熱分布が描かれた熱画像Aを熱画像データの形式で取得する。次いで、当該取得された熱画像データを画像メモリ102に出力し、画像メモリ102は、カメラ100から与えられた熱画像データを保存する。一方、カメラ101は、車両P前方を撮影して、車両P前方の熱分布が描かれた熱画像Bを、熱画像データの形式で取得する。次いで、当該熱画像データを画像メモリ103に出力し、画像メモリ103は、カメラ101から与えられた熱画像データを保存する。 In step S <b> 1 shown in FIG. 21, the camera 100 captures the front of the vehicle P and acquires the thermal image A in which the heat distribution in front of the vehicle P is drawn in the form of thermal image data. Next, the acquired thermal image data is output to the image memory 102, and the image memory 102 stores the thermal image data given from the camera 100. On the other hand, the camera 101 captures the front of the vehicle P and acquires the thermal image B in which the heat distribution in front of the vehicle P is drawn in the form of thermal image data. Next, the thermal image data is output to the image memory 103, and the image memory 103 stores the thermal image data given from the camera 101.
次いで、ステップS2にて、小領域設定部104は、画像メモリ102から熱画像データを取得し、図5に示すように、当該取得された熱画像データを演算領域a1毎に分割する。次いで、当該演算領域a1毎に分割された熱画像データ、即ち分割画像データを距離算出部105に出力する。 Next, in step S2, the small area setting unit 104 acquires thermal image data from the image memory 102, and divides the acquired thermal image data for each calculation area a1, as shown in FIG. Next, the thermal image data divided for each computation area a 1, that is, the divided image data is output to the distance calculation unit 105.
次いで、ステップS3にて、距離算出部105は、小領域設定部104から与えられた分割画像データ及び画像メモリ103に保存された熱画像データに基づいて、上述した処理により、熱画像Aに含まれる各画素について視差及びz方向距離z1を算出する。さらに、演算領域a1毎に類似度を算出する。次いで、分割画像データに、当該類似度に関する類似度データ、及びz方向距離z1に関する距離データを付加して距離保存部106に出力する。 Next, in step S <b> 3, the distance calculation unit 105 is included in the thermal image A by the above-described processing based on the divided image data given from the small region setting unit 104 and the thermal image data stored in the image memory 103. The parallax and z-direction distance z1 are calculated for each pixel. Further, the similarity is calculated for each calculation area a1. Next, similarity data relating to the similarity and distance data relating to the z-direction distance z <b> 1 are added to the divided image data and output to the distance storage unit 106.
次いで、距離保存部106は、上述した処理により、距離算出部105から与えられた分割画像データのうち、上述した要件を満たすデータ、即ち小領域画像データを保存する。 Next, the distance storage unit 106 stores data that satisfies the above-described requirements, that is, small area image data, among the divided image data provided from the distance calculation unit 105 by the above-described processing.
次いで、ステップS4にて、対象小領域抽出部108は、車両P周辺の環境を検出し、当該検出された環境に対応する関係グラフ170を関係グラフ保存部107から取得する。さらに、距離保存部106から小領域画像データを取得する。 Next, in step S <b> 4, the target small region extraction unit 108 detects the environment around the vehicle P and acquires the relationship graph 170 corresponding to the detected environment from the relationship graph storage unit 107. Further, small area image data is acquired from the distance storage unit 106.
そして、当該取得された関係グラフ170及び小領域画像データに基づいて、上述した処理により、演算領域a1から、人物の熱データを有する人物候補領域を抽出する。次いで、当該抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部109に出力する。 Then, based on the acquired relation graph 170 and the small area image data, a person candidate area having human thermal data is extracted from the calculation area a1 by the above-described processing. Next, the pixel data and distance data of the extracted person candidate area, that is, the person candidate area data is output to the person detection unit 109.
次いで、ステップS5にて、人物検出部109は、対象小領域抽出部108から与えられた人物候補領域データに基づいて、上述した処理により、人物候補領域から人物を検出する。次いで、人物が検出された人物候補領域データ、即ち人物領域データを結果出力部110に出力する。 Next, in step S5, the person detection unit 109 detects a person from the person candidate area by the above-described processing based on the person candidate area data given from the target small area extraction unit. Next, the person candidate area data in which the person is detected, that is, the person area data is output to the result output unit 110.
次いで、ステップS6にて、結果出力部110は、人物検出部109から与えられた人物領域データに基づいて、上述した処理により、人物検出部109により検出された人物の位置座標(x0、z0)を算出する。次いで、当該算出された位置座標(x0、z0)に関する位置座標データを、当該位置座標データを必要とする装置、例えば運転支援装置に出力する。その後、物体検出装置1は、本処理を終了する。 Next, in step S6, the result output unit 110, based on the person area data given from the person detection unit 109, the position coordinates (x0, z0) of the person detected by the person detection unit 109 by the above-described processing. Is calculated. Subsequently, the position coordinate data regarding the calculated position coordinates (x0, z0) is output to an apparatus that requires the position coordinate data, for example, a driving support apparatus. Thereafter, the object detection apparatus 1 ends this process.
以上により、本第1の実施の形態では、物体検出装置1は、車両P前方の熱分布が描かれた熱画像A〜Bをカメラ100〜101にて取得し、図6〜図10に示すように、当該取得された熱画像A上の画素と、熱画像B上の画素のうち、熱画像A上の画素に対応する画素と、の視差を算出する。そして、当該算出された視差に基づいて、車両Pから熱画像A上に描かれた物体までのz方向距離z1を算出し、当該算出されたz方向距離z1と、図13に示す関係グラフと、に基づいて、図16に示すように、熱画像A上の演算領域a1から人物候補領域を抽出する。そして、人物候補領域から人物を検出する。 As described above, in the first embodiment, the object detection apparatus 1 acquires the thermal images A to B in which the heat distribution in front of the vehicle P is drawn with the cameras 100 to 101, and is shown in FIGS. As described above, the parallax between the acquired pixel on the thermal image A and the pixel corresponding to the pixel on the thermal image A among the pixels on the thermal image B is calculated. Then, based on the calculated parallax, a z-direction distance z1 from the vehicle P to the object drawn on the thermal image A is calculated, and the calculated z-direction distance z1 and the relationship graph shown in FIG. As shown in FIG. 16, a person candidate area is extracted from the calculation area a1 on the thermal image A. Then, a person is detected from the person candidate area.
ここで、図13に示すように、熱画像A上の人物画像が有する熱(温度)データは、車両Pから当該人物画像に対応する人物までのz方向距離に応じて異なる。物体検出装置1は、このような特徴を利用し、車両Pから熱画像A上に描かれた物体までのz方向距離z1を算出し、当該算出されたz方向距離z1と、図13に示す関係グラフと、に基づいて、熱画像A上の演算領域a1から人物候補領域を抽出する。したがって、熱画像A上で、人物候補領域とそれ以外の領域を正確に区別することができるので、人物候補領域を確実に抽出することができる。また、気温が人物の温度に近い場合であっても、人物候補領域を確実に抽出することができる。また、車両Pから人物までの距離が長く、熱画像A上の当該人物画像が有する熱データ値が通常(例えば、人物の平熱)よりも低い場合でも、当該人物が描かれた演算領域a1を人物候補領域として確実に抽出することができる。 Here, as shown in FIG. 13, the thermal (temperature) data of the person image on the thermal image A differs according to the z-direction distance from the vehicle P to the person corresponding to the person image. The object detection device 1 uses such characteristics to calculate the z-direction distance z1 from the vehicle P to the object drawn on the thermal image A. The calculated z-direction distance z1 is shown in FIG. Based on the relationship graph, a person candidate area is extracted from the calculation area a1 on the thermal image A. Accordingly, since the person candidate area and the other area can be accurately distinguished on the thermal image A, the person candidate area can be reliably extracted. Further, even if the temperature is close to the temperature of the person, the person candidate area can be reliably extracted. Even when the distance from the vehicle P to the person is long and the thermal data value of the person image on the thermal image A is lower than normal (for example, normal heat of the person), the calculation area a1 in which the person is drawn is displayed. It can be reliably extracted as a person candidate area.
また、従来では、車両Pから人物までのz方向距離に応じて人物を検出する場合、熱画像上の人物画像が有する熱データは当該z方向距離に応じて異なるので、上述した基準範囲を広くする必要がある。しかし、この場合、人物以外の物体が描かれた領域も上述した第1の領域として設定されてしまうので、人物以外の物体を人物として検出する可能性がある。一方、物体検出装置1は、車両Pから熱画像A上に描かれた物体までのz方向距離z1を算出し、当該算出されたz方向距離z1と、図13に示す関係グラフと、に基づいて、熱画像A上の演算領域a1から人物候補領域を抽出する。したがって、車両Pから人物までのz方向距離に応じて人物を検出する場合であっても、人物候補領域として抽出される領域の大きさが従来の第1の領域よりも小さくなる。したがって、人物を容易且つ確実に検出することができる。 Further, conventionally, when detecting a person according to the z-direction distance from the vehicle P to the person, the thermal data of the person image on the thermal image varies depending on the z-direction distance, so the above-described reference range is widened. There is a need to. However, in this case, an area in which an object other than a person is drawn is also set as the first area described above, and thus an object other than a person may be detected as a person. On the other hand, the object detection device 1 calculates the z-direction distance z1 from the vehicle P to the object drawn on the thermal image A, and based on the calculated z-direction distance z1 and the relationship graph shown in FIG. Thus, the person candidate area is extracted from the calculation area a1 on the thermal image A. Accordingly, even when a person is detected according to the z-direction distance from the vehicle P to the person, the size of the area extracted as the person candidate area is smaller than that of the conventional first area. Therefore, a person can be detected easily and reliably.
また、人物検出部109は、車両Pから人物候補領域に描かれた物体までのz方向距離z1に基づいて、人物候補領域から人物を検出することができるので、単純な手法(例えば、縦横比に基づいて人物を検出する手法)でしか人物を検出することができなかった従来に比べて、より精度の高い手法にて人物を検出することができる。このため、従来のように、人物程度の縦横比を有する他の物体を人物として検出することを防止することができる。言い換えれば、人物をより確実に検出することができる。 Further, since the person detection unit 109 can detect a person from the person candidate area based on the z-direction distance z1 from the vehicle P to the object drawn in the person candidate area, a simple method (for example, an aspect ratio) The person can be detected by a technique with higher accuracy than the conventional technique in which a person can be detected only by the method of detecting a person based on the above. For this reason, it is possible to prevent other objects having an aspect ratio comparable to that of a person from being detected as a person as in the past. In other words, a person can be detected more reliably.
また、関係グラフ170は、人物の各部位の実測値に基づいて作成されるので、人物候補領域を確実に検出することができる。また、例えば、当該実測値を人物の頭部のみの温度とすることで、物体検出装置1は、人物の頭部が描かれた演算領域a1を人物候補領域として抽出することができる。また、当該実測値を帽子をかぶった人物の温度とすることで、物体検出装置1は、帽子をかぶった人物が描かれた演算領域a1を人物候補領域として抽出することができる。 Further, since the relation graph 170 is created based on the actual measurement values of each part of the person, the person candidate area can be reliably detected. Further, for example, by setting the actual measurement value as the temperature of only the person's head, the object detection apparatus 1 can extract the calculation area a1 in which the person's head is drawn as the person candidate area. Further, by using the actual measurement value as the temperature of the person wearing the hat, the object detection apparatus 1 can extract the calculation area a1 in which the person wearing the hat is drawn as a person candidate area.
(第2の実施の形態)
以下、本発明の第2の実施の形態を図面に基づいて説明する。まず、図1及び図22に基づいて、本発明の一実施の形態に係る物体検出装置2の構成要素及び各構成要素の主な機能について説明する。図22は、関係グラフ271〜272を示す説明図である。
(Second Embodiment)
It will be described below based on the shape condition of the second embodiment of the present invention with reference to the accompanying drawings. First, based on FIG.1 and FIG.22, the component of the object detection apparatus 2 which concerns on one embodiment of this invention and the main functions of each component are demonstrated. FIG. 22 is an explanatory diagram showing the relationship graphs 271 to 272.
図1に示すように、物体検出装置2は、物体検出装置1に、関係グラフ保存部107、対象小領域抽出部108、及び人物検出部109の代わりに関係グラフ保存部207、対象小領域抽出部208、及び人物検出部209を備えさせたものである。 As shown in FIG. 1, the object detection device 2 adds to the object detection device 1 a relationship graph storage unit 207, target small region extraction instead of the relationship graph storage unit 107, target small region extraction unit 108, and person detection unit 109. A unit 208 and a person detection unit 209 are provided.
図1に示す関係グラフ保存部207は、例えば図22に示す関係グラフ271〜272を、気温等の環境に応じて保存する。関係グラフ271は、車両Pから人物までのz方向距離z2と、カメラ100により検出される当該人物の顔部の熱、即ち顔部の温度T1との関係を示す。この関係グラフ271は、人物の顔部の実測値に基づいて作成される。同様に、関係グラフ272は、車両Pから人物までのz方向距離z2と、カメラ100により検出される当該人物の胴体部の熱、即ち胴体部の温度T2との関係を示す。この関係グラフ271は、人物の胴体部の実測値に基づいて作成される。なお、関係グラフ271〜272が示すように、関係グラフ271の領域は関係グラフ272の領域と異なる。これは、人物の胴体部は通常服装により覆われているので、胴体部の温度は顔部の温度よりも小さくなるからである。 The relationship graph storage unit 207 illustrated in FIG. 1 stores, for example, the relationship graphs 271 to 272 illustrated in FIG. 22 according to an environment such as temperature. The relationship graph 271 shows the relationship between the z-direction distance z2 from the vehicle P to the person and the heat of the face of the person detected by the camera 100, that is, the temperature T1 of the face. The relationship graph 271 is created based on the actual measurement value of the human face. Similarly, the relationship graph 272 shows the relationship between the z-direction distance z2 from the vehicle P to the person and the heat of the body of the person detected by the camera 100, that is, the temperature T2 of the body. The relationship graph 271 is created based on the actual measurement value of the human torso. Note that, as the relationship graphs 271 to 272 indicate, the region of the relationship graph 271 is different from the region of the relationship graph 272. This is because the temperature of the torso is smaller than the temperature of the face because the torso of the person is usually covered with clothes.
対象小領域抽出部208は、車両P周辺の環境を検出し、当該検出された環境に対応する関係グラフ271〜272を関係グラフ保存部207から取得する。さらに、距離保存部106から小領域画像データを取得する。 The target small region extraction unit 208 detects the environment around the vehicle P, and acquires the relationship graphs 271 to 272 corresponding to the detected environment from the relationship graph storage unit 207. Further, small area image data is acquired from the distance storage unit 106.
そして、人物の頭部のみを検出すれば良いのかどうかを判断する。この判断は、物体検出装置2に対して行われる設定等に基づいて、行われる。 Then, it is determined whether it is sufficient to detect only the head of the person. This determination is made based on settings made for the object detection device 2 and the like.
この結果、人物の頭部のみを検出する場合には、当該取得された関係グラフ271及び小領域画像データに基づいて、熱画像Aから、人物の頭部の熱データを有する人物候補領域を抽出する。一方、人物の頭部以外の部分も検出する場合、車両P周辺の環境に基づいて、熱画像Aに人物の後頭部が描かれるかどうかを判断する。この結果、人物の後頭部が描かれる場合、当該取得された関係グラフ272及び小領域画像データに基づいて、熱画像Aから、人物の胴体部の熱データを有する人物候補領域を抽出する。この場合、後頭部の熱データ値は顔部の熱データ値よりも大きいので、関係グラフ271に基づいて人物候補領域を検出しようとすると、人物の頭部が描かれた演算領域a1が人物候補領域として抽出されない可能性があるからである。一方、人物の後頭部が描かれない場合、及び、後頭部が描かれているかどうかの判断を行うことができない場合、当該取得された関係グラフ271〜272及び小領域画像データに基づいて、熱画像Aから、人物の頭部及び胴体部の熱データを有する人物候補領域を抽出する。 As a result, when only the head of the person is detected, a person candidate area having the thermal data of the person's head is extracted from the thermal image A based on the acquired relation graph 271 and the small area image data. To do. On the other hand, when a part other than the head of the person is also detected, it is determined whether or not the back of the person is drawn on the thermal image A based on the environment around the vehicle P. As a result, when a person's occipital region is drawn, based on the acquired relationship graph 272 and small area image data, a person candidate area having thermal data of the human torso is extracted from the thermal image A. In this case, since the thermal data value of the occipital region is larger than the thermal data value of the face portion, when an attempt is made to detect a person candidate area based on the relationship graph 271, the calculation area a1 in which the person's head is drawn becomes the person candidate area This is because it may not be extracted as. On the other hand, when the back of the person is not drawn and when it is not possible to determine whether or not the back of the head is drawn, the thermal image A based on the acquired relationship graphs 271 to 272 and the small area image data. Then, a person candidate area having thermal data of the person's head and torso is extracted.
そして、当該抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部209に出力する。 Then, the pixel data and distance data of the extracted person candidate area, that is, the person candidate area data is output to the person detection unit 209.
人物検出部209は、対象小領域抽出部208から与えられた人物候補領域データに基づいて、人物候補領域から人物を検出する。そして、人物検出部209は、人物が検出された人物候補領域データ、即ち人物領域データを結果出力部110に出力する。 The person detection unit 209 detects a person from the person candidate area based on the person candidate area data given from the target small area extraction unit 208. Then, the person detection unit 209 outputs the person candidate area data in which the person is detected, that is, the person area data to the result output unit 110.
人物検出部209は、具体的には、以下の方法により人物を検出する。即ち、人物候補領域をラベリングし、当該ラベリングされた人物候補領域の縦横比を算出する。そして、当該算出された縦横比が人物の縦横比に一致する場合には、当該人物候補領域から人物を検出する。ここで、人物候補領域に人物の頭部のみが描かれる場合には、人物候補領域の縦横比と人物の頭部の縦横比とを比較する。この結果、人物候補領域の縦横比が人物の頭部の縦横比に一致する場合には、当該人物候補領域及びその周辺の領域から人物を検出する。また、人物候補領域に人物の胴体部のみが描かれる場合には、人物候補領域の縦横比と人物の胴体部の縦横比とを比較する。この結果、人物候補領域の縦横比が人物の胴体部の縦横比に一致する場合には、当該人物候補領域及びその周辺の領域から人物を検出する。また、人物候補領域に人物の頭部及び胴体部が描かれる場合には、人物候補領域の縦横比と人物の頭部及び胴体部の縦横比とを比較する。この結果、人物候補領域の縦横比が人物の頭部及び胴体部の縦横比に一致する場合には、当該人物候補領域及びその周辺の領域から人物を検出する。 Specifically, the person detection unit 209 detects a person by the following method. That is, the person candidate area is labeled, and the aspect ratio of the labeled person candidate area is calculated. If the calculated aspect ratio matches the aspect ratio of the person, the person is detected from the person candidate area. Here, when only the head of the person is drawn in the person candidate area, the aspect ratio of the person candidate area is compared with the aspect ratio of the person's head. As a result, when the aspect ratio of the person candidate area matches the aspect ratio of the person's head, the person is detected from the person candidate area and its surrounding area. Further, when only the human torso is drawn in the person candidate area, the aspect ratio of the person candidate area is compared with the aspect ratio of the person torso. As a result, when the aspect ratio of the person candidate area matches the aspect ratio of the torso of the person, a person is detected from the person candidate area and its surrounding area. Further, when the human head and torso are drawn in the human candidate area, the aspect ratio of the human candidate area is compared with the aspect ratio of the human head and torso. As a result, when the aspect ratio of the person candidate area matches the aspect ratio of the head and torso of the person, the person is detected from the person candidate area and the surrounding area.
なお、人物検出部209は、人物検出部109と同様に、人物候補領域データが有する距離データ及び上述した式(2)に基づいて人物を検出することもできる。ここで、人物候補領域に人物の頭部のみが描かれる場合、式(2)中の高さH1は、人物の頭部の高さとなる。また、人物候補領域に人物の胴体部のみが描かれる場合、式(2)中の高さH1は、人物の胴体部の高さとなる。人物候補領域に人物の頭部及び胴体部が描かれる場合、式(2)中の高さH1は、人物の頭部及び胴体部の高さとなる。 Note that the person detection unit 209 can detect a person based on the distance data included in the person candidate area data and the above-described equation (2), similarly to the person detection unit 109. Here, when only the head of the person is drawn in the person candidate area, the height H1 in the expression (2) is the height of the head of the person. Further, when only the human torso is drawn in the person candidate area, the height H1 in the expression (2) is the height of the torso of the person. When a person's head and torso are drawn in the person candidate area, the height H1 in Equation (2) is the height of the person's head and torso.
物体検出装置2による処理の手順は、物体検出装置1による処理の手順と同様なので、当該手順についての説明を省略する。 Since the procedure of the process by the object detection device 2 is the same as the procedure of the process by the object detection device 1, the description of the procedure is omitted.
以上により、本第2の実施の形態では、物体検出装置2は、人物の顔部に関する関係グラフ271と、人物の胴体部に関する関係グラフ272を保存する。これにより、上述したように、人物の頭部の熱データを有する人物候補領域を抽出したり、人物の胴体部の熱データを有する人物候補領域を抽出することができる。この場合、人物検出部109による処理の対象となる人物候補領域が小さくなるので、人物検出部109は、より容易に人物を検出することができる。 As described above, in the second embodiment, the object detection apparatus 2 stores the relationship graph 271 related to the human face and the relationship graph 272 related to the human torso. Thereby, as described above, it is possible to extract a person candidate area having thermal data of the person's head, or to extract a person candidate area having thermal data of the person's torso. In this case, since the person candidate area to be processed by the person detection unit 109 becomes smaller, the person detection unit 109 can more easily detect a person.
また、胴体部の熱データを有する人物候補領域を抽出する場合、頭部の状況によらずに(例えば、人物が帽子をかぶっているかどうかによらずに)、人物を検出することができる。したがって、人物をより確実に検出することができる。 In addition, when extracting a human candidate region having thermal data of the torso, it is possible to detect a person regardless of the state of the head (for example, regardless of whether the person is wearing a hat). Therefore, a person can be detected more reliably.
(第3の実施の形態)
以下、本発明の第3の実施の形態を図面に基づいて説明する。まず、図1、図23、及び図24に基づいて、本発明の一実施の形態に係る物体検出装置3の構成要素及び各構成要素の主な機能について説明する。図23〜図24は、人物候補領域の一例を示す説明図である。
(Third embodiment)
It will be described below with reference third form status of implementation of the present invention with reference to the drawings. First, based on FIG. 1, FIG. 23, and FIG. 24, the component of the object detection apparatus 3 which concerns on one embodiment of this invention, and the main functions of each component are demonstrated. 23 to 24 are explanatory diagrams illustrating an example of a person candidate area.
図1に示すように、物体検出装置3は、物体検出装置1に、対象小領域抽出部108の代わりに対象小領域抽出部308を備えさせたものである。 As illustrated in FIG. 1, the object detection device 3 includes the object detection device 1 including a target small region extraction unit 308 instead of the target small region extraction unit 108.
対象小領域抽出部308は、対象小領域抽出部108と同様の処理により、人物の熱データを有する画像領域を人物候補領域として抽出する。さらに、当該抽出された画像領域周辺の周辺領域を人物候補領域として抽出する。そして、当該抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部109に出力する。 The target small area extraction unit 308 extracts an image area having human thermal data as a person candidate area by the same processing as the target small area extraction unit 108. Further, a peripheral area around the extracted image area is extracted as a person candidate area. Then, the pixel data and distance data of the extracted person candidate area, that is, the person candidate area data is output to the person detection unit 109.
当該処理の一例を、図23〜図24に基づいて説明する。即ち、図23に示すように、対象小領域抽出部308は、対象小領域抽出部108と同様の処理により、画像領域a2〜a9を人物候補領域として抽出する。さらに、図24に示すように、画像領域a2〜a9周辺の周辺領域(例えば、人物候補領域a3、a5、a8周辺の周辺領域a3−1、a5−1、a8−1)を人物候補領域として抽出する。そして、当該抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部109に出力する。 An example of the process will be described with reference to FIGS. That is, as illustrated in FIG. 23, the target small area extraction unit 308 extracts the image areas a <b> 2 to a <b> 9 as person candidate areas by the same processing as the target small area extraction unit 108. Further, as shown in FIG. 24, peripheral areas around the image areas a2 to a9 (for example, peripheral areas a3-1, a5-1, and a8-1 around the human candidate areas a3, a5, and a8) are set as human candidate areas. Extract. Then, the pixel data and distance data of the extracted person candidate area, that is, the person candidate area data is output to the person detection unit 109.
物体検出装置3による処理の手順は、物体検出装置1による処理の手順と同様であるので、当該手順についての説明を省略する。 Since the procedure of the process by the object detection device 3 is the same as the procedure of the process by the object detection device 1, description of the procedure is omitted.
以上により、本第3の実施の形態では、対象小領域抽出部308は、人物の熱データを有する画像領域の他に、当該画像領域周辺の周辺領域も人物候補領域として抽出する。従って、人物の各部位が描かれた画像領域が連結しない場合(例えば、図23に示すように、人物の胴体部分が描かれた画像領域と足部分が描かれた画像領域が連結しない場合)であっても、これらの画像部分をすべて含む人物候補領域を抽出することができる。したがって、人物候補領域から人物をより確実に抽出することができる。 As described above, in the third embodiment, the target small area extraction unit 308 extracts not only the image area having the thermal data of the person but also the peripheral area around the image area as the person candidate area. Therefore, when the image area in which each part of the person is drawn is not connected (for example, as shown in FIG. 23, the image area in which the body part of the person is drawn and the image area in which the foot part is drawn are not connected). Even so, it is possible to extract a human candidate region including all these image portions. Therefore, a person can be extracted more reliably from the person candidate area.
また、気温が人物の温度に近い場合、人物の熱データを有する画像部分が人物画像の通常の大きさよりも小さくなる場合があるが、このような場合であっても、人物候補領域を当該画像部分よりも大きくすることができるので、人物候補領域から人物を確実に検出することができる。 Further, when the temperature is close to the temperature of the person, the image portion having the heat data of the person may be smaller than the normal size of the person image. Since it can be larger than the portion, it is possible to reliably detect a person from the person candidate area.
(第4の実施の形態)
以下、本発明の第4の実施の形態を図面に基づいて説明する。まず、図1、図22、図25、図26、及び図27に基づいて、本発明の一実施の形態に係る物体検出装置4の構成要素及び各構成要素の主な機能について説明する。図25〜図27は、対象小領域抽出部408により抽出される領域の一例を示す説明図である。
(Fourth embodiment)
It will be described below with reference fourth form status of implementation of the present invention with reference to the drawings. First, based on FIG. 1, FIG. 22, FIG. 25, FIG. 26, and FIG. 27, components of the object detection device 4 according to an embodiment of the present invention and main functions of each component will be described. FIG. 25 to FIG. 27 are explanatory diagrams illustrating an example of a region extracted by the target small region extraction unit 408.
図1に示すように、物体検出装置4は、物体検出装置1に、関係グラフ保存部107、対象小領域抽出部108、及び人物検出部109の代わりに関係グラフ保存部207、対象小領域抽出部408、及び人物検出部409を備えさせたものである。ここで、関係グラフ保存部207は第2の実施の形態で説明したものである。 As shown in FIG. 1, the object detection device 4 adds a relationship graph storage unit 207, target small region extraction to the object detection device 1 instead of the relationship graph storage unit 107, the target small region extraction unit 108, and the person detection unit 109. A unit 408 and a person detection unit 409. Here, the relation graph storage unit 207 has been described in the second embodiment.
対象小領域抽出部408は、車両P周辺の環境を検出し、当該検出された環境に対応する関係グラフ271〜272を関係グラフ保存部207から取得する。さらに、距離保存部106から小領域画像データを取得する。 The target small region extraction unit 408 detects the environment around the vehicle P, and acquires the relationship graphs 271 to 272 corresponding to the detected environment from the relationship graph storage unit 207. Further, small area image data is acquired from the distance storage unit 106.
そして、関係グラフ271及び小領域画像データに基づいて、熱画像Aから人物の頭部の熱データを有する頭部画像領域を人物候補領域として抽出する。また、関係グラフ272及び小領域画像データに基づいて、熱画像Aから人物の胴体部の熱データを有する胴体部画像領域を人物候補領域として抽出する。そして、胴体部画像領域が頭部画像領域の下方に存在する場合には、当該胴体部画像領域の下方に、直線が描かれた縦エッジ領域(人物の足部分に対応する領域)が存在するかどうかを判断する。なお、当該判断は、熱画像Aのうち、胴体部画像領域の下方の領域においてソーベルフィルダをかける、もしくは、微分処理を施すなどの一般的な縦エッジ検出処理により行われる。そして、縦エッジ領域が存在する場合には、縦エッジ領域を人物候補領域として抽出する。そして、これら抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部409に出力する。 Then, based on the relationship graph 271 and the small area image data, the head image area having the thermal data of the person's head is extracted from the thermal image A as the person candidate area. Further, based on the relationship graph 272 and the small area image data, the body part image area having the thermal data of the human body part is extracted from the thermal image A as the person candidate area. When the torso image area exists below the head image area, a vertical edge area (an area corresponding to a person's foot) in which a straight line is drawn exists below the torso image area. Determine whether or not. This determination is performed by a general vertical edge detection process such as applying a Sobel filter or performing a differentiation process in the thermal image A in a region below the body image region. If a vertical edge area exists, the vertical edge area is extracted as a person candidate area. Then, the pixel data and distance data included in the extracted person candidate areas, that is, the person candidate area data is output to the person detection unit 409.
当該処理の具体例を、図25〜図27に基づいて説明する。即ち、図25に示すように、関係グラフ271及び小領域画像データに基づいて、人物の頭部の熱データを有する頭部画像領域a2〜a3、a51〜a52、a54〜a56、a6〜a7を人物候補領域として抽出する。また、図26に示すように、関係グラフ272及び小領域画像データに基づいて、人物の胴体部の熱データを有する胴体部画像領域a4、a52〜a54、a7、a9を抽出する。 A specific example of this processing will be described with reference to FIGS. That is, as shown in FIG. 25, based on the relationship graph 271 and the small area image data, head image areas a2 to a3, a51 to a52, a54 to a56, and a6 to a7 having thermal data of the human head are represented. Extracted as a person candidate area. Also, as shown in FIG. 26, based on the relationship graph 272 and the small area image data, the body image areas a4, a52 to a54, a7, and a9 having the thermal data of the human torso are extracted.
そして、胴体部の熱データを有する胴体部画像領域a53が頭部の熱データを有する頭部画像領域a51の下方に存在するので、画像領域a53の下方に縦エッジ領域が存在するかどうかを判断する。本例では、図25に示すように、画像領域a55〜a56が縦エッジ領域となるので、縦エッジ領域が存在する。したがって、対象小領域抽出部408は、画像領域a55〜a56を人物候補領域として抽出する。そして、これら抽出された人物候補領域が有する画素データ及び距離データ、即ち人物候補領域データを人物検出部409に出力する。 Since the torso image area a53 having the heat data of the torso exists below the head image area a51 having the heat data of the head, it is determined whether or not there is a vertical edge area below the image area a53. To do. In this example, as shown in FIG. 25, since the image areas a55 to a56 are vertical edge areas, there are vertical edge areas. Therefore, the target small area extraction unit 408 extracts the image areas a55 to a56 as person candidate areas. Then, the pixel data and distance data included in the extracted person candidate areas, that is, the person candidate area data is output to the person detection unit 409.
人物検出部409は、対象小領域抽出部408から与えられた人物候補領域データに基づいて、人物候補領域から人物を検出する。そして、人物検出部409は、人物が検出された人物候補領域データ、即ち人物領域データを結果出力部110に出力する。 The person detection unit 409 detects a person from the person candidate area based on the person candidate area data given from the target small area extraction unit 408. Then, the person detection unit 409 outputs the person candidate area data in which the person is detected, that is, the person area data to the result output unit 110.
人物検出部409は、具体的には、以下の方法により人物を検出する。即ち、人物候補領域をラベリングし、当該ラベリングされた人物候補領域が頭部画像領域、胴体部画像領域及び縦エッジ領域で構成されている場合には、当該人物候補領域から人物を検出する。 Specifically, the person detection unit 409 detects a person by the following method. That is, a person candidate area is labeled, and when the labeled person candidate area is composed of a head image area, a torso image area, and a vertical edge area, a person is detected from the person candidate area.
物体検出装置4による処理の手順は、物体検出装置1による処理の手順と同様なので、当該手順についての説明を省略する。 Since the procedure of the process by the object detection device 4 is the same as the procedure of the process by the object detection device 1, description of the procedure is omitted.
以上により、本第4の実施の形態では、物体検出装置4は、人物候補領域が頭部画像領域、胴体部画像領域及び縦エッジ領域で構成されている場合には、当該人物候補領域から人物を検出する。したがって、人物候補領域の形状に基づいて当該人物候補領域から人物を検出することができるので、より確実に人物を検出することができる。これにより、例えば、人物と同程度の熱データを有するが、人物の形状とは異なる形状の人物候補領域から人物を誤検出しないようにすることができる。 As described above, in the fourth embodiment, when the person candidate area is composed of the head image area, the torso image area, and the vertical edge area, the object detection apparatus 4 starts from the person candidate area. Is detected. Therefore, since a person can be detected from the person candidate area based on the shape of the person candidate area, the person can be detected more reliably. Accordingly, for example, it is possible to prevent a person from being erroneously detected from a person candidate region having a thermal data equivalent to that of a person but having a shape different from that of the person.
(第5の実施の形態)
以下、本発明の第5の実施の形態を図面に基づいて説明する。まず、図1、図28、及び図29に基づいて、本発明の一実施の形態に係る物体検出装置5の構成要素及び各構成要素の主な機能について説明する。図28〜図29は、対象小領域抽出部408により抽出される画像領域の一例を示す説明図である。
(Fifth embodiment)
It will be described below with reference fifth form status of implementation of the present invention with reference to the drawings. First, based on FIG. 1, FIG. 28 and FIG. 29, components of the object detection device 5 according to one embodiment of the present invention and main functions of each component will be described. 28 to 29 are explanatory diagrams illustrating an example of an image region extracted by the target small region extraction unit 408.
図1に示すように、物体検出装置5は、物体検出装置4に、結果出力部110の代わりに結果出力部510を備えさせたものである。 As illustrated in FIG. 1, the object detection device 5 includes the object detection device 4 including a result output unit 510 instead of the result output unit 110.
結果出力部510は、人物検出部109から与えられた人物領域データに基づいて、結果出力部110と同様の処理により、人物検出部109により検出された人物の位置座標(x0、z0)を算出する。また、一般的な縦エッジ検出処理により、人物検出部109により検出された縦エッジ画像の傾きを算出する。そして、当該算出された縦エッジ領域の傾きが時間の経過に応じて変化するかどうかを判断する。この結果、時間の経過に応じて変化する場合には、当該傾きと所定の基準値とを比較する。この結果、傾きが所定の基準値よりも大きくなる場合には、人物検出部409により検出された人物は歩行中であると判定する。そして、上述した位置座標(x0、z0)に関する位置座標データと、当該判定結果に関する判定結果データを当該位置座標データ及び判定結果データを必要とする装置、例えば運転支援装置に出力する。 The result output unit 510 calculates the position coordinates (x0, z0) of the person detected by the person detection unit 109 by the same processing as the result output unit 110 based on the person area data given from the person detection unit 109. To do. Further, the inclination of the vertical edge image detected by the person detection unit 109 is calculated by a general vertical edge detection process. Then, it is determined whether or not the calculated inclination of the vertical edge region changes with time. As a result, when it changes with the passage of time, the inclination is compared with a predetermined reference value. As a result, when the inclination becomes larger than a predetermined reference value, it is determined that the person detected by the person detection unit 409 is walking. And the position coordinate data regarding the position coordinate (x0, z0) mentioned above and the determination result data regarding the said determination result are output to the apparatus which requires the said position coordinate data and determination result data, for example, a driving assistance apparatus.
ここで、当該判定処理の一例を図28〜図29に基づいて説明する。即ち、図28に示すように、一般的な縦エッジ検出処理により、人物検出部109により検出された縦エッジ画像a55〜a56の傾きを算出する。そして、図29に示すように、当該算出された縦エッジ領域の傾きが時間の経過に応じて変化する場合、当該傾きと所定の基準値とを比較する。この結果、傾きが所定の基準値よりも大きくなる場合には、人物検出部409により検出された人物は歩行中であると判定する。本例では、当該人物は歩行中であると判定する。そして、上述した位置座標(x0、z0)に関する位置座標データと、当該判定結果に関する判定結果データを当該位置座標データ及び判定結果データを必要とする装置、例えば運転支援装置等に出力する。 Here, an example of the determination process will be described with reference to FIGS. That is, as shown in FIG. 28, the inclinations of the vertical edge images a55 to a56 detected by the person detection unit 109 are calculated by a general vertical edge detection process. Then, as shown in FIG. 29, when the calculated inclination of the vertical edge region changes with time, the inclination is compared with a predetermined reference value. As a result, when the inclination becomes larger than a predetermined reference value, it is determined that the person detected by the person detection unit 409 is walking. In this example, it is determined that the person is walking. Then, the position coordinate data related to the position coordinates (x0, z0) and the determination result data related to the determination result are output to a device that requires the position coordinate data and the determination result data, such as a driving support device.
以上により、本第5の実施の形態では、物体検出装置5は、人物の位置座標データの他、人物が歩行中であるかどうかの判定結果データも運転支援装置等に出力することができる。これにより、運転支援装置等は、人物が車両P前方に飛び出してきているかどうか(即ち、横方向に移動しているかどうか)、及び当該人物が車両Pから遠ざかっているかどうかを容易且つ迅速に判断することができる。この結果、運転支援装置等は、例えば、人物が車両P前方に飛び出してきている場合には、各種の警報や車両制御をより迅速に行うことができる。また、人物が車両Pから遠ざかっている場合には、所定の警報や車両制御(例えば、車両Pの速度を落とす制御)は不要となる。物体検出装置5は、人物が車両Pから遠ざかっているかどうかを容易且つ迅速に判断することができるので、当該所定の警報や車両制御が不要かどうかの判断を容易且つ迅速に行うことができる。 As described above, in the fifth embodiment, the object detection device 5 can also output determination result data on whether or not the person is walking in addition to the position coordinate data of the person to the driving support device or the like. As a result, the driving support device or the like can easily and quickly determine whether or not the person has jumped forward of the vehicle P (that is, whether or not the person has moved in the lateral direction) and whether or not the person has moved away from the vehicle P. can do. As a result, the driving assistance device or the like can perform various alarms and vehicle control more quickly when, for example, a person has jumped out ahead of the vehicle P. Further, when a person is moving away from the vehicle P, a predetermined alarm or vehicle control (for example, control for reducing the speed of the vehicle P) becomes unnecessary. Since the object detection device 5 can easily and quickly determine whether or not a person is moving away from the vehicle P, it can easily and quickly determine whether or not the predetermined alarm or vehicle control is necessary.
なお、上述した第1〜第5の実施の形態に記載の技術を互いに組み合わせることができるのはもちろんである。 Needless to say, the techniques described in the first to fifth embodiments can be combined with each other.
また、第1〜第5の実施の形態では、検出対象物として人物を検出することとしたが、他の物体、例えば道路構造物を検出するようにしてもよい。 In the first to fifth embodiments, a person is detected as a detection target. However, other objects such as road structures may be detected.
1〜5…物体検出装置
100…カメラ(第1の画像取得手段)
101…カメラ(第2の画像取得手段)
102〜103…画像メモリ
104…小領域設定部
105…距離算出部(距離算出手段)
106…距離保存部
107、207…関係グラフ保存部
108、208、308、408…対象小領域抽出部(小領域抽出手段)
109、209、409…人物検出部(検出手段)
110、510…結果出力部(判定手段)
170、271〜272…関係グラフ(対応データ)
1 to 5: Object detection device 100: Camera (first image acquisition means)
101 ... Camera (second image acquisition means)
102 to 103 ... image memory 104 ... small area setting section 105 ... distance calculation section (distance calculation means)
106: Distance storage unit 107, 207 ... Relation graph storage unit 108, 208, 308, 408 ... Target small region extraction unit (small region extraction means)
109, 209, 409 ... person detection unit (detection means)
110, 510 ... result output unit (determination means)
170, 271-272 ... relation graph (corresponding data)
Claims (7)
前記車両の周辺の状態量データを有する複数の画素からなる第1の画像を取得する第1の画像取得手段と、
前記車両の周辺の状態量データを有する複数の画素からなる第2の画像を取得する第2の画像取得手段と、
前記第1の画像取得手段により取得された第1の画像上の小領域と、前記第2の画像取得手段により取得された第2の画像上の小領域のうち、前記第1の画像上の小領域に対応する小領域と、の視差を算出し、且つ、当該算出された視差に基づいて、前記車両から前記第1の画像上の小領域に描かれた物体までの距離を算出する距離算出手段と、
前記車両から所定の検出対象物までの距離と、前記第1の画像を構成する画素が有する前記検出対象物の状態量データと、の対応データと、
前記距離算出手段により算出された距離と、前記対応データと、に基づいて、前記第1の画像上の小領域から、前記検出対象物の状態量データを有する距離にある小領域を抽出する小領域抽出手段と、
前記小領域抽出手段により抽出された小領域から前記検出対象物を検出する検出手段と、を備えることを特徴とする物体検出装置。 In an object detection device mounted on a vehicle,
First image acquisition means for acquiring a first image comprising a plurality of pixels having state quantity data around the vehicle;
Second image acquisition means for acquiring a second image comprising a plurality of pixels having state quantity data around the vehicle;
Of the small area on the first image acquired by the first image acquisition means and the small area on the second image acquired by the second image acquisition means, Distance for calculating the parallax between the small area corresponding to the small area and calculating the distance from the vehicle to the object drawn in the small area on the first image based on the calculated parallax A calculation means;
Correspondence data between a distance from the vehicle to a predetermined detection object and state quantity data of the detection object included in pixels constituting the first image;
Based on the distance calculated by the distance calculation means and the corresponding data, a small area is extracted from a small area on the first image that is at a distance having the state quantity data of the detection target. Region extraction means;
An object detection apparatus comprising: detection means for detecting the detection target object from a small area extracted by the small area extraction means.
前記対応データは、前記検出対象物の各部位の実測値に基づいて作成されることを特徴とする物体検出装置。 The object detection device according to claim 1,
The correspondence data is created based on an actual measurement value of each part of the detection target.
前記小領域抽出手段は、前記第1の画像上の小領域から、前記検出対象物の状態量データを有する距離にある小領域及び当該小領域の周辺の小領域を抽出することを特徴とする物体検出装置。 The object detection apparatus according to claim 1 or 2,
The small area extracting unit extracts, from the small area on the first image, a small area at a distance having the state quantity data of the detection target object and a small area around the small area. Object detection device.
前記小領域抽出手段は、前記検出対象物の状態量データを有する距離にある小領域として、人物の頭部の状態量データを有する距離にある頭部画像領域と、人物の胴体部の状態量データを有する距離にある胴体部画像領域と、を抽出し、
前記検出手段は、前記小領域抽出手段が前記頭部画像領域を抽出し、且つ、当該抽出された頭部画像領域の下方から前記胴体部画像領域を抽出した場合には、前記小領域抽出手段により抽出された頭部画像領域及び胴体部画像領域から人物を検出することを特徴とする物体検出装置。 In the object detection device according to any one of claims 1 to 3,
The small area extracting means includes a head image area at a distance having the state quantity data of the person's head and a state quantity of the human torso as a small area at a distance having the state quantity data of the detection target A torso image area at a distance having data, and
In the case where the small region extracting unit extracts the head image region and the body part image region is extracted from below the extracted head image region, the detecting unit extracts the small region extracting unit. An object detection apparatus for detecting a person from a head image area and a torso image area extracted by the above.
前記検出手段は、直線が描かれた縦エッジ領域が前記小領域抽出手段により抽出された胴体部画像領域の下方に存在する場合には、前記小領域抽出手段により抽出された頭部画像領域及び胴体部画像領域と、前記縦エッジ領域と、から人物を検出することを特徴とする物体検出装置。 The object detection apparatus according to claim 4, wherein
When the vertical edge region in which a straight line is drawn is present below the trunk image region extracted by the small region extraction unit, the detection unit and the head image region extracted by the small region extraction unit and An object detection apparatus for detecting a person from a torso image area and the vertical edge area.
前記縦エッジ領域の傾きが時間の経過に応じて変化し、且つ、所定の基準値よりも大きくなる場合には、前記検出手段により検出された人物は歩行中であると判定する判定手段を備えることを特徴とする物体検出装置。 The object detection apparatus according to claim 5,
And determining means for determining that the person detected by the detecting means is walking when the inclination of the vertical edge region changes with time and becomes larger than a predetermined reference value. An object detection apparatus characterized by that.
前記車両の周辺の状態量データを有する複数の画素からなる第2の画像を取得する第2の工程と、
前記第1の工程により取得された第1の画像上の小領域と、前記第2の工程により取得された第2の画像上の小領域のうち、前記第1の画像上の小領域に対応する小領域と、の視差を算出し、且つ、当該算出された視差に基づいて、前記車両から前記第1の画像上の小領域に描かれた物体までの距離を算出する第3の工程と、
前記車両から所定の検出対象物までの距離と、前記第1の画像を構成する画素が有する前記検出対象物の状態量データと、の対応データ、及び前記第3の工程により算出された距離に基づいて、前記第1の画像上の小領域から、前記検出対象物の状態量データを有する距離にある小領域を抽出する第4の工程と、
前記第4の工程により抽出された小領域から前記検出対象物を検出する第5の工程と、
を備えることを特徴とする物体検出方法。 A first step of obtaining a first image comprising a plurality of pixels having state quantity data around the vehicle;
A second step of obtaining a second image comprising a plurality of pixels having state quantity data around the vehicle;
Corresponds to the small area on the first image among the small area on the first image acquired by the first step and the small area on the second image acquired by the second step. A third step of calculating a parallax between the vehicle and the small area to be calculated, and calculating a distance from the vehicle to an object drawn in the small area on the first image based on the calculated parallax; ,
Corresponding data between the distance from the vehicle to the predetermined detection object and the state quantity data of the detection object included in the pixels constituting the first image, and the distance calculated by the third step A fourth step of extracting, from the small area on the first image, a small area at a distance having the state quantity data of the detection target;
A fifth step of detecting the detection object from the small region extracted by the fourth step;
An object detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003348384A JP3994954B2 (en) | 2003-10-07 | 2003-10-07 | Object detection apparatus and object detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003348384A JP3994954B2 (en) | 2003-10-07 | 2003-10-07 | Object detection apparatus and object detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005115618A JP2005115618A (en) | 2005-04-28 |
JP3994954B2 true JP3994954B2 (en) | 2007-10-24 |
Family
ID=34540595
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003348384A Expired - Fee Related JP3994954B2 (en) | 2003-10-07 | 2003-10-07 | Object detection apparatus and object detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3994954B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4793638B2 (en) * | 2006-03-27 | 2011-10-12 | マツダ株式会社 | Pedestrian detection device for vehicles |
WO2008139529A1 (en) * | 2007-04-27 | 2008-11-20 | Honda Motor Co., Ltd. | Vehicle periphery monitoring system, vehicle periphery monitoring program and vehicle periphery monitoring method |
JP5145599B2 (en) * | 2007-04-27 | 2013-02-20 | 本田技研工業株式会社 | Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method |
JP5638335B2 (en) * | 2010-10-05 | 2014-12-10 | 古河機械金属株式会社 | POSITION DETECTION SYSTEM, ITS DATA PROCESSING DEVICE, ITS DATA PROCESSING METHOD, AND COMPUTER PROGRAM |
JP5785515B2 (en) * | 2012-04-04 | 2015-09-30 | 株式会社デンソーアイティーラボラトリ | Pedestrian detection device and method, and vehicle collision determination device |
TWI630377B (en) * | 2017-04-18 | 2018-07-21 | 亞迪電子股份有限公司 | Thermal detection device |
US11023743B2 (en) * | 2019-07-03 | 2021-06-01 | Hitachi Automotive Systems, Ltd. | Object recognition by far infrared camera |
-
2003
- 2003-10-07 JP JP2003348384A patent/JP3994954B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005115618A (en) | 2005-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8005266B2 (en) | Vehicle surroundings monitoring apparatus | |
JP6036065B2 (en) | Gaze position detection device and gaze position detection method | |
JP4631096B2 (en) | Vehicle periphery monitoring device | |
JP4173902B2 (en) | Vehicle periphery monitoring device | |
JP5603835B2 (en) | Vehicle perimeter monitoring device | |
JP4899424B2 (en) | Object detection device | |
WO2011065149A1 (en) | Target-object distance measuring device and vehicle mounted with the device | |
JP5127531B2 (en) | Image monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
JP6544257B2 (en) | INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING PROGRAM | |
JP2007293627A (en) | Periphery monitoring device for vehicle, vehicle, periphery monitoring method for vehicle and periphery monitoring program for vehicle | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP2018156408A (en) | Image recognizing and capturing apparatus | |
JP2014154898A (en) | Object detection device | |
JP4777196B2 (en) | Driving assistance device | |
JP3994954B2 (en) | Object detection apparatus and object detection method | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP2008026998A (en) | Obstacle location calculation system and method | |
JP2005196567A (en) | Face direction detecting device | |
JP4777195B2 (en) | Driving support device, vehicle, and driving support method | |
JP2009176005A (en) | Characteristic point detection method for face image and its device | |
JP2008077154A (en) | Vehicle periphery supervision unit | |
JP7426611B2 (en) | Calibration method and calibration device | |
JP6886136B2 (en) | Alignment device, alignment method and computer program for alignment | |
JP2014044730A (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070316 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070424 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070607 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070723 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100810 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100810 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |