JPH09226490A - Detector for crossing object - Google Patents
Detector for crossing objectInfo
- Publication number
- JPH09226490A JPH09226490A JP8035039A JP3503996A JPH09226490A JP H09226490 A JPH09226490 A JP H09226490A JP 8035039 A JP8035039 A JP 8035039A JP 3503996 A JP3503996 A JP 3503996A JP H09226490 A JPH09226490 A JP H09226490A
- Authority
- JP
- Japan
- Prior art keywords
- crossing
- detection
- window
- data
- crossing object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 117
- 238000000034 method Methods 0.000 claims abstract description 28
- 238000004458 analytical method Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 31
- 238000003384 imaging method Methods 0.000 claims description 9
- 230000015654 memory Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 17
- 238000013500 data storage Methods 0.000 description 16
- 238000001444 catalytic combustion detection Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000013256 coordination polymer Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、横断物の検出装
置に係り、詳しくはCCDカメラ等により撮像された画
像データ、或いはスキャニングレーダ装置により得られ
た距離データ等を用いて自車両の走行路上に存在する横
断物を検出するための横断物の検出装置に関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting a crossing object, and more specifically, on a traveling road of a vehicle using image data captured by a CCD camera or the like, or distance data obtained by a scanning radar device. The present invention relates to a crossing object detection device for detecting a crossing object existing in a vehicle.
【0002】[0002]
【従来の技術】従来の方法として、画像処理の立体視を
用いたり、レーザレーダをスキャニングしたりすること
で前方空間に存在する物体の距離分布を算出し、この距
離分布の密度から横断者を含む障害物を検出していた。2. Description of the Related Art As a conventional method, the distance distribution of an object existing in the front space is calculated by using stereoscopic vision of image processing or by scanning a laser radar, and a crossing person is calculated from the density of this distance distribution. It has detected obstacles including.
【0003】[0003]
【発明が解決しようとする課題】ところが、上記の如く
距離分布の密度から障害物を検出する方法では、道路脇
に横断者が存在する場合において、当該横断者が道路の
自動車走行路上(例えば白線レーンマーク内)に出てく
る以前にそれを検出することが困難であるという問題が
あった。即ち、横断者が道路脇にいる時には、横断者と
その背後の建物との距離分布が一体化してしまうことが
ある。かかる場合、この段階で横断者を検出することが
できず、横断者が自動車走行路上に来た後にしか単独の
物体として検出できない。その結果、横断者の検出が遅
れてしまうおそれがあった。However, in the method of detecting an obstacle from the density of the distance distribution as described above, when there is a pedestrian on the side of the road, the pedestrian crosses the road (for example, the white line). There was a problem that it was difficult to detect it before it appeared in the lane mark). That is, when a pedestrian is on the side of the road, the distance distribution between the pedestrian and the building behind it may be integrated. In such a case, the pedestrian cannot be detected at this stage, and can be detected as a single object only after the pedestrian comes to the road on which the vehicle travels. As a result, there is a risk that the detection of a crossing will be delayed.
【0004】また、道路上の移動物体を検出する方法と
して、オプティカルフローを用いた手法が従来より提案
されている。これは、画像内の移動物体を一塊の動いて
いる領域として捕らえ、当該領域から例えば交差路にお
ける自動車の飛び出しを検出するものである。ところ
が、既存の技術では自動車等の比較的大きな移動物体の
検出が可能となるものの、人や自転車等の比較的小さな
物体の検出に際しては、画像全体における存在データ数
が少ないためにその検出が不可能であるといった問題を
生ずる。As a method of detecting a moving object on a road, a method using an optical flow has been conventionally proposed. This is to detect a moving object in the image as a lump of moving area, and detect a jumping out of a vehicle, for example, at an intersection from the area. However, although the existing technology enables detection of a relatively large moving object such as an automobile, when detecting a relatively small object such as a person or a bicycle, the number of existing data in the entire image is small, so that detection is not possible. The problem arises that it is possible.
【0005】この発明は、上記問題に着目してなされた
ものであって、その目的とするところは、比較的小さな
横断物をも精度良く且つ効率的に検出することができる
横断物の検出装置を提供することにある。The present invention has been made in view of the above problems, and an object thereof is to detect a crossing object which can detect a relatively small crossing object accurately and efficiently. To provide.
【0006】[0006]
【課題を解決するための手段】上記目的を達成するため
に、請求項1に記載の発明では、距離分布計測手段は、
前方空間の物体の距離分布データを取得する。より具体
的には、CCDカメラによるステレオ画像を利用して距
離分布データを取得したり、或いはスキャニングレーダ
装置による光反射を利用して距離分布データを取得す
る。移動量算出手段は、撮像装置によって前方空間の時
間の異なる複数の画像データを取得して、物体の移動量
を算出する。横断者検出手段は、上記画像データに対し
て、画像の垂直方向について所定の横断物が存在する解
析領域を設定すると共に当該横断物の大きさに見合う検
出ウィンドウを設け、その検出ウィンドウを水平方向に
隙間なく配置し、当該検出ウィンドウ内で前記前方空間
の距離データが存在するウィンドウについて前記移動量
算出手段によって得られた移動量の方向が自車両の走行
路中心に向かっているとき、その検出ウィンドウに横断
物が存在するとして当該横断物を検出する。In order to achieve the above object, in the invention described in claim 1, the distance distribution measuring means comprises:
The distance distribution data of the object in the front space is acquired. More specifically, the distance distribution data is acquired by using a stereo image obtained by a CCD camera, or the distance distribution data is acquired by using light reflection by a scanning radar device. The movement amount calculation means acquires a plurality of image data of the front space at different times in the front space, and calculates the movement amount of the object. The pedestrian detection means sets an analysis region in which a predetermined crossing object exists in the vertical direction of the image with respect to the image data, provides a detection window corresponding to the size of the crossing object, and sets the detection window in the horizontal direction. When the direction of the movement amount obtained by the movement amount calculating means for the window in which the distance data of the front space exists in the detection window is toward the center of the traveling path of the host vehicle, the detection is performed. The crossing is detected as being present in the window.
【0007】つまり、図15に示すように、例えば自車
両前方の30〜60mの撮像画像の領域が横断物の存在
領域(解析領域)として設定され、当該解析領域におい
て物体(横断者)の移動量が算出される。また、図16
に示すように、例えば横断者に見合う大きさで検出ウィ
ンドウが設定される(請求項4)。この検出ウィンドウ
は、図18に(A),(B),(C)で示すように、隣
合うウィンドウに所定量(例えば、横幅半分)だけ重ね
て配置されるのが好ましい(請求項5)。そして、距離
データが存在する検出ウィンドウについてその中の物体
の移動方向(移動量の方向)が自車両の走行路中心に向
かっていれば横断物の存在が検出されることとなる。こ
の場合、例えば図17に示すように、自車両の走行路を
示すレーンマーク等の画像情報から走行路中心が検出さ
れる(請求項3)。That is, as shown in FIG. 15, for example, a region of a captured image of 30 to 60 m in front of the own vehicle is set as a crossing object existing region (analysis region), and an object (crossing person) moves in the analysis region. The amount is calculated. FIG.
As shown in, the detection window is set to have a size suitable for a pedestrian, for example (claim 4). As shown in FIGS. 18A, 18B, and 18C, the detection windows are preferably arranged so as to overlap with adjacent windows by a predetermined amount (for example, a half width) (claim 5). . Then, if the moving direction (direction of the moving amount) of the object in the detection window in which the distance data exists is toward the center of the traveling path of the host vehicle, the existence of the crossing object is detected. In this case, for example, as shown in FIG. 17, the center of the traveling road is detected from image information such as a lane mark indicating the traveling road of the host vehicle (claim 3).
【0008】上記構成によれば、道路脇に存在する横断
者の検出が可能となり、その横断者が自車両の走行路を
横断しようとしていること、或いは走行路上に飛び出し
てくること等が予測可能となる。また、検出ウィンドウ
という単位にて横断者を検出することにより、比較的小
さな横断物に対してもその検出洩れが回避でき、検出精
度を向上させることができる。その結果、自車両前方に
ついて高精度な認識処理を実施することができる。According to the above construction, it is possible to detect a pedestrian crossing the side of the road, and it is possible to predict that the pedestrian is about to cross the running path of the vehicle or jumps out on the running path. Becomes In addition, by detecting a crossing person in units of a detection window, it is possible to avoid detection omission even for a relatively small crossing object, and improve detection accuracy. As a result, highly accurate recognition processing can be performed in front of the host vehicle.
【0009】請求項2に記載の発明では、特に、垂直エ
ッジ数算出手段は、前記検出ウィンドウ毎に検出ウィン
ドウ内の垂直エッジ数を算出する。横断物候補ウィンド
ウ検出手段は、前記垂直エッジ数算出手段による垂直エ
ッジ数が所定のしきい値以上のとき、その検出ウィンド
ウを横断物の候補ウィンドウとして検出する。さらに、
横断物検出手段は、前記検出された複数の前記候補ウィ
ンドウのうちで、上記前方空間の距離データが存在する
候補ウィンドウについて前記移動量算出手段によって得
られた移動量の方向が自車両の走行路中心に向かってい
るとき、その検出ウィンドウに横断物が存在するとして
当該横断物を検出する。According to the second aspect of the invention, in particular, the vertical edge number calculating means calculates the number of vertical edges in the detection window for each of the detection windows. The crossing candidate window detecting means detects the detection window as a crossing candidate window when the number of vertical edges calculated by the vertical edge calculating means is equal to or more than a predetermined threshold value. further,
The crossing object detection means is such that among the plurality of detected candidate windows, the direction of the movement amount obtained by the movement amount calculation means with respect to the candidate window in which the distance data of the front space exists is the traveling path of the host vehicle. When moving toward the center, the crossing object is detected as being present in the detection window.
【0010】つまり、横断者(横断物)の画像では垂直
エッジ数の密度が高いことに着目し、当該垂直エッジ数
に基づいて横断者の存在するウィンドウを検出すること
により、その検出処理を効率的に実施することができ
る。このとき、検出されたウィンドウを「候補ウィンド
ウ」とし、その後、距離データと移動量データとを用い
て「候補ウィンドウ」の中から実際の横断者の判別を行
うことで、より一層確実な横断者検出が可能となる。That is, paying attention to the fact that the density of the number of vertical edges is high in the image of a pedestrian (crossing object), and the window in which the pedestrian exists is detected based on the number of vertical edges, so that the detection process is efficient. Can be carried out in a specific manner. At this time, the detected window is set as a “candidate window”, and then the actual crossing person is determined from the “candidate window” using the distance data and the movement amount data, so that a more reliable crossing person can be obtained. It becomes possible to detect.
【0011】また、請求項6に記載の発明では、横断物
検出手段は、1サイクルでの横断物の検出結果を仮検出
結果として、その仮検出された横断物の時間的な対応付
け処理を行い、所定サイクル以上の対応付けがなされた
とき、横断物の存在を決定する。この場合、横断者検出
の信頼性をより一層高めることができる。According to the sixth aspect of the present invention, the crossing object detection means uses the detection result of the crossing object in one cycle as a temporary detection result and performs the temporal association processing of the temporarily detected crossing object. The presence of the crossing object is determined when the correspondence is performed for a predetermined cycle or more. In this case, the reliability of crossing detection can be further improved.
【0012】請求項7に記載の発明では、横断物検出手
段は、前記移動量算出手段による移動量データから自車
両のヨーイング成分を排除し、該自車両のヨーイング成
分が排除された結果から横断物を特定する。この場合、
横断者の正確な動きが分かり、精度高い検出結果が得ら
れる。According to a seventh aspect of the present invention, the crossing object detection means excludes the yawing component of the own vehicle from the movement amount data obtained by the movement amount calculating means, and the crossing is detected based on the result of the elimination of the yawing component of the own vehicle. Identify the thing. in this case,
The precise movement of the pedestrian can be known, and highly accurate detection results can be obtained.
【0013】[0013]
【発明の実施の形態】以下、この発明を具体化した一実
施形態を図面に従って説明する。図1は本実施の形態に
おける横断者検出システムの概要を示すブロック構成図
である。図1において、撮像装置1は、左右一対のカメ
ラにより立体視画像のデータを取り込む装置であって、
左右のカメラはその光軸が互いに平行で、その基線長が
路面に平行になるように構成されている。このとき、当
該撮像装置1では図2に示すようなステレオ画像が得ら
れる。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing an outline of a crossing detection system according to this embodiment. In FIG. 1, an imaging device 1 is a device that captures stereoscopic image data with a pair of left and right cameras,
The left and right cameras are configured such that their optical axes are parallel to each other and their base lengths are parallel to the road surface. At this time, the imaging device 1 obtains a stereo image as shown in FIG.
【0014】撮像装置1の光学系の基本的構成を図3に
示す。即ち、撮像装置1には、2つの視点を形成するた
めに物体(横断者)に対向して2つのレンズ11,12
が設けられ、この2つのレンズ11,12の後ろにそれ
らの光軸がそれぞれ一致する撮像素子としてのCCD
(Charge Coupled Device )13,14が設けられてい
る。The basic structure of the optical system of the image pickup apparatus 1 is shown in FIG. That is, the imaging device 1 has two lenses 11 and 12 facing an object (traverser) in order to form two viewpoints.
Is provided, and a CCD as an image pickup device whose optical axes match behind the two lenses 11 and 12 is provided.
(Charge Coupled Device) 13 and 14 are provided.
【0015】ここで、図中の「d」はレンズ11,12
と物体との距離〔m〕、「f」はレンズ11,12の焦
点距離〔mm〕、「a」,「b」はそれぞれ物体からレ
ンズ11,12を経てCCD13,14へ焦点を結ぶ点
と光軸との距離〔mm〕、「m」はカメラ基線長〔c
m〕である。かかる場合、距離d〔m〕は、 d=f・m/(a+b) で求めることができる。即ち、基線長m,焦点距離fが
既知であるため、(a+b)が求まれば物体までの距離
dが算出できることになる。なお、(a+b)は、左右
の画像中の物体の輝度値を少しずつずらしながら比較し
た際に、最も一致するずらし量として求められる。Here, "d" in the figure is the lenses 11, 12
Between the object and the object [m], “f” is the focal length [mm] of the lenses 11 and 12, and “a” and “b” are points from the object to the CCDs 13 and 14 via the lenses 11 and 12, respectively. Distance from optical axis [mm], “m” is camera base line length [c
m]. In such a case, the distance d [m] can be calculated by d = fm · (a + b). That is, since the base line length m and the focal length f are known, the distance d to the object can be calculated if (a + b) is obtained. It should be noted that (a + b) is obtained as the best matching shift amount when comparing the luminance values of the objects in the left and right images while shifting them little by little.
【0016】また、上式における(a+b)を、ドット
数で表される視差s及びCCD13,14のセルの大き
さc〔mm/ドット〕に置き換えると、次の(1)式が
得られる。Further, when (a + b) in the above equation is replaced with the parallax s represented by the number of dots and the cell size c [mm / dot] of the CCDs 13 and 14, the following equation (1) is obtained.
【0017】[0017]
【数1】 一方、図1において、前記撮像装置1により得られた画
像情報は、右カメラ画像保存メモリM1及び左カメラ画
像保存メモリM2に保存される。両メモリM1,M2の
保存データは、距離算出回路2に入力される。距離算出
回路2では、縦8ドット、横8ドットを単位領域として
画像がメッシュ状に分割され、右画像データを基準デー
タ、左画像データを参照データとした相関計算により視
差s〔ドット〕が算出される。そして、該算出された視
差sを前記(1)式に代入すれば画像内の距離分布が求
められる。この距離分布データは距離データ保存メモリ
M3に保存される。[Equation 1] On the other hand, in FIG. 1, the image information obtained by the imaging device 1 is stored in the right camera image storage memory M1 and the left camera image storage memory M2. Data stored in both memories M1 and M2 are input to the distance calculation circuit 2. In the distance calculation circuit 2, an image is divided into meshes with vertical 8 dots and horizontal 8 dots as a unit area, and the parallax s [dot] is calculated by correlation calculation using the right image data as standard data and the left image data as reference data. To be done. Then, by substituting the calculated parallax s into the equation (1), the distance distribution in the image can be obtained. This distance distribution data is stored in the distance data storage memory M3.
【0018】また、解析データ算出回路3は、前記右カ
メラ画像保存メモリM1に保存されている右カメラの画
像データを取り込み、単位領域の縦方向の8ドット分の
データの総和(これを解析データという)を算出する。
そして、解析データ算出回路3にて算出された最新の解
析データは、「本サイクル解析データ」として本サイク
ル解析データ保存メモリM4に保存される。このとき、
解析データは、8ドット分のデータの総和で保存される
ため、データ容量は1/8に削減される。解析データ算
出回路3は、上記解析データの算出処理を66msサイ
クルで実施する。また、本サイクル解析データ保存メモ
リM4に保存された解析データは、66ms毎に「前サ
イクル解析データ」として前サイクル解析データ保存メ
モリM5に転送される。従って、メモリM4,M5に
は、66ms間隔の前後サイクルの解析データが保存さ
れることとなる。Further, the analysis data calculation circuit 3 takes in the image data of the right camera stored in the right camera image storage memory M1 and sums the data of 8 dots in the vertical direction of the unit area (this is the analysis data). Is calculated).
Then, the latest analysis data calculated by the analysis data calculation circuit 3 is stored in the cycle analysis data storage memory M4 as "cycle analysis data". At this time,
Since the analysis data is stored as the total sum of data for 8 dots, the data capacity is reduced to 1/8. The analysis data calculation circuit 3 executes the above-described analysis data calculation processing in a 66 ms cycle. The analysis data stored in the cycle analysis data storage memory M4 is transferred to the previous cycle analysis data storage memory M5 as "previous cycle analysis data" every 66 ms. Therefore, the memory M4 and M5 store the analysis data of the cycle before and after the interval of 66 ms.
【0019】ここで、前記解析データ算出回路3による
解析領域は、画面上において例えば図4のように設定さ
れている。即ち、本実施の形態では、自車両の前方30
m〜60mの範囲に存在する横断者を検出することを目
的としており、より具体的には、50m前方で地上に立
っている横断者を基準として当該解析領域が設定されて
いる。図4の画面上では、水平方向に延びる60ドット
幅の垂直領域が解析領域として設定されている。Here, the analysis area by the analysis data calculation circuit 3 is set on the screen as shown in FIG. 4, for example. That is, in the present embodiment, the front 30 of the vehicle is
The purpose is to detect a pedestrian in the range of m to 60 m, and more specifically, the analysis area is set with reference to the pedestrian standing on the ground 50 m ahead. On the screen of FIG. 4, a vertical region having a width of 60 dots extending in the horizontal direction is set as the analysis region.
【0020】また、移動量算出回路4は、前記本サイク
ル解析データ保存メモリM4及び前サイクル解析データ
保存メモリM5に保存されている解析データを取り込
み、両解析データ間の単位領域毎の画像のずれから横断
者の移動量を算出する。ここでは、計算量削減のため、
横方向(水平走差線方向)のみの探索を行う。つまり、
横断者が移動する最大範囲を机上検討して相関計算の探
索範囲を設定し、この探索範囲内で、前サイクル解析デ
ータを1ドットずつずらしながら差の絶対値の総和(相
関値S(z))を算出する。具体的には、次の(2)式
を用いて単位領域についての相関値S(z)を算出す
る。Further, the movement amount calculation circuit 4 takes in the analysis data stored in the main cycle analysis data storage memory M4 and the previous cycle analysis data storage memory M5, and shifts the image for each unit area between both analysis data. Calculate the amount of crossing movement. Here, in order to reduce the calculation amount,
Search only in the lateral direction (horizontal running line direction). That is,
The maximum range in which the pedestrian will move is examined on the desk, and the search range for correlation calculation is set. Within this search range, the sum of the absolute values of the differences (correlation value S (z) ) Is calculated. Specifically, the correlation value S (z) for the unit area is calculated using the following equation (2).
【0021】[0021]
【数2】 但し、「D0 」は本サイクル解析データ、「D1 」は前
サイクル解析データ、「x0 」は画像の左上座標(相関
計算の探索開始点)、「w」は画像内における検索範囲
の横幅〔ドット〕、「z」はずらし量〔ドット〕であ
る。なお、図5は、前サイクル時と本サイクル時との間
に、横断者が水平右方向に所定量だけ移動した状態を示
している。[Equation 2] However, "D0" is the present cycle analysis data, "D1" is the previous cycle analysis data, "x0" is the upper left coordinate of the image (search start point of the correlation calculation), and "w" is the width of the search range in the image [dots]. ], And “z” is a shift amount [dot]. Note that FIG. 5 shows a state in which the pedestrian has moved horizontally by a predetermined amount between the previous cycle and the main cycle.
【0022】上記の如く求めた相関値S(z)の最小値
について、その時のずらし量が横断者の移動量に相当す
る。このとき、画像上で、横断者の移動量が「0」のと
き、つまり、ずらし量が「0」のとき、横断者と衝突す
るケースに相当する。これは、自車両の進行方向と横断
者の角度が変化しないとき、横断者との距離が0mにな
ったとき衝突するためである。図6は、横断者が水平右
方向に移動した場合の相関値S(z)とずらし量との関
係を示しており、かかる場合にはずらし量=kが移動量
に相当する。この際、精度向上のために、相関値の最小
値とそれに隣合う2つの相関値を用いて補間計算を行
い、10分の1ドット精度で移動量を算出するようにし
てもよい。With respect to the minimum value of the correlation value S (z) obtained as described above, the shift amount at that time corresponds to the moving amount of the pedestrian. At this time, it corresponds to the case where the crossing collides with the crossing when the moving amount of the crossing is “0”, that is, when the shift amount is “0” on the image. This is because a collision occurs when the traveling direction of the host vehicle and the angle of the pedestrian do not change, and when the distance to the pedestrian becomes 0 m. FIG. 6 shows the relationship between the correlation value S (z) and the shift amount when the pedestrian moves horizontally to the right. In such a case, the shift amount = k corresponds to the shift amount. At this time, in order to improve accuracy, an interpolation calculation may be performed using the minimum correlation value and two correlation values adjacent thereto, and the movement amount may be calculated with 1/10 dot accuracy.
【0023】このようにして移動量算出回路4では、6
6ms毎で取り込まれた時間的に連続な2枚の画像の相
関計算から横断者の移動量が算出される。そして、この
移動量は移動量データ保存メモリM6に保存される。In this way, the movement amount calculation circuit 4 uses 6
The amount of movement of the pedestrian is calculated from the correlation calculation of two temporally consecutive images captured every 6 ms. Then, this movement amount is stored in the movement amount data storage memory M6.
【0024】垂直エッジ数算出回路5は、前記右カメラ
画像保存メモリM1に保存されている右カメラの画像デ
ータを取り込み、所定の大きさで区画された検出ウィン
ドウ毎に同ウィンドウ内の垂直エッジ数をカウントす
る。ここで、検出ウインドウは、前記図4の解析領域内
における横断者の大きさに見合うように設定される。本
実施の形態では、50m前方の横断者の大きさを基準と
して、図7に示すように縦60ドット×横16ドットの
領域にて検出ウィンドウを設定している。The vertical edge number calculation circuit 5 takes in the image data of the right camera stored in the right camera image storage memory M1, and for each detection window partitioned into a predetermined size, the number of vertical edges in the window. To count. Here, the detection window is set so as to correspond to the size of the pedestrian in the analysis area of FIG. In the present embodiment, the detection window is set in an area of 60 dots in the vertical direction × 16 dots in the horizontal direction, as shown in FIG. 7, on the basis of the size of the pedestrian in front of 50 m.
【0025】また、検出ウィンドウは、図18に示すよ
うに、検出ウィンドウの横幅の半分の8ドットが隣の検
出ウィンドウと重なるように配列される。この場合、画
像の水平方向の画素数が512ドットであることから、
127個の検出ウィンドウが設定される。Further, as shown in FIG. 18, the detection windows are arranged such that 8 dots, which is half the width of the detection window, overlaps with the adjacent detection window. In this case, since the number of pixels in the horizontal direction of the image is 512 dots,
127 detection windows are set.
【0026】垂直エッジ数の算出方法を以下に記載す
る。即ち、解析領域の左上から本サイクルの画像データ
を読み込み、走査線方向に輝度変化量の大きさが所定の
しきい値以上である点xについて、そのx位置に対応す
る垂直エッジ数データ保存メモリM7の位置に「1」を
加算していく。これを解析領域すべてについて行う。次
に検出ウィンドウの横幅について、垂直エッジ数データ
保存メモリM7から対応するx位置のデータの総和を求
めると、検出ウィンドウの垂直エッジ数が得られる。The method of calculating the number of vertical edges will be described below. That is, the image data of this cycle is read from the upper left of the analysis area, and for the point x whose magnitude of change in luminance in the scanning line direction is equal to or greater than a predetermined threshold value, the vertical edge number data storage memory corresponding to that x position. "1" is added to the position of M7. Do this for all analysis areas. Next, regarding the width of the detection window, the sum of the data at the corresponding x positions is calculated from the vertical edge number data storage memory M7, and the number of vertical edges of the detection window is obtained.
【0027】さらに、走行路検出回路6は、前記右カメ
ラ画像保存メモリM1に保存されている右カメラの画像
データを取り込み、自車両の走行路を検出する。より具
体的には、画像内の輝度情報から道路上の左右の白線レ
ーンマークを検出し、このレーンマーク内を走行路とし
て検出する。Further, the traveling road detection circuit 6 takes in the image data of the right camera stored in the right camera image storage memory M1 and detects the traveling road of the host vehicle. More specifically, the left and right white line lane marks on the road are detected from the brightness information in the image, and the inside of the lane mark is detected as the traveling road.
【0028】マイクロコンピュータ7は、周知のCP
U,メモリ,入出力回路等にて構成されており、前記距
離データ保存メモリM3、移動量データ保存メモリM
6、垂直エッジ数データ保存メモリM7、及び走行路デ
ータ保存データM8内の保存データを読み込んで後述す
る横断者検出処理を実行する。そして、マイクロコンピ
ュータ7は、道路上における横断者の検出結果に応じて
警報ブザー8を作動させる。また、マイクロコンピュー
タ7にはヨーレイトセンサ9が接続されており、マイク
ロコンピュータ7は同センサ9の出力結果から自車両の
ヨーイング成分を検出する。The microcomputer 7 is a well-known CP.
U, a memory, an input / output circuit, etc., the distance data storage memory M3, the movement amount data storage memory M
6, the vertical edge number data storage memory M7, and the stored data in the traveling road data storage data M8 are read, and the crossing detection processing described later is executed. Then, the microcomputer 7 activates the alarm buzzer 8 according to the detection result of a crossing on the road. A yaw rate sensor 9 is connected to the microcomputer 7, and the microcomputer 7 detects the yawing component of the host vehicle from the output result of the sensor 9.
【0029】なお、本実施の形態では、マイクロコンピ
ュータ7により横断物候補ウィンドウ検出手段及び横断
物検出手段が構成され、ヨーレイトセンサ9によりヨー
イング検出手段が構成されている。In the present embodiment, the microcomputer 7 constitutes the crossing candidate window detecting means and the crossing detecting means, and the yaw rate sensor 9 constitutes the yawing detecting means.
【0030】次いで、本実施の形態における一連の横断
者検出手順をマイクロコンピュータ7による演算処理を
中心に説明する。なお、図8は横断者検出ルーチンを示
すフローチャートであり、同ルーチンはマイクロコンピ
ュータ7により66ms毎に実行される。Next, a series of crossing detection procedures in this embodiment will be described focusing on the arithmetic processing by the microcomputer 7. 8. FIG. 8 is a flowchart showing a crossing detection routine, which is executed by the microcomputer 7 every 66 ms.
【0031】さて、同ルーチンがスタートすると、ステ
ップ101では、検出ウィンドウ毎に前記垂直エッジ数
データ保存メモリM7から垂直エッジ数を読み出し、そ
の数が設定しきい値以上のウィンドウを横断者の候補ウ
ィンドウとして検出する(図9)。When the routine starts, in step 101, the number of vertical edges is read out from the vertical edge number data storage memory M7 for each detection window, and a window whose number is equal to or more than a set threshold value is a candidate window for a crossing person. (FIG. 9).
【0032】続いてステップ102では、距離データ保
存メモリM3から距離データを読み込み、横断者候補ウ
ィンドウに対応する距離データが存在する場合、その領
域に対応する移動量データを移動量データ保存メモリM
6から呼び込んで平均化する。また、その平均化データ
により前記候補ウィンドウの物体(横断者)の移動量を
算出する。このとき、同時に物体までの距離も保持して
おく。Subsequently, in step 102, the distance data is read from the distance data storage memory M3, and if the distance data corresponding to the crossing candidate window exists, the movement amount data corresponding to the area is stored.
Call from 6 and average. Further, the amount of movement of the object (crossing person) in the candidate window is calculated based on the averaged data. At this time, the distance to the object is also held at the same time.
【0033】さらに、ステップ103では、前記算出さ
れた移動値から事前に計測しておいた自車両のヨーイン
グ量を差し引き、この値を画像上での絶対的な物体移動
量とする。即ち、ヨーレイトセンサ9の検出値は角度変
化(deg/sec)であるため、これを画像上でのふ
らつき量に変換する。画角20度で画像の水平方向の分
解能が512ドットのとき、分解能を画角で割った値2
5.6(ドット/deg)にヨーレイト値を掛けたもの
が画像上でのヨーイング量となる。これを、先に算出し
た物体の移動量から引くことで自車両のヨーイング成分
が物体移動量から排除される。Further, in step 103, the yaw amount of the own vehicle measured in advance is subtracted from the calculated movement value, and this value is set as the absolute object movement amount on the image. That is, since the detected value of the yaw rate sensor 9 is an angle change (deg / sec), this is converted into the amount of fluctuation on the image. When the angle of view is 20 degrees and the horizontal resolution of the image is 512 dots, the value obtained by dividing the resolution by the angle of view 2
The product of 5.6 (dots / deg) and the yaw rate value is the yawing amount on the image. By subtracting this from the previously calculated amount of movement of the object, the yawing component of the host vehicle is excluded from the amount of movement of the object.
【0034】一方、上記の如く算出された物体の水平方
向の移動量は、画像上におけるドット数単位の移動量で
あるため、続くステップ104,105では、前記移動
量を実空間での物体の水平方向の移動速度v〔km/
h〕に変換する。つまり、ステップ104では、次の
(3)式を用い、その時の画像上における水平方向の移
動量g〔ドット〕から実空間での移動距離L〔m〕を算
出する。On the other hand, since the amount of movement of the object in the horizontal direction calculated as described above is the amount of movement in units of the number of dots on the image, in the following steps 104 and 105, the amount of movement of the object in the real space is calculated. Horizontal movement speed v [km /
h]. That is, in step 104, the moving distance L [m] in the real space is calculated from the horizontal moving amount g [dot] on the image at that time using the following expression (3).
【0035】[0035]
【数3】 但し、上記(3)式において、「c」はCCDのセルの
大きさ(mm/ドット)、「f」はレンズの焦点距離
〔mm〕、「d1」は物体の移動前の物体と自車両との
距離〔m〕、「d2」は物体の移動後の物体と自車両と
の距離〔m〕である。(Equation 3) However, in the above formula (3), “c” is the size of the cell of the CCD (mm / dot), “f” is the focal length of the lens [mm], and “d1” is the object before moving and the own vehicle. And [d2] are the distance [m] between the object and the vehicle after the object has moved.
【0036】さらに、ステップ105では、次の(4)
式を用い、66msサイクル内における実空間での移動
距離L〔m〕を移動速度v〔km/h〕に変換する。こ
の移動速度v〔km/h〕は、物体の移動量としてマイ
クロコンピュータ7内のメモリに保持される。Further, in step 105, the following (4)
Using the formula, the moving distance L [m] in the real space within the 66 ms cycle is converted into the moving speed v [km / h]. This moving speed v [km / h] is held in the memory in the microcomputer 7 as the moving amount of the object.
【0037】[0037]
【数4】 次に、ステップ106では、物体の移動量(移動速度)
と走行路中心との関係より横断者を仮検出する。即ち、
前記走行路データ保存メモリM8の保存データを呼び込
み、物体の距離に対応する走行路の中心位置を算出す
る。そして、走行路の中心位置と物体の移動方向に基づ
き、走行路中心に向かう物体を横断者として仮検出す
る。このとき、図10に示すように、横断者は画像内に
おいて走行路中心に向かう物体として特定され、電柱や
立木は画像内において走行路中心から外側に向かう物体
として特定される。この仮検出結果はマイクロコンピュ
ータ内のメモリに保存される。(Equation 4) Next, in step 106, the moving amount (moving speed) of the object
The pedestrian is tentatively detected based on the relationship between and the center of the road. That is,
The stored data in the traveling road data storage memory M8 is retrieved and the center position of the traveling road corresponding to the distance of the object is calculated. Then, based on the center position of the traveling path and the moving direction of the object, the object heading toward the center of the traveling path is provisionally detected as a crosser. At this time, as shown in FIG. 10, the pedestrian is identified as an object heading toward the center of the road in the image, and the utility pole or standing tree is identified as an object heading outward from the center of the road in the image. This temporary detection result is stored in the memory in the microcomputer.
【0038】その後、ステップ107では、前記仮検出
結果に対して時間的な対応付け処理(以後、追跡処理と
いう)を行うことにより、横断者が実際に存在するかど
うかを判定する。以下に、追跡処理の具体的内容を説明
する。Then, in step 107, it is determined whether or not a crossing person actually exists by performing temporal correspondence processing (hereinafter referred to as tracking processing) on the temporary detection result. The specific contents of the tracking process will be described below.
【0039】つまり、4サイクル分の仮検出結果を得た
段階でそれを平均化し、追跡処理のための追跡データを
作成する。この場合、存在するデータの処理サイクルの
重み(事前に設定)の合計が所定のしきい値以上であれ
ば、それらのデータの重みを加えて平均値を算出し、そ
の算出値を追跡データとする。その詳細を図11に示
す。各サイクルの重み付けに際し、本サイクルでは
「4」、1サイクル前では「3」、2サイクル前では
「2」、3サイクル前では「1」として、重みの合計が
「6」以上であれば追跡データを算出する。その結果、
追跡データが存在すれば、該当する検出ウィンドウに横
断者が存在する旨が検出されることとなる。かかる追跡
処理では、検出ミスでデータが飛び飛びでしか存在しな
い場合にも当該検出ミスによるデータの不在を考慮する
必要はなく、その連続性に基づいて横断者が検出され
る。That is, when the temporary detection results for four cycles are obtained, they are averaged to create tracking data for the tracking process. In this case, if the sum of the weights (previously set) of the processing cycles of the existing data is greater than or equal to the predetermined threshold value, the weights of those data are added to calculate the average value, and the calculated value is used as the tracking data. To do. The details are shown in FIG. When weighting each cycle, “4” in this cycle, “3” in 1 cycle ago, “2” in 2 cycles ago, “1” in 3 cycles ago, and is tracked if the total weight is “6” or more. Calculate the data. as a result,
If the tracking data exists, it will be detected that a crossing person exists in the corresponding detection window. In such a tracking process, even if the data only exists in a scattered manner due to a detection error, it is not necessary to consider the absence of the data due to the detection error, and the crossing person is detected based on the continuity.
【0040】次に、追跡データマップ上の具体的な追跡
処理について、それを追跡処理A〜Dの事例に分けて説
明する。なお、追跡処理A〜Dの内容を図12(a)〜
(d)に図示し、上記追跡処理A〜Dを反映した一連の
追跡例を図13に示す。マップ上の数字は追跡データ
(移動量)であり、実空間での横断者の移動速度〔km
/h〕を表している。マイナスの移動速度は、走行路中
心から外側に移動する速度値を表す。Next, a specific tracking process on the tracking data map will be described by dividing it into cases of the tracking processes A to D. The contents of the tracking processes A to D are shown in FIG.
FIG. 13 shows a series of tracking examples illustrated in (d) and reflecting the above tracking processes A to D. The numbers on the map are tracking data (movement amount), and the moving speed of the crossing in the real space [km
/ H]. The negative moving speed represents a speed value of moving outward from the center of the traveling path.
【0041】追跡処理A:前サイクルの追跡データ及び
本サイクルの追跡データが同じ検出ウィンドウ又は隣の
検出ウィンドウにある場合、それらの移動速度を比較し
てその差が許容範囲内(ここでは、2km/h)であれ
ば、データの追跡が可能であるとみなす。即ち、図12
(a)では、追跡データのウィンドウが隣のウィンドウ
に移動しているが、これは移動可能なウィンドウとして
処理される。Tracking process A: When the tracking data of the previous cycle and the tracking data of this cycle are in the same detection window or the adjacent detection window, their moving speeds are compared and the difference is within the allowable range (here, 2 km). / H), the data can be traced. That is, FIG.
In (a), the tracking data window is moved to the adjacent window, but this is treated as a movable window.
【0042】追跡処理B:移動可能なウィンドウ1個に
対して、2個又は3個の追跡データが対応することがあ
る。この場合、図12(b)に示すように、追跡回数の
多いウィンドウを選択して処理する。但し、追跡回数が
同じである場合、走行路中心より左側画像の領域では右
側のデータを、右側画像の領域では左側のデータを優先
する(図13のB’参照)。Tracking process B: Two or three tracking data may correspond to one movable window. In this case, as shown in FIG. 12B, a window having a large number of times of tracking is selected and processed. However, when the number of times of tracking is the same, priority is given to data on the right side in the area of the image on the left side of the center of the traveling road and data on the left side of the area of the right side image (see B ′ in FIG. 13).
【0043】追跡処理C:図12(c)に示すように、
1つの追跡データに対して2個又は3個の移動可能ウィ
ンドウが対応する場合には、その対応する数だけ同じ追
跡データを誕生させる。但し、各々の追跡データには識
別ラベルを付けておく。Tracking process C: As shown in FIG.
When two or three movable windows correspond to one tracking data, the same number of tracking data are produced by the corresponding number. However, an identification label is attached to each tracking data.
【0044】追跡処理D:図12(d)に示すように、
移動可能ウィンドウがないとき、そこで追跡処理を中断
する。上記追跡データはマイクロコンピュータ7内のメ
モリに保存されるが、それと同時に、対応する距離デー
タ〔m〕、画像中心からの水平位置zx〔m〕も保存さ
れる。保存量は10サイクル分までとする。Tracking process D: As shown in FIG.
When there is no movable window, the tracking process is interrupted at that point. The tracking data is stored in the memory in the microcomputer 7, and at the same time, the corresponding distance data [m] and the horizontal position zx [m] from the center of the image are also stored. The storage amount is up to 10 cycles.
【0045】前記水平位置zx〔m〕は、画像中心から
の物体の水平位置DX〔ドット〕と、距離データとから
以下のようにして算出する。つまり、前記(2)式よ
り、距離から物体の視差s〔ドット〕が算出され、これ
はこの距離データにおいて、この視差sの大きさ〔ドッ
ト〕がカメラ基長線m〔cm〕に相当することを意味す
る。従って、次の(5)式から水平位置zx〔m〕が算
出される。The horizontal position zx [m] is calculated from the horizontal position DX [dot] of the object from the center of the image and the distance data as follows. That is, the parallax s [dot] of the object is calculated from the distance from the equation (2). This means that in the distance data, the magnitude [dot] of the parallax s corresponds to the camera base line m [cm]. Means Therefore, the horizontal position zx [m] is calculated from the following equation (5).
【0046】[0046]
【数5】 追跡データの追跡回数が10サイクルを越えたら、過去
9サイクル分と本サイクルとの合計10サイクル分の保
存データから、横断者の平均移動速度AMV〔km/
h〕及び平均水平位置AX〔m〕を算出する。なお、平
均水平位置AX〔m〕は、画像中心から横断者までの水
平距離(前記水平位置zx)と、画像中心から走行路の
白線レーンマークまでの水平距離との和から求められ
る。この関係を示したのが図14である。自車両が横断
者と同じ距離の走行路までの道のりDL〔m〕及び走行
路幅W〔m〕は、距離データや走行路検出データに基づ
いて算出される。(Equation 5) If the number of traces of the traced data exceeds 10 cycles, the average moving speed AMV [km / km / km of the crossing person is calculated from the stored data for a total of 10 cycles including the past 9 cycles and this cycle
h] and average horizontal position AX [m] are calculated. The average horizontal position AX [m] is calculated from the sum of the horizontal distance from the center of the image to the crossing (the horizontal position zx) and the horizontal distance from the center of the image to the white lane mark on the road. This relationship is shown in FIG. The distance DL [m] and the road width W [m] of the own vehicle to the travel road at the same distance as the crossing are calculated based on the distance data and the travel road detection data.
【0047】以上のデータを用い、図8のステップ10
8では、上記の如く検出された横断者に対して、今現在
の自車両の走行状態が危険であるか否かを判定する。本
実施の形態では、その一例として、横断者が走行路に達
するまでの時間tm1〔s〕と、走行路を通過し終える
時間tm2〔s〕と、自車両が横断者と同距離の点に達
する時間tc〔s〕とに基づいて危険判定を実施する。
つまり、tm1≦tc≦tm2であれば、自車両と横断
者との衝突の危険性があるとして、マイクロコンピュー
タ7はステップ109で警報ブザー8を作動させ、横断
者の検出の旨をドライバに警告する。また、tc<tm
1又はtc>tm2であれば、自車両と横断者との衝突
の危険性がない、即ち安全であるとしてマイクロコンピ
ュータ7はそのまま本ルーチンを終了する。Using the above data, step 10 in FIG.
At 8, it is determined whether or not the current traveling state of the host vehicle is dangerous for the crossing detected as described above. In the present embodiment, as an example thereof, the time tm1 [s] until the crossing person reaches the running path, the time tm2 [s] when the crossing person finishes passing through the running path, and the point where the own vehicle is at the same distance as the crossing person are set. Danger determination is performed based on the reached time tc [s].
That is, if tm1 ≦ tc ≦ tm2, it is determined that there is a risk of collision between the host vehicle and the pedestrian, and the microcomputer 7 activates the alarm buzzer 8 in step 109 to warn the driver of the detection of the pedestrian. To do. Also, tc <tm
If 1 or tc> tm2, there is no risk of collision between the own vehicle and the pedestrian, that is, it is safe, and the microcomputer 7 ends this routine as it is.
【0048】ここで、横断者が走行路に達するまでの時
間tm1〔s〕は、上記平均水平位置AX〔m〕、平均
移動速度AMV〔km/h〕に基づいて次の(6)から
算出されるようになっている。Here, the time tm1 [s] until the crossing reaches the traveling road is calculated from the following (6) based on the average horizontal position AX [m] and the average moving speed AMV [km / h]. It is supposed to be done.
【0049】 tm1=AX・3.6/AMV ・・・(6) 走行路を通過し終える時間tm2〔s〕は、時間tm1
〔s〕に走行路幅W〔m〕を通過する時間を加算した
(7)式から算出される。Tm1 = AX · 3.6 / AMV (6) The time tm2 [s] at which the vehicle finishes passing the traveling road is the time tm1.
It is calculated from the equation (7) in which the time required for passing the traveling road width W [m] is added to [s].
【0050】 tm2=W・3.6/AMV+tm1 ・・・(7) また、自車両が横断者と同距離の点に達する時間tc
〔s〕は、道のりDL〔m〕及び自車両の速度ACV
〔km/h〕に基づいて次の(8)式から算出される。Tm2 = W.3.6 / AMV + tm1 (7) Further, the time tc at which the vehicle reaches the point at the same distance as the pedestrian.
[S] is the road DL [m] and the vehicle speed ACV
It is calculated from the following equation (8) based on [km / h].
【0051】 tc=DL・3.6/ACV ・・・(8) 以上詳述した本実施の形態によれば、以下に示す効果が
得られる。 (a)要するに、本実施の形態では、撮像画像の垂直方
向の領域(解析領域)について横断者に見合う大きさの
検出ウィンドウを水平方向に隙間なく配置し、前方空間
の距離データが存在する検出ウィンドウについてその中
の物体の移動方向(移動量データの方向)が走行路中心
に向かっていれば走行路上にいる横断者の存在を検出す
るようにした。上記構成によれば、道路脇に存在する横
断者の検出が可能となり、その横断者が自車両の走行路
を横断しようとしていること、或いは走行路上に飛び出
してくること等が予測可能となる。また、検出ウィンド
ウという単位にて横断者を検出することにより、横断者
のような比較的小さな物体に対してもその検出洩れが回
避でき、検出精度を向上させることができる。その結
果、自車両に対して安全性の高い撮像処理が実現でき
る。Tc = DL.3.6 / ACV (8) According to the embodiment described in detail above, the following effects can be obtained. (A) In short, in the present embodiment, a detection window having a size commensurate with a pedestrian in a vertical region (analysis region) of a captured image is arranged in the horizontal direction without a gap, and the distance data of the front space is detected. If the moving direction of the object in the window (direction of the moving amount data) is toward the center of the road, the presence of a pedestrian on the road is detected. According to the above configuration, it is possible to detect a pedestrian existing on the side of the road, and it is possible to predict that the pedestrian is about to cross the traveling path of the vehicle or jumps out on the traveling path. Further, by detecting a crossing person in units of a detection window, it is possible to avoid omission of detection even for a relatively small object such as a crossing person, and it is possible to improve detection accuracy. As a result, highly safe imaging processing can be realized for the host vehicle.
【0052】(b)白線レーンマークの検出情報から自
車両の走行路データ(走行路中心の検出結果を含む)を
抽出し、その走行路データから横断者の有無(危険度の
判定)を行うようにした。かかる構成によれば、より安
全性の高い撮像処理が実現できる。(B) The traveling road data (including the detection result of the traveling road center) of the own vehicle is extracted from the detection information of the white lane mark, and the presence / absence of a crossing (determination of the degree of danger) is performed from the traveling road data. I did it. With such a configuration, it is possible to realize a more secure image capturing process.
【0053】(c)検出ウィンドウを、隣合うウィンド
ウに所定量(例えば、横幅半分)だけ重ねて配置した。
それにより、検出ウィンドウを並べて配置する場合に比
べて、横断者に対応する検出ウィンドウが適切に得ら
れ、横断者の動きが精度良く算出できる。(C) The detection windows are arranged so as to overlap with the adjacent windows by a predetermined amount (for example, half the width).
As a result, as compared with the case where the detection windows are arranged side by side, the detection window corresponding to the pedestrian can be appropriately obtained, and the movement of the pedestrian can be calculated accurately.
【0054】(d)検出ウィンドウ毎に垂直エッジ数を
算出し、垂直エッジ数が所定のしきい値以上のとき、そ
の検出ウィンドウを候補ウィンドウとして検出するよう
にした。そして、それら候補ウィンドウについて、移動
量データから道路上の横断者を検出するようにした。つ
まり、横断者の画像では垂直エッジ数の密度が高いこと
に着目し、当該垂直エッジ数に基づいて横断者の存在す
るウィンドウを検出することにより、その検出処理を効
率的に実施できる。このとき、検出されたウィンドウを
「候補ウィンドウ」とし、その後、距離分布データと移
動量データとを用いて「候補ウィンドウ」の中から実際
の横断者の判別を行うようにしたため、より一層確実な
横断者検出が可能となる。(D) The number of vertical edges is calculated for each detection window, and when the number of vertical edges is equal to or larger than a predetermined threshold value, the detection window is detected as a candidate window. Then, for those candidate windows, the crossing on the road is detected from the movement amount data. In other words, focusing on the fact that the density of the number of vertical edges is high in the image of the pedestrian, and detecting the window in which the pedestrian exists based on the number of vertical edges, the detection process can be efficiently performed. At this time, the detected window is set as a “candidate window”, and then the actual crossing person is discriminated from the “candidate window” using the distance distribution data and the movement amount data. Crossing can be detected.
【0055】(e)1サイクルでの横断物の検出結果を
仮検出結果として、その仮検出された横断物の時間的な
対応付け処理(追跡処理)を行い、所定サイクル以上の
対応付けがなされたとき、横断物の存在を決定するよう
にした。従って、横断者検出の信頼性をより一層高める
ことができる。特に、本実施の形態では、4サイクル分
の加重平均値を追跡データとして算出し、その追跡デー
タを用いて横断者の検出処理を実施した。そのため、様
々な外乱、歩行速度の不均一性等に起因した検出ミスが
抑制できる。また、横断者の最初の発見から追跡処理を
行い、その連続性を観測することにより、突発的な検出
ミスが発生しても横断者の存在を的確に推定して、突発
的な検出ミスによる悪影響を減らすことができる。(E) Using the detection result of the crossing object in one cycle as the temporary detection result, the temporally associating process (tracking process) of the temporarily detected crossing object is performed, and the correspondence of a predetermined cycle or more is made. I decided to determine the existence of a crossing. Therefore, the reliability of crossing detection can be further enhanced. In particular, in the present embodiment, a weighted average value for four cycles is calculated as tracking data, and the tracking data is used to perform a crossing detection process. Therefore, detection errors due to various disturbances, nonuniformity of walking speed, and the like can be suppressed. In addition, by performing tracking processing from the first discovery of a crossing and observing its continuity, even if a sudden detection error occurs, the existence of a crossing is accurately estimated and The adverse effect can be reduced.
【0056】(e)移動量データから自車両のヨーイン
グ成分を排除し、該自車両のヨーイング成分が排除され
た結果から画像内の横断物を特定するようにした。この
場合、横断者の正確な動きが分かり、精度高い検出結果
が得られる。(E) The yawing component of the own vehicle is excluded from the movement amount data, and the crossing object in the image is specified based on the result of the elimination of the yawing component of the own vehicle. In this case, the precise movement of the crossing person can be known, and a highly accurate detection result can be obtained.
【0057】なお、本発明は上記実施の形態の他に次の
形態にて具体化できる。 (1)上記実施の形態では、走行路上の横断者を検出す
るために、横断者の大きさに適応した検出ウインドウを
設定した(縦60ドット×横16ドット)。しかし、こ
れを任意に変更してもよい。例えば走行路上を横断する
自転車の大きさに適用した検出ウィンドウを設定しても
よい。The present invention can be embodied in the following modes other than the above-described modes. (1) In the above embodiment, in order to detect a pedestrian on the road, a detection window adapted to the size of the pedestrian is set (vertical 60 dots × horizontal 16 dots). However, this may be changed arbitrarily. For example, a detection window may be set that is applied to the size of a bicycle that crosses the road.
【0058】(2)上記実施の形態では、隣合う検出ウ
ィンドウを横幅半分だけ重ねて配置したが、これを変更
してもよい。例えば、隣合う検出ウィンドウの横幅の1
/3を重ねて配置したり、横幅の2/3を重ねて配置し
たりしてもよい。重なり合う部分が少なければ演算負荷
が低減でき、重なり合う部分が多ければ検出精度が向上
する。(2) In the above embodiment, the adjacent detection windows are arranged so as to overlap each other by half the width, but this may be changed. For example, the width 1 of the adjacent detection windows
/ 3 may be arranged in an overlapping manner, or 2/3 of the width may be arranged in an overlapping manner. If there are few overlapping portions, the calculation load can be reduced, and if there are many overlapping portions, detection accuracy improves.
【0059】(3)検出ウィンドウの仮検出結果から実
際に横断者が存在するウィンドウを特定する処理を変更
してもよい。例えば、9サイクル分の仮検出結果が得ら
れた時点で6回以上検出されたウィンドウがある場合、
当該ウィンドウに横断者が存在する旨を特定する。(3) The process of specifying the window in which the pedestrian actually exists may be changed from the temporary detection result of the detection window. For example, when there is a window detected 6 times or more at the time when the temporary detection result for 9 cycles is obtained,
Identify that there is a pedestrian in the window.
【0060】(4)上記実施の形態では、距離算出回路
2、解析データ算出回路3、移動量算出回路4、垂直エ
ッジ数算出回路5及び走行路検出回路6をハードで構成
したが、これらの全てを又はその一部をマイクロコンピ
ュータ7によるソフト処理にて構成してもよい。(4) In the above embodiment, the distance calculation circuit 2, the analysis data calculation circuit 3, the movement amount calculation circuit 4, the vertical edge number calculation circuit 5 and the traveling road detection circuit 6 are configured by hardware, but All or part of them may be configured by software processing by the microcomputer 7.
【0061】(5)上記実施の形態では、前方の距離分
布データを取得するためにステレオ画像の解析(立体
視)を用いた。しかし、距離分布データの取得方法はこ
れのみに限定されるものではなく、例えばスキャニング
レーダ装置を用いてもよい。これは、光が物体に反射し
て戻ってくるまでの往復時間より距離を算出する手段と
して知られており、この光を前方の所定角度内でスキャ
ニング(走査)することで、距離分布データを取得する
ことができる。(5) In the above embodiment, the stereo image analysis (stereoscopic view) is used to acquire the front distance distribution data. However, the method of acquiring the distance distribution data is not limited to this, and for example, a scanning radar device may be used. This is known as a means for calculating the distance from the round trip time until the light is reflected back to the object and returned, and by scanning (scanning) this light within a predetermined angle in front, the distance distribution data is obtained. Can be obtained.
【0062】より具体的には、光の走査角の範囲を撮像
装置の画角とし、光を放射する走査角を次に述べるよう
に設定し用いることで、本発明の実施に利用できる。こ
こでは、撮像装置の画角を20度、水平方向画素数51
2ドットのとき、画像処理の立体視で画像を水平方向8
ドット、垂直方向8ドットのメッシュ状に分割して距離
分布を算出する場合について述べる。この場合、水平方
向8ドットの領域は、0.313度に相当するため、画
角の範囲内において、この角度(0.313度)単位で
走査角を逐次変化させていく。そして、得られた距離デ
ータをメモリに転送し、必要時にCPUから呼び出す。
このようにして、検出ウィンドウに対応した距離分布デ
ータが取得できる。More specifically, the range of the light scanning angle is set as the angle of view of the image pickup device, and the scanning angle for radiating the light is set and used as described below, which can be used for implementing the present invention. Here, the angle of view of the imaging device is 20 degrees, and the number of horizontal pixels is 51.
When the number of dots is 2, the image is displayed in the horizontal direction 8
A case will be described in which the distance distribution is calculated by dividing the dots into a mesh of 8 dots in the vertical direction. In this case, since the area of 8 dots in the horizontal direction corresponds to 0.313 degrees, the scanning angle is sequentially changed in units of this angle (0.313 degrees) within the range of the angle of view. Then, the obtained distance data is transferred to the memory and called from the CPU when necessary.
In this way, the distance distribution data corresponding to the detection window can be acquired.
【図1】発明の実施の形態における横断者検出システム
の概要を示すブロック構成図。FIG. 1 is a block configuration diagram showing an outline of a crossing detection system according to an embodiment of the invention.
【図2】左右カメラによるステレオ画像を示す図。FIG. 2 is a diagram showing a stereo image by left and right cameras.
【図3】撮像装置の基本的な構成を示す概略図。FIG. 3 is a schematic diagram showing a basic configuration of an imaging device.
【図4】画像内に解析領域を設定した図。FIG. 4 is a diagram in which an analysis area is set in an image.
【図5】横断者が水平右方向に所定量だけ移動した状態
を示す図。FIG. 5 is a diagram showing a state in which a pedestrian moves horizontally rightward by a predetermined amount.
【図6】相関値と移動量との関係を示すグラフ。FIG. 6 is a graph showing a relationship between a correlation value and a movement amount.
【図7】検出ウィンドウの大きさを示す図。FIG. 7 is a diagram showing the size of a detection window.
【図8】横断者検出ルーチンを示すフローチャート。FIG. 8 is a flowchart showing a pedestrian detection routine.
【図9】画像内における横断者の候補ウィンドウを示す
図。FIG. 9 is a diagram showing a candidate window for a pedestrian in the image.
【図10】横断者の仮検出結果を示す図。FIG. 10 is a diagram showing a temporary detection result of a crossing person.
【図11】追跡処理を説明するための図。FIG. 11 is a diagram for explaining tracking processing.
【図12】追跡処理の事例を個々に説明するための図。FIG. 12 is a diagram for individually explaining an example of tracking processing.
【図13】一連の追跡処理を説明するための図。FIG. 13 is a diagram for explaining a series of tracking processes.
【図14】自車両と横断者の位置関係を示す図。FIG. 14 is a diagram showing a positional relationship between the own vehicle and a pedestrian.
【図15】画像内における解析領域を説明するための
図。FIG. 15 is a diagram for explaining an analysis area in an image.
【図16】検出ウィンドウを説明するための図。FIG. 16 is a diagram for explaining a detection window.
【図17】検出ウィンドウにて横断者が検出された状態
を示す図。FIG. 17 is a diagram showing a state in which a pedestrian is detected in the detection window.
【図18】検出ウィンドウの配列状態を示す図。FIG. 18 is a diagram showing an arrangement state of detection windows.
1…撮像装置、2…距離分布計測手段としての距離算出
回路、4…移動量算出手段としての移動量算出回路、5
…垂直エッジ数算出手段としての垂直エッジ数算出回
路、6…走行路データ検出手段としての走行路検出回
路、7…横断物候補ウィンドウ検出手段及び横断物検出
手段としてのマイクロコンピュータ、9…ヨーイング検
出手段としてのヨーレイトセンサ。DESCRIPTION OF SYMBOLS 1 ... Imaging device, 2 ... Distance calculation circuit as distance distribution measurement means, 4 ... Movement amount calculation circuit as movement amount calculation means, 5
... vertical edge number calculating circuit as vertical edge number calculating means, 6 ... running path detecting circuit as running path data detecting means, 7 ... microcomputer as crossing object candidate window detecting means and crossing object detecting means, 9 ... yawing detection A yaw rate sensor as a means.
Claims (7)
る距離分布計測手段と、 撮像装置によって前方空間の時間の異なる複数の画像デ
ータを取得して、物体の移動量を算出する移動量算出手
段とを備えた装置であって、 上記画像データに対して、画像の垂直方向について所定
の横断物が存在する解析領域を設定すると共に当該横断
物の大きさに見合う検出ウィンドウを設け、その検出ウ
ィンドウを水平方向に隙間なく配置し、当該検出ウィン
ドウ内で前記前方空間の距離データが存在するウィンド
ウについて前記移動量算出手段によって得られた移動量
の方向が自車両の走行路中心に向かっているとき、その
検出ウィンドウに横断物が存在するとして当該横断物を
検出する横断物検出手段を備えることを特徴とする横断
物の検出装置。1. A distance distribution measuring means for acquiring distance distribution data of an object in the front space, and a moving amount calculation for calculating a moving amount of the object by acquiring a plurality of image data at different times in the front space by an imaging device. And a detection window corresponding to the size of the crossing object, for setting an analysis region in which a predetermined crossing object exists in the vertical direction of the image with respect to the image data. The windows are arranged in a horizontal direction without any gap, and the direction of the movement amount obtained by the movement amount calculating means for the window in which the distance data of the front space exists in the detection window is toward the center of the traveling path of the host vehicle. At this time, the crossing object detection device is provided with crossing object detection means for detecting the crossing object as if the crossing object exists in the detection window.
て、 前記検出ウィンドウ毎に検出ウィンドウ内の垂直エッジ
数を算出する垂直エッジ数算出手段と、 前記垂直エッジ数算出手段による垂直エッジ数が所定の
しきい値以上のとき、その検出ウィンドウを横断物の候
補ウィンドウとして検出する横断物候補ウィンドウ検出
手段とを備え、 前記横断物検出手段は、 前記検出された複数の前記候補ウィンドウのうちで、上
記前方空間の距離データが存在する候補ウィンドウにつ
いて前記移動量算出手段によって得られた移動量の方向
が自車両の走行路中心に向かっているとき、その検出ウ
ィンドウに横断物が存在するとして当該横断物を検出す
ることを特徴とする横断物の検出装置。2. The crossing detection apparatus according to claim 1, wherein a vertical edge number calculation means for calculating the number of vertical edges in the detection window for each of the detection windows, and a vertical edge number by the vertical edge number calculation means. Is a predetermined threshold value or more, and a crossing object candidate window detection means for detecting the detection window as a candidate window for crossing objects, the crossing object detection means, among the plurality of candidate windows detected Then, when the direction of the movement amount obtained by the movement amount calculation means is toward the center of the traveling path of the own vehicle for the candidate window in which the distance data of the front space exists, it is assumed that a crossing object exists in the detection window. A crossing object detection device characterized by detecting the crossing object.
において、 上記画像データから自車両の走行路を示すレーンマーク
等を検出する走行路データ検出手段を備え、 前記横断物検出手段は、前記走行路データ検出手段の検
出結果に基づいて走行路中心を検出する横断物の検出装
置。3. The crossing object detecting device according to claim 1, further comprising a running road data detecting unit that detects a lane mark or the like indicating a running road of the vehicle from the image data. Is a device for detecting a crossing object for detecting the center of a traveling road based on the detection result of the traveling road data detecting means.
見合うように区画設定される請求項1〜3のいずれかに
記載の横断物の検出装置。4. The crossing detection device according to claim 1, wherein the detection window is sectioned and set to match the size of a crossing.
に所定量だけ重ねて配置される請求項1〜4のいずれか
に記載の横断物の検出装置。5. The crossing object detection device according to claim 1, wherein the detection windows are arranged so as to overlap adjacent windows by a predetermined amount.
断物の検出結果を仮検出結果として、その仮検出された
横断物の時間的な対応付け処理を行い、所定サイクル以
上の対応付けがなされたとき、横断物の存在を決定する
請求項1〜5のいずれかに記載の横断物の検出装置。6. The crossing object detection means performs a time-based process of associating the temporarily detected crossing object with the detection result of the crossing object in one cycle as a tentative detection result, and associates it for a predetermined cycle or more. The crossing detection device according to claim 1, wherein the presence of the crossing is determined when the crossing is performed.
ためのヨーイング検出手段を備え、 前記横断物検出手段は、前記移動量算出手段による移動
量データから自車両のヨーイング成分を排除し、該自車
両のヨーイング成分が排除された結果から横断物を特定
する請求項1〜6のいずれかに記載の横断物の検出装
置。7. A yawing detection means for measuring a yawing component of traveling of the own vehicle, wherein the crossing object detection means removes the yawing component of the own vehicle from the movement amount data obtained by the movement amount calculation means. The crossing detection device according to any one of claims 1 to 6, wherein the crossing is specified based on a result obtained by removing the yawing component of the host vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03503996A JP3727400B2 (en) | 1996-02-22 | 1996-02-22 | Crossing detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03503996A JP3727400B2 (en) | 1996-02-22 | 1996-02-22 | Crossing detection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09226490A true JPH09226490A (en) | 1997-09-02 |
JP3727400B2 JP3727400B2 (en) | 2005-12-14 |
Family
ID=12430913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03503996A Expired - Fee Related JP3727400B2 (en) | 1996-02-22 | 1996-02-22 | Crossing detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3727400B2 (en) |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187799A (en) * | 1998-12-22 | 2000-07-04 | Matsushita Electric Works Ltd | Obstacle detector for vehicle |
JP2000251200A (en) * | 1999-03-02 | 2000-09-14 | Mazda Motor Corp | Obstacle detector for vehicle |
US6327536B1 (en) | 1999-06-23 | 2001-12-04 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle environment monitoring system |
EP1245443A2 (en) | 2001-03-30 | 2002-10-02 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle environment monitoring system |
JP2004103018A (en) * | 2003-09-02 | 2004-04-02 | Honda Motor Co Ltd | Vehicular circumference monitoring device |
US6720938B2 (en) | 2000-05-09 | 2004-04-13 | Honda Giken Kogyo Kabushiki Kaisha | Head-up display on a vehicle, with controlled brightness of warning light |
JP2004301607A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Moving object detection device, moving object detection method, and moving object detection program |
JP2005214914A (en) * | 2004-02-02 | 2005-08-11 | Fuji Heavy Ind Ltd | Moving speed detecting device and moving speed detecting method |
JP2006099155A (en) * | 2004-09-28 | 2006-04-13 | Nissan Motor Co Ltd | Collision deciding device and method |
JP2006268097A (en) * | 2005-03-22 | 2006-10-05 | Nissan Motor Co Ltd | On-vehicle object detecting device, and object detecting method |
US7158664B2 (en) | 2001-11-09 | 2007-01-02 | Honda Giken Kogyo Kabushiki Kaisha | Image recognition apparatus |
JP2007293487A (en) * | 2006-04-24 | 2007-11-08 | Honda Motor Co Ltd | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring method, and vehicle periphery monitoring program |
JP2007316685A (en) * | 2006-05-23 | 2007-12-06 | Nissan Motor Co Ltd | Traveling path boundary detection device and traveling path boundary detection method |
JP2008108118A (en) * | 2006-10-26 | 2008-05-08 | Honda Motor Co Ltd | Image processor |
JP2008152672A (en) * | 2006-12-19 | 2008-07-03 | Fujitsu Ten Ltd | Image recognition apparatus, image recognition method and electronic control apparatus |
EP1944212A1 (en) * | 2007-01-10 | 2008-07-16 | Robert Bosch Gmbh | Method and device for recognising potentially dangerous objects for a vehicle |
JP2008284897A (en) * | 2007-05-15 | 2008-11-27 | Toyota Central R&D Labs Inc | Object search device |
JP2009217680A (en) * | 2008-03-12 | 2009-09-24 | Omron Corp | Transverse object detection device and transverse object detecting method, and program |
US7899212B2 (en) | 2006-08-25 | 2011-03-01 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
US8144195B2 (en) | 2001-06-28 | 2012-03-27 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle zone monitoring apparatus |
CN102713989A (en) * | 2010-03-17 | 2012-10-03 | 本田技研工业株式会社 | Vehicle surroundings monitoring device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6556563B2 (en) | 2015-08-31 | 2019-08-07 | 株式会社東芝 | Detection apparatus, detection method, detection program, and information processing system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0652485A (en) * | 1992-07-28 | 1994-02-25 | Nippon Signal Co Ltd:The | Dangerous traffic event detecting method |
JPH07334799A (en) * | 1994-06-10 | 1995-12-22 | Nissan Motor Co Ltd | Vehicle-to-vehicle distance detecting device |
JPH0816998A (en) * | 1994-06-27 | 1996-01-19 | Mazda Motor Corp | Judging device for traveling state of automobile |
JPH0845000A (en) * | 1994-07-28 | 1996-02-16 | Fuji Heavy Ind Ltd | Vehicle-to-vehicle distance controller |
-
1996
- 1996-02-22 JP JP03503996A patent/JP3727400B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0652485A (en) * | 1992-07-28 | 1994-02-25 | Nippon Signal Co Ltd:The | Dangerous traffic event detecting method |
JPH07334799A (en) * | 1994-06-10 | 1995-12-22 | Nissan Motor Co Ltd | Vehicle-to-vehicle distance detecting device |
JPH0816998A (en) * | 1994-06-27 | 1996-01-19 | Mazda Motor Corp | Judging device for traveling state of automobile |
JPH0845000A (en) * | 1994-07-28 | 1996-02-16 | Fuji Heavy Ind Ltd | Vehicle-to-vehicle distance controller |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000187799A (en) * | 1998-12-22 | 2000-07-04 | Matsushita Electric Works Ltd | Obstacle detector for vehicle |
JP2000251200A (en) * | 1999-03-02 | 2000-09-14 | Mazda Motor Corp | Obstacle detector for vehicle |
DE10030421B4 (en) * | 1999-06-23 | 2006-10-05 | Honda Giken Kogyo K.K. | Vehicle environment monitoring system |
US6327536B1 (en) | 1999-06-23 | 2001-12-04 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle environment monitoring system |
US6720938B2 (en) | 2000-05-09 | 2004-04-13 | Honda Giken Kogyo Kabushiki Kaisha | Head-up display on a vehicle, with controlled brightness of warning light |
EP1245443A2 (en) | 2001-03-30 | 2002-10-02 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle environment monitoring system |
US8144195B2 (en) | 2001-06-28 | 2012-03-27 | Honda Giken Kogyo Kabushiki Kaisha | Vehicle zone monitoring apparatus |
US7474765B2 (en) | 2001-11-09 | 2009-01-06 | Honda Giken Kogyo Kabushiki Kaisha | Image recognition apparatus |
US7158664B2 (en) | 2001-11-09 | 2007-01-02 | Honda Giken Kogyo Kabushiki Kaisha | Image recognition apparatus |
JP2004301607A (en) * | 2003-03-31 | 2004-10-28 | Honda Motor Co Ltd | Moving object detection device, moving object detection method, and moving object detection program |
JP2004103018A (en) * | 2003-09-02 | 2004-04-02 | Honda Motor Co Ltd | Vehicular circumference monitoring device |
JP2005214914A (en) * | 2004-02-02 | 2005-08-11 | Fuji Heavy Ind Ltd | Moving speed detecting device and moving speed detecting method |
JP2006099155A (en) * | 2004-09-28 | 2006-04-13 | Nissan Motor Co Ltd | Collision deciding device and method |
JP2006268097A (en) * | 2005-03-22 | 2006-10-05 | Nissan Motor Co Ltd | On-vehicle object detecting device, and object detecting method |
JP2007293487A (en) * | 2006-04-24 | 2007-11-08 | Honda Motor Co Ltd | Vehicle periphery monitoring device, vehicle, vehicle periphery monitoring method, and vehicle periphery monitoring program |
JP2007316685A (en) * | 2006-05-23 | 2007-12-06 | Nissan Motor Co Ltd | Traveling path boundary detection device and traveling path boundary detection method |
US7899212B2 (en) | 2006-08-25 | 2011-03-01 | Kabushiki Kaisha Toshiba | Image processing apparatus and image processing method |
JP2008108118A (en) * | 2006-10-26 | 2008-05-08 | Honda Motor Co Ltd | Image processor |
JP2008152672A (en) * | 2006-12-19 | 2008-07-03 | Fujitsu Ten Ltd | Image recognition apparatus, image recognition method and electronic control apparatus |
US8090147B2 (en) | 2006-12-19 | 2012-01-03 | Fujitsu Ten Limited | Matching object and reference pattern images using search window size widths and heights to predict object collision |
EP1944212A1 (en) * | 2007-01-10 | 2008-07-16 | Robert Bosch Gmbh | Method and device for recognising potentially dangerous objects for a vehicle |
JP2008284897A (en) * | 2007-05-15 | 2008-11-27 | Toyota Central R&D Labs Inc | Object search device |
JP2009217680A (en) * | 2008-03-12 | 2009-09-24 | Omron Corp | Transverse object detection device and transverse object detecting method, and program |
CN102713989A (en) * | 2010-03-17 | 2012-10-03 | 本田技研工业株式会社 | Vehicle surroundings monitoring device |
Also Published As
Publication number | Publication date |
---|---|
JP3727400B2 (en) | 2005-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3727400B2 (en) | Crossing detection device | |
US7612800B2 (en) | Image processing apparatus and method | |
US10909395B2 (en) | Object detection apparatus | |
US20050232463A1 (en) | Method and apparatus for detecting a presence prior to collision | |
JP2004086779A (en) | Obstacle detection device and its method | |
EP1641653A2 (en) | Method and apparatus for pedestrian detection | |
CN113177976B (en) | A depth estimation method, device, electronic device and storage medium | |
JPH04331311A (en) | Detecting apparatus of inter-vehicle distance | |
JPH07129898A (en) | Obstacle detection device | |
JPH11252587A (en) | Object tracking device | |
JP3710548B2 (en) | Vehicle detection device | |
JP2001351193A (en) | Device for detecting passenger | |
JP2000207693A (en) | Obstacle detector on vehicle | |
KR20100066952A (en) | Apparatus and method for tracking obstacles using stereo vision | |
CN110796103A (en) | Target and its distance detection method based on Faster-RCNN | |
JPH07119606B2 (en) | Tracking inter-vehicle distance detector | |
Nedevschi et al. | Online extrinsic parameters calibration for stereovision systems used in far-range detection vehicle applications | |
Li et al. | The research of vehicle monocular ranging based on YOlOv5 | |
CN116324506A (en) | Information processing system, information processing device, program, and information processing method | |
JPH10187974A (en) | Logistics measurement equipment | |
JP2013104740A (en) | Image processing device and image processing method | |
JP2001101420A (en) | Device and method for detecting obstacle | |
JP4269781B2 (en) | Optical flow detection system, detection method and detection program | |
JP2003099784A (en) | Recognition method for moving object | |
JP2017211765A (en) | Object recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050117 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20050927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20050928 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081007 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091007 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101007 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111007 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |