JP3827128B2 - Fire detection equipment - Google Patents
Fire detection equipment Download PDFInfo
- Publication number
- JP3827128B2 JP3827128B2 JP24536898A JP24536898A JP3827128B2 JP 3827128 B2 JP3827128 B2 JP 3827128B2 JP 24536898 A JP24536898 A JP 24536898A JP 24536898 A JP24536898 A JP 24536898A JP 3827128 B2 JP3827128 B2 JP 3827128B2
- Authority
- JP
- Japan
- Prior art keywords
- fire
- flame
- image
- fire source
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Fire-Detection Mechanisms (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、カメラの監視画像から炎画像を抽出して火災による火源を検出する火災検出装置に関する。
【0002】
【従来の技術】
従来、CCDカメラや二次元アレイ等の二次元撮像装置をもつ火災検出装置が知られている。
【0003】
このような火災検出装置にあっては、例えばCCDカメラ撮影した監視画像をメモリに記憶し、記憶した監視画像の中の所定輝度を画素領域を炎領域と判断して抽出し、抽出した炎領域を火災による火源と判断している。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来の火災検出装置においては、火源の間近にある壁や床等の面に炎の反射光が反射した場合、火源か反射なのかという区別が難しいという問題がある。
【0005】
炎とその他の光源を区別するためには、炎の特徴と言われるCO2 の共鳴放射で発生する4.3μm付近の波長だけを通すバンドパスフィルタを使う方法がある。光の反射の場合、物体から反射される光は、放射光が直接反射した鏡面反射成分と、物体表面で一旦吸収された後、放射される拡散反射成分に分けられる。拡散反射成分は物体の材質を表わすスペクトル分布を示すため、バンドパスフィルタで区別することができる。
【0006】
しかし、鏡面反射成分は光源光と同じスペクトル分布を持つため、反射面の角度が浅くなればなるほど鏡面反射成分が多くなり、炎と炎の反射はバンドパスフィルタでは区別が付かなくなる。
【0007】
また鏡面反射成分の一部が偏光になるという性質を使用して直線偏光フィルタをレンズ前面に付け、反射光の偏光と偏光フィルタの角度が合えば、鏡面反射成分の偏光部分を除去することができる。しかし、床面と壁面の反射では偏光方向が異なり、同時に除去することができなかった。
【0008】
本発明は、このような問題点に鑑みてなされたもので、監視画像に含まれる炎と炎の反射を区別して火源を確実に検出する火災検出装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
この目的を達成するため本発明は次のように構成する。
【0012】
本発明の火災検知装置は、異なる2以上の地点に配置され、監視範囲にある火源の監視画像を撮影する2台以上のカメラと、監視範囲の火源位置に向けてスポット光を照射するスポット光投影部と、2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、画像処理部で検出した火源位置にスポット光投影部からスポット光を照射した状態で、2台以上のカメラで撮影した監視画像の炎画像とスポット光画像の位置が一致している場合に火災による火源と判定し、位置がずれている場合に反射による火源と判定して処理対象から除外することを特徴とする火災判定部とで構成する。
【0013】
このような本発明の火災検知装置にあっては、監視範囲内のものだけを火源と判断することで、床や壁等で反射した炎を火源と誤って判断することを確実に防止する。
【0014】
更に本発明の別の形態にあっては、異なる2以上の地点に配置され、監視範囲にある火源の監視画像を撮影する2台以上のカメラと、2台以上のカメラ側に配置され、監視範囲に存在する物体までの距離を測定する測距部と、2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、画像処理部で検出した火源位置に測距装置を指向させて距離を測定し、画像処理部の測定距離と測距装置の測定距離とが一致した場合は火災による火源と判定し、一致しない場合は反射による火源として処理対象から除外する火災判定部とで構成する。
【0015】
この場合にも、距離の測距に基づき火源と判断することで、床や壁等で反射した炎を火源と誤って判断することを確実に防止する。
【0016】
【発明の実施の形態】
図1は本発明の火災検出装置の第1実施形態であり、三角測量の原理に基づいて監視画像に含まれる炎画像の位置を検出し、火災による炎か反射による炎かを判断するようにしたことを特徴とする。
【0017】
図1において、第1実施形態の火災検出装置は、左側カメラ1、右側カメラ2、左画像メモリ6、右画像メモリ7、画像処理部8及び火災判定部9で構成される。左側カメラ1及び右側カメラ2はそれぞれ監視範囲10L,10Rを持ち、監視空間の検出対象物である炎3を監視している。
【0018】
この左側カメラ1と右側カメラ2は図2のように、監視区画に対しカメラ光軸1a,2aが平行又は交差するように配置されており、このカメラ光軸1a,2aの相対関係を保ったまま、左側カメラ1及び右側カメラ2を監視空間に向けてそれぞれの監視範囲10L,10Rの画像を撮影する。
【0019】
図2の監視空間は壁4aと床4bで区画されており、この監視空間で火災が発生して炎3が存在している。また火災による炎3に相対する壁4aには壁面反射炎5aが映っている。また床4bにも炎4による床面反射炎5bが映っている。このため、左側カメラ1及び右側カメラ2で監視空間を撮影した場合には、それぞれの監視画像に炎3、壁面反射炎5a及び床面反射炎5bの3つの炎画像が含まれることになる。
【0020】
図1の左側カメラ1及び右側カメラ2で同時に撮影された監視範囲10L,10Rの監視画像は、左画像メモリ6及び右画像メモリ7のそれぞれに書き込まれた後、画像処理部8により読み出され、各監視画像に含まれる一対の火源画像から三角測量の原理に基づいて火源位置を検出する。
【0021】
画像処理部8で検出される火源位置は、図2の場合には、炎3、壁面反射炎5a及び床面反射炎5bの3つの火源位置が検出される。画像処理部8で検出された1または複数の火源画像の位置は、火災判定部9に与えられる。火災判定部9には、図2の監視空間における壁4aや床4b等の境界位置の座標情報が予め設定されており、画像処理部8で検出した火源位置が予め設定した壁4aや床4bの設定境界位置の内側にある場合は、火災による火源と判定する。これに対し検出した火源位置が設定した境界の範囲を超えている場合には、反射による火源として処理対象から除外する。
【0022】
図3は、図1の画像処理部8による三角測量の原理を用いた火源位置の検出処理の説明図である。図3において、図1の左側カメラ1の撮像面に対応するカメラ位置をF1、右側カメラ2の撮像面に対応するカメラ位置をF2とすると、このカメラ位置F1,F2の間隔は例えば距離dと予め定まっている。
【0023】
このカメラ位置F1,F2から配置されたカメラ光軸1a,2aによって撮影した左画像11Lと右画像11Rの中に、火災による炎の火源位置Pの火源画像P1,P2が図示の位置に映っていたとする。この場合、実際の監視空間における火源位置Pは、カメラ位置F1と左画像11L上の火源位置P1を結んだ直線の延長線と、カメラ位置F2と右画像11R上の火源位置P2を結んだ直線の延長線上の交点として与えられる。このため、三角測量の原理により火源位置Pの三次元座標(X,Y,Z)を求めることができる。
【0024】
ここで説明を簡単にするため、カメラ光軸1a,2aが完全に平行であり、カメラ位置F1,F2の上下方向の座標位置zが同じであったとすると、左画像11Lの火源位置P1の座標は(x1,y1)となり、また右画像11Rの火源位置P2の座標は(x2,y2)となる。またカメラ位置F1,F2の左画像11L,右画像11Rに対する焦点距離をfとする。この場合、監視空間の火源位置Pの三次元座標(X,Y,Z)の値は次式で与えられる。
【0025】
【数1】
図4は、図1の火災判定部9による図2の炎3と壁面反射炎5aを区別するための判別処理の説明図である。即ち、図4は図2を平面的に見ており、図3の三角測量の原理に基づく火源位置P(X,Y,Z)の検出結果から、左側カメラ1及び右側カメラ2の光軸方向での炎3及び壁面反射炎5aの距離はZとなっている。
【0026】
ここで監視空間の壁4aの位置が例えば左側カメラ1のカメラ光軸1aを基準としたX軸方向の距離として設定されていたとすると、カメラ光軸1aから壁面4aまでの設定境界距離はXthとなっている。そこで、炎3の三角測量に基づく火源位置座標に基づき、カメラ光軸1aからのX軸方向の距離X0を求め、また壁面反射炎5aについて三角測量の原理に基づいて検出している火源位置から同じくカメラ光軸1aに対するX軸方向の距離Xrを求める。
【0027】
このようにして求めた炎3の距離X0及び壁面反射炎5aの距離Xrを、予め設定した壁4aの設定境界距離Xthと比較する。炎3の距離X0は壁4aの設定境界距離Xthより小さいことから、炎3は監視空間にあることが分かる。これに対し壁面反射炎5aの距離Xrは壁4aの設定境界距離Xthを超えており、監視範囲の外に存在していることが分かる。
【0028】
このように監視範囲の外に炎が存在することがないため、距離Xrとなった炎5aは反射による炎として処理対象から除外し、炎3に対してのみ火災による炎と判断して処理を行う。
【0029】
図5は、図2の監視空間における炎3と床面反射炎5bを区別するための図1の火災判定部9による判定処理の説明図である。図5においても、図3の三角測量の原理に基づいて、火源3に加え床4bの床面反射炎5bについて火源位置が検出されている。
【0030】
図1の火災判定部9にあっては、例えば側面から見た左側カメラ1及び右側カメラ2の光軸1a,2aを基準に、床4bまでの距離を設定境界距離Ythとして予め登録している。この状態で炎3及び床面反射炎5bの火源位置が検出できたならば、カメラ光軸1a,2aを基準に炎3までの距離Y0と床面反射炎5bまでの距離Yrを検出し、それぞれ予め設定した床4bまでの設定境界距離Ythと比較する。
【0031】
この場合、炎3までの距離Y0は設定境界距離Ythより小さいことから、炎3は監視範囲にある火災による炎であると判定できる。これに対し炎5bの距離Yrは設定境界距離Ythを超えており、床4bの下に存在することになる。このような設定境界距離Ythを超える位置の炎5bは、火災による炎ではなく床4bによる床面反射炎5bであることから、これを処理対象から除外する。
【0032】
次に図6,図7のフローチャートを参照して図1の第1実施形態の火災検出処理を説明する。ここで図6のステップS1から図7のステップS10までが図1の画像処理部8による火源位置の検出処理であり、図7のステップS11〜S14が図1の火災判定部9による火災判定処理である。
【0033】
まず図6のステップS1で、例えば右側カメラ2で撮影されて右画像メモリ7に記憶された右画像を画像処理部8に取り込み、ステップS2で火源の可能性のある画素を1(白画素)とし、火源の可能性のない画素を0(黒画素)とする。続いてステップS3で火源の可能性ありとして1にセットされた画素の領域を画素のオブジェクトとし、オブジェクトごとに固有の番号をつけるラベリングを行う。
【0034】
図8は図6のステップS1〜S3の処理画像である。まず図8(A)が例えば右画像の読取りで得られた元画像であり、炎画像12a、壁面反射炎画像12b及び床面反射炎画像12cの3つが映っている。この図8(A)の元画像に対し、各画素単位に火災による火源の可能性ありで1(白画素)をセットし、火源の可能性なしのときには0(黒画素)をセットして、図8(B)の二値化画像とする。
【0035】
この二値化画像を生成する際の火源の可能性の判定は、例えばカメラとして赤外線カメラを使用している場合には、予め定めておいた温度以上の画素について火災の可能性ありとすればよい。また通常のカメラの場合には、炎の放射光により輝度が高いことから、所定輝度以上の画素を火災の可能性ありと判定すればよい。
【0036】
この場合、炎特有の特徴であるゆらぎ、移動の有無、重心移動等を捉えて火災の可能性ありの判定を行うことで判定精度を高めることができる。更にカラーカメラの場合には、輝度に加えて火災時の炎の色を判定すればよい。即ち、火災時の炎の色は通常赤色(拡散炎)であることから、例えばカラー画像がRGBデータであった場合には、赤となるRGB成分の画素を火災の可能性ありと判定して1(白画素)をセットすればよい。
【0037】
図8(B)のような二値化により、1で埋められた二値化画像13a,13bが火源画像と認識できる。続いて図8(C)のように、図8(B)の二値化画像13a,13bについて火源の可能性ありとして1(白画素)にセットされた二値化画像13a,13bについて、オブジェクト1,2,3としてラベリングしたラベリング画像14a,14b,14cを生成する。
【0038】
このような取込画像に対する二値化とラベリングは、図6のステップS4〜S6において、左画像についても同様にして行う。続いてラベリングが済んだ右画面及び左画面について1つのオブジェクトに着目し、ステップS8で右画像について着目したオブジェクトの右重心の計測を行い、またステップS9で左画像について注目したオブジェクトの左重心の計測を行う。
【0039】
このステップS8,S9によって、注目したオブジェクトの火源位置が特定される。即ち、図3の左画像11L,右画像11Rにおける画像上の火源位置P1,P2の座標位置が求められる。続いてステップS3で、図3に示す三角測量の原理に基づき、監視範囲の火源位置Pの三次元位置を算出する。
【0040】
次にステップS11に進み、例えば図4,図5に示したように、予め設定した壁4aや床4bに対する設定境界距離Xth,Ythとの比較で監視範囲内か否か判別する。監視範囲内であればステップS12に進み、現在処理対象としているオブジェクトは火災による火源と判定する。
【0041】
ステップS11で監視範囲になければ、ステップS13に進み、全てのオブジェクトの判定が終了したか否かチェックし、終了していなければステップS7に戻り、次のオブジェクトについて重心計測を行って三次元位置を求め、ステップS11で監視範囲か否か判定する。
【0042】
このため、処理対象となるオブジェクトが監視範囲内にあれば直ちに火災判定が行われる。また火源の可能性のあるオブジェクトが実際には火災によるものでなかった場合には、ステップS13でオブジェクトが監視範囲内になく且つ全てのオブジェクトの判定が終了した段階で、ステップS4で非火災の判定が行われる。
【0043】
図9は本発明による火災検出装置の第2実施形態のブロック図である。この第2実施形態にあっては、監視画像から判定した火源位置にスポット光を照射し、スポット光を照射した画像の状態から、火災による炎か炎の反射画像かを判定するようにしたことを特徴とする。
【0044】
図9において、左側カメラ1、右側カメラ2、左画像メモリ6、右画像メモリ7は図1の実施形態と同じであるが、第2実施形態にあっては更に、スポット光投影部15、投影制御部16、左画像処理部17、右画像処理部18及び定部19を設けている。左画像処理部17と右画像処理部18は、図1の画像処理部8と同様、三角測量の原理に基づいて火源位置を検出する。即ち、図6及び図7のステップS1〜SS10と同じ処理により、火源位置が検出される。
【0045】
スポット光投影部15は、図10の平面図のように、例えばカメラ光軸が平行配置された左側カメラ1と右側カメラ2のうちの左側カメラ1の上部に旋回自在に配置されている。このスポット光投影部15は例えばレーザ発射装置であり、その指向方向を制御することで例えば監視範囲の火源3の位置にスポット光20を照射できるようにしている。
【0046】
このスポット光投影部15を用いた図10の炎3と、例えば壁4aに映った壁面反射炎5aとの判別処理は次のようになる。まず図9の左画像処理部17は、左側カメラ1で撮影した監視範囲10Lの画像を左画像メモリ6から取り込み、左画面上での炎3及び壁面反射炎5aの位置を三角測量の原理に基づき検出する。
【0047】
左側カメラ1の撮影画像から炎3及び壁面反射炎5aの位置が検出できたならば、炎3に向けてスポット光投影部15の光軸を光軸15aに指向させて、炎3にスポット光20を照射する。この炎3に対するスポット光20の照射状態で左側カメラ1及び右側カメラ2により撮影した画像を取り込むと、図11(A)(B)のようになる。
【0048】
図11(A)の左画像26Lには炎画像27Lと壁面反射炎画像28Lが映っており、炎画像27Lにはスポット光投影部15で照射したスポット光30Lの輝点が映っている。図11(B)の右画像26Rにも炎画像27Rと壁面反射炎画像28Rが映っており、炎画像27Rにはスポット光投影部15から照射したスポット光30Rの輝点が映っている。
【0049】
次に図10でスポット光投影部15の光軸を光軸15bのように壁面反射炎5aに指向制御してビームスポットを照射する。しかしながら、光軸15bによるスポット光の照射は、壁4aに当たってスポット光23となる。この光軸15bによるスポット光の照射状態で左側カメラ1及び右側カメラ2で撮影した画像を取り込むと、図12(A)(B)のようになる。
【0050】
まず図12(A)の左画像26Lにあっては、スポット光投影部15からの光軸15bの一直線上に壁面反射炎5aと壁4aに当たったスポット光23が位置することから、壁面反射炎画像28Lの部分にスポット光31Lの輝点が映っている。
【0051】
これに対し図12(B)の右画像26Rにあっては、図10のように、右側カメラ2から壁面反射炎5aを見た光軸25と壁4aに当たっているスポット光23を見た光軸24にずれがある。このため図12(B)の右画像では、壁面反射炎画像28Rの左側のずれた位置にスポット光31Rの輝点が映っている。
【0052】
したがって、図11(A)(B)のように、左右画面26L,26Rの同じ炎画像27L,27Rにスポット光30L,30Rが一致している場合は、監視範囲に実際に存在する炎と判別する。
【0053】
これに対し図12(A)(B)のように、左右画面26Lの炎画像28Lにスポット光30Lが一致し、右画面26Rの同じ炎画像28Rからスポット光31Rがずれている場合には、ずれを起こした炎画像28Rは火災による炎ではなく、壁面反射による炎であることが判別でき、処理対象から除外することができる。
【0054】
ここで図10は、図2の監視空間において平面的に見た炎3と壁面反射炎5aについてのスポット光の照射による判別を例にとっているが、炎3と床面反射炎5bについても同様に、各炎位置を検出して順次スポット光を照射してその画像を見ることで、炎画像からずれた位置にスポット光が映っている場合にその炎画像を反射によるものと判別して処理対象から除外すればよい。
【0055】
図13は本発明による火災検出装置の第3実施形態であり、図9の第2実施形態におけるスポット光の投影の代わりにレーザ測距を行うようにしたことを特徴とする。
【0056】
図13において、左側カメラ1、右側カメラ2、左画像メモリ6、右画像メモリ7は左画像処理部17及び右画像処理部18は図9の第2実施形態と同じであるが、スポット光投影機能に代えてレーザ測距部32、測距制御部33、更にレーザ測距に対応した火災判定部34を設けている。
【0057】
左画像処理部17と右画像処理部18は、図1の画像処理部8と同様、三角測量の原理に基づいて火源位置を検出する。即ち、図6及び図7のステップS1〜SS10と同じ処理により、火源位置が検出される。 レーザ測距部32はレーザ光を対象物に照射し、その伝播時間により距離を直接検出する。このレーザ測距部32は、例えば図14の監視空間に対する平面図のように、カメラ光軸が平行配置された左側カメラ1,右側カメラ2の設置側に三次元的に旋回自在に配置されている。
【0058】
このレーザ測距部32を使用した炎とその反射炎を区別する判別処理を説明すると次のようになる。まず左画像処理部17及び右画像処理部18は、左側カメラ1及び右側カメラ2で撮影して左画像メモリ6及び右画像メモリ7に記憶した左画像及び右画像を取り込み、図8のような二値化及びラベリングを行った後に重心位置を求め、図2の三角測量の原理に基づきそれぞれの火源位置を検出している。
【0059】
このようにして、各画像について火源位置が得られたならば、この火源位置情報は測距制御部33に与えられ、火源位置ごとにレーザ測距部32を指向制御し、火源までの距離を測定する。即ち図14にあっては、まずレーザ測距部32を光軸35のように炎3に指向させ、炎3までの距離L1を測定する。続いて壁面反射炎5aに光軸36を指向させて距離を測距する。この場合、レーザ測距部32の光軸36は壁4aに点38で当たり、測定距離L2は壁面反射炎5aまでの距離L2より短くなる。
【0060】
レーザ測距部32による炎3及び壁面反射炎5aの測定距離L1,L2は火災判定部34に与えられ、左画像処理部17及び右画像処理部18で三角測量の原理で求めた火源位置から算出されるレーザ測距部32との算出距離と比較される。この場合、レーザ測距距離と三角測量による検出位置で求めた距離は、炎3については一致するが壁面反射炎5aについては不一致となり、不一致となった火源を火災によらず反射によるものとして処理対象から除外する。
【0061】
このレーザ測距は図2の監視空間における平面的に見た炎3と壁面反射炎5aの判別を例にとっているが、炎3と床面反射炎5bについても同様に処理することで、床面反射炎5bを処理対象から除外することができる。
【0062】
図15は本発明の第4の実施形態である。この第4実施形態は、3台以上のカメラ1a,1b,1c,1d,・・・を採用したことを特徴とする。例えば図1〜図8の第1実施形態について、3台のカメラ1a,1b,1cを設置した場合には、カメラ1aとカメラ1bで取り込んだ画像を画像処理部8で処理し、その結果にカメラ1cの画像を画像処理部8に取り込んで火災判定部9で火災位置を判定する。この場合の判定は、図1〜図8の第1実施形態で述べたような方法で可能である。
【0063】
この場合、カメラ1a,1b,1cを3次元に配置すれば立体像が得られる。また、炎3を囲むように配置することにより隈無く画像を見ることが出来る。
【0064】
次にカメラが4台、5台と増しても上記3台の場合と同じ方法を採用して火災位置を判定することが可能である。
【0065】
また、カメラを偶数台配置した場合、例えばカメラ1a〜1dの4台を例にとれば、カメラ1aとカメラ1bで画像処理し、カメラ1cとカメラ1dとで画像処理し、各々の画像処理した結果で更に画像処理することで火災判定してもよい。
【0066】
次に図9〜図12の第2実施形態で図15のようにカメラを3台以上設置した場合は、スポット光投影部15を付けたカメラを基準に画像処理することになる。例えばカメラ1a〜1cの3台を設置して、スポット光投影部15をカメラ1bに付けた場合は、まずカメラ1aとカメラ1bで画像処理を実施し、次にカメラ1bとカメラ1cとで画像処理をして火災判定を実施すれば良い。
【0067】
更にカメラ1a〜1dの4台が設置されている場合は、同じくスポット光投影部15をカメラ1bに取り付けておいて、カメラ1a〜1cの3台の画像処理結果に加えて、カメラ1bとカメラ1dの画像処理をした結果により火災判定を実施する。以下カメラが5台以上でも同じように処理する。
【0068】
他の方法として、カメラの設置台数が偶数の場合は、一対のカメラごとにスポット光投影部15を取り付け、図9〜図12の第2実施形態のように一対のカメラごとに画像処理を実施し、その各々の結果を総合して火災判定を実施しても良い。
【0069】
図13,図14の第3実施形態について図15のようにカメラを3台以上設置した場合も、上記の第2実施形態でカメラを3台以上設置した場合について、スポット光投影部15に代えてレーザ測距部32を採用することで、同様な方法で火災位置を判定することができる。
【0070】
尚、本発明の火災検出装置は、監視範囲に固定設置してもよいし、移動可能に設置してもよい。
【0071】
【発明の効果】
以上説明してきたように本発明によれば、光軸が実質的に平行配置された2台以上のカメラの監視画像から三角測量の原理に基づき火源位置を求め、予め定めた監視範囲との比較、スポット光の照射、あるいはレーザ測距等により、監視範囲内のものだけを火源と判断するようにしたことで、壁や床等で反射した炎を火源と誤って判断することを確実に防止でき、火源位置の検出に基づく消火等の火災検出に伴う対応処理を適切且つ確実に行うことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態のブロック図
【図2】図1の監視範囲に対するカメラ配置の説明図
【図3】図1の画像処理部による炎画像の位置検出の説明図
【図4】図1の火災判定部による壁の炎反射に対する判定処理の説明図
【図5】図1の火災判定部による床の炎反射に対する判定処理の説明図
【図6】図1の火災検出処理のフローチャート
【図7】図6に続く図1の火災検出処理のフローチャート
【図8】図1の画像処理部による元画像、二値化画像及びラベリング画像の説明図
【図9】スポット光照射を用いた本発明の第2実施形態のブロック図
【図10】スポット光の照射による炎と炎の反射を区別する処理の説明図
【図11】図10で炎にスポット光を照射した時の監視画像の説明図
【図12】図11で炎の反射にスポット光を照射した時の監視画像の説明図
【図13】レーザ測距を用いた本発明の第3実施形態のブロック図
【図14】図13で炎及び炎の反射をレーザ測距した時の説明図
【図15】本発明の第4実施形態のブロック図
【符号の説明】
1:左側カメラ
1a〜1d:カメラ
2:右側カメラ
3:炎
4a:壁
4b:床
5a:壁面反射炎
5b:床反射炎
6:左画像メモリ
7:右画像メモリ
8:画像処理部
9,19,34:火災判定部
10L,10R:監視範囲
11L:左画像
11R:右画像
12a,27L,27R:炎画像
12b,28L,28R:壁面反射炎画像
12c:床面反射炎画像
13a,13b:二値化画像
14a〜14b:ラベリング画像
15:スポット光投影部
16:投影制御部
17:左画像処理部
18:右画像処理部
20,22:光ビーム
21,23:スポット光
24,25:カメラ光軸
30L,30R,31L,31R:スポット光画像
32:レーザ測距部
33:測距制御部
35,36:レーザビーム
37,38:測距位置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a fire detection apparatus that extracts a flame image from a monitoring image of a camera and detects a fire source due to a fire.
[0002]
[Prior art]
Conventionally, a fire detection device having a two-dimensional imaging device such as a CCD camera or a two-dimensional array is known.
[0003]
In such a fire detection device, for example, a monitoring image taken by a CCD camera is stored in a memory, a predetermined luminance in the stored monitoring image is extracted by determining a pixel area as a flame area, and the extracted flame area Is considered a fire source.
[0004]
[Problems to be solved by the invention]
However, in such a conventional fire detection device, there is a problem that when the reflected light of the flame is reflected on a surface such as a wall or a floor close to the fire source, it is difficult to distinguish whether it is a fire source or a reflection.
[0005]
In order to distinguish the flame from other light sources, there is a method of using a band-pass filter that passes only a wavelength around 4.3 μm generated by the resonance radiation of
[0006]
However, since the specular reflection component has the same spectral distribution as the light source light, the specular reflection component increases as the angle of the reflection surface becomes shallower, and the reflection of flame and flame cannot be distinguished by the bandpass filter.
[0007]
In addition, using the property that a part of the specular reflection component becomes polarized light, a linear polarizing filter is attached to the front surface of the lens, and if the polarization of the reflected light and the angle of the polarizing filter match, the polarized portion of the specular reflection component can be removed. it can. However, the direction of polarization differs between the reflection of the floor surface and the wall surface, and cannot be removed at the same time.
[0008]
The present invention has been made in view of such problems, and an object of the present invention is to provide a fire detection apparatus that reliably detects a fire source by distinguishing between a flame and a reflection of the flame included in a monitoring image.
[0009]
[Means for Solving the Problems]
In order to achieve this object, the present invention is configured as follows.
[0012]
Of the present invention Fire detection device Is arranged at two or more different points, two or more cameras for capturing a monitoring image of the fire source in the monitoring range, a spot light projection unit that irradiates the spot light toward the fire source position of the monitoring range, An image processing unit that detects a fire source position based on the principle of triangulation from two or more fire source images included in each of monitoring images taken by two or more cameras, and a fire source position detected by the image processing unit. When the spotlight projection unit irradiates the spotlight and the position of the spotlight image and the flame image of the monitoring image taken with two or more cameras match, it is determined as a fire source due to fire, and the position is shifted. And a fire determination unit characterized in that it is determined as a fire source due to reflection and excluded from the processing target.
[0013]
In such a fire detection device of the present invention, By judging only those within the monitoring range as the fire source, it is possible to reliably prevent the flame reflected from the floor or wall from being mistakenly judged as the fire source.
[0014]
Furthermore, in another form of the present invention, two or more cameras that are arranged at two or more different points and take a monitoring image of a fire source in the monitoring range, and two or more cameras are arranged, Based on the principle of triangulation based on the principle of triangulation from a distance measuring unit that measures the distance to an object existing in the monitoring range and two or more fire source images included in each of the monitoring images taken by two or more cameras Measure the distance by pointing the distance measuring device to the image processing unit to be detected and the fire source position detected by the image processing unit, and if the measured distance of the image processing unit and the measured distance of the distance measuring device match, If it is determined as a fire source and does not match, the fire is determined as a fire source by reflection and excluded from the processing target.
[0015]
Also in this case, by determining the fire source based on the distance measurement, it is possible to reliably prevent the flame reflected from the floor or wall from being erroneously determined as the fire source.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a first embodiment of a fire detection apparatus according to the present invention, which detects the position of a flame image included in a monitoring image based on the principle of triangulation, and determines whether it is a flame caused by a fire or a flame caused by reflection. It is characterized by that.
[0017]
In FIG. 1, the fire detection apparatus according to the first embodiment includes a
[0018]
As shown in FIG. 2, the
[0019]
The monitoring space in FIG. 2 is partitioned by a wall 4a and a floor 4b. A fire is generated in this monitoring space and a
[0020]
The monitoring images of the monitoring ranges 10L and 10R simultaneously captured by the
[0021]
In the case of FIG. 2, the fire source positions detected by the
[0022]
FIG. 3 is an explanatory diagram of a fire source position detection process using the principle of triangulation by the
[0023]
In the
[0024]
To simplify the description, if the camera optical axes 1a and 2a are completely parallel and the vertical coordinate positions z of the camera positions F1 and F2 are the same, the fire source position P1 of the
[0025]
[Expression 1]
FIG. 4 is an explanatory diagram of a determination process for distinguishing the
[0026]
If the position of the wall 4a in the monitoring space is set as a distance in the X-axis direction with respect to the camera optical axis 1a of the
[0027]
The distance X0 of the
[0028]
Since there is no flame outside the monitoring range in this way, the flame 5a having the distance Xr is excluded from the processing target as a flame due to reflection, and only the
[0029]
FIG. 5 is an explanatory diagram of determination processing by the
[0030]
In the
[0031]
In this case, since the distance Y0 to the
[0032]
Next, the fire detection process of the first embodiment of FIG. 1 will be described with reference to the flowcharts of FIGS. Here, Step S1 in FIG. 6 to Step S10 in FIG. 7 are detection processing of the fire source position by the
[0033]
First, in step S1 of FIG. 6, for example, the right image captured by the
[0034]
FIG. 8 is a processed image of steps S1 to S3 in FIG. First, FIG. 8A is an original image obtained by reading the right image, for example, and shows three images of a flame image 12a, a wall reflection flame image 12b, and a floor reflection flame image 12c. In the original image of FIG. 8A, 1 (white pixel) is set for each pixel unit when there is a possibility of fire, and 0 (black pixel) is set when there is no possibility of fire. Thus, the binarized image of FIG.
[0035]
For example, when an infrared camera is used as the camera, the possibility of a fire source when generating the binarized image is determined to be a possibility of fire for pixels having a predetermined temperature or more. That's fine. In the case of a normal camera, the luminance is high due to the radiated light from the flame, so that a pixel having a predetermined luminance or higher may be determined as a possibility of fire.
[0036]
In this case, it is possible to improve the determination accuracy by determining the possibility of a fire by capturing fluctuations, presence / absence of movement, movement of the center of gravity, and the like, which are characteristics peculiar to flames. Furthermore, in the case of a color camera, the color of the flame at the time of fire may be determined in addition to the luminance. That is, since the color of the flame at the time of fire is usually red (diffusion flame), for example, when the color image is RGB data, the pixel of the RGB component that becomes red is determined to be a fire possibility. 1 (white pixel) may be set.
[0037]
By binarization as shown in FIG. 8B, the binarized images 13a and 13b filled with 1 can be recognized as fire source images. Subsequently, as shown in FIG. 8C, regarding the binarized images 13a and 13b set to 1 (white pixels) as the possibility of a fire source for the binarized images 13a and 13b in FIG. 8B, Labeled images 14a, 14b, and 14c labeled as
[0038]
Such binarization and labeling for the captured image are similarly performed for the left image in steps S4 to S6 in FIG. Subsequently, focusing on one object on the right screen and the left screen after labeling, the right center of gravity of the object focused on the right image is measured in step S8, and the left center of gravity of the object focused on the left image is measured in step S9. Measure.
[0039]
Through these steps S8 and S9, the fire source position of the object of interest is specified. That is, the coordinate positions of the fire source positions P1, P2 on the images in the
[0040]
Next, the process proceeds to step S11, and as shown in FIGS. 4 and 5, for example, it is determined whether or not it is within the monitoring range by comparing with the set boundary distances Xth and Yth with respect to the preset wall 4a and floor 4b. If it is within the monitoring range, the process proceeds to step S12, and the object currently processed is determined to be a fire source due to fire.
[0041]
If it is not in the monitoring range in step S11, the process proceeds to step S13, where it is checked whether or not all objects have been determined. If not, the process returns to step S7, and the center of gravity is measured for the next object to obtain the three-dimensional position. In step S11, it is determined whether or not it is within the monitoring range.
[0042]
For this reason, if the object to be processed is within the monitoring range, the fire determination is performed immediately. If an object that may be a fire source is not actually due to a fire, the object is not in the monitoring range in step S13, and when all the objects have been determined, a non-fire is detected in step S4. Is determined.
[0043]
FIG. 9 is a block diagram of a second embodiment of the fire detection device according to the present invention. In this second embodiment, spot light is irradiated to the fire source position determined from the monitoring image, and it is determined from the state of the image irradiated with the spot light whether it is a fire flame or a flame reflection image. It is characterized by that.
[0044]
In FIG. 9, the
[0045]
As shown in the plan view of FIG. 10, the spot
[0046]
The discrimination process between the
[0047]
If the positions of the
[0048]
A flame image 27L and a wall
[0049]
Next, in FIG. 10, the beam spot is irradiated by controlling the direction of the optical axis of the spot
[0050]
First, in the left image 26L of FIG. 12 (A), the wall surface reflection flame 5a and the
[0051]
On the other hand, in the right image 26R in FIG. 12B, as shown in FIG. 10, the
[0052]
Accordingly, as shown in FIGS. 11A and 11B, when the
[0053]
On the other hand, as shown in FIGS. 12A and 12B, when the spot light 30L matches the
[0054]
Here, FIG. 10 shows an example of discrimination by irradiation of spot light for the
[0055]
FIG. 13 shows a third embodiment of the fire detection apparatus according to the present invention, which is characterized in that laser ranging is performed instead of spot light projection in the second embodiment of FIG.
[0056]
In FIG. 13, the
[0057]
The left
[0058]
A discrimination process for distinguishing between a flame using the laser
[0059]
In this way, if the fire source position is obtained for each image, this fire source position information is given to the distance measurement control unit 33, and the laser
[0060]
The measurement distances L1 and L2 of the
[0061]
The laser distance measurement uses an example of discrimination between the
[0062]
FIG. 15 shows a fourth embodiment of the present invention. The fourth embodiment is characterized in that three or more cameras 1a, 1b, 1c, 1d,. For example, in the first embodiment shown in FIGS. 1 to 8, when three cameras 1a, 1b, and 1c are installed, images captured by the cameras 1a and 1b are processed by the
[0063]
In this case, if the cameras 1a, 1b, and 1c are arranged three-dimensionally, a stereoscopic image can be obtained. In addition, the image can be seen without hesitation by arranging it so as to surround the
[0064]
Next, even if the number of cameras is increased to four or five, it is possible to determine the fire position by adopting the same method as in the case of the above three.
[0065]
Further, when an even number of cameras are arranged, for example, when four cameras 1a to 1d are taken as an example, image processing is performed by the camera 1a and the camera 1b, image processing is performed by the camera 1c and the camera 1d, and each image processing is performed. The fire may be determined by further image processing based on the result.
[0066]
Next, in the second embodiment of FIGS. 9 to 12, when three or more cameras are installed as shown in FIG. 15, image processing is performed based on the camera with the spot
[0067]
Further, when four cameras 1a to 1d are installed, the spot
[0068]
As another method, when the number of installed cameras is an even number, a spot
[0069]
In the third embodiment shown in FIGS. 13 and 14, even when three or more cameras are installed as shown in FIG. 15, the case where three or more cameras are installed in the second embodiment is replaced with the
[0070]
The fire detection device of the present invention may be fixedly installed in the monitoring range or may be installed movably.
[0071]
【The invention's effect】
As described above, according to the present invention, the fire source position is obtained based on the principle of triangulation from the monitoring images of two or more cameras having optical axes arranged substantially in parallel, and the predetermined monitoring range is obtained. By comparing, spot light irradiation, or laser ranging, etc., only fires within the monitoring range are judged as fire sources, so that flames reflected on walls and floors are mistakenly judged as fire sources. It can prevent reliably and can perform appropriately and reliably the response | compatibility process accompanying fire detection, such as fire extinguishing based on the detection of a fire source position.
[Brief description of the drawings]
FIG. 1 is a block diagram of a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of camera arrangement with respect to the monitoring range of FIG.
FIG. 3 is an explanatory diagram of flame image position detection by the image processing unit of FIG. 1;
FIG. 4 is an explanatory diagram of determination processing for flame reflection on a wall by the fire determination unit in FIG.
5 is an explanatory diagram of a determination process for floor flame reflection by the fire determination unit of FIG.
FIG. 6 is a flowchart of the fire detection process of FIG.
7 is a flowchart of the fire detection process of FIG. 1 following FIG.
8 is an explanatory diagram of an original image, a binarized image, and a labeling image by the image processing unit of FIG.
FIG. 9 is a block diagram of a second embodiment of the present invention using spot light irradiation.
FIG. 10 is an explanatory diagram of a process for distinguishing between flames reflected by spot light and flame reflections
11 is an explanatory diagram of a monitoring image when spot light is irradiated on the flame in FIG. 10;
12 is an explanatory diagram of a monitoring image when spot light is irradiated on the reflection of the flame in FIG. 11;
FIG. 13 is a block diagram of a third embodiment of the present invention using laser ranging.
FIG. 14 is an explanatory diagram when the laser and the flame reflection of the flame and the reflection of the flame are measured in FIG.
FIG. 15 is a block diagram of a fourth embodiment of the present invention.
[Explanation of symbols]
1: Left camera
1a to 1d: Camera
2: Right camera
3: Flame
4a: Wall
4b: Floor
5a: Wall reflection flame
5b: Floor reflection flame
6: Left image memory
7: Right image memory
8: Image processing unit
9, 19, 34: Fire judgment part
10L, 10R: Monitoring range
11L: Left image
11R: Right image
12a, 27L, 27R: Flame images
12b, 28L, 28R: Wall reflection flame image
12c: Floor reflection flame image
13a, 13b: binarized image
14a-14b: Labeling images
15: Spot light projection unit
16: Projection control unit
17: Left image processing unit
18: Right image processing unit
20, 22: Light beam
21, 23: Spot light
24, 25: Camera optical axis
30L, 30R, 31L, 31R: Spot light image
32: Laser ranging unit
33: Ranging control unit
35, 36: Laser beam
37, 38: Ranging position
Claims (2)
前記監視範囲の火源位置に向けてスポット光を照射するスポット光投影部と、
前記2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、
前記画像処理部で検出した火源位置に前記スポット光投影部からスポット光を照射した状態で、前記2台以上のカメラで撮影した監視画像の炎画像とスポット光画像の位置が一致している場合に火災による火源と判定し、位置がずれている場合に反射による火源と判定して処理対象から除外することを特徴とする火災判定部と、
を備えたことを特徴する火災検出装置。Two or more cameras that are arranged at two or more different points and take a monitoring image of a fire source in the monitoring range;
A spot light projection unit that emits spot light toward the fire source position of the monitoring range;
An image processing unit for detecting a fire source position based on the principle of triangulation from two or more fire source images included in each of the monitoring images taken by the two or more cameras;
The positions of the flame image and the spot light image of the monitoring image taken by the two or more cameras coincide with the spot position projected from the spot light projection unit on the fire source position detected by the image processing unit. A fire determination unit characterized in that it is determined as a fire source due to fire, and if it is out of position, it is determined as a fire source due to reflection and excluded from the processing target;
A fire detection device characterized by comprising:
前記2台以上のカメラ側に配置され、範囲範囲に存在する物体までの距離を測定する測距部と、
前記2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、
前記画像処理部で検出した火源位置に前記測距装置を指向させて距離を測定し、該測定距離が前記画像処理部の測定距離と一致する場合は火災による火源と判定し、一致しない場合は反射による火源として処理対象から除外する火災判定部と、を備えたことを特徴する火災検出装置。Two or more cameras that are arranged at two or more different points and take a monitoring image of a fire source in the monitoring range;
A distance measuring unit that is disposed on the side of the two or more cameras and measures a distance to an object existing in a range;
An image processing unit for detecting a fire source position based on the principle of triangulation from two or more fire source images included in each of the monitoring images taken by the two or more cameras;
A distance is measured by directing the distance measuring device to the fire source position detected by the image processing unit, and when the measurement distance matches the measurement distance of the image processing unit, it is determined as a fire source due to a fire and does not match A fire detection device comprising: a fire determination unit that is excluded from a processing target as a fire source due to reflection.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24536898A JP3827128B2 (en) | 1998-08-31 | 1998-08-31 | Fire detection equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24536898A JP3827128B2 (en) | 1998-08-31 | 1998-08-31 | Fire detection equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000076568A JP2000076568A (en) | 2000-03-14 |
JP3827128B2 true JP3827128B2 (en) | 2006-09-27 |
Family
ID=17132634
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24536898A Expired - Fee Related JP3827128B2 (en) | 1998-08-31 | 1998-08-31 | Fire detection equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3827128B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2360355B (en) * | 2000-03-15 | 2004-09-22 | Graviner Ltd Kidde | Image detection |
KR100716306B1 (en) | 2006-11-14 | 2007-05-08 | 주식회사 지.피 코리아 | System to monitoring forest fire |
JP6980188B2 (en) * | 2017-08-04 | 2021-12-15 | モリタ宮田工業株式会社 | Fire identification device |
JP7292701B2 (en) * | 2018-12-13 | 2023-06-19 | 深田工業株式会社 | anomaly detector |
JP7438738B2 (en) * | 2019-12-11 | 2024-02-27 | 東芝インフラシステムズ株式会社 | information processing equipment |
CN111060016B (en) * | 2019-12-30 | 2021-08-13 | 西安赛隆金属材料有限责任公司 | Device for detecting flame length of plasma arc and control method |
-
1998
- 1998-08-31 JP JP24536898A patent/JP3827128B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2000076568A (en) | 2000-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6706664B2 (en) | Method and system for monitoring powder bed additive manufacturing of parts | |
US7589825B2 (en) | Ranging apparatus | |
WO2015098929A1 (en) | Surface defect detection method and surface defect detection device | |
JP6279060B1 (en) | Laser sensor and measuring method | |
US10837770B2 (en) | Surface measurement by means of excited fluorescence | |
JP2002208073A (en) | Intrusion monitor | |
JP2008241643A (en) | Three-dimensional shape measuring device | |
JP3827128B2 (en) | Fire detection equipment | |
JP2006010392A (en) | Through hole measuring system, method, and through hole measuring program | |
JP2005148010A (en) | Method and device for detecting shape and darkness of analyte | |
US20070210240A1 (en) | Multiple axis multipoint non-contact measurement system | |
JP3818028B2 (en) | 3D image capturing apparatus and 3D image capturing method | |
JP2004110804A (en) | Three-dimensional image photographing equipment and method | |
JP4864734B2 (en) | Optical displacement sensor and displacement measuring apparatus using the same | |
JP2002324260A (en) | Method and device for identifying coin | |
JP2010014505A (en) | Three-dimensional shape measuring apparatus and three-dimensional shape measurement method | |
KR102174227B1 (en) | Scan device | |
JPH10154284A (en) | Smoke sensing system | |
US20220334066A1 (en) | Apparatus and method for inspecting cans | |
JP2007093412A (en) | Three-dimensional shape measuring device | |
US6373561B2 (en) | Device and method for detecting depth and color information of an object to be surveyed | |
JP2007192755A (en) | Range finder | |
JP3852285B2 (en) | 3D shape measuring apparatus and 3D shape measuring method | |
JP3372014B2 (en) | Missing parts inspection equipment for engine external parts | |
US11320258B2 (en) | Apparatus and method for edge detection when machining workpieces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060207 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060629 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090714 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100714 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100714 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110714 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120714 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130714 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |