[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3827128B2 - Fire detection equipment - Google Patents

Fire detection equipment Download PDF

Info

Publication number
JP3827128B2
JP3827128B2 JP24536898A JP24536898A JP3827128B2 JP 3827128 B2 JP3827128 B2 JP 3827128B2 JP 24536898 A JP24536898 A JP 24536898A JP 24536898 A JP24536898 A JP 24536898A JP 3827128 B2 JP3827128 B2 JP 3827128B2
Authority
JP
Japan
Prior art keywords
fire
flame
image
fire source
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24536898A
Other languages
Japanese (ja)
Other versions
JP2000076568A (en
Inventor
雅彦 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hochiki Corp
Original Assignee
Hochiki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hochiki Corp filed Critical Hochiki Corp
Priority to JP24536898A priority Critical patent/JP3827128B2/en
Publication of JP2000076568A publication Critical patent/JP2000076568A/en
Application granted granted Critical
Publication of JP3827128B2 publication Critical patent/JP3827128B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Fire-Detection Mechanisms (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カメラの監視画像から炎画像を抽出して火災による火源を検出する火災検出装置に関する。
【0002】
【従来の技術】
従来、CCDカメラや二次元アレイ等の二次元撮像装置をもつ火災検出装置が知られている。
【0003】
このような火災検出装置にあっては、例えばCCDカメラ撮影した監視画像をメモリに記憶し、記憶した監視画像の中の所定輝度を画素領域を炎領域と判断して抽出し、抽出した炎領域を火災による火源と判断している。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来の火災検出装置においては、火源の間近にある壁や床等の面に炎の反射光が反射した場合、火源か反射なのかという区別が難しいという問題がある。
【0005】
炎とその他の光源を区別するためには、炎の特徴と言われるCO2 の共鳴放射で発生する4.3μm付近の波長だけを通すバンドパスフィルタを使う方法がある。光の反射の場合、物体から反射される光は、放射光が直接反射した鏡面反射成分と、物体表面で一旦吸収された後、放射される拡散反射成分に分けられる。拡散反射成分は物体の材質を表わすスペクトル分布を示すため、バンドパスフィルタで区別することができる。
【0006】
しかし、鏡面反射成分は光源光と同じスペクトル分布を持つため、反射面の角度が浅くなればなるほど鏡面反射成分が多くなり、炎と炎の反射はバンドパスフィルタでは区別が付かなくなる。
【0007】
また鏡面反射成分の一部が偏光になるという性質を使用して直線偏光フィルタをレンズ前面に付け、反射光の偏光と偏光フィルタの角度が合えば、鏡面反射成分の偏光部分を除去することができる。しかし、床面と壁面の反射では偏光方向が異なり、同時に除去することができなかった。
【0008】
本発明は、このような問題点に鑑みてなされたもので、監視画像に含まれる炎と炎の反射を区別して火源を確実に検出する火災検出装置を提供することを目的とする。
【0009】
【課題を解決するための手段】
この目的を達成するため本発明は次のように構成する。
【0012】
本発明の火災検知装置は、異なる2以上の地点に配置され、監視範囲にある火源の監視画像を撮影する2台以上のカメラと、監視範囲の火源位置に向けてスポット光を照射するスポット光投影部と、2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、画像処理部で検出した火源位置にスポット光投影部からスポット光を照射した状態で、2台以上のカメラで撮影した監視画像の炎画像とスポット光画像の位置が一致している場合に火災による火源と判定し、位置がずれている場合に反射による火源と判定して処理対象から除外することを特徴とする火災判定部とで構成する。
【0013】
このような本発明の火災検知装置にあっては、監視範囲内のものだけを火源と判断することで、床や壁等で反射した炎を火源と誤って判断することを確実に防止する。
【0014】
更に本発明の別の形態にあっては、異なる2以上の地点に配置され、監視範囲にある火源の監視画像を撮影する2台以上のカメラと、2台以上のカメラ側に配置され、監視範囲に存在する物体までの距離を測定する測距部と、2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、画像処理部で検出した火源位置に測距装置を指向させて距離を測定し、画像処理部の測定距離と測距装置の測定距離とが一致した場合は火災による火源と判定し、一致しない場合は反射による火源として処理対象から除外する火災判定部とで構成する。
【0015】
この場合にも、距離の測距に基づき火源と判断することで、床や壁等で反射した炎を火源と誤って判断することを確実に防止する。
【0016】
【発明の実施の形態】
図1は本発明の火災検出装置の第1実施形態であり、三角測量の原理に基づいて監視画像に含まれる炎画像の位置を検出し、火災による炎か反射による炎かを判断するようにしたことを特徴とする。
【0017】
図1において、第1実施形態の火災検出装置は、左側カメラ1、右側カメラ2、左画像メモリ6、右画像メモリ7、画像処理部8及び火災判定部9で構成される。左側カメラ1及び右側カメラ2はそれぞれ監視範囲10L,10Rを持ち、監視空間の検出対象物である炎3を監視している。
【0018】
この左側カメラ1と右側カメラ2は図2のように、監視区画に対しカメラ光軸1a,2aが平行又は交差するように配置されており、このカメラ光軸1a,2aの相対関係を保ったまま、左側カメラ1及び右側カメラ2を監視空間に向けてそれぞれの監視範囲10L,10Rの画像を撮影する。
【0019】
図2の監視空間は壁4aと床4bで区画されており、この監視空間で火災が発生して炎3が存在している。また火災による炎3に相対する壁4aには壁面反射炎5aが映っている。また床4bにも炎4による床面反射炎5bが映っている。このため、左側カメラ1及び右側カメラ2で監視空間を撮影した場合には、それぞれの監視画像に炎3、壁面反射炎5a及び床面反射炎5bの3つの炎画像が含まれることになる。
【0020】
図1の左側カメラ1及び右側カメラ2で同時に撮影された監視範囲10L,10Rの監視画像は、左画像メモリ6及び右画像メモリ7のそれぞれに書き込まれた後、画像処理部8により読み出され、各監視画像に含まれる一対の火源画像から三角測量の原理に基づいて火源位置を検出する。
【0021】
画像処理部8で検出される火源位置は、図2の場合には、炎3、壁面反射炎5a及び床面反射炎5bの3つの火源位置が検出される。画像処理部8で検出された1または複数の火源画像の位置は、火災判定部9に与えられる。火災判定部9には、図2の監視空間における壁4aや床4b等の境界位置の座標情報が予め設定されており、画像処理部8で検出した火源位置が予め設定した壁4aや床4bの設定境界位置の内側にある場合は、火災による火源と判定する。これに対し検出した火源位置が設定した境界の範囲を超えている場合には、反射による火源として処理対象から除外する。
【0022】
図3は、図1の画像処理部8による三角測量の原理を用いた火源位置の検出処理の説明図である。図3において、図1の左側カメラ1の撮像面に対応するカメラ位置をF1、右側カメラ2の撮像面に対応するカメラ位置をF2とすると、このカメラ位置F1,F2の間隔は例えば距離dと予め定まっている。
【0023】
このカメラ位置F1,F2から配置されたカメラ光軸1a,2aによって撮影した左画像11Lと右画像11Rの中に、火災による炎の火源位置Pの火源画像P1,P2が図示の位置に映っていたとする。この場合、実際の監視空間における火源位置Pは、カメラ位置F1と左画像11L上の火源位置P1を結んだ直線の延長線と、カメラ位置F2と右画像11R上の火源位置P2を結んだ直線の延長線上の交点として与えられる。このため、三角測量の原理により火源位置Pの三次元座標(X,Y,Z)を求めることができる。
【0024】
ここで説明を簡単にするため、カメラ光軸1a,2aが完全に平行であり、カメラ位置F1,F2の上下方向の座標位置zが同じであったとすると、左画像11Lの火源位置P1の座標は(x1,y1)となり、また右画像11Rの火源位置P2の座標は(x2,y2)となる。またカメラ位置F1,F2の左画像11L,右画像11Rに対する焦点距離をfとする。この場合、監視空間の火源位置Pの三次元座標(X,Y,Z)の値は次式で与えられる。
【0025】
【数1】

Figure 0003827128
図4は、図1の火災判定部9による図2の炎3と壁面反射炎5aを区別するための判別処理の説明図である。即ち、図4は図2を平面的に見ており、図3の三角測量の原理に基づく火源位置P(X,Y,Z)の検出結果から、左側カメラ1及び右側カメラ2の光軸方向での炎3及び壁面反射炎5aの距離はZとなっている。
【0026】
ここで監視空間の壁4aの位置が例えば左側カメラ1のカメラ光軸1aを基準としたX軸方向の距離として設定されていたとすると、カメラ光軸1aから壁面4aまでの設定境界距離はXthとなっている。そこで、炎3の三角測量に基づく火源位置座標に基づき、カメラ光軸1aからのX軸方向の距離X0を求め、また壁面反射炎5aについて三角測量の原理に基づいて検出している火源位置から同じくカメラ光軸1aに対するX軸方向の距離Xrを求める。
【0027】
このようにして求めた炎3の距離X0及び壁面反射炎5aの距離Xrを、予め設定した壁4aの設定境界距離Xthと比較する。炎3の距離X0は壁4aの設定境界距離Xthより小さいことから、炎3は監視空間にあることが分かる。これに対し壁面反射炎5aの距離Xrは壁4aの設定境界距離Xthを超えており、監視範囲の外に存在していることが分かる。
【0028】
このように監視範囲の外に炎が存在することがないため、距離Xrとなった炎5aは反射による炎として処理対象から除外し、炎3に対してのみ火災による炎と判断して処理を行う。
【0029】
図5は、図2の監視空間における炎3と床面反射炎5bを区別するための図1の火災判定部9による判定処理の説明図である。図5においても、図3の三角測量の原理に基づいて、火源3に加え床4bの床面反射炎5bについて火源位置が検出されている。
【0030】
図1の火災判定部9にあっては、例えば側面から見た左側カメラ1及び右側カメラ2の光軸1a,2aを基準に、床4bまでの距離を設定境界距離Ythとして予め登録している。この状態で炎3及び床面反射炎5bの火源位置が検出できたならば、カメラ光軸1a,2aを基準に炎3までの距離Y0と床面反射炎5bまでの距離Yrを検出し、それぞれ予め設定した床4bまでの設定境界距離Ythと比較する。
【0031】
この場合、炎3までの距離Y0は設定境界距離Ythより小さいことから、炎3は監視範囲にある火災による炎であると判定できる。これに対し炎5bの距離Yrは設定境界距離Ythを超えており、床4bの下に存在することになる。このような設定境界距離Ythを超える位置の炎5bは、火災による炎ではなく床4bによる床面反射炎5bであることから、これを処理対象から除外する。
【0032】
次に図6,図7のフローチャートを参照して図1の第1実施形態の火災検出処理を説明する。ここで図6のステップS1から図7のステップS10までが図1の画像処理部8による火源位置の検出処理であり、図7のステップS11〜S14が図1の火災判定部9による火災判定処理である。
【0033】
まず図6のステップS1で、例えば右側カメラ2で撮影されて右画像メモリ7に記憶された右画像を画像処理部8に取り込み、ステップS2で火源の可能性のある画素を1(白画素)とし、火源の可能性のない画素を0(黒画素)とする。続いてステップS3で火源の可能性ありとして1にセットされた画素の領域を画素のオブジェクトとし、オブジェクトごとに固有の番号をつけるラベリングを行う。
【0034】
図8は図6のステップS1〜S3の処理画像である。まず図8(A)が例えば右画像の読取りで得られた元画像であり、炎画像12a、壁面反射炎画像12b及び床面反射炎画像12cの3つが映っている。この図8(A)の元画像に対し、各画素単位に火災による火源の可能性ありで1(白画素)をセットし、火源の可能性なしのときには0(黒画素)をセットして、図8(B)の二値化画像とする。
【0035】
この二値化画像を生成する際の火源の可能性の判定は、例えばカメラとして赤外線カメラを使用している場合には、予め定めておいた温度以上の画素について火災の可能性ありとすればよい。また通常のカメラの場合には、炎の放射光により輝度が高いことから、所定輝度以上の画素を火災の可能性ありと判定すればよい。
【0036】
この場合、炎特有の特徴であるゆらぎ、移動の有無、重心移動等を捉えて火災の可能性ありの判定を行うことで判定精度を高めることができる。更にカラーカメラの場合には、輝度に加えて火災時の炎の色を判定すればよい。即ち、火災時の炎の色は通常赤色(拡散炎)であることから、例えばカラー画像がRGBデータであった場合には、赤となるRGB成分の画素を火災の可能性ありと判定して1(白画素)をセットすればよい。
【0037】
図8(B)のような二値化により、1で埋められた二値化画像13a,13bが火源画像と認識できる。続いて図8(C)のように、図8(B)の二値化画像13a,13bについて火源の可能性ありとして1(白画素)にセットされた二値化画像13a,13bについて、オブジェクト1,2,3としてラベリングしたラベリング画像14a,14b,14cを生成する。
【0038】
このような取込画像に対する二値化とラベリングは、図6のステップS4〜S6において、左画像についても同様にして行う。続いてラベリングが済んだ右画面及び左画面について1つのオブジェクトに着目し、ステップS8で右画像について着目したオブジェクトの右重心の計測を行い、またステップS9で左画像について注目したオブジェクトの左重心の計測を行う。
【0039】
このステップS8,S9によって、注目したオブジェクトの火源位置が特定される。即ち、図3の左画像11L,右画像11Rにおける画像上の火源位置P1,P2の座標位置が求められる。続いてステップS3で、図3に示す三角測量の原理に基づき、監視範囲の火源位置Pの三次元位置を算出する。
【0040】
次にステップS11に進み、例えば図4,図5に示したように、予め設定した壁4aや床4bに対する設定境界距離Xth,Ythとの比較で監視範囲内か否か判別する。監視範囲内であればステップS12に進み、現在処理対象としているオブジェクトは火災による火源と判定する。
【0041】
ステップS11で監視範囲になければ、ステップS13に進み、全てのオブジェクトの判定が終了したか否かチェックし、終了していなければステップS7に戻り、次のオブジェクトについて重心計測を行って三次元位置を求め、ステップS11で監視範囲か否か判定する。
【0042】
このため、処理対象となるオブジェクトが監視範囲内にあれば直ちに火災判定が行われる。また火源の可能性のあるオブジェクトが実際には火災によるものでなかった場合には、ステップS13でオブジェクトが監視範囲内になく且つ全てのオブジェクトの判定が終了した段階で、ステップS4で非火災の判定が行われる。
【0043】
図9は本発明による火災検出装置の第2実施形態のブロック図である。この第2実施形態にあっては、監視画像から判定した火源位置にスポット光を照射し、スポット光を照射した画像の状態から、火災による炎か炎の反射画像かを判定するようにしたことを特徴とする。
【0044】
図9において、左側カメラ1、右側カメラ2、左画像メモリ6、右画像メモリ7は図1の実施形態と同じであるが、第2実施形態にあっては更に、スポット光投影部15、投影制御部16、左画像処理部17、右画像処理部18及び定部19を設けている。左画像処理部17と右画像処理部18は、図1の画像処理部8と同様、三角測量の原理に基づいて火源位置を検出する。即ち、図6及び図7のステップS1〜SS10と同じ処理により、火源位置が検出される。
【0045】
スポット光投影部15は、図10の平面図のように、例えばカメラ光軸が平行配置された左側カメラ1と右側カメラ2のうちの左側カメラ1の上部に旋回自在に配置されている。このスポット光投影部15は例えばレーザ発射装置であり、その指向方向を制御することで例えば監視範囲の火源3の位置にスポット光20を照射できるようにしている。
【0046】
このスポット光投影部15を用いた図10の炎3と、例えば壁4aに映った壁面反射炎5aとの判別処理は次のようになる。まず図9の左画像処理部17は、左側カメラ1で撮影した監視範囲10Lの画像を左画像メモリ6から取り込み、左画面上での炎3及び壁面反射炎5aの位置を三角測量の原理に基づき検出する。
【0047】
左側カメラ1の撮影画像から炎3及び壁面反射炎5aの位置が検出できたならば、炎3に向けてスポット光投影部15の光軸を光軸15aに指向させて、炎3にスポット光20を照射する。この炎3に対するスポット光20の照射状態で左側カメラ1及び右側カメラ2により撮影した画像を取り込むと、図11(A)(B)のようになる。
【0048】
図11(A)の左画像26Lには炎画像27Lと壁面反射炎画像28Lが映っており、炎画像27Lにはスポット光投影部15で照射したスポット光30Lの輝点が映っている。図11(B)の右画像26Rにも炎画像27Rと壁面反射炎画像28Rが映っており、炎画像27Rにはスポット光投影部15から照射したスポット光30Rの輝点が映っている。
【0049】
次に図10でスポット光投影部15の光軸を光軸15bのように壁面反射炎5aに指向制御してビームスポットを照射する。しかしながら、光軸15bによるスポット光の照射は、壁4aに当たってスポット光23となる。この光軸15bによるスポット光の照射状態で左側カメラ1及び右側カメラ2で撮影した画像を取り込むと、図12(A)(B)のようになる。
【0050】
まず図12(A)の左画像26Lにあっては、スポット光投影部15からの光軸15bの一直線上に壁面反射炎5aと壁4aに当たったスポット光23が位置することから、壁面反射炎画像28Lの部分にスポット光31Lの輝点が映っている。
【0051】
これに対し図12(B)の右画像26Rにあっては、図10のように、右側カメラ2から壁面反射炎5aを見た光軸25と壁4aに当たっているスポット光23を見た光軸24にずれがある。このため図12(B)の右画像では、壁面反射炎画像28Rの左側のずれた位置にスポット光31Rの輝点が映っている。
【0052】
したがって、図11(A)(B)のように、左右画面26L,26Rの同じ炎画像27L,27Rにスポット光30L,30Rが一致している場合は、監視範囲に実際に存在する炎と判別する。
【0053】
これに対し図12(A)(B)のように、左右画面26Lの炎画像28Lにスポット光30Lが一致し、右画面26Rの同じ炎画像28Rからスポット光31Rがずれている場合には、ずれを起こした炎画像28Rは火災による炎ではなく、壁面反射による炎であることが判別でき、処理対象から除外することができる。
【0054】
ここで図10は、図2の監視空間において平面的に見た炎3と壁面反射炎5aについてのスポット光の照射による判別を例にとっているが、炎3と床面反射炎5bについても同様に、各炎位置を検出して順次スポット光を照射してその画像を見ることで、炎画像からずれた位置にスポット光が映っている場合にその炎画像を反射によるものと判別して処理対象から除外すればよい。
【0055】
図13は本発明による火災検出装置の第3実施形態であり、図9の第2実施形態におけるスポット光の投影の代わりにレーザ測距を行うようにしたことを特徴とする。
【0056】
図13において、左側カメラ1、右側カメラ2、左画像メモリ6、右画像メモリ7は左画像処理部17及び右画像処理部18は図9の第2実施形態と同じであるが、スポット光投影機能に代えてレーザ測距部32、測距制御部33、更にレーザ測距に対応した火災判定部34を設けている。
【0057】
左画像処理部17と右画像処理部18は、図1の画像処理部8と同様、三角測量の原理に基づいて火源位置を検出する。即ち、図6及び図7のステップS1〜SS10と同じ処理により、火源位置が検出される。 レーザ測距部32はレーザ光を対象物に照射し、その伝播時間により距離を直接検出する。このレーザ測距部32は、例えば図14の監視空間に対する平面図のように、カメラ光軸が平行配置された左側カメラ1,右側カメラ2の設置側に三次元的に旋回自在に配置されている。
【0058】
このレーザ測距部32を使用した炎とその反射炎を区別する判別処理を説明すると次のようになる。まず左画像処理部17及び右画像処理部18は、左側カメラ1及び右側カメラ2で撮影して左画像メモリ6及び右画像メモリ7に記憶した左画像及び右画像を取り込み、図8のような二値化及びラベリングを行った後に重心位置を求め、図2の三角測量の原理に基づきそれぞれの火源位置を検出している。
【0059】
このようにして、各画像について火源位置が得られたならば、この火源位置情報は測距制御部33に与えられ、火源位置ごとにレーザ測距部32を指向制御し、火源までの距離を測定する。即ち図14にあっては、まずレーザ測距部32を光軸35のように炎3に指向させ、炎3までの距離L1を測定する。続いて壁面反射炎5aに光軸36を指向させて距離を測距する。この場合、レーザ測距部32の光軸36は壁4aに点38で当たり、測定距離L2は壁面反射炎5aまでの距離L2より短くなる。
【0060】
レーザ測距部32による炎3及び壁面反射炎5aの測定距離L1,L2は火災判定部34に与えられ、左画像処理部17及び右画像処理部18で三角測量の原理で求めた火源位置から算出されるレーザ測距部32との算出距離と比較される。この場合、レーザ測距距離と三角測量による検出位置で求めた距離は、炎3については一致するが壁面反射炎5aについては不一致となり、不一致となった火源を火災によらず反射によるものとして処理対象から除外する。
【0061】
このレーザ測距は図2の監視空間における平面的に見た炎3と壁面反射炎5aの判別を例にとっているが、炎3と床面反射炎5bについても同様に処理することで、床面反射炎5bを処理対象から除外することができる。
【0062】
図15は本発明の第4の実施形態である。この第4実施形態は、3台以上のカメラ1a,1b,1c,1d,・・・を採用したことを特徴とする。例えば図1〜図8の第1実施形態について、3台のカメラ1a,1b,1cを設置した場合には、カメラ1aとカメラ1bで取り込んだ画像を画像処理部8で処理し、その結果にカメラ1cの画像を画像処理部8に取り込んで火災判定部9で火災位置を判定する。この場合の判定は、図1〜図8の第1実施形態で述べたような方法で可能である。
【0063】
この場合、カメラ1a,1b,1cを3次元に配置すれば立体像が得られる。また、炎3を囲むように配置することにより隈無く画像を見ることが出来る。
【0064】
次にカメラが4台、5台と増しても上記3台の場合と同じ方法を採用して火災位置を判定することが可能である。
【0065】
また、カメラを偶数台配置した場合、例えばカメラ1a〜1dの4台を例にとれば、カメラ1aとカメラ1bで画像処理し、カメラ1cとカメラ1dとで画像処理し、各々の画像処理した結果で更に画像処理することで火災判定してもよい。
【0066】
次に図9〜図12の第2実施形態で図15のようにカメラを3台以上設置した場合は、スポット光投影部15を付けたカメラを基準に画像処理することになる。例えばカメラ1a〜1cの3台を設置して、スポット光投影部15をカメラ1bに付けた場合は、まずカメラ1aとカメラ1bで画像処理を実施し、次にカメラ1bとカメラ1cとで画像処理をして火災判定を実施すれば良い。
【0067】
更にカメラ1a〜1dの4台が設置されている場合は、同じくスポット光投影部15をカメラ1bに取り付けておいて、カメラ1a〜1cの3台の画像処理結果に加えて、カメラ1bとカメラ1dの画像処理をした結果により火災判定を実施する。以下カメラが5台以上でも同じように処理する。
【0068】
他の方法として、カメラの設置台数が偶数の場合は、一対のカメラごとにスポット光投影部15を取り付け、図9〜図12の第2実施形態のように一対のカメラごとに画像処理を実施し、その各々の結果を総合して火災判定を実施しても良い。
【0069】
図13,図14の第3実施形態について図15のようにカメラを3台以上設置した場合も、上記の第2実施形態でカメラを3台以上設置した場合について、スポット光投影部15に代えてレーザ測距部32を採用することで、同様な方法で火災位置を判定することができる。
【0070】
尚、本発明の火災検出装置は、監視範囲に固定設置してもよいし、移動可能に設置してもよい。
【0071】
【発明の効果】
以上説明してきたように本発明によれば、光軸が実質的に平行配置された2台以上のカメラの監視画像から三角測量の原理に基づき火源位置を求め、予め定めた監視範囲との比較、スポット光の照射、あるいはレーザ測距等により、監視範囲内のものだけを火源と判断するようにしたことで、壁や床等で反射した炎を火源と誤って判断することを確実に防止でき、火源位置の検出に基づく消火等の火災検出に伴う対応処理を適切且つ確実に行うことができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態のブロック図
【図2】図1の監視範囲に対するカメラ配置の説明図
【図3】図1の画像処理部による炎画像の位置検出の説明図
【図4】図1の火災判定部による壁の炎反射に対する判定処理の説明図
【図5】図1の火災判定部による床の炎反射に対する判定処理の説明図
【図6】図1の火災検出処理のフローチャート
【図7】図6に続く図1の火災検出処理のフローチャート
【図8】図1の画像処理部による元画像、二値化画像及びラベリング画像の説明図
【図9】スポット光照射を用いた本発明の第2実施形態のブロック図
【図10】スポット光の照射による炎と炎の反射を区別する処理の説明図
【図11】図10で炎にスポット光を照射した時の監視画像の説明図
【図12】図11で炎の反射にスポット光を照射した時の監視画像の説明図
【図13】レーザ測距を用いた本発明の第3実施形態のブロック図
【図14】図13で炎及び炎の反射をレーザ測距した時の説明図
【図15】本発明の第4実施形態のブロック図
【符号の説明】
1:左側カメラ
1a〜1d:カメラ
2:右側カメラ
3:炎
4a:壁
4b:床
5a:壁面反射炎
5b:床反射炎
6:左画像メモリ
7:右画像メモリ
8:画像処理部
9,19,34:火災判定部
10L,10R:監視範囲
11L:左画像
11R:右画像
12a,27L,27R:炎画像
12b,28L,28R:壁面反射炎画像
12c:床面反射炎画像
13a,13b:二値化画像
14a〜14b:ラベリング画像
15:スポット光投影部
16:投影制御部
17:左画像処理部
18:右画像処理部
20,22:光ビーム
21,23:スポット光
24,25:カメラ光軸
30L,30R,31L,31R:スポット光画像
32:レーザ測距部
33:測距制御部
35,36:レーザビーム
37,38:測距位置[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a fire detection apparatus that extracts a flame image from a monitoring image of a camera and detects a fire source due to a fire.
[0002]
[Prior art]
Conventionally, a fire detection device having a two-dimensional imaging device such as a CCD camera or a two-dimensional array is known.
[0003]
In such a fire detection device, for example, a monitoring image taken by a CCD camera is stored in a memory, a predetermined luminance in the stored monitoring image is extracted by determining a pixel area as a flame area, and the extracted flame area Is considered a fire source.
[0004]
[Problems to be solved by the invention]
However, in such a conventional fire detection device, there is a problem that when the reflected light of the flame is reflected on a surface such as a wall or a floor close to the fire source, it is difficult to distinguish whether it is a fire source or a reflection.
[0005]
In order to distinguish the flame from other light sources, there is a method of using a band-pass filter that passes only a wavelength around 4.3 μm generated by the resonance radiation of CO 2, which is said to be a feature of the flame. In the case of reflection of light, the light reflected from the object is divided into a specular reflection component in which the radiated light is directly reflected and a diffuse reflection component to be radiated after being once absorbed on the object surface. Since the diffuse reflection component shows a spectral distribution representing the material of the object, it can be distinguished by a band pass filter.
[0006]
However, since the specular reflection component has the same spectral distribution as the light source light, the specular reflection component increases as the angle of the reflection surface becomes shallower, and the reflection of flame and flame cannot be distinguished by the bandpass filter.
[0007]
In addition, using the property that a part of the specular reflection component becomes polarized light, a linear polarizing filter is attached to the front surface of the lens, and if the polarization of the reflected light and the angle of the polarizing filter match, the polarized portion of the specular reflection component can be removed. it can. However, the direction of polarization differs between the reflection of the floor surface and the wall surface, and cannot be removed at the same time.
[0008]
The present invention has been made in view of such problems, and an object of the present invention is to provide a fire detection apparatus that reliably detects a fire source by distinguishing between a flame and a reflection of the flame included in a monitoring image.
[0009]
[Means for Solving the Problems]
In order to achieve this object, the present invention is configured as follows.
[0012]
Of the present invention Fire detection device Is arranged at two or more different points, two or more cameras for capturing a monitoring image of the fire source in the monitoring range, a spot light projection unit that irradiates the spot light toward the fire source position of the monitoring range, An image processing unit that detects a fire source position based on the principle of triangulation from two or more fire source images included in each of monitoring images taken by two or more cameras, and a fire source position detected by the image processing unit. When the spotlight projection unit irradiates the spotlight and the position of the spotlight image and the flame image of the monitoring image taken with two or more cameras match, it is determined as a fire source due to fire, and the position is shifted. And a fire determination unit characterized in that it is determined as a fire source due to reflection and excluded from the processing target.
[0013]
In such a fire detection device of the present invention, By judging only those within the monitoring range as the fire source, it is possible to reliably prevent the flame reflected from the floor or wall from being mistakenly judged as the fire source.
[0014]
Furthermore, in another form of the present invention, two or more cameras that are arranged at two or more different points and take a monitoring image of a fire source in the monitoring range, and two or more cameras are arranged, Based on the principle of triangulation based on the principle of triangulation from a distance measuring unit that measures the distance to an object existing in the monitoring range and two or more fire source images included in each of the monitoring images taken by two or more cameras Measure the distance by pointing the distance measuring device to the image processing unit to be detected and the fire source position detected by the image processing unit, and if the measured distance of the image processing unit and the measured distance of the distance measuring device match, If it is determined as a fire source and does not match, the fire is determined as a fire source by reflection and excluded from the processing target.
[0015]
Also in this case, by determining the fire source based on the distance measurement, it is possible to reliably prevent the flame reflected from the floor or wall from being erroneously determined as the fire source.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a first embodiment of a fire detection apparatus according to the present invention, which detects the position of a flame image included in a monitoring image based on the principle of triangulation, and determines whether it is a flame caused by a fire or a flame caused by reflection. It is characterized by that.
[0017]
In FIG. 1, the fire detection apparatus according to the first embodiment includes a left camera 1, a right camera 2, a left image memory 6, a right image memory 7, an image processing unit 8, and a fire determination unit 9. The left camera 1 and the right camera 2 have monitoring ranges 10L and 10R, respectively, and monitor the flame 3 that is a detection target in the monitoring space.
[0018]
As shown in FIG. 2, the left camera 1 and the right camera 2 are arranged so that the camera optical axes 1a and 2a are parallel or intersect with the surveillance section, and the relative relationship between the camera optical axes 1a and 2a is maintained. The left camera 1 and the right camera 2 are directed toward the monitoring space, and images of the monitoring ranges 10L and 10R are taken.
[0019]
The monitoring space in FIG. 2 is partitioned by a wall 4a and a floor 4b. A fire is generated in this monitoring space and a flame 3 is present. A wall reflection flame 5a is reflected on the wall 4a facing the flame 3 due to fire. A floor reflection flame 5b caused by the flame 4 is also reflected on the floor 4b. For this reason, when the monitoring space is imaged by the left camera 1 and the right camera 2, the three monitoring images include the flame 3, the wall reflection flame 5a, and the floor reflection flame 5b.
[0020]
The monitoring images of the monitoring ranges 10L and 10R simultaneously captured by the left camera 1 and the right camera 2 in FIG. 1 are written into the left image memory 6 and the right image memory 7, respectively, and then read out by the image processing unit 8. The fire source position is detected from a pair of fire source images included in each monitoring image based on the principle of triangulation.
[0021]
In the case of FIG. 2, the fire source positions detected by the image processing unit 8 are detected as the three fire source positions of the flame 3, the wall reflection flame 5a, and the floor reflection flame 5b. The positions of one or more fire source images detected by the image processing unit 8 are given to the fire determination unit 9. In the fire determination unit 9, coordinate information of the boundary position of the wall 4a, the floor 4b, etc. in the monitoring space of FIG. 2 is set in advance, and the fire source position detected by the image processing unit 8 is set in advance. If it is inside the set boundary position of 4b, it is determined as a fire source due to a fire. On the other hand, when the detected fire source position exceeds the set boundary range, it is excluded from the processing target as a fire source by reflection.
[0022]
FIG. 3 is an explanatory diagram of a fire source position detection process using the principle of triangulation by the image processing unit 8 of FIG. In FIG. 3, if the camera position corresponding to the imaging surface of the left camera 1 in FIG. 1 is F1, and the camera position corresponding to the imaging surface of the right camera 2 is F2, the distance between the camera positions F1 and F2 is, for example, a distance d. It is determined in advance.
[0023]
In the left image 11L and the right image 11R photographed by the camera optical axes 1a and 2a arranged from the camera positions F1 and F2, the fire source images P1 and P2 of the fire source position P of the flame due to fire are at the illustrated positions. Suppose it was reflected. In this case, the fire source position P in the actual monitoring space includes a straight line extending from the camera position F1 and the fire source position P1 on the left image 11L, and a fire source position P2 on the right image 11R. It is given as an intersection on the extended line of connected lines. For this reason, the three-dimensional coordinates (X, Y, Z) of the fire source position P can be obtained by the principle of triangulation.
[0024]
To simplify the description, if the camera optical axes 1a and 2a are completely parallel and the vertical coordinate positions z of the camera positions F1 and F2 are the same, the fire source position P1 of the left image 11L The coordinates are (x1, y1), and the coordinates of the fire source position P2 in the right image 11R are (x2, y2). The focal length of the camera positions F1 and F2 with respect to the left image 11L and the right image 11R is assumed to be f. In this case, the value of the three-dimensional coordinates (X, Y, Z) of the fire source position P in the monitoring space is given by the following equation.
[0025]
[Expression 1]
Figure 0003827128
FIG. 4 is an explanatory diagram of a determination process for distinguishing the flame 3 of FIG. 2 from the wall reflection flame 5a by the fire determination unit 9 of FIG. That is, FIG. 4 is a plan view of FIG. 2. From the detection result of the fire source position P (X, Y, Z) based on the principle of triangulation in FIG. The distance between the flame 3 and the wall reflection flame 5a in the direction is Z.
[0026]
If the position of the wall 4a in the monitoring space is set as a distance in the X-axis direction with respect to the camera optical axis 1a of the left camera 1, for example, the set boundary distance from the camera optical axis 1a to the wall surface 4a is Xth. It has become. Therefore, the distance X0 in the X-axis direction from the camera optical axis 1a is obtained based on the fire source position coordinates based on the triangulation of the flame 3, and the fire source in which the wall reflection flame 5a is detected based on the triangulation principle. Similarly, the distance Xr in the X-axis direction with respect to the camera optical axis 1a is obtained from the position.
[0027]
The distance X0 of the flame 3 and the distance Xr of the wall reflection flame 5a thus obtained are compared with a preset boundary distance Xth of the wall 4a. Since the distance X0 of the flame 3 is smaller than the set boundary distance Xth of the wall 4a, it can be seen that the flame 3 is in the monitoring space. On the other hand, it can be seen that the distance Xr of the wall reflection flame 5a exceeds the set boundary distance Xth of the wall 4a and exists outside the monitoring range.
[0028]
Since there is no flame outside the monitoring range in this way, the flame 5a having the distance Xr is excluded from the processing target as a flame due to reflection, and only the flame 3 is determined to be a flame due to a fire and processed. Do.
[0029]
FIG. 5 is an explanatory diagram of determination processing by the fire determination unit 9 of FIG. 1 for distinguishing between the flame 3 and the floor reflection flame 5b in the monitoring space of FIG. Also in FIG. 5, based on the principle of triangulation in FIG. 3, the fire source position is detected for the floor reflection flame 5b of the floor 4b in addition to the fire source 3.
[0030]
In the fire determination unit 9 in FIG. 1, for example, the distance to the floor 4b is registered in advance as the set boundary distance Yth with reference to the optical axes 1a and 2a of the left camera 1 and the right camera 2 viewed from the side. . If the fire source positions of the flame 3 and the floor reflection flame 5b can be detected in this state, the distance Y0 to the flame 3 and the distance Yr to the floor reflection flame 5b are detected based on the camera optical axes 1a and 2a. Then, each is compared with a preset boundary distance Yth to the floor 4b set in advance.
[0031]
In this case, since the distance Y0 to the flame 3 is smaller than the set boundary distance Yth, it can be determined that the flame 3 is a flame due to a fire in the monitoring range. On the other hand, the distance Yr of the flame 5b exceeds the set boundary distance Yth and exists under the floor 4b. Since the flame 5b at a position exceeding the set boundary distance Yth is not a flame due to a fire but a floor reflection flame 5b due to the floor 4b, it is excluded from the processing target.
[0032]
Next, the fire detection process of the first embodiment of FIG. 1 will be described with reference to the flowcharts of FIGS. Here, Step S1 in FIG. 6 to Step S10 in FIG. 7 are detection processing of the fire source position by the image processing unit 8 in FIG. 1, and Steps S11 to S14 in FIG. 7 are fire determinations by the fire determination unit 9 in FIG. It is processing.
[0033]
First, in step S1 of FIG. 6, for example, the right image captured by the right camera 2 and stored in the right image memory 7 is taken into the image processing unit 8, and in step S2, a pixel that may be a fire source is set to 1 (white pixel). ), And pixels having no possibility of fire source are set to 0 (black pixels). Subsequently, in step S3, a pixel region set to 1 as the possibility of a fire source is set as a pixel object, and labeling is performed by assigning a unique number to each object.
[0034]
FIG. 8 is a processed image of steps S1 to S3 in FIG. First, FIG. 8A is an original image obtained by reading the right image, for example, and shows three images of a flame image 12a, a wall reflection flame image 12b, and a floor reflection flame image 12c. In the original image of FIG. 8A, 1 (white pixel) is set for each pixel unit when there is a possibility of fire, and 0 (black pixel) is set when there is no possibility of fire. Thus, the binarized image of FIG.
[0035]
For example, when an infrared camera is used as the camera, the possibility of a fire source when generating the binarized image is determined to be a possibility of fire for pixels having a predetermined temperature or more. That's fine. In the case of a normal camera, the luminance is high due to the radiated light from the flame, so that a pixel having a predetermined luminance or higher may be determined as a possibility of fire.
[0036]
In this case, it is possible to improve the determination accuracy by determining the possibility of a fire by capturing fluctuations, presence / absence of movement, movement of the center of gravity, and the like, which are characteristics peculiar to flames. Furthermore, in the case of a color camera, the color of the flame at the time of fire may be determined in addition to the luminance. That is, since the color of the flame at the time of fire is usually red (diffusion flame), for example, when the color image is RGB data, the pixel of the RGB component that becomes red is determined to be a fire possibility. 1 (white pixel) may be set.
[0037]
By binarization as shown in FIG. 8B, the binarized images 13a and 13b filled with 1 can be recognized as fire source images. Subsequently, as shown in FIG. 8C, regarding the binarized images 13a and 13b set to 1 (white pixels) as the possibility of a fire source for the binarized images 13a and 13b in FIG. 8B, Labeled images 14a, 14b, and 14c labeled as objects 1, 2, and 3 are generated.
[0038]
Such binarization and labeling for the captured image are similarly performed for the left image in steps S4 to S6 in FIG. Subsequently, focusing on one object on the right screen and the left screen after labeling, the right center of gravity of the object focused on the right image is measured in step S8, and the left center of gravity of the object focused on the left image is measured in step S9. Measure.
[0039]
Through these steps S8 and S9, the fire source position of the object of interest is specified. That is, the coordinate positions of the fire source positions P1, P2 on the images in the left image 11L and the right image 11R in FIG. 3 are obtained. In step S3, the three-dimensional position of the fire source position P in the monitoring range is calculated based on the principle of triangulation shown in FIG.
[0040]
Next, the process proceeds to step S11, and as shown in FIGS. 4 and 5, for example, it is determined whether or not it is within the monitoring range by comparing with the set boundary distances Xth and Yth with respect to the preset wall 4a and floor 4b. If it is within the monitoring range, the process proceeds to step S12, and the object currently processed is determined to be a fire source due to fire.
[0041]
If it is not in the monitoring range in step S11, the process proceeds to step S13, where it is checked whether or not all objects have been determined. If not, the process returns to step S7, and the center of gravity is measured for the next object to obtain the three-dimensional position. In step S11, it is determined whether or not it is within the monitoring range.
[0042]
For this reason, if the object to be processed is within the monitoring range, the fire determination is performed immediately. If an object that may be a fire source is not actually due to a fire, the object is not in the monitoring range in step S13, and when all the objects have been determined, a non-fire is detected in step S4. Is determined.
[0043]
FIG. 9 is a block diagram of a second embodiment of the fire detection device according to the present invention. In this second embodiment, spot light is irradiated to the fire source position determined from the monitoring image, and it is determined from the state of the image irradiated with the spot light whether it is a fire flame or a flame reflection image. It is characterized by that.
[0044]
In FIG. 9, the left camera 1, the right camera 2, the left image memory 6, and the right image memory 7 are the same as those in the embodiment shown in FIG. 1, but in the second embodiment, the spot light projection unit 15, the projection A control unit 16, a left image processing unit 17, a right image processing unit 18, and a fixed unit 19 are provided. The left image processing unit 17 and the right image processing unit 18 detect the fire source position based on the principle of triangulation, like the image processing unit 8 of FIG. That is, the fire source position is detected by the same processing as steps S1 to SS10 in FIGS.
[0045]
As shown in the plan view of FIG. 10, the spot light projection unit 15 is rotatably disposed on the left camera 1 of the left camera 1 and the right camera 2 in which the camera optical axes are arranged in parallel, for example. The spot light projection unit 15 is, for example, a laser emitting device, and the spot light 20 can be irradiated to, for example, the position of the fire source 3 in the monitoring range by controlling the directing direction thereof.
[0046]
The discrimination process between the flame 3 of FIG. 10 using the spot light projection unit 15 and the wall reflection flame 5a reflected on the wall 4a, for example, is as follows. First, the left image processing unit 17 in FIG. 9 captures an image of the monitoring range 10L taken by the left camera 1 from the left image memory 6, and uses the positions of the flame 3 and the wall reflection flame 5a on the left screen as the principle of triangulation. Detect based on.
[0047]
If the positions of the flame 3 and the wall reflection flame 5a can be detected from the photographed image of the left camera 1, the optical axis of the spot light projection unit 15 is directed toward the optical axis 15a toward the flame 3, and the spot 3 is irradiated with the spot light. 20 is irradiated. When images taken by the left camera 1 and the right camera 2 in the state of irradiation of the spot light 20 with respect to the flame 3 are captured, it becomes as shown in FIGS.
[0048]
A flame image 27L and a wall reflection flame image 28L are shown in the left image 26L of FIG. 11A, and a bright spot of the spot light 30L irradiated by the spot light projection unit 15 is shown in the flame image 27L. A flame image 27R and a wall reflection flame image 28R are also shown in the right image 26R of FIG. 11B, and the bright spot of the spot light 30R emitted from the spot light projection unit 15 is shown in the flame image 27R.
[0049]
Next, in FIG. 10, the beam spot is irradiated by controlling the direction of the optical axis of the spot light projection unit 15 to the wall reflection flame 5a as in the optical axis 15b. However, the irradiation of the spot light by the optical axis 15b hits the wall 4a and becomes the spot light 23. When images taken by the left camera 1 and the right camera 2 are captured in the spot light irradiation state by the optical axis 15b, the images are as shown in FIGS.
[0050]
First, in the left image 26L of FIG. 12 (A), the wall surface reflection flame 5a and the spot light 23 that hits the wall 4a are positioned on a straight line of the optical axis 15b from the spot light projection unit 15. The bright spot of the spot light 31L is shown in the flame image 28L.
[0051]
On the other hand, in the right image 26R in FIG. 12B, as shown in FIG. 10, the optical axis 25 when the right camera 2 looks at the wall reflection flame 5a and the optical axis when the spot light 23 hitting the wall 4a is seen. There is a shift in 24. For this reason, in the right image of FIG. 12B, the bright spot of the spot light 31R is shown at a position shifted to the left of the wall reflection flame image 28R.
[0052]
Accordingly, as shown in FIGS. 11A and 11B, when the spot lights 30L and 30R coincide with the same flame images 27L and 27R on the left and right screens 26L and 26R, it is determined that the flame is actually present in the monitoring range. To do.
[0053]
On the other hand, as shown in FIGS. 12A and 12B, when the spot light 30L matches the flame image 28L on the left and right screens 26L, and the spot light 31R deviates from the same flame image 28R on the right screen 26R, It is possible to determine that the flame image 28R that has shifted is not a flame due to a fire but a flame due to wall reflection, and can be excluded from the processing target.
[0054]
Here, FIG. 10 shows an example of discrimination by irradiation of spot light for the flame 3 and the wall reflection flame 5a viewed in plan in the monitoring space of FIG. 2, but the same applies to the flame 3 and the floor reflection flame 5b. Detects each flame position, sequentially irradiates spot light and looks at the image, and if spot light is reflected at a position deviated from the flame image, the flame image is determined to be a reflection object. Can be excluded.
[0055]
FIG. 13 shows a third embodiment of the fire detection apparatus according to the present invention, which is characterized in that laser ranging is performed instead of spot light projection in the second embodiment of FIG.
[0056]
In FIG. 13, the left camera 1, the right camera 2, the left image memory 6, and the right image memory 7 are the same as the second embodiment of FIG. 9, but the left image processing unit 17 and the right image processing unit 18 are the same as those in the second embodiment of FIG. In place of the function, a laser distance measurement unit 32, a distance measurement control unit 33, and a fire determination unit 34 corresponding to laser distance measurement are provided.
[0057]
The left image processing unit 17 and the right image processing unit 18 detect the fire source position based on the principle of triangulation, like the image processing unit 8 of FIG. That is, the fire source position is detected by the same processing as steps S1 to SS10 in FIGS. The laser distance measuring unit 32 irradiates the object with laser light and directly detects the distance based on the propagation time. For example, as shown in the plan view of the monitoring space in FIG. 14, the laser distance measuring unit 32 is arranged in a three-dimensionally rotatable manner on the installation side of the left camera 1 and the right camera 2 in which the camera optical axes are arranged in parallel. Yes.
[0058]
A discrimination process for distinguishing between a flame using the laser distance measuring unit 32 and its reflection flame will be described as follows. First, the left image processing unit 17 and the right image processing unit 18 take in the left image and the right image which are taken by the left camera 1 and the right camera 2 and stored in the left image memory 6 and the right image memory 7, as shown in FIG. After performing binarization and labeling, the position of the center of gravity is obtained, and each fire source position is detected based on the principle of triangulation in FIG.
[0059]
In this way, if the fire source position is obtained for each image, this fire source position information is given to the distance measurement control unit 33, and the laser distance measurement unit 32 is directed and controlled for each fire source position. Measure the distance to. That is, in FIG. 14, first, the laser distance measuring unit 32 is directed toward the flame 3 like the optical axis 35, and the distance L <b> 1 to the flame 3 is measured. Subsequently, the distance is measured by directing the optical axis 36 toward the wall reflection flame 5a. In this case, the optical axis 36 of the laser distance measuring unit 32 hits the wall 4a at a point 38, and the measurement distance L2 is shorter than the distance L2 to the wall reflection flame 5a.
[0060]
The measurement distances L1 and L2 of the flame 3 and the wall reflection flame 5a by the laser ranging unit 32 are given to the fire determining unit 34, and the fire source position obtained by the left image processing unit 17 and the right image processing unit 18 on the principle of triangulation Is compared with the calculated distance from the laser distance measuring unit 32. In this case, the distance obtained by the laser ranging distance and the detection position by triangulation is the same for the flame 3 but not for the wall reflection flame 5a, and the mismatched fire source is assumed to be due to reflection regardless of the fire. Exclude from processing.
[0061]
The laser distance measurement uses an example of discrimination between the flame 3 and the wall reflection flame 5a as viewed in plan in the monitoring space of FIG. 2, but the flame 3 and the floor reflection flame 5b are processed in the same manner to obtain the floor surface. The reflection flame 5b can be excluded from the processing target.
[0062]
FIG. 15 shows a fourth embodiment of the present invention. The fourth embodiment is characterized in that three or more cameras 1a, 1b, 1c, 1d,. For example, in the first embodiment shown in FIGS. 1 to 8, when three cameras 1a, 1b, and 1c are installed, images captured by the cameras 1a and 1b are processed by the image processing unit 8, and the result is obtained. The image of the camera 1c is taken into the image processing unit 8, and the fire determination unit 9 determines the fire position. The determination in this case can be made by the method described in the first embodiment of FIGS.
[0063]
In this case, if the cameras 1a, 1b, and 1c are arranged three-dimensionally, a stereoscopic image can be obtained. In addition, the image can be seen without hesitation by arranging it so as to surround the flame 3.
[0064]
Next, even if the number of cameras is increased to four or five, it is possible to determine the fire position by adopting the same method as in the case of the above three.
[0065]
Further, when an even number of cameras are arranged, for example, when four cameras 1a to 1d are taken as an example, image processing is performed by the camera 1a and the camera 1b, image processing is performed by the camera 1c and the camera 1d, and each image processing is performed. The fire may be determined by further image processing based on the result.
[0066]
Next, in the second embodiment of FIGS. 9 to 12, when three or more cameras are installed as shown in FIG. 15, image processing is performed based on the camera with the spot light projection unit 15. For example, when three cameras 1a to 1c are installed and the spot light projection unit 15 is attached to the camera 1b, image processing is first performed by the camera 1a and the camera 1b, and then an image is captured by the camera 1b and the camera 1c. It is only necessary to perform a fire judgment after processing.
[0067]
Further, when four cameras 1a to 1d are installed, the spot light projection unit 15 is similarly attached to the camera 1b, and in addition to the image processing results of the three cameras 1a to 1c, the camera 1b and the camera 1b Fire determination is performed based on the result of the 1d image processing. The same processing is performed for five or more cameras.
[0068]
As another method, when the number of installed cameras is an even number, a spot light projection unit 15 is attached to each pair of cameras, and image processing is performed for each pair of cameras as in the second embodiment of FIGS. However, the fire determination may be performed by combining the results.
[0069]
In the third embodiment shown in FIGS. 13 and 14, even when three or more cameras are installed as shown in FIG. 15, the case where three or more cameras are installed in the second embodiment is replaced with the spot light projector 15. By adopting the laser distance measuring unit 32, the fire position can be determined by the same method.
[0070]
The fire detection device of the present invention may be fixedly installed in the monitoring range or may be installed movably.
[0071]
【The invention's effect】
As described above, according to the present invention, the fire source position is obtained based on the principle of triangulation from the monitoring images of two or more cameras having optical axes arranged substantially in parallel, and the predetermined monitoring range is obtained. By comparing, spot light irradiation, or laser ranging, etc., only fires within the monitoring range are judged as fire sources, so that flames reflected on walls and floors are mistakenly judged as fire sources. It can prevent reliably and can perform appropriately and reliably the response | compatibility process accompanying fire detection, such as fire extinguishing based on the detection of a fire source position.
[Brief description of the drawings]
FIG. 1 is a block diagram of a first embodiment of the present invention.
FIG. 2 is an explanatory diagram of camera arrangement with respect to the monitoring range of FIG.
FIG. 3 is an explanatory diagram of flame image position detection by the image processing unit of FIG. 1;
FIG. 4 is an explanatory diagram of determination processing for flame reflection on a wall by the fire determination unit in FIG.
5 is an explanatory diagram of a determination process for floor flame reflection by the fire determination unit of FIG.
FIG. 6 is a flowchart of the fire detection process of FIG.
7 is a flowchart of the fire detection process of FIG. 1 following FIG.
8 is an explanatory diagram of an original image, a binarized image, and a labeling image by the image processing unit of FIG.
FIG. 9 is a block diagram of a second embodiment of the present invention using spot light irradiation.
FIG. 10 is an explanatory diagram of a process for distinguishing between flames reflected by spot light and flame reflections
11 is an explanatory diagram of a monitoring image when spot light is irradiated on the flame in FIG. 10;
12 is an explanatory diagram of a monitoring image when spot light is irradiated on the reflection of the flame in FIG. 11;
FIG. 13 is a block diagram of a third embodiment of the present invention using laser ranging.
FIG. 14 is an explanatory diagram when the laser and the flame reflection of the flame and the reflection of the flame are measured in FIG.
FIG. 15 is a block diagram of a fourth embodiment of the present invention.
[Explanation of symbols]
1: Left camera
1a to 1d: Camera
2: Right camera
3: Flame
4a: Wall
4b: Floor
5a: Wall reflection flame
5b: Floor reflection flame
6: Left image memory
7: Right image memory
8: Image processing unit
9, 19, 34: Fire judgment part
10L, 10R: Monitoring range
11L: Left image
11R: Right image
12a, 27L, 27R: Flame images
12b, 28L, 28R: Wall reflection flame image
12c: Floor reflection flame image
13a, 13b: binarized image
14a-14b: Labeling images
15: Spot light projection unit
16: Projection control unit
17: Left image processing unit
18: Right image processing unit
20, 22: Light beam
21, 23: Spot light
24, 25: Camera optical axis
30L, 30R, 31L, 31R: Spot light image
32: Laser ranging unit
33: Ranging control unit
35, 36: Laser beam
37, 38: Ranging position

Claims (2)

異なる2以上の地点に配置され、監視範囲にある火源の監視画像を撮影する2台以上のカメラと、
前記監視範囲の火源位置に向けてスポット光を照射するスポット光投影部と、
前記2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、
前記画像処理部で検出した火源位置に前記スポット光投影部からスポット光を照射した状態で、前記2台以上のカメラで撮影した監視画像の炎画像とスポット光画像の位置が一致している場合に火災による火源と判定し、位置がずれている場合に反射による火源と判定して処理対象から除外することを特徴とする火災判定部と、
を備えたことを特徴する火災検出装置。
Two or more cameras that are arranged at two or more different points and take a monitoring image of a fire source in the monitoring range;
A spot light projection unit that emits spot light toward the fire source position of the monitoring range;
An image processing unit for detecting a fire source position based on the principle of triangulation from two or more fire source images included in each of the monitoring images taken by the two or more cameras;
The positions of the flame image and the spot light image of the monitoring image taken by the two or more cameras coincide with the spot position projected from the spot light projection unit on the fire source position detected by the image processing unit. A fire determination unit characterized in that it is determined as a fire source due to fire, and if it is out of position, it is determined as a fire source due to reflection and excluded from the processing target;
A fire detection device characterized by comprising:
異なる2以上の地点に配置され、監視範囲にある火源の監視画像を撮影する2台以上のカメラと、
前記2台以上のカメラ側に配置され、範囲範囲に存在する物体までの距離を測定する測距部と、
前記2台以上のカメラで撮影した監視画像の各々に含まれる2以上の火源画像から三角測量の原理に基づいて火源位置を検出する画像処理部と、
前記画像処理部で検出した火源位置に前記測距装置を指向させて距離を測定し、該測定距離が前記画像処理部の測定距離と一致する場合は火災による火源と判定し、一致しない場合は反射による火源として処理対象から除外する火災判定部と、を備えたことを特徴する火災検出装置。
Two or more cameras that are arranged at two or more different points and take a monitoring image of a fire source in the monitoring range;
A distance measuring unit that is disposed on the side of the two or more cameras and measures a distance to an object existing in a range;
An image processing unit for detecting a fire source position based on the principle of triangulation from two or more fire source images included in each of the monitoring images taken by the two or more cameras;
A distance is measured by directing the distance measuring device to the fire source position detected by the image processing unit, and when the measurement distance matches the measurement distance of the image processing unit, it is determined as a fire source due to a fire and does not match A fire detection device comprising: a fire determination unit that is excluded from a processing target as a fire source due to reflection.
JP24536898A 1998-08-31 1998-08-31 Fire detection equipment Expired - Fee Related JP3827128B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24536898A JP3827128B2 (en) 1998-08-31 1998-08-31 Fire detection equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24536898A JP3827128B2 (en) 1998-08-31 1998-08-31 Fire detection equipment

Publications (2)

Publication Number Publication Date
JP2000076568A JP2000076568A (en) 2000-03-14
JP3827128B2 true JP3827128B2 (en) 2006-09-27

Family

ID=17132634

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24536898A Expired - Fee Related JP3827128B2 (en) 1998-08-31 1998-08-31 Fire detection equipment

Country Status (1)

Country Link
JP (1) JP3827128B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2360355B (en) * 2000-03-15 2004-09-22 Graviner Ltd Kidde Image detection
KR100716306B1 (en) 2006-11-14 2007-05-08 주식회사 지.피 코리아 System to monitoring forest fire
JP6980188B2 (en) * 2017-08-04 2021-12-15 モリタ宮田工業株式会社 Fire identification device
JP7292701B2 (en) * 2018-12-13 2023-06-19 深田工業株式会社 anomaly detector
JP7438738B2 (en) * 2019-12-11 2024-02-27 東芝インフラシステムズ株式会社 information processing equipment
CN111060016B (en) * 2019-12-30 2021-08-13 西安赛隆金属材料有限责任公司 Device for detecting flame length of plasma arc and control method

Also Published As

Publication number Publication date
JP2000076568A (en) 2000-03-14

Similar Documents

Publication Publication Date Title
JP6706664B2 (en) Method and system for monitoring powder bed additive manufacturing of parts
US7589825B2 (en) Ranging apparatus
WO2015098929A1 (en) Surface defect detection method and surface defect detection device
JP6279060B1 (en) Laser sensor and measuring method
US10837770B2 (en) Surface measurement by means of excited fluorescence
JP2002208073A (en) Intrusion monitor
JP2008241643A (en) Three-dimensional shape measuring device
JP3827128B2 (en) Fire detection equipment
JP2006010392A (en) Through hole measuring system, method, and through hole measuring program
JP2005148010A (en) Method and device for detecting shape and darkness of analyte
US20070210240A1 (en) Multiple axis multipoint non-contact measurement system
JP3818028B2 (en) 3D image capturing apparatus and 3D image capturing method
JP2004110804A (en) Three-dimensional image photographing equipment and method
JP4864734B2 (en) Optical displacement sensor and displacement measuring apparatus using the same
JP2002324260A (en) Method and device for identifying coin
JP2010014505A (en) Three-dimensional shape measuring apparatus and three-dimensional shape measurement method
KR102174227B1 (en) Scan device
JPH10154284A (en) Smoke sensing system
US20220334066A1 (en) Apparatus and method for inspecting cans
JP2007093412A (en) Three-dimensional shape measuring device
US6373561B2 (en) Device and method for detecting depth and color information of an object to be surveyed
JP2007192755A (en) Range finder
JP3852285B2 (en) 3D shape measuring apparatus and 3D shape measuring method
JP3372014B2 (en) Missing parts inspection equipment for engine external parts
US11320258B2 (en) Apparatus and method for edge detection when machining workpieces

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060629

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090714

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100714

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110714

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120714

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130714

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees