[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012146040A - 異常事態の検出システム - Google Patents

異常事態の検出システム Download PDF

Info

Publication number
JP2012146040A
JP2012146040A JP2011002628A JP2011002628A JP2012146040A JP 2012146040 A JP2012146040 A JP 2012146040A JP 2011002628 A JP2011002628 A JP 2011002628A JP 2011002628 A JP2011002628 A JP 2011002628A JP 2012146040 A JP2012146040 A JP 2012146040A
Authority
JP
Japan
Prior art keywords
space
unit
abnormal situation
vector
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011002628A
Other languages
English (en)
Inventor
Takashi Torio
隆 鳥生
Shigeyoshi Nakajima
重義 中島
Tei Zuin Tei
ティティズィン
Hiromitsu Hama
裕光 濱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Osaka University NUC
Osaka City University PUC
Original Assignee
Osaka University NUC
Osaka City University PUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Osaka University NUC, Osaka City University PUC filed Critical Osaka University NUC
Priority to JP2011002628A priority Critical patent/JP2012146040A/ja
Publication of JP2012146040A publication Critical patent/JP2012146040A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】予め異常事態が起こりうると予想できる場合に限られることなく、異常事態の可能性の指標として顕著性を算出することができ、あるいは、異常事態の可能性が高い時点と場所の候補を検出することができる異常事態の検出方法を提供する。
【解決手段】各時空点に対応する値をもつ時空間データを入力する入力部と、所定の多数の時空点において時空間データの特徴を表すベクトルを抽出する特徴抽出部と、抽出されたベクトルの特徴の統計量を算出する特徴解析部と、特徴抽出部の結果と特徴解析部の結果に基づいて所定の多数の時空点における顕著性を算出する顕著性算出部を備える。
【選択図】図1

Description

本発明はカメラなどのセンサ情報を基に異常事態を発見するシステムにおいて、生物の注意機能を模したモデルに基づいて異常事態の候補を絞り込む異常事態の検出システムに関する。
安全に安心して暮らせる街づくりに向けて、犯罪を未然に防止するための監視システム及び子供や高齢者のための見守りシステムの実現が望まれている。現状では監視カメラのモニタリングはほとんどが人手によるもので、肉体的・精神的にも大きな負担を強いられている。そのため、自動化が強く望まれている。
監視カメラのモニタリングを自動化するための技術として、監視カメラで撮影される画像を処理して人間が異常の有無を判断するべき画像を自動的に選別するシステムが提案されている(例えば、特許文献1参照。)。また、フレーム間差分データに基づいて動画像から異常動作を検出する装置および方法が提案されている(例えば、特許文献2参照。)。
さらに、生物の注意機能を模したモデルとして、画像から顕著性を算出する方法(例えば、非特許文献1参照。)や、視覚体験の効果を取り入れて画像から顕著性を算出する方法(例えば、特許文献3、非特許文献2参照。)が提案されている。
特開2008−278128号公報 特開2006−79272号公報 特開2007−287071号公報
L.Itti,C.Koch,and E.Niebur,"AModel of Saliency−Based VisualAttention for Rapid Scene Analysis、"IEEE Trans. PAMI, Vol.20,No.11,pp.1254−1259,1998. Takashi Toriu and Shigeyoshi Nakajima,"AMethod of Calculating Image Saliency and Optimizing Efficient Distribution of Image Window", Proceedings of the first International Conference on Innovative Computing Information and Control(ICICIC−06),Beijing,Aug.,Vol.1,pp.290−293,2006
特許文献1に開示されている発明では、監視カメラで撮影された画像を処理してそれが予め定義しておいたどのクラスに属するかの判断を試み、その際にあいまいさが残る時に人間に判断を求めている。この方法は予め生じうる事態をいくつかのクラスに分類し、それぞれ予め定義しておく必要があるが、それが可能であるのは、ATMや駐車場など予め起こりうる状況が予想できる場合に限られるという問題がある。
特許文献2に開示されている発明では、フレーム間差分データの特徴が正常な状態の特徴と乖離しているときに異常と判断するようにしているが、画像のどの場所において異常が発生したかは判断していない。そのため、画像の一部でだけ異常が発生した時は異常の程度が相対的に小さいために見逃す可能性が高いという問題がある。
人間をはじめとする生物の視覚系には注意と呼ばれる機能がある。目に入力される情報の全てを一様に処理するのではなく、特定の対象に注意を集中し、その部分を重点的に処理している。それによって、迅速に危険を察知し、適切な対応を採ることが可能となっている。
生物の視覚系が持つ注意の機能を模することによって監視システムに類似の注意の機能を持たせれば、異常事態の候補を適切に抽出することが可能になるかも知れない。そのためには、生物の視覚系の注意の機能を工学的にモデル化する必要がある。そのような試みの例として、特許文献3、非特許文献1、非特許文献2において画像各部の顕著性を算出する方法が開示されている。顕著性は周囲と比べて色が異なっているなど際立っている度合いを表し、顕著性が高い部分は注意をひき易いとしている。このモデルを利用すれば顕著性が高い部分を異常事態の候補として検出できる。しかし、この方法はそれぞれの瞬間において、その時刻における顕著性を検出しているため、時間の経過を見て初めて判断されるような異常事態の候補を検出できないという問題がある。
本発明は、生物の注意機能を模した顕著性算出のモデルに基づいて異常事態の候補を絞り込む異常事態検出システムを提供することを目的とするものであり、各時空点に対応する値をもつ時空間データを入力する入力部と、所定の多数の時空点において時空間データの特徴を表すベクトルを抽出する特徴抽出部と、抽出されたベクトルの特徴の統計量を算出する特徴解析部と、特徴抽出部の結果と特徴解析部の結果に基づいて所定の多数の時空点における顕著性を算出する顕著性算出部を備えることにより、前記の課題を解決したものである。
本発明は、さらに、顕著性算出部の結果に基づいて異常事態が発生している可能性が大きい時空点の候補を検出する異常事態候補検出部を備えることもできる。
本発明によれば、ATMや駐車場など予め起こりうる状況が予想できる場合に限られることなく、異常事態の可能性の指標として顕著性を算出することができ、あるいは、異常事態の可能性が高い時点と場所の候補を検出することができる。異常事態が起こった場所も特定できるので、異常事態が狭い領域に限られていても見逃す可能性が小さいという効果がある。また、それぞれの瞬間における顕著性ではなく時間空間のある領域の特徴に基づいて顕著性を算出するので、時間の経過を見て初めて判断されるような異常事態の候補を検出できるという効果がある。
第1の実施例における検出システムの概略構成図 第2の実施例における検出システムの概略構成図 第2の実施例における異常事態候補検出部のアルゴリズムの一例を示す図 第3の実施例における検出システムの概略構成図 第4の実施例における検出システムの概略構成図 第5の実施例における検出システムの概略構成図 第6の実施例における検出システムの概略構成図
(実施例1)
本発明は、生物の注意機能を模したモデルに基づいて異常事態の候補を絞り込む異常事態の検出システムである。ここで、本明細書における異常事態とは、「正常動作ではないもの」をいう。正常動作とは、動作特徴の統計的な分布を考えた場合に分布の集中する、統計的な分布から学習可能な動作をいう。そして、その分布から大きく逸脱する動作を異常動作とする。以下、本発明に係る異常事態の候補検出システムを図面を用いて説明する。本発明の第1の実施例の構成を図1に示す。本実施例の検出システムは入力部(1)、特徴抽出部(2)、特徴解析部(3)、顕著性算出部(4)から成る。
入力部ではカメラで撮影された画像が入力されると、その画像をデジタル化して時系列画像I(x,y,t)を出力する。時系列画像I(x,y,t)は各時空点(x,y,t)に対応する値をもつ時空間データである。この時系列画像I(x,y,t)はデジタル画像であり、x,y,tはそれぞれ0からW−1、H−1,T−1の間の整数の値を持つ。また、I(x,y,t)はそれぞれの時空点(x,y,t)における赤の強さを表すR(x,y,t)、緑の強さを表すG(x,y,t)、青の強さを表すB(x,y,t)の画素値から構成され、それぞれ0から255の整数の値を持つ。
特徴抽出部では、Δt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおいて時空点(x,y,t)を中心とする時空間の領域t−Δt≦t+Δt、x−Δx≦x+Δx、y−Δy≦y+Δyに含まれる各画素の画素値R(x,y,t)、G(x,y,t)、B(x,y,t)に基づいてその領域の特徴を表すK次元の特徴v(x,y,t)を抽出する。どのような特徴を抽出するかということについては様々な方法が知られている。この発明はどのような特徴を抽出するかについて特に限定するものではなく、例えば色以外に物体の輪郭線の方向を特徴とする方法、あるいは、物体の動きの方向を特徴とする方法などが考えられる。ここでは、一般に良く利用される特徴を例として本発明の具体的な構成を説明する。
ここで例としてあげる特徴は色に関するものである。上記に述べたように、I(x,y,t)はそれぞれの時空点(x,y,t)における赤の強さを表すR(x,y,t)、緑の強さを表すG(x,y,t)、青の強さを表すB(x,y,t)の画素値から構成され、それぞれ0から255の整数の値を持つ。R(x,y,t)、G(x,y,t)、B(x,y,t)のそれぞれにおいて0から255までの整数を、63以下、64から127まで、128から191まで、192以上の4段階に区分する。このようにして色は4×4×4=64個の区画に区分されることになる。例えば、ある区画では、64≦R≦127、0≦G≦63、128≦B≦191である。
時空点(x,y,t)を中心とする時空間の領域t−Δt≦t+Δt、x−Δx≦x+Δx、y−Δy≦y+Δyに含まれる各画素の画素値R(x,y,t)、G(x,y,t)、B(x,y,t)が64種類の区画のどこに属するかを判断し、それぞれの区画に何個の画素が含まれるかを計数し、その結果を64次元のベクトルv(x,y,t)にまとめる。このベクトルのk番目の要素はk番目の色の区画に時空間の領域t−Δt≦t+Δt、x−Δx≦x+Δx、y−Δy≦y+Δyに含まれる画素の個数を表す。この場合、特徴の次元はK=64である。
特徴解析部では、特徴抽出部が抽出したベクトルK次元の特徴の統計量を算出する。具体的には、Δt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおいて抽出されたN個のK次元の特徴v(x,y,t)の平均<v>と標準偏差ベクトルσを以下の式(数1と数2)に従って算出する。
Figure 2012146040
Figure 2012146040
顕著性算出部では、特徴抽出部で抽出されたベクトルK次元の特徴と、特徴解析部で算出された算出結果に基づいて所定の多数の時空点(x,y,t)における顕著性を算出する。以下、この顕著性算出部による算出方法について具体的に説明する。まず、特徴抽出部で算出されたΔt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおける特徴を表すベクトルK次元の特徴v(x,y,t)と特徴解析部で算出されたN個のK次元の特徴v(x,y,t)の平均<v>の差をとり、次式のようにそれをw(x,y,t)とする。
Figure 2012146040
顕著性S(x,y,t)は次式で算出される。ここで顕著性とは、一般的に人が画像を観察したときに人の目の注意が向きやすい程度を表す尺度をいい、例えば画像データの中に周囲と異なる対象がある場合に大きくなる指標である。
Figure 2012146040
この式は時空点(x,y,t)における特徴を表すベクトルK次元の特徴v(x,y,t)がそれらの平均v(x,y,t)からどれほど離れているかの尺度(すなわち顕著性)を表す。この尺度によれば、特徴が周囲と異なっているときに顕著性が高くなる。
本実施例によれば、時間的にみてもまた空間的にみても周囲と特徴が異なっているところの顕著性が高くなり、それを異常事態発生の指標として用いることができる。従って、TMや駐車場など予め起こりうる状況が予想できる場合に限られることなく、異常事態の可能性の指標として顕著性を算出することができる。また、時間的にみてもまた空間的にみても周囲と特徴が異なっているところの顕著性が高くなるので、異常事態が起こった時間だけでなく場所も特定できる。そのため、異常事態が狭い領域に限られていても見逃す可能性が小さいという効果がある。さらに、それぞれの瞬間における顕著性ではなく時間空間のある領域の特徴に基づいて顕著性を算出するので、時間の経過を見て初めて判断されるような異常事態の指標を算出できるという効果がある。
(実施例2)
本発明の第2の実施例の構成を図2に示す。本実施例は入力部(1)、特徴抽出部(2)、特徴解析部(3)、顕著性算出部(4)、異常事態候補検出部(5)から成る。入力部(1)、特徴抽出部(2)、特徴解析部(3)、顕著性算出部(4)は実施例1と同様である。実施例2は実施例1に異常事態候補検出部(5)を付け加えた構成となっている。
異常事態候補検出部では顕著性算出部で算出されたΔt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおける顕著性の値に基づいて異常事態が起こっている可能性がある、若しくは可能性の大きい時空間の領域を検出する。図3にそのアルゴリズムの一例を示す。
領域の大きさ設定部では候補として検出する領域の大きさを決定する。初期値は例えば全時空領域0≦t≦T、0≦x≦X、0≦y≦Yの2分の1とする。異常事態領域候補抽出部では、領域の大きさ設定部で大きさを設定した領域の位置をずらせながらその領域内での顕著性の総和を算出し、顕著性の総和が最大である領域を異常事態領域候補として仮り抽出する。検証部では顕著性の総和と領域の大きさに基づいてその領域が異常事態領域候補として適切かどうか判断し、適切と判断した場合はその領域を異常事態領域候補として出力する。そうでない場合は領域の大きさをより小さく設定して同じ処理を繰り返す。所定の回数繰り返しても適切と判断される異常事態領域候補が出力されなければ異常事態候補が無いとして処理を終了する。
実施例2は実施例1に異常事態候補検出部を付け加えたものであるが、異常事態が生じている時空間の領域を特定できるので、その領域をさらに詳しく分析する処理につなぐことが可能となるという効果がある。また、特定された時空間の領域の画像を人間に提示して人間に判断させることも可能となる。
(実施例3)
本発明の第3の実施例の構成を図4に示す。本実施例は第2の実施例の構成に、複数の基底ベクトルを格納する基底ベクトル格納部(6)を付け加えたものである。また、それに伴って、特徴抽出部(2)における処理内容が実施例1、実施例2と異なっており、本実施例の特徴抽出部(2)では所定の多数の時空点において時空間データの時空点を含む時空間の小領域の画素値を要素とするベクトルと前記基底ベクトル格納部に格納されている複数の基底ベクトルとの内積を算出することで特徴を表すベクトルを算出する。以下、詳細に説明する。
特徴抽出部では、Δt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおいて時空点(x,y,t)を中心とする時空間の領域t−Δt≦t+Δt、x−Δx≦x+Δx、y−Δy≦y+Δyに含まれる各画素の画素値R(x,y,t)、G(x,y,t)、B(x,y,t)に基づいてその領域の特徴を表すK次元の特徴v(x,y,t)を抽出する。この点は実施例1、実施例2と同様である。本実施例では、どのような特徴を抽出するかという点において実施例1、実施例2と異なっている。時空点(x,y,t)を中心とする時空間の領域t−Δt≦t+Δt、x−Δx≦x+Δx、y−Δy≦y+Δyに含まれる画素値R(x,y,t)、G(x,y,t)、B(x,y,t)の総和は次式である。
Figure 2012146040
これらn個の要素を持つベクトルをU(x,y,z)とする。このベクトルはn次元であるが、同じ次元の基底ベクトルを適当な個数、例えばK個準備し、Q1、2、…、とする。これらのベクトルは次式に示す正規直交関係を満たしているものとする。
Figure 2012146040
上式はクロネッカのデルタであり、iとjが等しい時に1の値を持ち、それ以外のときは0の値を持つ。基底ベクトル格納部にはこれらのベクトルQ1、2、…、が格納される。このとき、v1(x,y,t)、v2(x,y,t)、…、v(x,y,t)を要素とするK次元の特徴v(x,y,t)が次式のように得られる。
Figure 2012146040
本実施例は第2の実施例の構成に基底ベクトル格納部(6)を付け加えたものであるが、それによって基底ベクトルQ1、2、…、を取り換えれば抽出される特徴を変化させることができるようになる。実施例1や実施例2では特徴が固定されていたが、本実施例のように特徴を変化させることができるようになれば、場面の特性に応じて抽出される特徴を適切なものに変えることで異常事態の候補を検出する能力を高めることができるという効果がある。
(実施例4)
本発明の第4の実施例の構成を図5に示す。本実施例は第3の実施例に学習部(7)を付け加えたものである。学習部(7)では予め準備しておいた学習用の複数個の時系列画像J1(x,y,t)、J2(x,y,t)、…、JL(x,y,t)を基に、基底ベクトル格納部に格納する基底ベクトルを算出する。
学習部ではまず、L個の時系列画像J1(x,y,t)、J2(x,y,t)、…、JL(x,y,t)のそれぞれにおいてΔt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たす時空点(x,y,t)をP個ランダムに選ぶ。こうして選ばれたP個の時空点(x,y,t)のそれぞれを中心とする時空間の領域t−Δt≦t+Δt、x−Δx≦x+Δx、y−Δy≦y+Δyに含まれる各画素の画素値Ri(x,y,t)、Gi(x,y,t)、Bi(x,y,t)を要素とする画素値ベクトルsi(x,y,t)を抽出する。si(x,y,t)はi番目の時系列画像の時空点(x,y,t)におけるベクトルである。
次に、多数のベクトルsi(x,y,t)に対して主成分分析を施して基底ベクトルを算出するが、具体的な手順を以下に記す。まず、次式に従って平均<s>と共分散行列Mを算出する。なお、次式においてNLはベクトルsi(x,y,t)の個数である。また、si(x,y,t)はsi(x,y,t)の転置ベクトルを表す。
Figure 2012146040
Figure 2012146040
次に共分散行列Mの固有ベクトルを算出し、それらを固有値が大きいほうからK個並べてQ1、2、…、とこれらのベクトルを基底ベクトルとして基底ベクトル格納部に格納する。
本実施例は第3の実施例に学習部(7)を付け加えたものであるが、これによって異常事態の候補検出の対象となる時系列画像から抽出するべき特徴の種類を第1および第2の実施例のように予め固定するのではなく、また、第3に実施例のように人手によって特徴を決めるのでもなく学習用の時系列画像J1(x,y,t)、J2(x,y,t)、…、JL(x,y,t)を与えれば基底ベクトルQ1、2、…、が自動的に決定される。
本実施例によれば、学習用の時系列画像J1(x,y,t)、J2(x,y,t)、…、JL(x,y,t)を与えれば基底ベクトルQ1、2、…、が自動的に決定されるので、異常事態の候補検出の対象となる時系列画像と同種類の時系列画像を学習用の時系列画像として用いることで、学習した時系列画像と同種類の時系列画像に最適な基底ベクトルQ1、2、…、を人手を要さずに自動的に選ぶことができるという効果がある。
(実施例5)
本発明の第5の実施例の構成を図6に示す。本実施例は第4の実施例と比べて、特徴解析部(3)と、顕著性算出部(4)の内容が異なる。
本実施例の特徴解析部ではΔt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおいて抽出されたN個のK次元の特徴v(x,y,t)の平均<v>と共分散Cを以下の式(数11と数12)に従って算出する。
Figure 2012146040
Figure 2012146040
次に共分散行列Cの固有ベクトルを算出し、それらを固有値が大きいほうからM個並べてu1、u2、…、uMとし、それらを記憶しておく。
顕著性算出部は近似部と誤差算出部から構成される。
近似部では、特徴抽出部で算出されたΔt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおける特徴を表すベクトルN個のK次元の特徴v(x,y,t)と特徴解析部で算出されたN個のK次元の特徴v(x,y,t)の平均<v>の差をとり、次式のようにそれをw(x,y,t)とする。
Figure 2012146040
次に、次式に示すようにw(x,y,t)をM個の固有ベクトルu1、u2、…、uMの線形結合で近似したものを求める。
Figure 2012146040
誤差算出部では、w(x,y,t)を上述の式13で近似したときの誤差を次式で算出し、顕著性S(x,y,t)として出力する。
Figure 2012146040
本実施例では特徴抽出部で抽出した特徴に対して特徴解析部で主成分分析を行い、各時空点における特徴を主成分分析で得られた固有ベクトルで近似したときの誤差を顕著性として出力している。実施例1から実施例4では単に特徴の平均との差異を顕著性としており、様々な特徴が周囲とくらべて少しずつ異なっている場合でもその総和が大きいときは顕著性が高くなるという性質があった。それと比較して本実施例によれば、少数の特徴が大きく変化している場合に顕著性が高くなるという性質がある。人間は線の方向などある特定の特徴が周囲と比べて異なっているときにそこに注意を向けやすいという性質をもっており、この実施例は人間の視覚系における注意の機能により類似した性質を持っており、異常事態の有無の判断において人間の判断により近いことが期待できるという効果がある。
(実施例6)
本発明の第6の実施例の構成を図7に示す。本実施例は第5の実施例とは別の方法で特徴解析部(3)と顕著性算出部(4)を実現したものである。
特徴解析部では、第5の実施例と同じく、Δt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおいてにおいて抽出されたN個のK次元の特徴v(x,y,t)の平均<v>と共分散Cを前記の式、数11と数12に従って算出する。本実施例では特徴解析部の処理はこれだけである。
顕著性算出部では、まず、特徴抽出部で算出されたΔt≦t≦T−Δt、Δx≦x≦X−Δx、Δy≦y≦Y−Δxを満たすN個の時空点(x,y,t)のそれぞれにおける特徴を表すベクトルN個のK次元の特徴v(x,y,t)が多次元正規分布に従うと仮定して、特徴解析部で算出した平均<v>と共分散Cを利用して特徴v(x,y,t)の生起確率を次式のように算出する。
Figure 2012146040
次に、次式によって、この特徴を観測したときに得られる情報量を算出し、顕著性として出力する。
Figure 2012146040
本実施例では、顕著性はその特徴を観測することによって得られる情報量であるという物理的意味が定まっているので、この結果をもとにより適切な判断が可能となるという効果がある。
1 入力部
2 特徴抽出部
3 特徴解析部
4 顕著性算出部
5 異常事態候補検出部
6 基底ベクトル格納部
7 学習部

Claims (6)

  1. 各時空点に対応する値をもつ時空間データを入力する入力部と、所定の多数の時空点において時空間データの特徴を表すベクトルを抽出する特徴抽出部と、抽出された前記ベクトルの特徴の統計量を算出する特徴解析部と、特徴抽出部の結果と特徴解析部の結果に基づいて所定の多数の時空点における顕著性を算出する顕著性算出部を備える異常事態の検出システム
  2. さらに、顕著性算出部の結果に基づいて異常事態が発生している可能性が大きい時空点の候補を検出する異常事態候補検出部を備える請求項1に記載の異常事態の検出システム
  3. さらに、複数の基底ベクトルを格納する基底ベクトル格納部を備え、前記特徴抽出部は所定の多数の時空点において時空間データの時空点を含む時空間の小領域の画素値を要素とするベクトルと前記基底ベクトル格納部に格納されている複数の基底ベクトルとの内積を算出することで特徴を表すベクトルを算出する請求項1又は2に記載の異常事態の検出システム。
  4. さらに、多数の時空間データの多数の時空点においてその時空点を含む時空間の小領域の画素値を要素とするベクトルを抽出するとともに、該ベクトルを基に前記基底ベクトル格納部に格納される基底ベクトルを定める学習部を備える請求項3記載の異常事態の検出システム。
  5. 前記特徴解析部は前記特徴抽出部で抽出された多数の特徴に対して主成分分析を施して複数の固有ベクトルを算出し、前記顕著性算出部は所定の多数の時空点において抽出された時空間データの時空点を含む時空間の小領域の画素値を要素とするベクトルを前記複数の固有ベクトルの線形結合で近似したときの誤差を算出する請求項1から4の何れかに記載の異常事態の検出システム
  6. 前記特徴解析部は前記特徴抽出部で抽出された多数の特徴の平均と共分散を算出し、前記顕著性算出部は前記特徴解析部が算出した平均と共分散に基づいて所定の多数の時空点において抽出された時空間データを含む時空間の小領域の画素値を要素とするベクトルの生起確率を評価するとともに、評価した生起確率に基づいて顕著性を算出する請求項1から4の何れかに記載の異常事態の検出システム。

JP2011002628A 2011-01-11 2011-01-11 異常事態の検出システム Pending JP2012146040A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011002628A JP2012146040A (ja) 2011-01-11 2011-01-11 異常事態の検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011002628A JP2012146040A (ja) 2011-01-11 2011-01-11 異常事態の検出システム

Publications (1)

Publication Number Publication Date
JP2012146040A true JP2012146040A (ja) 2012-08-02

Family

ID=46789556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011002628A Pending JP2012146040A (ja) 2011-01-11 2011-01-11 異常事態の検出システム

Country Status (1)

Country Link
JP (1) JP2012146040A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106382A (ja) * 2013-12-02 2015-06-08 オムロン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018022360A (ja) * 2016-08-04 2018-02-08 株式会社リコー 画像解析装置、画像解析方法およびプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015106382A (ja) * 2013-12-02 2015-06-08 オムロン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018022360A (ja) * 2016-08-04 2018-02-08 株式会社リコー 画像解析装置、画像解析方法およびプログラム

Similar Documents

Publication Publication Date Title
JP7229662B2 (ja) ビデオ監視システムで警告を発する方法
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
CN108009473B (zh) 基于目标行为属性视频结构化处理方法、系统及存储装置
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP6598746B2 (ja) 他の物体の画像領域も考慮して物体を追跡する装置、プログラム及び方法
TWI430186B (zh) 影像處理裝置及影像處理方法
CN103839065B (zh) 人群动态聚集特征提取方法
CN112966646B (zh) 基于双路模型融合的视频分割方法、装置、设备及介质
CN112001339A (zh) 一种基于YOLO v4的行人社交距离实时监测方法
US20200012923A1 (en) Computer device for training a deep neural network
KR101747220B1 (ko) 이미지 피라미드의 적응적 이미지 처리 장치 및 방법
US20150262068A1 (en) Event detection apparatus and event detection method
JP2017156886A (ja) 画像間類似度を考慮して物体を追跡する装置、プログラム及び方法
KR20180065889A (ko) 타겟의 검측 방법 및 장치
US10691969B2 (en) Asynchronous object ROI detection in video mode
CN110879982A (zh) 一种人群计数系统及方法
CN111488805A (zh) 一种基于显著性特征提取的视频行为识别方法
WO2022257314A1 (zh) 图像检测方法和相关训练方法及相关装置、设备及介质
CN114332071A (zh) 一种基于前景信息增强的视频异常检测方法
JPWO2012046426A1 (ja) 物体検出装置、物体検出方法および物体検出プログラム
US20170053172A1 (en) Image processing apparatus, and image processing method
GB2457797A (en) Associating face images using covariance matrices of extracted features
JP2012146040A (ja) 異常事態の検出システム
JP2019061407A (ja) 物体検出装置
JP2010170201A (ja) 物体検出装置