JP2010128947A - Abnormality estimation apparatus, abnormality estimation method and abnormality estimation program - Google Patents
Abnormality estimation apparatus, abnormality estimation method and abnormality estimation program Download PDFInfo
- Publication number
- JP2010128947A JP2010128947A JP2008304946A JP2008304946A JP2010128947A JP 2010128947 A JP2010128947 A JP 2010128947A JP 2008304946 A JP2008304946 A JP 2008304946A JP 2008304946 A JP2008304946 A JP 2008304946A JP 2010128947 A JP2010128947 A JP 2010128947A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- motion
- identification
- feature quantity
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、映像中に含まれる動物体の動きに基づく特徴量からシーンの非定常度を識別する技術に関する。 The present invention relates to a technique for identifying a non-stationary degree of a scene from a feature amount based on a movement of an animal body included in an image.
近年、多数のカメラを備えた映像監視システムが普及し、監視業務の効率化が必要とされている。そのため、映像監視システムに映像蓄積機能だけでなく、動物体検出機能や人物追跡機能など、映像から情報を抽出する機能が組み込まれるようになった。そうした機能の一つとして、普段と異なるシーンを自動検出する非定常検出の技術が求められており、これを既存の映像監視システムに映像モジュールに組み込みたいとのニーズが高まっている。 In recent years, video surveillance systems equipped with a large number of cameras have become widespread, and the efficiency of surveillance work is required. For this reason, functions for extracting information from video such as a moving object detection function and a person tracking function have been incorporated into the video monitoring system in addition to the video storage function. As one of such functions, there is a demand for non-stationary detection technology that automatically detects scenes that are different from usual, and there is an increasing need to incorporate this into an existing video surveillance system in a video module.
映像から非定常なシーンを検出する手がかりとして、映像中の動物体の位置の変化と動き方向の変化を検出するには、各時刻における位置の座標と、その座標における動きベクトルの組として特徴量とすることで、その特徴量の違いから非定常なシーンを検出することができる。しかしながら、非定常なシーンの検出には次の問題が提起されている。 In order to detect changes in the position of the moving object in the video and changes in the direction of movement as a clue to detect an unsteady scene from the video, a feature value is set as a set of the coordinate of the position at each time and the motion vector at that coordinate By doing so, an unsteady scene can be detected from the difference in the feature amount. However, the following problems have been raised in the detection of non-stationary scenes.
第一の問題点は、動きベクトル抽出の処理はノイズの影響を受けやすく、特徴量のばらつきが多いことが原因で、定常、非定常を安定して分離することが困難なことである。 The first problem is that the motion vector extraction process is easily affected by noise, and it is difficult to stably separate the steady state and the unsteady state due to the large variation in the feature amount.
第二の問題点は、動きベクトルの時間変化をどのようにして識別器へ入力するかということである。画像の画素ごとに動きベクトルを記憶する場合、数千から数十万のオーダーの画素のフレーム数倍の情報となる。このようにすると、計算上のメモリ使用量や統計処理に要する時間が膨大となり、リアルタイムの検出処理への入力には不向きである。動物体の存在する領域のみの情報を保持することでメモリ量を減らすことが可能であるが、その領域の数が時間とともに変化するような場合、特徴量の次元数が変化してしまうため、統計処理のうえで扱いにくい。そこで、映像中の動物体の位置の変化及び動き方向の変化について、これを安定した低次元の特徴量として抽出する方法が必要である。 The second problem is how to input the time change of the motion vector to the discriminator. When a motion vector is stored for each pixel of the image, the information is several times the number of frames of pixels in the order of thousands to hundreds of thousands. In this way, the amount of memory used for calculation and the time required for statistical processing become enormous, and it is not suitable for input to real-time detection processing. It is possible to reduce the amount of memory by holding information only about the area where the moving object exists, but if the number of areas changes with time, the dimension number of the feature quantity will change, It is difficult to handle after statistical processing. Therefore, there is a need for a method for extracting a change in the position of the moving object in the video and a change in the direction of movement as a stable low-dimensional feature value.
第三の問題点は、定常・非定常を分ける情報として何を特徴量に用いるべきなのかは、カメラの設置場所とそこで観察される映像によって異なると考えられるが、あらかじめどんな特徴量が最適であるかを見極めるのは難しく、自動的に特徴量を選択する手法が示されていないことである。必ずしもすべてを用いればよいわけではなく、定常/非定常の分離に寄与しない特徴は、識別演算の上でノイズとなる可能性があり、計算コストが無駄になるおそれがある。 The third problem, the what we should use the feature amount as information to separate the stationary and non-stationary, it is believed that differ by the image observed there and the camera installation site, in advance what feature quantity best It is difficult to determine whether or not there is a method for automatically selecting a feature amount. It is not always necessary to use all of them, and features that do not contribute to steady / unsteady separation may become noise in the identification calculation, and calculation cost may be wasted.
第一の問題点に対しては、非特許文献1に動物体領域内での空間的、時間的動き平均を求める方法が提案されている。この方法は、動領域が人間かそうでないかを識別するための動きに基づく特徴量として提案されており、領域ごとの比較を行う場合に有効である。しかし、領域ごとの比較ではなく、画像全体の特徴量とする方法は示されていない。画像全体についての特徴量を抽出するためには、その中に含まれる主要な動物体の動き特徴を反映できるような工夫が必要である。
従来の技術では、動きベクトル抽出の処理はノイズの影響を受けやすく、動きベクトルを用いた特徴量はばらつきが多いため、安定した定常/非定常の分類が困難である。動物体領域内での空間的、時間的動き平均を求める既存の方法を用いるとしても、領域ごとの比較ではなく画像全体の特徴量とする方法は示されていない。 In the conventional technique, the motion vector extraction process is easily affected by noise, and the feature amount using the motion vector has many variations, so that stable steady / unsteady classification is difficult. Even if an existing method for obtaining a spatial and temporal motion average in a moving body region is used, a method for making a feature amount of an entire image, not a comparison for each region, is not shown.
また、画像の画素ごとに動きベクトルを記憶する場合、数千から数十万のオーダーの特徴量となり、計算上のメモリ使用量や統計処理に要する時間が膨大となり、リアルタイム処理に不向きである。動物体の存在する領域のみの情報を保持することでメモリ量を減らすと、その領域の数が時間と共に変化するような場合、特徴量の次元数が変化してしまうため、統計処理に向き難い。 In addition, when a motion vector is stored for each pixel of an image, the amount of features is in the order of thousands to several hundreds of thousands, and the amount of memory used for calculation and the time required for statistical processing become enormous, which is not suitable for real-time processing. If the amount of memory is reduced by holding only information on the area where the animal exists, the number of dimensions of the feature quantity will change if the number of areas changes over time, making it difficult to use for statistical processing. .
さらに、定常・非定常を分ける情報として、抽出可能な動き特徴は、動物体の位置、動きの方向、大きさ、時間などがあるが、これらの情報の中で、定常/非定常の違いに寄与しないものを用いることは、識別演算の上でノイズとなる可能性があり、計算コストも無駄になるおそれがある。そのため、動物体の動き特徴のうち、位置、動き方向、大きさ、動きの連続時間などのうち、いずれの要素を特徴量に反映するのか、その組み合わせを選択する手段が必要である。 Furthermore, as information that separates stationary and non-stationary, the extractable movement features include the position of the moving object, the direction of movement, the size, and the time. Among these pieces of information, there is a difference between stationary and non-stationary. Use of a non-contributing one may cause noise in the identification calculation and may lead to a waste of calculation cost. Therefore, there is a need for a means for selecting a combination of which elements to be reflected in the feature quantity among the movement features of the moving object, such as the position, the movement direction, the size, and the continuous time of the movement.
本発明は、このような事情に鑑みてなされたものであり、動物体の動き特徴から安定的に定常/非定常を分類することを解決課題としている。 This invention is made | formed in view of such a situation, and makes it a solution subject to classify | categorizing steady / unsteady stably from the motion characteristic of a moving body.
そこで、請求項1記載の発明は、前記課題を解決すべく、撮影装置で撮影された映像中に含まれる動物体の動きに基づく特徴量を抽出し、統計的な処理によってシーンの非定常性を識別する装置であって、前記撮影装置からの入力映像中において動物体の動きに基づく特徴量を抽出する動き特徴抽出手段と、前記動き特徴抽出手段の抽出した特徴量から前記入力映像の非定常性を識別する識別手段と、を備えることを特徴としている。 Accordingly, in order to solve the above-mentioned problem, the invention according to claim 1 extracts a feature amount based on the movement of the moving object included in the video captured by the imaging device, and performs statistical processing to unsteady scenes. A motion feature extracting unit that extracts a feature amount based on a motion of a moving object in an input video from the photographing device, and a non-input image from the feature amount extracted by the motion feature extracting unit. And an identification means for identifying continuity.
請求項2記載の発明は、前記動き特徴抽出部は、前記入力映像から時系列の特徴量を生成する複数の特徴量抽出モジュールと、前記各特徴量抽出モジュールの生成した特徴量を、特徴量選択基準に基づいて選択し、該選択された各特徴量の組合せの時系列を前記識別部に出力する特徴量選択手段と、を備えることを特徴としている。 According to a second aspect of the present invention, the motion feature extraction unit includes a plurality of feature amount extraction modules that generate time-series feature amounts from the input video, and feature amounts generated by the feature amount extraction modules. And feature amount selection means for selecting based on a selection criterion and outputting a time series of combinations of the selected feature amounts to the identification unit.
請求項3記載の発明は、前記各特徴量抽出モジュールは、前記入力映像中の動物体領域を抽出し、該動物体領域と背景領域の二値画像を求める変化領域抽出手段と、前記入力映像中の時系列の各画像において、各画素の位置(x.y)と該画素の動き方向(u.v)を示す二次元ベクトルをペアにした動きベクトル配列(x.y.u.v)を求める動きベクトル算出手段と、前記動物体領域の情報と前記動きベクトル配列の情報とを統合し、該統合されたベクトルのペアを特徴量として求める統合ベクトル算出手段と、を備えることを特徴としている。 According to a third aspect of the present invention, each of the feature quantity extraction modules extracts a moving body region in the input video and obtains a binary image of the moving body region and a background region, and the input video. In each time-series image in the middle, a motion vector array (xyuv) in which a two-dimensional vector indicating the position (xy) of each pixel and the motion direction (uv) of the pixel is paired A motion vector calculation means for obtaining a moving vector, and an integrated vector calculation means for integrating the information on the moving body region and the information on the motion vector arrangement and obtaining the pair of the integrated vectors as a feature quantity. Yes.
請求項4記載の発明は、前記統合ベクトル算出手段は、時系列の前記二値画像を時間的に重畳したモーション履歴画像を、前記動物体領域に数値をあてはめ前記背景領域をゼロとして生成するモーション履歴生成手段と、前記動きベクトル配列を、前記モーション履歴画像を用いてマスク処理を行うマスク処理手段と、を備えることを特徴としている。 According to a fourth aspect of the present invention, the integrated vector calculating means generates a motion history image obtained by temporally superimposing the time-series binary images by assigning numerical values to the moving body region and setting the background region to zero. It is characterized by comprising history generation means and mask processing means for performing mask processing on the motion vector array using the motion history image.
請求項5記載の発明は、前記各特徴量抽出モジュールは、前記統合されたベクトルのペアが連続して出現する時間をカウントする連続時間カウント手段をさらに備え、前記カウント時間を前記統合されたベクトルのペアに付加した特徴量を前記特徴量選択部に出力することを特徴としている。 According to a fifth aspect of the present invention, each of the feature quantity extraction modules further includes a continuous time counting unit that counts a time at which the integrated vector pair continuously appears, and the integrated vector includes the count time. The feature quantity added to the pair is output to the feature quantity selection unit.
請求項6記載の発明は、前記識別手段は、各特徴量抽出モジュールの特徴量を組み合わせたN次元の識別特徴量を、SVM(サポートベクタマシン)手法を用いて定常/非定常に分類するSVM識別手段と、前記SVM識別手段で生成されたサポートベクトル群および定常/非定常の識別結果から、N次元の特徴量の要素に応じて該要素を最終的に識別に用いるか否かを示すN個の論理値を前記識別機器にフィードバックする特徴量評価手段とを備え、定常・非定常のプラグの時系列を識別結果として表示させることを特徴としている。 According to a sixth aspect of the present invention, the discriminating unit classifies the N-dimensional discriminating feature amount, which is a combination of the feature amounts of the feature amount extraction modules, into a steady / non-stationary state using an SVM (support vector machine) method. N indicating whether or not the element is finally used for identification according to the element of the N-dimensional feature amount from the identification unit, the support vector group generated by the SVM identification unit, and the stationary / non-stationary identification result And a feature value evaluating means for feeding back the logical values to the identification device, and displaying a time series of steady and non-steady plugs as identification results.
請求項7記載の発明は、撮影装置で撮影された映像中に含まれる動物体の動きに基づく特徴量を抽出し、統計的な処理によってシーンの非定常性を識別する方法であって、動き特徴量抽出手段が、前記撮影装置からの入力映像中において動物体の動きに基づく特徴量を抽出する動き特徴抽出ステップと、識別手段が、前記動き特量抽出ステップで抽出した特徴量から前記入力映像の非定常性を識別する識別ステップと、を有することを特徴としている。 The invention according to claim 7 is a method of extracting feature quantities based on the movement of a moving object included in an image photographed by a photographing apparatus, and identifying a non-stationary state of a scene by statistical processing. A feature extraction unit extracts a feature quantity based on the movement of a moving object in an input video from the imaging device, and an identification unit extracts the input from the feature quantity extracted in the motion feature extraction step. And an identification step for identifying non-stationarity of the image.
請求項8記載の発明は、前記動き特徴抽出ステップは、複数の特徴量抽出モジュールのそれぞれが、前記入力映像から時系列の特徴量を生成する特徴量生成ステップと、特徴量選択手段が、前記特徴量生成ステップで生成した各特徴量を、特徴量選択基準に基づいて選択し、該選択された各特徴量の組合せの時系列を前記識別部に出力する特徴量選択ステップと、を有することを特徴としている。 According to an eighth aspect of the present invention, in the motion feature extraction step, each of a plurality of feature amount extraction modules generates a time-series feature amount from the input video, and a feature amount selection unit includes the feature amount selection unit, A feature amount selection step of selecting each feature amount generated in the feature amount generation step based on a feature amount selection criterion and outputting a time series of a combination of the selected feature amounts to the identification unit. It is characterized by.
請求項9記載の発明は、前記特徴量生成ステップは、前記入力映像中の動物体領域を抽出し、該動物体領域と背景領域の二値画像を求める変化領域抽出ステップと、前記入力映像中の時系列の各画像において、各画素の位置(x.y)と該画素の動き方向(u.v)を示す二次元ベクトルをペアにした動きベクトル配列(x.y.u.v)を求める動きベクトル算出ステップと、前記動物体領域の情報と前記動きベクトル配列の情報とを統合し、該統合されたベクトルのペアを特徴量として求める統合ベクトル算出ステップと、を有することを特徴としている。
In the invention according to
請求項10記載の発明は、請求項1〜6のいずれか1項に記載の非定常度推定装置として、コンピュータを機能させることを特徴とする非定常度推定プログラムに関する。 A tenth aspect of the present invention relates to a nonstationary degree estimation program that causes a computer to function as the nonstationary degree estimation device according to any one of the first to sixth aspects.
請求項1〜10記載の発明によれば、動物体の動き特徴から安定的に定常/非定常が分類され、ノイズに影響されることなく、高速に高精度な非定常検出を行うことができる。 According to the first to tenth aspects of the present invention, steady / unsteady is stably classified from the motion characteristics of the moving object, and high-precision and unsteady detection can be performed at high speed without being affected by noise. .
図1は、本発明の実施形態に係る非定常度推定装置の構成例を示し、該推定装置1には映像監視システムの撮影装置(例えばデジタルカメラ,デジタルビデオカメラなど)からネットワーク経由で映像データが入力されている。
FIG. 1 shows an example of the configuration of an unsteady degree estimation apparatus according to an embodiment of the present invention. The
前非定常度記推定装置1は、コンピュータにより構成され、前記映像データを入力する映像入力部2と、この映像入力部2の入力映像から動物体の動き特徴を時系列に抽出する動き特徴抽出部3と、この動き特徴抽出部3の抽出した時系列の動き特徴に基づいて動き特徴の非定常度を示す数値を求める識別部4と、この識別部4の求めた数値を表示する表示部5とを有している。
The pre-stationary
この各部2〜5の処理機能は、コンピュータのハードウェアとソフトウェアの協働によって実現されている。このとき前記識別部4は、非定常度の数値を閾値判定して非定常か否かを示す論理値を前記表示部5に出力することもできる。ここで出力される前記表示部5は例えばモニタなどでよい。
The processing functions of the
なお、前記非定常度推定装置1は、通常のコンピュータの構成要素、例えば前記各部2〜5の処理を制御する演算手段(例えばCPU:Central Processor Unit)、前記各部2〜5の処理データを記憶可能なメモリ(RAM)、前記各部2〜5の処理データを保存可能なハードディスクドライブ装置、ネットワーク接続用の通信デバイス、ポインティングデバイスやキーボードなどの入力手段を有している。以下、前記各部2〜5の具体的に処理内容を説明する。
The nonstationary
(1)映像入力部2
前記映像入力部2に入力される映像データは、例えばAVIファイルやJPEG画像列などでよく、前記映像入力部2には映像データが1フレームずつ入力される。ここでは前記映像入力部2は通信デバイスをもって実現されている。
(1)
The video data input to the
(2)動き特徴抽出部3
前記動き特徴抽出部3は、入力された映像データを複数フレームずつ用いて、物体の動き特徴を抽出する。ここで抽出される動き特徴は、映像に含まれる動物体の領域およびその動き方向およびその変化に関する情報をもつ数値とする。
(2) Motion
The motion
具体的には、前記動き特徴抽出部3は、図2に示すように、特徴量抽出モジュール群6と特徴量選択部7とに大別されている。この特徴量抽出モジュール群6は、k種類の特徴量抽出モジュールにより構成されている。図2中は、各特徴量抽出モジュールを、特徴量1抽出モジュールから特徴量k抽出モジュールと示している。この各特徴量抽出モジュールは、映像入力部2から入力された時系列の画像フレームを用いて、それぞれ特徴量1から特徴量kを抽出し、その時系列をそれぞれ特徴量選択部7に出力している。
Specifically, the motion
この特徴量1から特徴量kは、画像フレームの時系列から抽出可能な特徴、即ち画像フレーム中の動物体が動くことによって生じる画像の変化の特徴を意味する。ここでは動きベクトルとして説明する。ただし、時空間特徴(動領域を「1」、背景を「0」とする二値画像を1列に展開して複数フレーム分並べた、画素数×フレーム数次元の特徴量)や、フレーム間差分特徴(隣り合うフレーム同士の差分によって生成される二値画像の画素の並びである、画素数次元の特徴量)などを用いてもよい。 The feature amounts 1 to k mean features that can be extracted from the time series of image frames, that is, features of image changes caused by movement of moving objects in the image frames. Here, it will be described as a motion vector. However, spatio-temporal features (features of the number of pixels x number of frames in which binary images with a moving region of "1" and a background of "0" are expanded in a row and arranged for multiple frames) and between frames A difference feature (a feature quantity in the number-of-pixels dimension, which is an array of pixels of a binary image generated by a difference between adjacent frames) may be used.
前記特徴量選択部7では、特徴量選択基準に基づき特徴量1から特徴量kのいずれかを組み合わせたN次元の識別特徴量を時系列に出力する。この特徴量選択基準は、各特徴量のいずれを用いるかを示す基準、即ち特徴量1から特徴量kに対応する数値の組からなり、外部からGUI(Graphic User Interface)、またはコマンドプロンプトで入力することができる。この場合の入力は前記入力手段を用いればよい。なお、前記特徴量選択基準はプログラムなどに事前に定義された閾値としてもよい。
The feature quantity selection unit 7 outputs N-dimensional discriminating feature quantities in combination with any one of the
図3は、前記各特徴量抽出モジュールの構成例を示している。ここでは各特徴量抽出モジュールは、変化領域抽出部8,動きベクトル算出部9,統合ベクトル部10,連続時間カウント部13,配列格納部14を有している。
FIG. 3 shows a configuration example of each of the feature quantity extraction modules. Here, each feature amount extraction module includes a change
具体的な処理を説明すれば、まず前記動きベクトル算出部9は、動きベクトル配列を求める。この動きベクトルは、画像中の各画素の位置(x.y)と、該位置(x.y)の検出時刻におけるその画素の動き方向(u.v)を示す二次元ベクトルとを対応させた組(x.y.u.v)の配列とする。ここで求めた動きベクトル(x.y.u.v)を、前記統合ベクトル算出部10に出力する。
To describe a specific process, first, the motion
以下、本実施形態では、一般的にオプティカルフローと呼ばれるものと、これを空間的、時間的に平均するなど加工したベクトルとを合わせて動きベクトルとする。このオプティカルフローを求めるには輝度勾配に基づく方法や、非特許文献2に記載された領域のマッチングに基づく方法を用いてもよい。つぎに前記変化領域抽出部8では、動物体領域と背景領域を分離した二値画像を前記統合ベクトル算出部10に出力する。
Hereinafter, in this embodiment, what is generally called an optical flow and a processed vector such as spatially and temporally averaged are combined as a motion vector. In order to obtain this optical flow, a method based on luminance gradient or a method based on region matching described in
前記統合ベクトル算出部10は、前記変化領域算出部8の出力した二値画像と、前記動きベクトル算出部9の出力した動きベクトルとから、画像全体の特徴量として統合されたベクトルを求め、前記連続時間カウント部13に出力する。ここで動きベクトル算出部9の出力は、各画素に対応した動きベクトル(始点座標と終点座標で定まる4次元の情報)からなる数値の集合の時系列である。
The integrated
例えば、(代表ベクトルの始点x座標、代表ベクトルの始点y座標、代表ベクトルの終点x座標、代表ベクトル終点y座標)の組の時系列として出力される。統合ベクトル算出部10は、変化領域の情報(二値画像)と動きベクトルの情報を統合して、画像全体としての動き特徴を示す統合された動きベクトルの時系列が出力される。
For example, it is output as a time series of a set of (representative vector start point x coordinate, representative vector start point y coordinate, representative vector end point x coordinate, representative vector end point y coordinate). The integrated
図4は、前記統合ベクトル算出部10の構成例を示している。ここでは前記統合ベクトル算出部10は、モーション履歴画像生成部11,マスク処理部12を有している。このモーション履歴画像生成部11は、変化領域の時間的変化を重畳した画像(モーション履歴画像)を生成する。このモーション履歴画像は、ある一定時間における動物体の動きの大きさや方向を知るために用いられ、非特許文献3にその方法が示されている。
FIG. 4 shows a configuration example of the integrated
具体的には、前記モーション履歴画像生成部11には、前記変化領域抽出部8から時系列の二値画像が入力され、動き領域の画素にゼロ以外の数値をあてはめ、それ以外の領域をゼロとしたマスク画像を生成する。このマスク画像はマスク処理部12に入力される。このマスク処理部12には、併せて前記動きベクトル算出部9から動きベクトル配列(x,y,u,v)が入力される。そして、前記マスク処理部12は、マスク画像のマスク内部についてベクトルを平均化することで統合されたベクトルを求めている。ここでは空間平均と時間平均から動きベクトルを統合する。
Specifically, a time-series binary image is input to the motion history image generation unit 11 from the change
前記マスク処理部12の統合処理の一例を図5に基づき説明する。図5(a)は、時刻tにおける変化領域と、その領域の動きの方向と大きさを示すベクトルを矢印で表示している。図5(b)は、同様に時刻t+kにおける状態を表している。図5(c)は、時刻tと時刻t+1の変化領域を重畳した状態を表している。この状態はモーション履歴画像に該当する。
An example of the integration process of the
すなわち、前記モーション履歴画像生成部11の処理は、図5(a)〜図5(c)間の処理に相当している。ここでは時刻tと時刻t+kの2つの時刻のみを重畳しているが、間隔kや何時刻分を重畳するかは可変パラメータなので、任意に変更できる。図5(c)の重畳した変化領域について、領域ごとに内接する矩形の縦横の長さを求め、矩形の外周または矩形の面積が一定の閾値以上であるもの、または大きい方から一定の数だけの領域を選択する。この閾値および前記可変パラメータはプログラムなどに定義しておけばよい。 That is, the process of the motion history image generation unit 11 corresponds to the process between FIGS. 5 (a) to 5 (c). Here, only two times of time t and time t + k are superposed, but the interval k and how many times are superposed are variable parameters and can be arbitrarily changed. For the overlapped change region in FIG. 5C, the vertical and horizontal lengths of the inscribed rectangles are obtained for each region, and the rectangle outer circumference or the rectangular area is equal to or larger than a certain threshold value, or a certain number from the larger one Select the area. The threshold value and the variable parameter may be defined in a program or the like.
そして、前記モーション履歴画像生成部11は、前記選択領域を「1」、それ以外の領域を「0」とするような、マスク画像を出力する。図5(d)において、前記選択領域のみについて、ベクトルの統合を行う。このときマスクの内部のベクトルの平均を求め、これを統合されたベクトルとする。図5(d)は、統合ベクトル算出部における処理を示している。図5(d)中の矢印Pは代表ベクトルに相当している。また、図5(e)(f)は、図5(c)(d)の具体的な処理画像例を示している。以下、統合の処理方法の例を2つ示す。 Then, the motion history image generation unit 11 outputs a mask image in which the selected area is “1” and the other areas are “0”. In FIG. 5D, vector integration is performed only for the selected region. At this time, the average of the vectors inside the mask is obtained, and this is used as an integrated vector. FIG. 5D shows processing in the integrated vector calculation unit. An arrow P in FIG. 5D corresponds to a representative vector. FIGS. 5E and 5F show specific processed image examples of FIGS. 5C and 5D. Hereinafter, two examples of the integration processing method will be described.
第一の方法は、まず、図5(a)における時刻tの変化領域A(t) 1と変化領域A(t) 2内の画素すべてに、それぞれ領域の動きの方向と大きさを示すベクトルv(t) 1とベクトルv(t) 2に対応する数値を付与する。同様に、図5(b)における時刻t+kの変化領域A(t+k) 1と変化領域A(t+k) 2内の画素すべてに、それぞれ領域の動きの方向と大きさを示すベクトルv(t+k) 1とベクトルv(t+k) 2に対応する数値をもたせる。 In the first method, first, a vector indicating the direction and magnitude of the movement of each of the pixels in the change area A (t) 1 and the change area A (t) 2 at time t in FIG. Numerical values corresponding to v (t) 1 and vector v (t) 2 are assigned. Similarly, a vector v indicating the direction and magnitude of the movement of each of the pixels in the change area A (t + k) 1 and the change area A (t + k) 2 at time t + k in FIG. The numerical values corresponding to (t + k) 1 and the vector v (t + k) 2 are given.
つぎに、図5(c)において、矩形内の画素がそれぞれその数値をもっているとき、矩形が重なり合う部分には両方の矩形の数値を統合した数値を与える。ベクトルに対応する数値をベクトルの(始点x,始点y)と(終点x,終点y)の組とするとき、平均はこれら4つの数値それぞれの平均として求める。 Next, in FIG. 5C, when each pixel in the rectangle has the numerical value, a numerical value obtained by integrating the numerical values of both the rectangles is given to a portion where the rectangles overlap. When the numerical value corresponding to the vector is a set of (start point x, start point y) and (end point x, end point y) of the vector, the average is obtained as the average of each of these four numerical values.
また、ベクトルに対応する数値をベクトルの方向(360度)をN個の領域に分割して、1からNまでの数値をあてはめてもよい。この場合は、矩形が重なり合う部分には、その数値の平均した数値を与える。方向の分割の仕方は、例えば0度〜45度および315度〜360度、45度〜135度、135度〜225度、225度〜315度の4分割(N=4)などのようにして、各領域に数値1〜4を割り当てればよい。
In addition, the numerical value corresponding to the vector may be divided into N regions in the vector direction (360 degrees), and numerical values from 1 to N may be applied. In this case, the average value of the numerical values is given to the portion where the rectangles overlap. The way of dividing the direction is, for example, four divisions (N = 4) of 0 degrees to 45 degrees and 315 degrees to 360 degrees, 45 degrees to 135 degrees, 135 degrees to 225 degrees, and 225 degrees to 315 degrees. The
この場合に315度の境界で数値に不連続性が生じるため、この方向のベクトルが頻繁に発生する場合には誤差が大きくなるため注意が必要である。したがって、45度の方向の発生頻度が低ければ、前述のとおりの4分割とし、0度の方向の発生頻度が低ければ、0度〜90度、90度〜180度、180度〜270度、270度〜360度の4分割というように、発生頻度の低い方向を不連続の境界にもってくるようにする。より正確に対応する必要がある場合、もしくは発生頻度の低い方向が不明な場合には、非特許文献4に記載された角度統計の相関係数を適用することもできる。 In this case, discontinuity occurs in the numerical value at the boundary of 315 degrees. Therefore, when a vector in this direction is frequently generated, the error becomes large, so care must be taken. Therefore, if the occurrence frequency in the direction of 45 degrees is low, it is divided into four as described above, and if the occurrence frequency in the direction of 0 degrees is low, 0 degrees to 90 degrees, 90 degrees to 180 degrees, 180 degrees to 270 degrees, A direction with low occurrence frequency is brought to a discontinuous boundary, such as four divisions of 270 to 360 degrees. When it is necessary to correspond more accurately, or when the direction of low occurrence frequency is unknown, the correlation coefficient of angle statistics described in Non-Patent Document 4 can be applied.
第二の方法は、変化領域のうち面積最大の領域のベクトルに対応するベクトルの(始点x,始点y)と(終点x,終点y)の組を代表ベクトルとする方法である。 The second method is a method in which a set of (start point x, start point y) and (end point x, end point y) corresponding to the vector of the region having the largest area among the change regions is used as a representative vector.
ここで前記連続時間カウント部13の処理例を述べる。ここでは前記統合ベクトル算出部10にて統合されたベクトル(画像の時系列に対応する数値の時系列)が入力されている。このとき前記連続時間カウント部13は、統合されたベクトルがゼロでない連続時間をカウントする(動きベクトルの時間平均がゼロでないフレームをカウントする。)。カウントされた連続時間は、前記配列格納部(例えばメモリなど)14にて統合されたベクトルとともにデータ配列に特徴量として格納され、前記特徴量選択部7に出力される。
Here, a processing example of the continuous
ここでカウントされた連続時間は、動物体がどの程度の時間連続して出現するかを示していることから、これを特徴量に加えることで前記識別部4において、長時間動き続けている動物体がある場合に、これを非定常として検出することが可能となる。 The continuous time counted here indicates how long the moving object appears continuously. By adding this to the feature amount, the identification unit 4 keeps moving for a long time. When there is a body, this can be detected as non-stationary.
以上の各特徴量抽出モジュールの処理フローを図6に示す。ここでは入力される映像フレームをI(x,y,t−s),I(x,y,t−s+1),,,I(x,y,t)とする。また、「x,y」は画像の座標値、tは現在の時刻、sは現在の特徴量を求めるために必要な過去のフレームの枚数を示し、処理の開始はt=0とする。 FIG. 6 shows a processing flow of each of the above feature quantity extraction modules. Here, it is assumed that the input video frames are I (x, y, ts), I (x, y, ts + 1),, I (x, y, t). Further, “x, y” is the coordinate value of the image, t is the current time, s is the number of past frames necessary to obtain the current feature amount, and the start of processing is t = 0.
S01:まず、オプティカルフローを算出する。ここではオプティカルフローを求めた画像をIo(x,y,t)=(u(x,y,t),v(x,y,t))とする。 S01: First, an optical flow is calculated. Here, it is assumed that an image for which the optical flow is obtained is I o (x, y, t) = (u (x, y, t), v (x, y, t)).
S02.S03:S01と平行して背景差分などによって動物体領域を求め(S02)、該領域にラベリングと各領域の画素数の算出処理を施す(S03)。 S02. S03: In parallel with S01, a moving object region is obtained by background difference or the like (S02), and the region is labeled and the number of pixels in each region is calculated (S03).
ここでは動物体領域を、ラベリングして属する画素数の多いほうからn個の領域についての面積(画素数)をA0(x,y,t),...,An(x,y,t)とする。 Here, the area (number of pixels) for the n regions from the larger number of pixels to which the moving object region is labeled is defined as A 0 (x, y, t),. . . , A n (x, y, t).
S04:S03の算出処理した画像について空間平均(中心座標、方向ベクトル)を算出する。ここでは時刻tにおいて座標(x,y)の画素がk番目の動領域に属していて、その画素数がMのとき、Ak(x,y,t)=Mとする。空間平均(中心座標、方向ベクトル)算出の出力を(Xs(t),Ys(t),us(t),vs(t))として、以下のように計算する。
Xs(t)=(Ak(x,y,t)!=0であるxの平均)
Ys(t)=(Ak(x,y,t)!=0であるyの平均)
us(t)=1/(Σk=1〜nAk(x,y,t))×Σk=1〜nu(x,y,t)×Ak(x,y,t)
vs(t)=1/(Σk=1〜nAk(x,y,t))×Σk=1〜nv(x,y,t)×Ak(x,y,t)
その後に「t=t+1」として、S101.S102に戻って次フレームの処理を続ける。
S04: A spatial average (center coordinate, direction vector) is calculated for the image subjected to the calculation processing in S03. Here, when the pixel at coordinates (x, y) belongs to the k-th moving region at time t and the number of pixels is M, A k (x, y, t) = M. The output of the spatial average (center coordinate, direction vector) calculation is calculated as follows (X s (t), Y s (t), u s (t), v s (t)).
X s (t) = (A k (x, y, t)! = 0 x average)
Y s (t) = (average of y where A k (x, y, t)! = 0)
u s (t) = 1 / (Σ k = 1~n A k (x, y, t)) × Σ k = 1~n u (x, y, t) × A k (x, y, t)
v s (t) = 1 / (Σ k = 1~n A k (x, y, t)) × Σ k = 1~n v (x, y, t) × A k (x, y, t)
Then, “t = t + 1” is set, and S101. Returning to S102, processing of the next frame is continued.
S05:時間平均(中心座標、方向ベクトル)の算出を行う(S05)。ここでは(Xs(t−s),Ys(t−s),us(t−s),vs(t−s)),...(Xs(t),Ys(t),us(t),vs(t))の時間平均(Xst(t),Yst(t),ust(t),vst(t))を成分ごとの平均として求める。 S05: A time average (center coordinate, direction vector) is calculated (S05). Here (X s (t-s) , Y s (t-s), u s (t-s), v s (t-s)) ,. . . (X s (t), Y s (t), u s (t), vs s (t)) time average (X st (t), Y st (t), u st (t), v st ( t)) is determined as an average for each component.
S06〜S08:S05で時間平均を求めた結果の動きベクトル(ust(t),vst(t))が、連続したゼロベクトル(0,0)か否かを確認する(S06)。 S06 to S08: It is confirmed whether or not the motion vector (u st (t), v st (t)) obtained as a result of obtaining the time average in S05 is a continuous zero vector (0, 0) (S06).
そして、連続したゼロベクトル(0,0)のフレーム数[C(t)=0]を除外し(S07)、連続したゼロベクトル(0,0)でないフレーム数[C(t)=C(t−1)+1]をカウントする(S08)。 Then, the number of frames [C (t) = 0] of consecutive zero vectors (0, 0) is excluded (S07), and the number of frames that are not consecutive zero vectors (0, 0) [C (t) = C (t -1) +1] is counted (S08).
S09:S05で求めた時間平均にS08にてカウントしたフレーム数C(t)を加えた(Xst(t),Yst(t),ust(t),vst(t),C(t))を特徴量としてデータ配列に格納する。 S09: The number of frames C (t) counted in S08 is added to the time average obtained in S05 (X st (t), Y st (t), u st (t), v st (t), C ( t)) is stored in the data array as a feature quantity.
(3)識別部4
図7は、前記識別部4の構成例を示している。ここでは前記識別部4には、特徴量1から特徴量kの組み合わせからなるN次元の識別特徴量の時系列データが入力される。図7中のSVM識別器15は、入力された時系列データをSVM(サポートベクタマシン)手法を用いて統計的に識別特徴量を定常と非定常に識別した結果を特徴量評価部6に出力する。ここで時系列の入力に対するSVMのアルゴリズムとしては、非特許文献5に記載のように、インクリメンタルな1クラスのSVMを用いて、教師無しのオンライン識別を用いることができる。
(3) Identification unit 4
FIG. 7 shows a configuration example of the identification unit 4. Here, the identification unit 4 is input with time-series data of N-dimensional identification feature quantities composed of combinations of
特徴量評価部16は、SVM識別器15を用いた識別の過程で生成されるサポートベクトル群を用いて、N次元の特徴量の要素に対応して、その要素を最終的に識別に用いるかどうかの判定を行う。ここではON/OFFを示すN個の論理値をSVM識別器15にフィードバックしている。サポートベクトルは、入力された各特徴量のサブセットであって、定常と非定常の識別境界に位置する特徴量に当たるため、サポートベクトル群および定常、非定常の分布を調べることで、入力された各特徴量のどの次元が定常と非定常の分離に寄与しているかを推定することができる。
The feature quantity evaluation unit 16 uses the support vector group generated in the identification process using the
図8は実際の画像から得られた特徴量を用いて識別を行い、特徴量のうちの2次元分の特徴軸上で、定常と非定常とサポートベクトルの分布を示したものである。図8(a)は、サポートベクトルは定常の島(定常のクラスと考えられる)の周辺に偏って分布し、定常の分布の外側に非定常が分布しており、比較的よく定常と非定常が分離できているが、図8(b)ではサポートベクトルと定常が重なっており非定常も定常と重なりが大きい。 FIG. 8 shows identification using feature amounts obtained from actual images, and shows distributions of stationary, non-stationary, and support vectors on two-dimensional feature axes of the feature amounts. In FIG. 8 (a), the support vectors are distributed unevenly around a stationary island (considered as a stationary class), and non-stationary is distributed outside the stationary distribution. However, in FIG. 8B, the support vector and the stationary state overlap, and the unsteady state also has a large overlap with the stationary state.
そこで、前記特徴量評価部16は、サポートベクトルの偏り具合を評価することで、その特徴次元が定常、非定常の識別に寄与しているかどうかの指標に用いることができる。ここでは特徴量の各次元について、定常の分散に対するサポートベクトルの分散の比、または定常の分散に対する非定常の分散の比を求め、比の値が大きいほうが、その特徴次元での分離度がよいと判定し、分離度の高い次元はON、低い次元はOFFとするN個の論理値が前記SVM識別器15にフィードバックされ、定常・非定常のフラグ(flag)の時系列が表示部5に出力され、表示部5で画面表示される。
Therefore, the feature quantity evaluation unit 16 can be used as an indicator of whether or not the feature dimension contributes to the steady / unsteady discrimination by evaluating the degree of bias of the support vector. Here, for each dimension of the feature quantity, the ratio of the dispersion of the support vector to the stationary variance or the ratio of the non-stationary variance to the stationary variance is obtained, and the larger the ratio value, the better the separation in the feature dimension. N logical values with the high degree of separation being ON and the low dimension being OFF are fed back to the
このように前記非定常度推定装置1によれば、動き特徴抽出部3において映像中の動物体の動きベクトルに基づく情報を低次元の特徴量として安定的に抽出し、統計的な識別器4に入力できるため、高速に高精度な非定常検出を行うことができる。特に、動き特徴抽出部3が、動きの連続性を特徴量に加え、動きベクトルを動物体領域の動きの大きさや該領域自体の大きさを反映して、空間的・時間的に平均化することから、特徴量の安定化が図られ、特徴量の次元数による計算量が減少し、この点で高速で低コストの非定常検出が実現する。また、識別器4が、特徴量評価部16を用いて、サポートベクトルおよび定常/非定常の部分分布状態から特徴量を評価し、識別に有効に寄与する特徴量の要素を選択することから、定常/非定常に寄与しないノイズの影響が抑制され、識別演算の計算コストも低減される。
As described above, according to the non-stationary
なお、本発明は、上記実施形態に限定されるものではなく、装置構成などは各請求項に記載した範囲内で適宜に変更することができる。例えば、図9に示すように、前記各特徴量抽出モジュールの連続時間カウント部13を廃止することもできる。この場合は、図6中のS06〜S09が省略され、前記各統合ベクトル算出部10で統合されたベクトル(画像の時系列に対応する数値の時系列)、即ち図9の時間平均(Xst(t),Yst(t),ust(t),vst(t))が特徴量に用いられるものの、通常の動物体であれば好適に非定常度として検出することができる。
In addition, this invention is not limited to the said embodiment, A device structure etc. can be suitably changed within the range described in each claim. For example, as shown in FIG. 9, the continuous
また、本発明は、前記非定常度推定装置1としてコンピュータを機能させるプログラムとしても構築することができる。このプログラムは、コンピュータに前記各部1〜5の処理のすべてを実行させるものでもよく、また前記動き特徴抽出部3・前記識別部4などの一部の処理を実行させるものでもよい。
The present invention can also be constructed as a program that causes a computer to function as the non-stationary
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供することができる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に格納してコンピュータに提供してもよい。この記録媒体から読み出されたプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。 This program can be provided to a computer by downloading from a website or the like. The program is stored in a recording medium such as a CD-ROM, DVD-ROM, CD-R, CD-RW, DVD-R, DVD-RW, MO, HDD, Blu-ray Disk (registered trademark). It may be provided to a computer. Since the program code itself read from the recording medium realizes the processing of the above embodiment, the recording medium also constitutes the present invention.
1…非定常度推定装置
2…映像入力部
3…動き特徴抽出部(動き特徴週出手段)
4…識別部(識別手段)
5…表示部
6…特徴量抽出モジュール群
7…特徴量選択部(特徴量選択手段)
8…変化領域選択部(変化領域抽出手段)
9…動きベクトル算出部(動きベクトル算出手段)
10…統合ベクトル算出部(統合ベクトル算出手段)
11…モーション履歴画像生成部(モーション画像生成手段)
12…マスク処理部(マスク処理手段)
13…連続時間カウント部(連続カウント手段)
14…配列格納部
15…SVM識別器(SVM識別手段)
16…特徴量評価部(特徴量評価手段)
DESCRIPTION OF
4 ... Identification part (identification means)
DESCRIPTION OF
8 ... Change area selection section (change area extraction means)
9: Motion vector calculation unit (motion vector calculation means)
10: Integrated vector calculation unit (integrated vector calculation means)
11 ... Motion history image generation unit (motion image generation means)
12 ... Mask processing section (mask processing means)
13 ... Continuous time counting section (continuous counting means)
14 ...
16... Feature amount evaluation unit (feature amount evaluation means)
Claims (10)
前記撮影装置からの入力映像中において動物体の動きに基づく特徴量を抽出する動き特徴抽出手段と、
前記動き特徴抽出手段の抽出した特徴量から前記入力映像の非定常性を識別する識別手段と、
を備えることを特徴とする非定常度推定装置。 A device that extracts feature quantities based on movements of moving objects included in a video imaged by an imaging device and identifies unsteady scenes by statistical processing,
Movement feature extraction means for extracting feature amounts based on the movement of the moving object in the input video from the imaging device;
Identification means for identifying non-stationaryness of the input video from the feature amount extracted by the motion feature extraction means;
An unsteady degree estimation device comprising:
前記各特徴量抽出モジュールの生成した特徴量を、特徴量選択基準に基づいて選択し、該選択された各特徴量の組合せの時系列を前記識別部に出力する特徴量選択手段と、
を備えることを特徴とする請求項1記載の非定常度推定装置。 The motion feature extraction unit includes a plurality of feature quantity extraction modules that generate time-series feature quantities from the input video;
Feature quantity selection means for selecting a feature quantity generated by each feature quantity extraction module based on a feature quantity selection criterion, and outputting a time series of combinations of the selected feature quantities to the identification unit;
The nonstationary degree estimation apparatus according to claim 1, further comprising:
前記入力映像中の時系列の各画像において、各画素の位置(x.y)と該画素の動き方向(u.v)を示す二次元ベクトルをペアにした動きベクトル配列(x.y.u.v)を求める動きベクトル算出手段と、
前記動物体領域の情報と前記動きベクトル配列の情報とを統合し、該統合されたベクトルのペアを特徴量として求める統合ベクトル算出手段と、
を備えることを特徴とする請求項2記載の非定常度推定装置。 Each feature amount extraction module extracts a moving body region in the input video, and a change region extracting means for obtaining a binary image of the moving body region and a background region;
In each time-series image in the input video, a motion vector array (x.y.u) in which two-dimensional vectors indicating the position (x.y) of each pixel and the movement direction (u.v) of the pixel are paired. V) motion vector calculation means for obtaining
Integrated vector calculation means for integrating the information of the moving body region and the information of the motion vector arrangement, and obtaining the integrated vector pair as a feature amount;
The nonstationary degree estimation apparatus according to claim 2, comprising:
前記動きベクトル配列を、前記モーション履歴画像を用いてマスク処理を行うマスク処理手段と、
を備えることを特徴とする請求項3記載の非定常度推定装置。 The integrated vector calculation means includes a motion history generation means for generating a motion history image obtained by temporally superimposing the binary images in time series, applying a numerical value to the moving body region, and setting the background region to zero.
Mask processing means for performing a mask process on the motion vector array using the motion history image;
The nonstationary degree estimation apparatus according to claim 3, further comprising:
前記カウント時間を前記統合されたベクトルのペアに付加した特徴量を前記特徴量選択部に出力する
ことを特徴とする請求項2〜4のいずれか1項に記載の非定常度推定装置。 Each of the feature quantity extraction modules further includes a continuous time counting unit that counts a time during which the integrated vector pair appears continuously,
The unsteady degree estimation apparatus according to any one of claims 2 to 4, wherein a feature amount obtained by adding the count time to the integrated vector pair is output to the feature amount selection unit.
前記SVM識別手段で生成されたサポートベクトル群および定常/非定常の識別結果から、N次元の特徴量の要素に応じて該要素を最終的に識別に用いるか否かを示すN個の論理値を前記識別機器にフィードバックする特徴量評価手段とを備え、
定常・非定常のプラグの時系列を識別結果として表示させることを特徴とする請求項2〜5のいずれか1項に記載の非定常度推定装置。 The identification means includes an SVM identification means for classifying an N-dimensional identification feature quantity combining the feature quantities of each feature quantity extraction module into a steady / non-stationary state using an SVM (support vector machine) method;
N logical values indicating whether or not the element is finally used for identification according to the element of the N-dimensional feature quantity from the support vector group generated by the SVM identification means and the stationary / non-stationary identification result And feature quantity evaluation means for feeding back to the identification device,
The unsteady degree estimation apparatus according to any one of claims 2 to 5, wherein a time series of steady and unsteady plugs is displayed as an identification result.
動き特徴量抽出手段が、前記撮影装置からの入力映像中において動物体の動きに基づく特徴量を抽出する動き特徴抽出ステップと、
識別手段が、前記動き特量抽出ステップで抽出した特徴量から前記入力映像の非定常性を識別する識別ステップと、
を有することを特徴とする非定常度推定方法。 A method of extracting feature quantities based on the movement of an animal body included in an image captured by an imaging device and identifying unsteadiness of a scene by statistical processing,
A motion feature extraction step, wherein the motion feature amount extraction means extracts a feature amount based on the movement of the moving object in the input video from the imaging device;
An identifying step for identifying non-stationarity of the input video from the feature amount extracted in the motion feature amount extraction step;
A non-stationary degree estimation method characterized by comprising:
複数の特徴量抽出モジュールのそれぞれが、前記入力映像から時系列の特徴量を生成する特徴量生成ステップと、
特徴量選択手段が、前記特徴量生成ステップで生成した各特徴量を、特徴量選択基準に基づいて選択し、該選択された各特徴量の組合せの時系列を前記識別部に出力する特徴量選択ステップと、
を有することを特徴とする請求項7記載の非定常度推定方法。 The motion feature extraction step includes:
Each of a plurality of feature amount extraction modules generates a feature amount in time series from the input video, and
A feature quantity selecting unit selects each feature quantity generated in the feature quantity generation step based on a feature quantity selection criterion, and outputs a time series of combinations of the selected feature quantities to the identification unit A selection step;
The nonstationary degree estimation method according to claim 7, wherein:
前記入力映像中の動物体領域を抽出し、該動物体領域と背景領域の二値画像を求める変化領域抽出ステップと、
前記入力映像中の時系列の各画像において、各画素の位置(x.y)と該画素の動き方向(u.v)を示す二次元ベクトルをペアにした動きベクトル配列(x.y.u.v)を求める動きベクトル算出ステップと、
前記動物体領域の情報と前記動きベクトル配列の情報とを統合し、該統合されたベクトルのペアを特徴量として求める統合ベクトル算出ステップと、
を有することを特徴とする請求項8記載の非定常度推定方法。 The feature generation step includes
Extracting a moving body region in the input video, and a change region extracting step for obtaining a binary image of the moving body region and a background region;
In each time-series image in the input video, a motion vector array (x.y.u) in which two-dimensional vectors indicating the position (x.y) of each pixel and the movement direction (u.v) of the pixel are paired. V) a motion vector calculation step for obtaining
An integrated vector calculating step of integrating the information of the moving body region and the information of the motion vector arrangement, and obtaining the integrated vector pair as a feature amount;
The nonstationary degree estimation method according to claim 8, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008304946A JP5002575B2 (en) | 2008-11-28 | 2008-11-28 | Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008304946A JP5002575B2 (en) | 2008-11-28 | 2008-11-28 | Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010128947A true JP2010128947A (en) | 2010-06-10 |
JP5002575B2 JP5002575B2 (en) | 2012-08-15 |
Family
ID=42329275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008304946A Expired - Fee Related JP5002575B2 (en) | 2008-11-28 | 2008-11-28 | Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5002575B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013124923A1 (en) * | 2012-02-23 | 2013-08-29 | パナソニック株式会社 | Region-of-interest specification device, region-of-interest specification method, and region-of-interest specification program |
WO2014201362A3 (en) * | 2013-06-14 | 2015-03-05 | Qualcomm Incorporated | Computer vision application processing |
JP6116765B1 (en) * | 2015-12-02 | 2017-04-19 | 三菱電機株式会社 | Object detection apparatus and object detection method |
CN112231479A (en) * | 2020-10-23 | 2021-01-15 | 新华三信息安全技术有限公司 | Security audit method and device |
KR20210118029A (en) * | 2017-05-04 | 2021-09-29 | 비아비 솔루션즈 아이엔씨. | Endpoint detection in manufacturing process by near infrared spectroscopy and machine learning techniques |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002312769A (en) * | 2001-04-16 | 2002-10-25 | Matsushita Electric Ind Co Ltd | Monitoring device and parameter setting method therefor |
-
2008
- 2008-11-28 JP JP2008304946A patent/JP5002575B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002312769A (en) * | 2001-04-16 | 2002-10-25 | Matsushita Electric Ind Co Ltd | Monitoring device and parameter setting method therefor |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013124923A1 (en) * | 2012-02-23 | 2015-05-21 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Interest section identification device, interest section identification method, interest section identification program |
US9288463B2 (en) | 2012-02-23 | 2016-03-15 | Panasonic Intellectual Property Corporation Of America | Interesting section identification device, interesting section identification method, and interesting section identification program |
WO2013124923A1 (en) * | 2012-02-23 | 2013-08-29 | パナソニック株式会社 | Region-of-interest specification device, region-of-interest specification method, and region-of-interest specification program |
US10091419B2 (en) | 2013-06-14 | 2018-10-02 | Qualcomm Incorporated | Computer vision application processing |
WO2014201362A3 (en) * | 2013-06-14 | 2015-03-05 | Qualcomm Incorporated | Computer vision application processing |
CN105284102A (en) * | 2013-06-14 | 2016-01-27 | 高通股份有限公司 | Computer vision application processing |
US10694106B2 (en) | 2013-06-14 | 2020-06-23 | Qualcomm Incorporated | Computer vision application processing |
US10643338B2 (en) | 2015-12-02 | 2020-05-05 | Mitsubishi Electric Corporation | Object detection device and object detection method |
WO2017094140A1 (en) * | 2015-12-02 | 2017-06-08 | 三菱電機株式会社 | Object detection device and object detection method |
JP6116765B1 (en) * | 2015-12-02 | 2017-04-19 | 三菱電機株式会社 | Object detection apparatus and object detection method |
KR20210118029A (en) * | 2017-05-04 | 2021-09-29 | 비아비 솔루션즈 아이엔씨. | Endpoint detection in manufacturing process by near infrared spectroscopy and machine learning techniques |
JP2022017405A (en) * | 2017-05-04 | 2022-01-25 | ヴァイアヴィ・ソリューションズ・インコーポレイテッド | Endo point detection in manufacturing process by near-infrared spectroscopy and machine learning technology |
JP7237124B2 (en) | 2017-05-04 | 2023-03-10 | ヴァイアヴィ・ソリューションズ・インコーポレイテッド | Endpoint detection in manufacturing processes using near-infrared spectroscopy and machine learning techniques |
KR102576834B1 (en) * | 2017-05-04 | 2023-09-08 | 비아비 솔루션즈 아이엔씨. | Endpoint detection in manufacturing process by near infrared spectroscopy and machine learning techniques |
CN112231479A (en) * | 2020-10-23 | 2021-01-15 | 新华三信息安全技术有限公司 | Security audit method and device |
CN112231479B (en) * | 2020-10-23 | 2023-03-31 | 新华三信息安全技术有限公司 | Security audit method and device |
Also Published As
Publication number | Publication date |
---|---|
JP5002575B2 (en) | 2012-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10984252B2 (en) | Apparatus and method for analyzing people flows in image | |
Cernekova et al. | Information theory-based shot cut/fade detection and video summarization | |
US8385646B2 (en) | Image processing | |
US8619135B2 (en) | Detection of abnormal behaviour in video objects | |
RU2607774C2 (en) | Control method in image capture system, control apparatus and computer-readable storage medium | |
US10079974B2 (en) | Image processing apparatus, method, and medium for extracting feature amount of image | |
EP3709266A1 (en) | Human-tracking methods, apparatuses, systems, and storage media | |
EP2919153A1 (en) | Event detection apparatus and event detection method | |
US20080253617A1 (en) | Method and Apparatus for Determining the Shot Type of an Image | |
US11049256B2 (en) | Image processing apparatus, image processing method, and storage medium | |
Kumar et al. | Key frame extraction from consumer videos using sparse representation | |
CN108229289B (en) | Target retrieval method and device and electronic equipment | |
JP5002575B2 (en) | Unsteady degree estimation device, unsteady degree estimation method, unsteady degree estimation program | |
JPWO2018061976A1 (en) | Image processing device | |
CN111783665A (en) | Action recognition method and device, storage medium and electronic equipment | |
US20090322875A1 (en) | Surveillance system, surveillance method and computer readable medium | |
US10614336B2 (en) | Method, system, and computer-readable recording medium for image-based object tracking | |
US11647152B2 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
CN102314591A (en) | Method and equipment for detecting static foreground object | |
JP4572175B2 (en) | Unsteady image detection device, unsteady image detection method, and program implementing the method | |
CN113920585A (en) | Behavior recognition method and device, equipment and storage medium | |
JP7315022B2 (en) | Machine learning device, machine learning method, and machine learning program | |
US10916016B2 (en) | Image processing apparatus and method and monitoring system | |
JPWO2018179119A1 (en) | Video analysis device, video analysis method, and program | |
JP4449483B2 (en) | Image analysis apparatus, image analysis method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20100611 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101217 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120314 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120515 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120521 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150525 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |