JP4826315B2 - Image processing apparatus and method, and program - Google Patents
Image processing apparatus and method, and program Download PDFInfo
- Publication number
- JP4826315B2 JP4826315B2 JP2006099830A JP2006099830A JP4826315B2 JP 4826315 B2 JP4826315 B2 JP 4826315B2 JP 2006099830 A JP2006099830 A JP 2006099830A JP 2006099830 A JP2006099830 A JP 2006099830A JP 4826315 B2 JP4826315 B2 JP 4826315B2
- Authority
- JP
- Japan
- Prior art keywords
- motion vector
- motion
- value
- maximum value
- range
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、画像処理装置および方法、並びにプログラムに関し、特に、オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができるようにした画像処理装置および方法、並びにプログラムに関する。 The present invention relates to an image processing apparatus, method, and program, and more particularly, to an image processing apparatus, method, and program that can estimate a current motion from past motion history information in tracking an object.
従来、追尾や画面内を複数の領域に分割して領域毎に検出したオプティカルフローを解析することで、指定したオブジェクトを追跡する手法などがある。相関値演算においては、例えば、ブロックマッチング法や勾配法などが良く知られている。 Conventionally, there is a method of tracking a designated object by tracking or analyzing an optical flow detected for each area by dividing the screen into a plurality of areas. In the correlation value calculation, for example, a block matching method and a gradient method are well known.
またブロックマッチング法に関わらず、その他の動きベクトル検出手法においても、動きベクトルを検出する評価手法として、例えば、基準ブロックと検査ブロック間の差分絶対値総和などが良く用いられる。 Regardless of the block matching method, in other motion vector detection methods, for example, a sum of absolute differences between a reference block and a check block is often used as an evaluation method for detecting a motion vector.
しかしながら、この手法では、基準ブロックと検査ブロックの相関性の評価しか行っていないため、実際の画像内の物体の動きとは関係の無い動きベクトルが選択され、画像内の動きベクトルが乱れたり、あるいは、近傍動きベクトルとは無相関で孤立した動きベクトルが存在するといった動きベクトルの劣化が発生する。 However, in this method, since only the correlation between the reference block and the inspection block is evaluated, a motion vector unrelated to the motion of the object in the actual image is selected, the motion vector in the image is disturbed, Alternatively, motion vector deterioration such as the presence of an isolated motion vector that is uncorrelated with the nearby motion vector occurs.
そこで、動きベクトルの確らしさを表す指標として、相関値演算の評価値の大きさ、画像の粗さ、または動きベクトルの空間相関性などを用いたものがある。例えば、特許文献1には、動き確度が閾値以上であるか否かにより動きベクトルの確からしさを判断し、その動きベクトルの確度を用いて精度良く動きを検出することができる。
しかしながら、特許文献1は、例えば、他のオブジェクトとの交差により追尾点が消失した場合、前景となった他のオブジェクトの動き確度が閾値以上になると、誤って前景のオブジェクトを追尾してしまうことがある。
However, in
ここで図1を参照して、他のオブジェクトとの交差により追尾に失敗する例を説明する。 Here, an example in which tracking fails due to an intersection with another object will be described with reference to FIG.
図1の例では、フレームn−1において、異なる向きで動くオブジェクト301とオブジェクト302が存在し、追尾対象としてのオブジェクト301に追尾点311が設定されていたとする。 In the example of FIG. 1, it is assumed that there are an object 301 and an object 302 that move in different directions in the frame n−1, and a tracking point 311 is set for the object 301 as a tracking target.
フレームn−1において、フレームn−1とフレームnの間のマッチングの結果、オブジェクト301の動きベクトルが検出される。フレームnにおいて、オブジェクト301とオブジェクト302の交差により、オブジェクト301の前景となったオブジェクト302に追尾点311が移動してしまい、フレームnとフレームn+1の間のマッチングの結果、オブジェクト302の動きベクトルが検出されてしまう。さらに、交差後のフレームn+1においては、オブジェクト302に追尾点311が完全に移動し、オブジェクト301の追尾に失敗することになる。 In frame n-1, the motion vector of the object 301 is detected as a result of matching between frame n-1 and frame n. In frame n, the tracking point 311 moves to the object 302 that is the foreground of the object 301 due to the intersection of the object 301 and the object 302, and as a result of matching between the frame n and the frame n + 1, the motion vector of the object 302 becomes It will be detected. Furthermore, in the frame n + 1 after the intersection, the tracking point 311 completely moves to the object 302, and the tracking of the object 301 fails.
このように、オブジェクトを追尾するために求められる動きベクトルは、相関値演算の評価値や動きベクトルの空間相関性だけでは評価できない場合がある。 As described above, there is a case where the motion vector obtained for tracking the object cannot be evaluated only by the evaluation value of the correlation value calculation or the spatial correlation of the motion vector.
本発明はこのような状況に鑑みてなされたものであり、オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to estimate a current motion from past motion history information in tracking an object.
本発明の一側面の画像処理装置は、移動するオブジェクトを追尾する画像処理装置において、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶する記憶手段と、前記記憶手段に記憶されている前記履歴情報に基づいて、複数の前記過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、前記第1の最大値と前記第1の最小値の差分であるダイナミックレンジを求め、前記第1の最大値に前記ダイナミックレンジを加算した第2の最大値と、前記第1の最小値から前記ダイナミックレンジを減算した第2の最小値を求め、前記第2の最大値と前記第2の最小値を、現在のフレームの予測動きベクトルの範囲として設定する範囲設定手段と、前記オブジェクトの現在のフレームで推定された動きベクトルが、前記予測ベクトルの範囲外である場合、前記オブジェクトの現在の動きは推定不可能であると判断し、前記予測ベクトルの範囲内である場合、前記オブジェクトの現在の動きは推定可能であると判断する判断手段と、前記判断手段により、推定不可能であると判断された場合、前記記憶手段に記憶されている前記過去の動きベクトルを読み出して外挿する外挿手段とを備える。 An image processing apparatus according to one aspect of the present invention is an image processing apparatus that tracks a moving object, and stores a past motion vector of the object in the image as history information, and is stored in the storage means. A first maximum value and a first minimum value, and a difference between the first maximum value and the first minimum value from among the plurality of past motion vectors based on the history information. A dynamic range is obtained, a second maximum value obtained by adding the dynamic range to the first maximum value, a second minimum value obtained by subtracting the dynamic range from the first minimum value, and the second maximum value obtained. Range setting means for setting the maximum value and the second minimum value as the range of the predicted motion vector of the current frame, and the motion vector estimated in the current frame of the object Is outside the range of the prediction vector, it is determined that the current motion of the object cannot be estimated, and if it is within the range of the prediction vector, the current motion of the object can be estimated. Judgment means for judging, and extrapolation means for reading out and extrapolating the past motion vector stored in the storage means when the judgment means judges that estimation is impossible .
前記範囲設定手段は、前記ダイナミックレンジが0となったときに、前記予測動きベクトルの範囲が0となるのを防ぐために、前記第2の最大値にさらに閾値を加算した値を第2の最大値とし、前記第2の最大値にさらに前記閾値を減算した値を前記第2の最小値にするようにすることができる。 The range setting means sets a value obtained by adding a threshold value to the second maximum value to prevent the predicted motion vector range from becoming 0 when the dynamic range becomes 0. A value obtained by subtracting the threshold value from the second maximum value may be set as the second minimum value .
前記外挿手段により連続して前記過去の動きベクトルが外挿された場合、前記オブジェクトの現在の動きベクトルを0ベクトルに設定するようにすることができる。 When the past motion vector is extrapolated continuously by the extrapolation means , the current motion vector of the object can be set to 0 vector.
前記外挿手段により、前記過去の動きベクトルが外挿された回数をカウントするカウント手段をさらに備え、前記判断手段により推定可能であると判断された場合、または前記カウンタ手段によるカウンタの値が閾値を超えたと判断された場合、前記カウンタ手段によるカウンタの値を初期化するようにすることができる。 The extrapolation means further includes count means for counting the number of times the past motion vector has been extrapolated, and when the judgment means judges that the estimation is possible, or the value of the counter by the counter means is a threshold value When it is determined that the counter value is exceeded, the counter value by the counter means can be initialized .
前記画像の一時停止を検出する検出手段をさらに備え、前記検出手段により前記画像の一時停止が検出された場合、前記範囲設定手段は、前記予測ベクトルの範囲を大きな値に設定するようにすることができる。 The image processing apparatus further includes detection means for detecting a pause of the image, and when the detection means detects the pause of the image, the range setting means sets the range of the prediction vector to a large value. Can do.
本発明の一側面の画像処理方法は、移動するオブジェクトを追尾する画像処理装置の画像処理方法において、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、前記記憶されている前記履歴情報に基づいて、複数の前記過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、前記第1の最大値と前記第1の最小値の差分であるダイナミックレンジを求め、前記第1の最大値に前記ダイナミックレンジを加算した第2の最大値と、前記第1の最小値から前記ダイナミックレンジを減算した第2の最小値を求め、前記第2の最大値と前記第2の最小値を、現在のフレームの予測動きベクトルの範囲として設定し、前記オブジェクトの現在のフレームで推定された動きベクトルが、前記予測ベクトルの範囲外である場合、前記オブジェクトの現在の動きは推定不可能であると判断し、前記予測ベクトルの範囲内である場合、前記オブジェクトの現在の動きは推定可能であると判断し、推定不可能であると判断された場合、前記記憶されている前記過去の動きベクトルを読み出して外挿するステップを含む。 An image processing method according to an aspect of the present invention is an image processing method of an image processing apparatus that tracks a moving object, and stores past motion vectors of the object in an image as history information, and the stored Based on the history information, among the plurality of past motion vectors, a first maximum value and a first minimum value, and a dynamic range that is a difference between the first maximum value and the first minimum value. And obtaining a second maximum value obtained by adding the dynamic range to the first maximum value and a second minimum value obtained by subtracting the dynamic range from the first minimum value, and obtaining the second maximum value. And the second minimum value as a range of the predicted motion vector of the current frame, and the motion vector estimated in the current frame of the object is If it is out of bounds, it is determined that the current motion of the object cannot be estimated, and if it is within the range of the prediction vector, it is determined that the current motion of the object can be estimated and cannot be estimated. If it is determined that the stored motion vector is read and extrapolated .
本発明の一側面のプログラムは、移動するオブジェクトを追尾する画像処理装置の画像処理をコンピュータに実行させるプログラムにおいて、画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、前記記憶されている前記履歴情報に基づいて、複数の前記過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、前記第1の最大値と前記第1の最小値の差分であるダイナミックレンジを求め、前記第1の最大値に前記ダイナミックレンジを加算した第2の最大値と、前記第1の最小値から前記ダイナミックレンジを減算した第2の最小値を求め、前記第2の最大値と前記第2の最小値を、現在のフレームの予測動きベクトルの範囲として設定し、前記オブジェクトの現在のフレームで推定された動きベクトルが、前記予測ベクトルの範囲外である場合、前記オブジェクトの現在の動きは推定不可能であると判断し、前記予測ベクトルの範囲内である場合、前記オブジェクトの現在の動きは推定可能であると判断し、推定不可能であると判断された場合、前記記憶されている前記過去の動きベクトルを読み出して外挿するステップを含む。 A program according to one aspect of the present invention is a program that causes a computer to execute image processing of an image processing apparatus that tracks a moving object, and stores past motion vectors of the object in an image as history information. Based on the history information, a first maximum value and a first minimum value, and a difference between the first maximum value and the first minimum value from among the plurality of past motion vectors. A certain dynamic range is obtained, a second maximum value obtained by adding the dynamic range to the first maximum value, a second minimum value obtained by subtracting the dynamic range from the first minimum value, and the second maximum value obtained. Set the maximum value and the second minimum value as the range of the predicted motion vector of the current frame, and the motion estimated in the current frame of the object If the vector is outside the range of the prediction vector, it is determined that the current motion of the object cannot be estimated. If the vector is within the range of the prediction vector, the current motion of the object can be estimated. If it is determined that the estimation is impossible, the stored past motion vector is read and extrapolated .
本発明の一側面においては、画像の中のオブジェクトの過去の動きベクトルが履歴情報として記憶され、記憶されている履歴情報に基づいて、複数の過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、第1の最大値と第1の最小値の差分であるダイナミックレンジが求められ、第1の最大値にダイナミックレンジを加算した第2の最大値と、第1の最小値からダイナミックレンジを減算した第2の最小値が求められ、第2の最大値と第2の最小値が、現在のフレームの予測動きベクトルの範囲として設定され、オブジェクトの現在のフレームで推定された動きベクトルが、予測ベクトルの範囲外である場合、オブジェクトの現在の動きは推定不可能であると判断され、予測ベクトルの範囲内である場合、オブジェクトの現在の動きは推定可能であると判断され、推定不可能であると判断された場合、記憶されている過去の動きベクトルが読み出されて外挿される。 In one aspect of the present invention, a past motion vector of an object in an image is stored as history information, and a first maximum value is selected from a plurality of past motion vectors based on the stored history information. And a first minimum value, and a dynamic range that is a difference between the first maximum value and the first minimum value, a second maximum value obtained by adding the dynamic range to the first maximum value, A second minimum value obtained by subtracting the dynamic range from the minimum value of the second frame is determined, and the second maximum value and the second minimum value are set as the range of the predicted motion vector of the current frame, and the current frame of the object If the estimated motion vector is outside the range of the prediction vector, it is determined that the current motion of the object cannot be estimated, and if it is within the range of the prediction vector, the object It is determined that the current motion can be estimated, when it is determined to be unable to estimate the past motion vectors stored is extrapolated is read.
本発明によれば、オブジェクトの追尾中において、オブジェクトの追尾において、過去の動き履歴情報から現在の動きを推定することができる。 According to the present invention, during the tracking of an object, the current motion can be estimated from the past motion history information during the tracking of the object.
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図2は、本発明を監視カメラシステムに適用した場合の構成例を表している。 FIG. 2 shows a configuration example when the present invention is applied to a surveillance camera system.
撮像部21は、例えば、CCD(Charge Coupled Device)ビデオカメラ等よりなり、撮像した画像を画像ディスプレイ24に表示させる。追尾対象検出部22は、撮像部21より入力された画像から追尾対象を検出し、検出結果をオブジェクト追尾部23に出力する。
The
オブジェクト追尾部23は、撮像部21より供給された画像中の、追尾対象検出部22により指定された追尾点を追尾するように動作する。またオブジェクト追尾部23は、追尾結果を画像ディスプレイ24に出力するとともに、追尾結果に基づいて、移動したオブジェクトを撮像できるようにカメラ駆動部26を制御する。カメラ駆動部26は、オブジェクト追尾部23からの制御に基づいて、撮像部21が追尾点を中心とする画像を撮影するように撮像部21を駆動する。
The
制御部27は、例えば、マイクロコンピュータなどにより構成され、各部を制御する。また制御部27には、半導体メモリ、磁気ディスク、光ディスク、または光磁気ディスクなどにより構成されるリムーバブルメディア28が必要に応じて接続され、プログラム、その他各種のデータが必要に応じて供給される。指示入力部29は、各種のボタン、スイッチ、あるいは赤外線や電波を用いたリモートコントローラなどにより構成され、ユーザからの指示に対応する信号を制御部27に出力する。
The
次に、図3のフローチャートを参照して、図2に示した監視カメラシステムが実行する監視処理について説明する。この処理は、監視システム1の電源がオンされているとき、撮像部21により監視する領域が撮像され、その撮像して得られた画像が追尾対象検出部22およびオブジェクト追尾部23を介して画像ディスプレイ24に出力されて開始される。
Next, the monitoring process executed by the monitoring camera system shown in FIG. 2 will be described with reference to the flowchart of FIG. In this processing, when the power of the
ステップS1において、追尾対象検出部22は、撮像部21から入力された画像から追尾対象を検出する処理を実行する。例えば、入力画像に動く物体が存在する場合、追尾対象検出部22は、その動く物体を追尾対象として検出するとともに、追尾対象の中から、最も輝度の高い点あるいは追尾対象の中心の点などを追尾点として検出し、検出結果をオブジェクト追尾部23に出力する。
In step S <b> 1, the tracking
ステップS2において、オブジェクト追尾部23は、ステップS1の処理で検出された追尾点を追尾する追尾処理を実行する。追尾処理の詳細については、図16を参照して後述するが、この処理により、撮像部21により撮像された画像の中の追尾対象となるオブジェクト(例えば、人、動物など)の中の追尾点(例えば、目、頭の中心)が追尾され、追尾結果が制御部27に出力される。
In step S2, the
ステップS3において、制御部27は、ステップS2の処理による追尾結果に基づいて、画像ディスプレイ24に、撮像部21により撮像された画像に追尾位置を表すマークなどを重畳して表示させる。
In step S3, the
ステップS4において、オブジェクト追尾部23は、ステップS2の処理による追尾結果に基づいて、オブジェクトの移動を検出し、移動したオブジェクトを撮像できるようにカメラを駆動させるカメラ駆動信号を生成し、カメラ駆動部26に出力する。ステップS5において、カメラ駆動部26は、オブジェクト追尾部23からのカメラ駆動信号に基づいて撮像部21を駆動する。これにより撮像部21は、追尾点が画面から外れてしまうことがないようにカメラをパンまたはチルトする。
In step S4, the
ステップS6において、制御部27は、指示入力部29を介したユーザからの指示に基づいて監視処理を終了するか否かを判定し、ユーザから終了が指示されていない場合には、ステップS1に戻り、それ以降の処理を繰り返し実行する。そして、ステップS6において、ユーザから監視処理の終了が指示されたと判定された場合、制御部27は監視処理を終了する。
In step S6, the
図4A乃至図4Cは、このとき画像ディスプレイ24に表示される画像の例を、時系列に示した図である。図4Aは、撮像部21により、追尾対象となるオブジェクト41が撮像された画像の例であり、この例では、図中左方向に走って移動する人が、オブジェクト41として撮像されている。図4Bでは、オブジェクト41が、図4Aの位置から図中左に移動しており、図4Cでは、オブジェクト41が、図4Bの位置からさらに左に移動している。
4A to 4C are diagrams showing examples of images displayed on the
追尾対象検出部22は、図3のステップS1で、オブジェクト41を検出し、このオブジェクト41である人の目を、追尾点41Aとしてオブジェクト追尾部23に出力する。ステップS2ではオブジェクト追尾部23により追尾処理が行われる。
The tracking
次に、図2のオブジェクト追尾部23の詳細な構成例と、その動作について説明する。
Next, a detailed configuration example and operation of the
図5は、オブジェクト追尾部23の機能的構成例を示すブロック図である。図5に示されるように、オブジェクト追尾部23は、動き推定部52、シーンチェンジ検出部53、背景動き推定部54、領域推定関連処理部55、乗り換え候補保持部56、追尾点決定部57、制御部59、および一時停止検出部60により構成されている。
FIG. 5 is a block diagram illustrating a functional configuration example of the
動き推定部52は、入力画像の動きを推定し、推定の結果得られた動きベクトルと、その動きベクトルの確度を、シーンチェンジ検出部53、背景動き推定部54、領域推定関連処理部55、追尾点決定部57、および一時停止検出部60に出力する。シーンチェンジ検出部53は、動き推定部52より供給された動きベクトルとその動きベクトルの確度に基づいて、シーンチェンジを検出する。
The
背景動き推定部54は、動き推定部52より供給された動きベクトルとその動きベクトルの確度に基づいて背景動きを推定する処理を実行し、推定結果を領域推定関連処理部55に供給する。領域推定関連処理部55は、動き推定部52より供給された動きベクトルとその動きベクトルの確度、背景動き推定部54より供給された背景動き、並びに追尾点決定部57より供給された追尾点情報に基づいて、領域推定処理を行う。また領域推定関連処理部55は、入力された情報に基づいて乗り換え候補を生成し、乗り換え候補保持部56へ供給し、保持させる。
The background
追尾点決定部57は、動き推定部52より供給された動きベクトルとその動きベクトルの確度、乗り換え候補保持部56より供給された乗り換え候補、並びに一時停止検出部60より供給された一時停止検出結果に基づいて、追尾点を決定し、決定された追尾点に関する情報を領域推定関連処理部55に出力する。
The tracking
制御部59は、追尾対象検出部22から出力された追尾点の情報に基づいて、動き推定部52乃至追尾点決定部57、並びに一時停止検出部60の各部を制御して、検出された追尾対象を追尾させるとともに、画像ディスプレイ24に表示される画面の中に、追尾点が表示されるようにカメラ駆動部26に制御信号を出力し、撮像部21の駆動を制御する。これにより、追尾点が画面の外に出ないように制御される。また制御部59は、追尾点の画面上での位置の情報などの追尾結果を制御部27などに出力する。
Based on the tracking point information output from the tracking
一時停止検出部60は、動き推定部52より供給された動きベクトルとその動きベクトルの確度、および背景動き推定部54より供給された背景動きに基づいて、一時停止検出処理を行い、一時停止からの追尾開始であるか否かを示す検出結果を追尾点決定部57に供給する。
The
図5に示したオブジェクト追尾部23は、追尾対象検出部22により検出された追尾点を追尾する処理を実行し、追尾点の追尾ができなくなったとき、過去の動き履歴から現在の追尾点を推定する処理を実行することによって、継続的に追尾することが可能となる。すなわち、本実施の形態においては、例えば、図6に示されるように、オブジェクト72が追尾対象としてのオブジェクト71の全体を覆い隠すようなシーンチェンジが発生する等、追尾点が一時的に見えなくなった場合においても、継続的に追尾が可能となる。
The
図6の例では、時刻F(t−1)において、異なる向きで動くオブジェクト71とオブジェクト72が存在し、追尾対象としてのオブジェクト71に追尾点81が設定されている。各オブジェクトの動きベクトルの検出には、例えば、ブロックマッチング方式が用いられる。
In the example of FIG. 6, there are an
時刻F(t−1)において、時刻F(t−1)と時刻F(t)の間のマッチングの結果、オブジェクト71の動きベクトルVA(vx,vy)=(−4,0)が検出されるとともに、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が検出される。そして、異なる向きで動くオブジェクト71とオブジェクト72が時刻F(t+1)で交差する場合、時刻F(t)においては、時刻F(t)と時刻F(t+1)の間のマッチングの結果、誤った動きベクトル(−4,−4)が検出されてしまうことがある。これにより、時刻F(t+1)において、オブジェクト71とオブジェクト72の交差により、オブジェクト71の前景となったオブジェクト72に追尾点81が移動してしまい、時刻F(t+1)と時刻F(t+2)の間のマッチングの結果、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が検出されてしまう。さらに、交差後の時刻F(t+2)においては、オブジェクト72に追尾点81が完全に移動し、オブジェクト71の追尾に失敗することになる。
At time F (t−1), as a result of matching between time F (t−1) and time F (t), the motion vector V A (vx, vy) = (− 4, 0) of the
そこで本実施の形態においては、このようにシーンチェンジが起きて追尾点81が一時的に画像から存在しなくなっても、図16のフローチャートを参照して後述する追尾処理により、過去の動き履歴から現在の追尾点を推定することができ、追尾対象ではないオブジェクト72に追尾点81が移動して追尾に失敗してしまうようなことなく、継続的にオブジェクト71を追尾することが可能となる。
Therefore, in the present embodiment, even if the scene change occurs and the
次に、図7を参照して、図5の動き推定部52の構成例について説明する。図7に示されるように、評価値算出部91、アクティビティ算出部92、および動きベクトル検出部93には、入力画像が供給されている。
Next, a configuration example of the
評価値算出部91は、動きベクトルにより対応付けられる両対象の一致度に関する評価値を算出し、正規化処理部95に供給する。アクティビティ算出部92は、入力画像のアクティビティを算出し、閾値判定部94と正規化処理部95に供給する。動きベクトル検出部93は、入力画像から動きベクトルを検出し、評価値算出部91と統合処理部96に供給する。
The evaluation
閾値判定部94は、アクティビティ算出部92より供給されたアクティビティを所定の閾値と比較し、その判定結果を統合処理部96に供給する。正規化処理部95は、評価値算出部91より供給された評価値を、アクティビティ算出部92より供給されたアクティビティに基づいて正規化し、得られた値を統合処理部96に供給する。
The
統合処理部96は、正規化処理部95から供給された正規化情報と、閾値判定部94より供給された判定結果に基づいて、動きベクトルの確度を演算し、得られた確度を動きベクトル検出部93より供給された動きベクトルとともに出力する。
The
次に、図8のフローチャートを参照して、動き推定部52が実行する動き推定処理について説明する。動きベクトルは、点に対するものとして求められているが、その確度は、動きベクトルにより対応付けられる2つの点の近傍の、例えば点を中心とする、小ブロックの画像データを用いて計算される。
Next, the motion estimation process executed by the
ステップS11において、動きベクトル検出部93は、入力画像から動きベクトルを検出する。この検出には、例えばブロックマッチング方式や勾配法が用いられる。検出された動きベクトルは、評価値算出部91と統合処理部96に供給される。
In step S11, the motion
ステップS12において、評価値算出部91は、ステップS11の処理で検出された動きベクトルにより対応付けられる両対象の一致度に関する評価値を算出する。具体的には、例えば、動きベクトルで対応付けられる2つの点を中心とする2つのブロックの画素値の差分絶対値和が算出される。すなわち、ステップS11の処理で動きベクトル検出部93により検出された動きベクトルV(vx,vy)と、それに基づく時間的に前のフレームの画像Fi上の点P(Xp,Yp)、並びに時間的に後のフレームの画像Fj上の点Q(Xq,Yq)の関係は次式(1)で表される。
In step S12, the evaluation
評価値算出部91は点Pを中心とするブロックと、点Qを中心とするブロックについて、次式(2)に基づいて評価値Eval(P,Q,i,j)を演算する。
The evaluation
各ブロックは、1辺が2L+1画素の正方形とされている。上記式(2)における総和ΣΣは、xが−LからLについて、yが−LからLについて、対応する画素同士で行われる。従って、例えば、L=2である場合、9個の差分が得られ、その絶対値の総和が演算される。評価値は、その値が0に近づくほど、2つのブロックがよく一致していることを表している。 Each block is a square having 2L + 1 pixels on one side. The sum ΣΣ in the above equation (2) is performed between corresponding pixels when x is from −L to L and y is from −L to L. Therefore, for example, when L = 2, nine differences are obtained, and the sum of the absolute values is calculated. The evaluation value indicates that the two blocks match well as the value approaches zero.
評価値算出部91は、算出した評価値を正規化処理部95に供給する。
The evaluation
ステップS13において、アクティビティ算出部92は、入力画像からアクティビティを算出する。アクティビティは、画像の複雑さを表す特徴量であり、図9に示されるように、各画素毎に注目画素Y(x,y)と、それに隣接する8画素Y(x+i,y+j)との差分絶対値和の平均値が、注目画素位置のアクティビティActivity(x,y)として次式(3)に基づいて演算される。
In step S13, the
図9の例の場合、3×3画素のうち、中央に位置する注目画素Y(x,y)の値は110であり、それに隣接する8個の画素の値は、それぞれ80,70,75,100,100,100,80,80であるから、アクティビティActivity(x,y)は次式で表される。 In the case of the example in FIG. 9, the value of the pixel of interest Y (x, y) located in the center among 3 × 3 pixels is 110, and the values of eight pixels adjacent to it are 80, 70, and 75, respectively. , 100, 100, 100, 80, 80, the activity Activity (x, y) is expressed by the following equation.
Activity(x,y) ={|80−110|+|70−110|+|75−110|+|100−110|+|100−110|+|100−110|+|80−110|+|80−110|}/8 =24.375となる。 Activity (x, y) = {| 80-110 | + | 70-110 | + | 75-110 | + | 100-110 | + | 100-110 | + | 80-110 | + | 80−110 |} /8=24.375.
同様の処理が、そのフレームのすべての画素について実行される。 Similar processing is performed for all pixels in the frame.
ブロック単位で動きベクトル確度を算出するため、次式(4)で表されるブロック内の全画素のアクティビティの総和が、そのブロックのアクティビティ(ブロックアクティビティ)Blockactivity(i,j)と定義される。 In order to calculate the motion vector accuracy in units of blocks, the sum of the activities of all the pixels in the block expressed by the following equation (4) is defined as the activity (block activity) Blockactivity (i, j) of the block.
なお、アクティビティとしては、この他、分散値、ダイナミックレンジなどとすることも可能である。 In addition, the activity may be a variance value, a dynamic range, or the like.
ステップS14において、閾値判定部94は、ステップS13の処理で算出されたブロックアクティビティを予め設定されている所定の閾値と比較する。そして、入力されたブロックアクティビティが閾値より大きいか否かを表すフラグを統合処理部96に出力する。
In step S14, the
具体的には、実験の結果、ブロックアクティビティと評価値は、動きベクトルをパラメータとして、図10に示される関係を有する。図10において、横軸はブロックアクティビティBlockactivity(i,j)を表し、縦軸は評価値Evalを表している。 Specifically, as a result of the experiment, the block activity and the evaluation value have the relationship shown in FIG. 10 using the motion vector as a parameter. In FIG. 10, the horizontal axis represents the block activity Blockactivity (i, j), and the vertical axis represents the evaluation value Eval.
動きが正しく検出されている場合(正しい動きベクトルが与えられている場合)、そのブロックアクティビティと評価値の値は、曲線101より図中下側の領域R1に分布する。これに対して誤った動き(不正解の動きベクトル)が与えられた場合、そのブロックアクティビティと評価値の値は、曲線102より、図中左側の領域R2に分布する。なお、曲線102より上側の領域R2以外の領域と曲線101より下側の領域R1以外の領域には殆ど分布がない。曲線101と曲線102は、点Pにおいて交差しており、この点Pにおけるブロックアクティビティの値が閾値THaとされる。閾値THaは、ブロックアクティビティの値がそれより小さい場合には、対応する動きベクトルが正しくない可能性があることを意味する(この点については後に詳述する)。閾値判定部94は、アクティビティ算出部92より入力されたブロックアクティビティの値が、この閾値THaより大きいか否かを表すフラグを統合処理部96に出力する。
When the motion is correctly detected (when the correct motion vector is given), the block activity and the value of the evaluation value are distributed in a region R1 below the
ステップS15において、正規化処理部95は、ステップS12の処理で算出された評価値を、ステップS13の処理で算出されたアクティビティに基づいて正規化する。具体的には、正規化処理部95は、次式(5)に従って動きベクトル確度VCを演算する。
In step S15, the
但し、動きベクトル確度VCの値が0未満となる場合にはその値を0に置き換える。動きベクトル確度VCのうち、評価値をブロックアクティビティで割り算して得られた値は、その値によって規定される図10のグラフ上の位置が、原点Oと点Pを結ぶ傾きが1の直線103より、図中下側の領域内であるのか、図中上側の領域内であるのかを表す。すなわち、直線103の傾きは1であり、評価値をブロックアクティビティで割り算して得られた値が1より大きければ、その値に対応する点は、直線103の上側の領域に分布する点であることを意味する。そしてこの値を1から減算して得られる動きベクトル確度VCは、その値が小さい程、対応する点が領域R2に分布する可能性が高いことを意味する。
However, if the value of the motion vector accuracy VC is less than 0, the value is replaced with 0. Of the motion vector accuracy VC, the value obtained by dividing the evaluation value by the block activity is a
これに対して、評価値をブロックアクティビティで割り算して得られた値が1より小さければ、その値に対応する点は、直線103の図中下側の領域に分布することを意味する。そして、そのときの動きベクトル確度VCは、その値が大きい程(0に近い程)、対応する点が領域R1に分布することを意味する。正規化処理部95は、このようにして演算して得られた動きベクトル確度VCを統合処理部96に出力する。
On the other hand, if the value obtained by dividing the evaluation value by the block activity is smaller than 1, it means that points corresponding to the value are distributed in the lower area of the
ステップS16において、統合処理部96は、統合処理を実行する。この統合処理の詳細は、図11のフローチャートに示されている。
In step S <b> 16, the
ステップS21において、統合処理部96は、ブロックアクティビティが閾値THa 以下か否かを判定する。この判定は、閾値判定部94より供給されたフラグに基づいて行われる。統合処理部96は、ブロックアクティビティが閾値THa以下であると判定した場合、ステップS22において、正規化処理部95が算出した動きベクトル確度VCの値を0に設定する。ステップS21において、アクティビティの値が閾値THaより大きいと判定された場合には、ステップS22の処理はスキップされ、正規化処理部95で生成された動きベクトル確度VCの値が、そのまま動きベクトルとともに出力される。
In step S21, the
これは、正規化処理部95において演算された動きベクトルの確度VCの値が正であったとしても、ブロックアクティビティの値が閾値THaより小さい場合には、正しい動きベクトルが得られていない可能性があるからである。すなわち、図10に示されるように、原点Oと点Pの間においては、曲線102が、曲線101より図中下側に(直線133より下側に)突出することになる。ブロックアクティビティの値が閾値Thaより小さい区間であって、曲線101と曲線102において囲まれる領域R3においては、評価値をブロックアクティビティで割り算して得られる値は、領域R1とR2の両方に分布し、正しい動きベクトルが得られていない可能性が高い。
This is because there is a possibility that a correct motion vector is not obtained if the block activity value is smaller than the threshold value THa even if the motion vector accuracy VC calculated by the
そこで、このような分布状態である場合には、動きベクトルの確度は低いものとして処理するようにする。このため、ステップS22において、動きベクトル確度VCは、その値が正であったとしても、閾値Thaより小さい場合には、0に設定される。このようにすることで、動きベクトル確度VCの値が正である場合には、正しい動きベクトルが得られている場合であることを確実に表すことが可能となる。しかも、動きベクトル確度VCの値が大きい程、正しい動きベクトルが得られている確率が高くなる(分布が領域R1に含まれる確率が高くなる)。 Therefore, in such a distribution state, processing is performed assuming that the accuracy of the motion vector is low. For this reason, in step S22, the motion vector accuracy VC is set to 0 when the value is smaller than the threshold Tha even if the value is positive. In this way, when the value of the motion vector accuracy VC is positive, it is possible to reliably represent that the correct motion vector is obtained. In addition, the larger the value of the motion vector accuracy VC, the higher the probability that a correct motion vector is obtained (the probability that the distribution is included in the region R1 increases).
このことは、一般的に、輝度変化が少ない領域(アクティビティが小さい領域)では信頼性が高い動きベクトルを検出することが困難であるとの経験上の法則とも一致する。 This coincides with an empirical rule that, in general, it is difficult to detect a motion vector with high reliability in a region where the luminance change is small (region where the activity is small).
次に、図12を参照して、図5の背景動き推定部54の構成例について説明する。図12に示されるように、背景動き推定部54は、頻度分布算出部111と背景動き決定部112により構成されている。
Next, a configuration example of the background
頻度分布算出部111は、動きベクトルの頻度分布を算出する。ただし、この頻度には、図5の動き推定部52より供給される動きベクトル確度VC を用いることで、確からしい動きに重みが与えられるように、重み付けが行われる。背景動き決定部112は、頻度分布算出部111により算出された頻度分布に基づいて、頻度が最大となる動きを背景動きとして決定する処理を行い、図5の領域推定関連処理部55へ出力する。
The frequency
図13のフローチャートを参照して、背景動き推定部54が実行する背景動き推定処理について説明する。
The background motion estimation process executed by the background
ステップS31において、頻度分布算出部111は、動き頻度分布を算出する。具体的には、頻度分布算出部111は、背景動きの候補としての動きベクトルのx座標とy座標がそれぞれ基準点から±16画素分の範囲で表されるとすると、1089個(=16×2+1)×(16×2+1))の箱、すなわち動きベクトルがとり得る値に対応する座標分の箱を用意し、動きベクトルが発生した場合、その動きベクトルに対応する座標に1を加算する。このようにすることで、動きベクトルの頻度分布を算出することができる。
In step S31, the frequency
ただし、1個の動きベクトルが発生した場合、1を加算していくと、確度が低い動きベクトルの発生頻度が多い場合、その確実性が低い動きベクトルが背景動きとして決定されてしまう恐れがある。そこで、頻度分布算出部111は、動きベクトルが発生した場合、その動きベクトルに対応する箱(座標)に、値1を加算するのではなく、値1に動きベクトル確度VC を乗算した値(=動きベクトル確度VC の値)を加算する。動きベクトル確度VC の値は、0から1の間の値として正規化されており、その値が1に近いほど確度が高い値である。従って、このようにして得られた頻度分布は、動きベクトルをその確度に基づいて重み付けした頻度分布となる。これにより、確度の低い動きが背景動きとして決定される恐れが少なくなる。
However, when one motion vector is generated, if 1 is added, if the frequency of occurrence of a motion vector with low accuracy is high, a motion vector with low certainty may be determined as the background motion. . Therefore, when a motion vector occurs, the frequency
次に、ステップS32において、頻度分布算出部111は、動き頻度分布を算出する処理を全ブロックについて終了したか否かを判定する。まだ処理していないブロックが存在すると判定された場合、ステップS31に戻り、次のブロックについて動き頻度分布が算出される。
Next, in step S32, the frequency
以上のようにして、全画面に対して動き頻度分布算出処理が行われ、ステップS32において、全ブロックの処理が終了したと判定された場合、ステップS33に進み、背景動き決定部112は、頻度分布の最大値を検索する処理を実行する。すなわち、背景動き決定部112は、頻度分布算出部111により算出された頻度の中から最大の頻度のものを選択し、その頻度に対応する動きベクトルを背景動きの動きベクトルとして決定する。この背景動きの動きベクトルは、図5の領域推定関連処理部55に供給され、全画面動きと背景動きが一致するか否かの判定処理に用いられる。
As described above, the motion frequency distribution calculation process is performed on the entire screen, and when it is determined in step S32 that the processing of all blocks has been completed, the process proceeds to step S33, where the background motion determination unit 112 A process for searching for the maximum value of the distribution is executed. That is, the background
次に、図14を参照して、図5の追尾点決定部57の構成例について説明する。図14に示されるように、追尾点決定部57は、予測動きベクトルメモリ121、動き履歴特徴量抽出部122、および動き判定部123により構成されている。
Next, a configuration example of the tracking
予測動きベクトルメモリ121は、動き判定部123により最終的に決定されたオブジェクトの予測動きベクトルの、最新の過去の複数フレームのデータを格納する。動き履歴特徴量抽出部122は、予測動きベクトルメモリ121に格納されている最新の過去の複数フレームの予測動きベクトルデータを読み出し、オブジェクトの動き特徴量を抽出する。動き判定部123は、動き推定部52より供給された現フレームの動きベクトル、乗り換え候補保持部56より供給された乗り換え候補、一時停止検出部60より供給された一時停止検出結果、並びに動き履歴特徴量抽出部122より供給された動き特徴量に基づいて、現フレームの動きベクトルデータを評価し、その評価結果としての予測動きベクトルを領域推定関連処理部55に出力するとともに、予測動きベクトルメモリ121に格納させる。
The predicted
さらに図15を参照して、図14の追尾点決定部57の動き履歴特徴量抽出部122と動き判定部12の詳細について説明する。図15に示されるように、動き履歴特徴量抽出部122は、水平成分最小値算出部(MIN)131、水平成分最大値算出部(MAX)132、垂直成分最小値算出部(MIN)133、および垂直成分最大値算出部(MAX)134で構成されている。
Further, with reference to FIG. 15, details of the motion history feature
水平成分最小値算出部131は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの水平成分の最小値を算出し、算出結果を動き判定部123に出力する。水平成分最大値算出部132は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの水平成分の最大値を算出し、算出結果を動き判定部123に出力する。
The horizontal component minimum
垂直成分最小値算出部133は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの垂直成分の最小値を算出し、算出結果を動き判定部123に出力する。垂直成分最大値算出部134は、予測動きベクトルメモリ121から読み出した最新の過去の複数フレームの予測動きベクトルデータから、過去の予測動きベクトルの垂直成分の最大値を算出し、算出結果を動き判定部123に出力する。
The vertical component minimum
また動き履歴特徴量抽出部122は、水平成分最小値算出部131と水平成分最大値算出部132により算出された動きベクトルの水平成分の最小値と最大値から、動きベクトルの水平成分のダイナミックレンジを算出するとともに、垂直成分最小値算出部133と垂直成分最大値算出部134により算出された動きベクトルの垂直成分の最小値と最大値から、動きベクトルの垂直成分のダイナミックレンジを算出し、算出結果を動き判定部123に出力する。
The motion history feature
動き判定部123は、動き履歴特徴量抽出122から供給された過去の予測動きベクトルの最大値MAX(x,y)と最小値MIN(x,y)、およびそれらの最大値と最小値の差分から求まるダイナミックレンジDR(x,y)から、現在のフレームの予測動きベクトルの範囲min(x,y)とmax(x,y)を、次式(6)と次式(7)に従って演算する。
The
式(6)と式(7)において、TH(x,y)は閾値である。この閾値は、オブジェクトが過去のフレーム間で等速直線運動をした場合、ダイナミックレンジDR(x,y)=(0,0)になり、現在のフレームでの予測動きベクトルの範囲がmax(x,y)−min(x,y)=(0,0)となるのを防ぐために設定される。例えば、オブジェクトがテロップのような等速直線運動を行っている場合、式(6)と式(7)によれば、予測動きベクトルの範囲が小さくなるように設定され、これに対し、オブジェクトがフレーム単位で加速するような場合には、予測動きベクトルの範囲が大きくなるように設定される。 In Expression (6) and Expression (7), TH (x, y) is a threshold value. This threshold value is the dynamic range DR (x, y) = (0, 0) when the object has made a uniform linear motion between past frames, and the range of the predicted motion vector in the current frame is max (x , Y) −min (x, y) = (0, 0). For example, when the object is performing a constant velocity linear motion such as a telop, according to the equations (6) and (7), the range of the predicted motion vector is set to be small. When accelerating in units of frames, the range of the predicted motion vector is set to be large.
そして動き判定部123は、式(6)と式(7)により演算された予測動きベクトルの範囲に基づいて、現在のフレームで推定した追尾点の動きベクトルがその範囲内であれば予測動きベクトルの推定が可能であると判定し、範囲外であれば予測動きベクトルの推定が不可能であると判定する。
Then, based on the range of the predicted motion vector calculated by Expression (6) and Expression (7), the
また動き判定部123は、追尾点での動き推定結果と追尾点の近傍の点での動き推定結果が、多数を占める動きと一致する場合には推定可能、一致しない場合には推定不可能と判定するようにすることも可能である。これにより、空間相関の高い動きベクトルで、かつ、時間方向の連続性が高い予測動きベクトルを決定することができる。
In addition, the
また動き判定部123は、動きベクトルの推定が出来ないと判定した場合、予め準備した追尾点と同じ対象の領域に属する点のうち、もとの追尾点に近く、且つ動きベクトルの推定が可能である点に追尾点を乗り換えて追尾を行う。この乗り換え処理の詳細は、本出願人が先に提案している特開2005−303983号公報に開示されている。この処理により、追尾点が表示されない状態になった場合、追尾が可能な状態において予め抽出され保持されている乗り換え候補が選択され、その乗り換え候補が新たな追尾点として設定され、追尾が行われる。
If the
さらに動き判定部123は、全ての乗り換え候補を新たな追尾点としても、追尾点の動きベクトルの推定が不可能であると判定した場合、オブジェクトの動きや加速度は既知の値である直前(過去)の動きや加速度と同じであるとして、予測動きベクトルメモリ121に格納されている過去の予測動きベクトルで外挿(代用)して、現在のフレームの追尾点の予測動きベクトルを決定する。
Furthermore, if the
ここで、他のオブジェクトによる交差中に追尾対象として指定したオブジェクトの動きが停止するなど、過去の動き履歴から大きく異なる動きをした場合に過去の予測動きベクトルで連続的に外挿を行うと、最悪の場合、追尾点が画像内の動き情報とは無関係に動くことになる。そこで、動き判定部123は、予測動きベクトルを連続的に外挿する回数を計測し、予め設定した閾値との比較により、過去の予測動きベクトルで外挿するか否かを判定し、外挿しないと判定した場合には0ベクトルを設定して外挿を終了する。つまり、この場合、追尾は終了される。
Here, when the movement of the object specified as the tracking target stops during the intersection with other objects, such as when the movement is greatly different from the past movement history, and continuously extrapolating with the past predicted motion vector, In the worst case, the tracking point moves regardless of the motion information in the image. Therefore, the
次に、図16のフローチャートを参照して、オブジェクト追尾部23が実行する追尾処理について説明する。
Next, a tracking process executed by the
ステップS41において、制御部59は、次のフレームの画像の入力を待機するように各部を制御する。ステップS42において、動き推定部52は、追尾点の動きを推定する。すなわち、ユーザにより指定された追尾点を含むフレーム(ここでは前フレームという)より時間的に後のフレーム(ここでは後フレームという)をステップS41の処理で取り込むことで、結局連続する2フレームの画像が得られたことになるので、ステップS42において、前フレームの追尾点に対応する後フレームの追尾点の位置を推定することで、追尾点の動きベクトルが推定される。
In step S41, the
なお、時間的に前または後とは、入力の順番や処理の順番をいう。通常、撮像の順番に各フレームの画像が入力されるので、その場合、より時間的に前に撮像されたフレームが前フレームとなるが、時間的に後に撮像されたフレームが先に処理される場合には、時間的に後に撮像されたフレームが前フレームとなる。 Note that “before or after in time” means the order of input or the order of processing. Usually, since the images of each frame are input in the order of imaging, in that case, the frame captured earlier in time becomes the previous frame, but the frame captured later in time is processed first. In this case, a frame that is imaged later in time becomes the previous frame.
ステップS43において、動き履歴特徴量抽出部122は、予測動きベクトルメモリ121に格納されている過去の複数フレームにわたる予測動きベクトルの履歴データを読み出す。読み出された履歴データから、水平成分最小値算出部131により過去の予測動きベクトルの水平成分の最小値が算出され、水平成分最大値算出部132により過去の予測動きベクトルの水平成分の最大値が算出され、垂直成分最小値算出部133により過去の予測動きベクトルの垂直成分の最小値が算出され、垂直成分最大値算出部134により過去の予測動きベクトルの垂直成分の最大値が算出される。
In step S <b> 43, the motion history feature
ステップS44において、動き履歴特徴量抽出部122は、ステップS43の処理で読み出され算出された動きベクトルの水平成分の最小値と最大値から、動きベクトルの水平成分のダイナミックレンジを算出するとともに、動きベクトルの垂直成分の最小値と最大値から、動きベクトルの垂直成分のダイナミックレンジを算出する。
In step S44, the motion history feature
ステップS45において、動き判定部123は、一時停止検出部60が出力する一時停止検出結果(後述)に基づいて、過去の予測動きベクトルの最大値と最小値、およびそれらの最大値と最小値から求まるダイナミックレンジから、式(6)と式(7)に従って、現フレームの予測動きベクトル範囲を推定する。
In step S45, the
この処理において、動画像が一時停止されてから追尾点が設定される場合、追尾点が設定されてから追尾開始までの間、オブジェクト追尾部23に同じフレームの画像が入力され続けることになる。この場合、ダイナミックレンジDR(x,y)=(0,0)となり、追尾開始時における追尾点の予測動きベクトルの範囲が小さくなるので、早い動きのオブジェクトを追尾することができなくなる。そこで、一時停止検出部60が出力する一時停止検出結果に基づいて、一時停止からの追尾開始時の場合にのみ例外的に予測動きベクトルの範囲を、動き推定部52のサーチエリアと同じ値、あるいは非常に大きな値などに設定しておく。
In this process, when the tracking point is set after the moving image is temporarily stopped, the image of the same frame is continuously input to the
ステップS46において、動き判定部123は、追尾点の動きが推定可能であるか否かを判定する。追尾点の動きが推定可能であったか否かは、ステップS42の処理により推定された追尾点の動きベクトルが、ステップS45の処理により推定された予測動きベクトルの範囲内であるか否かが判定され、予測動きベクトルの範囲内であれば推定が可能であり、範囲外であれば推定が不可能であると判定される。
In step S46, the
ステップS46において、追尾点の動きが推定可能であると判定された場合、ステップS47に進み、動き判定部123は、連続外挿カウンタを初期化する。ステップS48において、動き判定部123は、ステップS42の処理で推定された動きベクトルの分だけ追尾点をシフトする。これにより、前フレームの追尾点の追尾後の後フレームにおける追尾の位置が決定されることになる。
If it is determined in step S46 that the movement of the tracking point can be estimated, the process proceeds to step S47, and the
これに対し、ステップS46において、追尾点の動きが推定不可能であると判定された場合、ステップS49に進み、動き判定部123は、乗り換え候補保持部56に乗り換え候補が保持されているか否かを判定し、乗り換え候補が保持されていると判定した場合、ステップS50に進む。ステップS50において、動き判定部123は、乗り換え候補保持部56に保持されている乗り換え候補の中から、もとの追尾点に最も近い乗り換え候補を選択し、選択した乗り換え候補に乗り換える(変更する)。これにより、乗り換え候補の点が新たな追尾点として設定される。
On the other hand, when it is determined in step S46 that the movement of the tracking point cannot be estimated, the process proceeds to step S49, and the
ステップS50の処理の後、処理はステップS46に戻り、新たに設定された追尾点の動きが推定可能であるか否かが再び判定され、推定可能であれば、ステップS47において連続外挿カウンタが初期化され、ステップS48において追尾点を推定動き分だけシフトする処理が行われる。 After the process of step S50, the process returns to step S46, and it is determined again whether or not the movement of the newly set tracking point can be estimated. If it can be estimated, the continuous extrapolation counter is set in step S47. In step S48, the tracking point is shifted by the estimated motion.
ステップS49において、乗り換え候補保持部56に乗り換え候補が保持されていないと判定された場合、ステップS51に進み、動き判定部123は、連続外挿カウンタが閾値以下であるか否かを判定する。すなわち、ここでの処理は、他のオブジェクトによる交差中に追尾対象として指定したオブジェクトの動きが停止するなどして過去の動き履歴から大きく異なる動きをした場合に、過去の予測動きベクトルで連続的に外挿を行うと、最悪の場合、追尾点が画像内の動き情報とは無関係に動くことになる。そこで、動き判定部123は、予測動きベクトルを連続的に外挿する回数をカウントし、予め設定した閾値との比較を行う。
If it is determined in step S49 that no transfer candidate is held in the transfer
ステップS51において、連続外挿カウンタが閾値以下であると判定された場合、ステップS52に進み、動き判定部123は、連続外挿カウンタをカウントアップし、ステップS53において、予測動きベクトルメモリ121に格納されている直前の過去の予測動きベクトルを読み出して外挿する。これにより、現フレームの追尾点の位置が決定される。
If it is determined in step S51 that the continuous extrapolation counter is equal to or smaller than the threshold value, the process proceeds to step S52, and the
ステップS51において、連続外挿カウンタが閾値以下ではないと判定された場合、ステップS54に進み、動き判定部123は、連続外挿カウンタを初期化する。ステップS55において、動き判定部123は、予測動きベクトルを0ベクトルで出力する。すなわち、上述したように、過去の予測動きベクトルで連続的に外挿が行われると追尾点が画像内の動き情報とは無関係に動くことになるため、連続外挿カウンタが閾値を超えた場合には、予測動きベクトルが0ベクトルに設定され、追尾が終了される。
If it is determined in step S51 that the continuous extrapolation counter is not less than or equal to the threshold value, the process proceeds to step S54, and the
ステップS48、ステップS53、またはステップS55の処理の後、処理はステップS56に進み、動き判定部123は、最終的に決定した予測動きベクトルに基づいて、予測動きベクトルメモリ121を更新する。これにより、予測動きベクトル121に、いま決定された予測動きベクトルが新たな履歴データとして格納される。
After the process of step S48, step S53, or step S55, the process proceeds to step S56, and the
ステップS56の予測動きベクトルメモリ121の更新処理が終了した後、処理は再びステップS41に戻り、それ以降の処理が繰り返し実行される。
After the update process of the motion
このように、過去の複数フレームにわたるオブジェクトの予測動きベクトルの履歴情報から算出される特徴量を用いて、現在の追尾点の予測動きベクトルの推定可否判定と、過去の予測動きベクトルの外挿を組み合わせることにより、高精度な予測動きベクトルを求めることが可能になる。また、他のオブジェクトとの交差により複数フレーム間、追尾点が消失するような場合、相関値演算では確からしい動きベクトルであっても、現在の追尾点の予測動きベクトルの推定可否判定により、不確かな動きベクトルを排除することが可能となり、高精度な追尾が可能となる。 In this way, by using the feature amount calculated from the historical information of the predicted motion vector of the object over a plurality of past frames, it is possible to estimate whether the predicted motion vector of the current tracking point can be estimated and extrapolate the past predicted motion vector. By combining them, it is possible to obtain a highly accurate predicted motion vector. If the tracking point disappears between multiple frames due to the intersection with another object, even if the motion vector is likely to be a correlation vector, it is uncertain if the predicted motion vector at the current tracking point can be estimated. It is possible to eliminate a large motion vector, and it is possible to perform tracking with high accuracy.
次に、図17のフローチャートを参照して、一時停止検出部60が実行する一時停止検出処理について説明する。この処理は、一時停止状態であることを検出するためのカウンタが0に設定され開始される。
Next, a pause detection process executed by the
一時停止検出部60は、動き推定部52から追尾点の動きベクトルを取得するとともに、背景動き推定部54から背景の動きベクトルを取得する。
The
ステップS61において、一時停止検出部60は、カウンタが閾値以上、且つ、背景と追尾対象としてのオブジェクト上の追尾点のどちらか一方の動きベクトルが0ベクトルではないか否かを判定し、カウンタが閾値以上、且つ、背景と追尾対象としてのオブジェクト上の追尾点のどちらか一方の動きベクトルが0ベクトルではないと判定した場合、ステップS62に進む。
In step S61, the
ステップS62において、一時停止検出部60は、一時停止を検出するためのカウンタを初期化し、ステップS63において、一時停止からの追尾開始と判断する。すなわち、カウンタが閾値以上であるということは、一時停止状態であることを意味し、背景と追尾点のどちらか一方の動きベクトルが0ベクトルではないということは、現フレームで動きが再開されたことを意味しているため、一時停止からの追尾開始と判断される。
In step S62, the
ステップS61において、カウンタが閾値以上ではない、背景と追尾点のどちらか一方の動きベクトルが0ベクトルである、あるいは、背景と追尾点の両方の動きベクトルが0ベクトルであると判定された場合、ステップS64に進み、一時停止検出部60は、一時停止からの追尾開始ではないと判断する。
If it is determined in step S61 that the counter is not equal to or greater than the threshold value, the motion vector of either the background or the tracking point is a 0 vector, or the motion vectors of both the background and the tracking point are 0 vectors, In step S64, the
ステップS65において、一時停止検出部60は、背景動きと追尾点の動きが共に0ベクトルであるか否かを判定し、背景動きと追尾点の動きが共に0ベクトルであると判定した場合、ステップS66に進み、一時停止状態を検出するためのカウンタをインクリメントする。この処理により、一時停止状態の検出が開始される。
In step S65, the
ステップS65において、背景動きと追尾点の動きが共に0ベクトルではない、すなわち、背景と追尾点のどちらか一方の動きベクトルが0ベクトルではないと判定された場合、ステップS67に進み、一時停止状態を検出するためのカウンタを初期化する。 If it is determined in step S65 that both the background motion and the tracking point motion are not zero vectors, that is, one of the background and tracking point motion vectors is not a zero vector, the process proceeds to step S67 and is in a paused state. Initialize a counter for detecting.
ステップS63、ステップS66、またはステップS67の処理の後、一時停止検出部60は、カウンタの値を検出結果として追尾点決定部57の動き判定部123に出力する。この検出結果が図16のステップS45の処理で用いられる。
After the process of step S63, step S66, or step S67, the
ステップS68の処理の後、ステップS61に戻り、上述した処理が繰り返される。 After the process of step S68, the process returns to step S61, and the above-described process is repeated.
このように、追尾点の動きベクトルと背景の動きベクトルから、一時停止からの追尾開始か否かが推定される。つまり、統計的に確からしい背景動きベクトルとオブジェクトの局所的な追尾点の動きベクトルの両方を用いて一時停止であるか否かを判定したので、精度の高い推定結果が得られる。なお、動き判定部123は、制御部59などより、一時停止からの追尾開始か否かを示す情報を取得することが可能であれば、その情報を用いる方が好ましい。
In this way, it is estimated from the tracking point motion vector and the background motion vector whether the tracking start from the temporary stop. That is, since it is determined whether or not the stop is made using both the statistically reliable background motion vector and the motion vector of the local tracking point of the object, a highly accurate estimation result can be obtained. In addition, if the
次に、図18を参照して、本実施の形態の追尾処理を実行することにより、追尾点が一時的に見えなくなった場合においても継続的に追尾が可能となる例について説明する。 Next, with reference to FIG. 18, an example will be described in which tracking can be continuously performed even when the tracking point temporarily disappears by executing the tracking processing of the present embodiment.
図18の例では、異なる向きで動くオブジェクト71とオブジェクト72が時刻F(t+1)で交差しており、オブジェクト71とオブジェクト72が交差する直前の時刻F(t−1)まで予測動きベクトルが正しく求まっているとする。また予測動きベクトルメモリ121には、図19Aに示されるように、時刻(t−4)、時刻(t−3)、時刻(t−2)、および時刻(t−1)の予測動きベクトル(−2,0)、(−2,0)、(−4,0)、(−4,0)が格納されている。
In the example of FIG. 18, the
時刻F(t−1)において、時刻F(t−1)と時刻F(t)の間のマッチングの結果、オブジェクト71の動きベクトルVA(vx,vy)=(−4,0)が検出されるとともに、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が検出される。
At time F (t−1), as a result of matching between time F (t−1) and time F (t), the motion vector V A (vx, vy) = (− 4, 0) of the
時刻F(t)において、時刻F(t)と時刻F(t+1)の間のマッチングの結果、誤った動きベクトル(−4,−4)が検出されてしまう。そこで、動き履歴特徴量抽出部122は、予測動きベクトルメモリ121から図19Aに示すような予測動きベクトルを読み出し、動き履歴特徴量として、最大値MAX(x,y)=(−2,0)、最小値MIN(x,y)=(−4,0)、ダイナミックレンジDR(x,y)=(2,0)を算出する。例えば、閾値がTH(x,y)=(2,1)に設定された場合、動き判定部123は、現フレームの予測動きベクトルの範囲を、式(6)、式(7)に従って、max(x,y)=(2,1)、min(x,y)=(−4,−1)と推定する。これにより、時刻F(t)と時刻F(t+1)の間のマッチングにより推定した追尾点81の誤った動きベクトル(−4,−4)は、予測動きベクトルの範囲外となり、不確かな動きベクトルとして棄却することができる。この時、動き判定部123は、追尾点81の予測動きベクトルは、直前の過去の時刻F(t−1)の予測動きベクトル(−4,0)で外挿する。
At time F (t), an incorrect motion vector (−4, −4) is detected as a result of matching between time F (t) and time F (t + 1). Therefore, the motion history feature
この外挿の結果、時刻F(t+1)における追尾点81の位置は、時刻F(t)の位置から予測動きベクトル(−4,0)だけシフトした位置となる。また予測動きベクトルメモリ121には、図19Bに示されるように、時刻F(t)の動きベクトル(−4,0)が新たに格納される。
As a result of this extrapolation, the position of the
ここで時刻F(t+1)において、オブジェクト71とオブジェクト72の交差により、オブジェクト71の前景となったオブジェクト72に追尾点81が存在するので、時刻F(t+1)と時刻F(t+2)の間のマッチングの結果、オブジェクト72の動きベクトルVB(vx,vy)=(3,0)が追尾点81の動きベクトルとして検出されてしまう。そこで、動き履歴特徴量抽出部122は、予測動きベクトルメモリ121から図19Bに示すような予測動きベクトルを読み出し、動き履歴特徴量として、最大値MAX(x,y)=(−2,0)、最小値MIN(x,y)=(−4,0)、ダイナミックレンジDR(x,y)=(2,0)を算出する。例えば、閾値がTH(x,y)=(2,1)に設定された場合、動き判定部123は、現フレームの予測動きベクトルの範囲を、式(6)、式(7)に従って、max(x,y)=(2,1)、min(x,y)=(−4,−1)と推定する。これにより、時刻F(t+1)と時刻F(t+2)の間のマッチングにより推定した追尾点81の誤った動きベクトル(3,0)は、予測動きベクトルの範囲外となり、不確かな動きベクトルとして棄却することができる。この時、動き判定部123は、追尾点81の予測動きベクトルは、直前の過去の時刻F(t)の予測動きベクトル(−4,0)で外挿する。
Here, at the time F (t + 1), the
この外挿の結果、時刻F(t+2)における追尾点81の位置は、時刻F(t+1)の位置から予測動きベクトル(−4,0)だけシフトした位置となり、オブジェクト71上に存在することになる。
As a result of this extrapolation, the position of the
以上のように、現在の追尾点の予測動きベクトルの推定可否判定において、追尾点の過去の動き履歴情報から現在の追尾点の動き範囲を推定し、既知の値である直前の動きで現在の動きを外挿するようにしたので、他のオブジェクトによる交差により、複数フレーム間、追尾点81が消失するような場合であっても、空間相関の高い動きベクトルで、かつ、時間方向の連続性が高い予測動きベクトルを決定することができ、精度の高い追尾が可能となる。
As described above, in the determination of whether or not the predicted motion vector of the current tracking point can be estimated, the motion range of the current tracking point is estimated from the past motion history information of the tracking point, and the current motion with the immediately preceding motion that is a known value is Since the motion is extrapolated, even if the
また、動き可否判定を画素毎の動き検出に応用することで、より精度の高い動きを検出することが可能になる。 Further, by applying the motion availability determination to the motion detection for each pixel, it becomes possible to detect a motion with higher accuracy.
以上においては、画像のフレームを処理単位とし、すべてのフレームを用いることを前提としたが、フィールド単位で処理したり、すべてのフレームまたはフィールドを利用するのではなく、所定の間隔で間引いて抽出されたフレームまたはフィールドを用いるようにすることも可能である。 In the above, it is assumed that the frame of the image is used as a processing unit and all frames are used. However, processing is not performed in units of fields or using all frames or fields, but is extracted by thinning out at a predetermined interval. It is also possible to use a modified frame or field.
また以上においては、監視カメラシステムに適用した場合の例について説明したが、これに限らず、例えば、テレビジョン受像機など各種の画像処理装置に適応することが可能である。 In the above description, an example in which the present invention is applied to a surveillance camera system has been described. However, the present invention is not limited thereto, and can be applied to various image processing apparatuses such as a television receiver.
さらに以上においては、画像の処理単位をフレームとしたが、フィールドを処理単位とすることももちろん可能である。 Further, in the above, the image processing unit is a frame, but it is of course possible to use a field as a processing unit.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図2に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア28、または、プログラムが一時的もしくは永続的に格納されるハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースを介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 2, a program recording medium that stores a program that is installed in a computer and can be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc), magneto-optical disc, or
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program are not only processes performed in time series in the order described, but also processes that are executed in parallel or individually even if they are not necessarily processed in time series. Is also included.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
1 監視カメラシステム, 21 撮像部, 22 追尾対象検出部, 23 オブジェクト追尾部, 52 動き推定部, 53 シーンチェンジ検出部, 54 背景動き推定部, 55 領域推定関連処理部, 56 乗り換え候補保持部, 57 追尾点決定部, 60 一時停止検出部, 121 予測動きベクトルメモリ, 122 動き履歴特徴量抽出部, 123 動き判定部
DESCRIPTION OF
Claims (7)
画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶する記憶手段と、
前記記憶手段に記憶されている前記履歴情報に基づいて、複数の前記過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、前記第1の最大値と前記第1の最小値の差分であるダイナミックレンジを求め、前記第1の最大値に前記ダイナミックレンジを加算した第2の最大値と、前記第1の最小値から前記ダイナミックレンジを減算した第2の最小値を求め、前記第2の最大値と前記第2の最小値を、現在のフレームの予測動きベクトルの範囲として設定する範囲設定手段と、
前記オブジェクトの現在のフレームで推定された動きベクトルが、前記予測ベクトルの範囲外である場合、前記オブジェクトの現在の動きは推定不可能であると判断し、前記予測ベクトルの範囲内である場合、前記オブジェクトの現在の動きは推定可能であると判断する判断手段と、
前記判断手段により、推定不可能であると判断された場合、前記記憶手段に記憶されている前記過去の動きベクトルを読み出して外挿する外挿手段と
を備える画像処理装置。 In an image processing apparatus that tracks a moving object,
Storage means for storing past motion vectors of the object in the image as history information;
Based on the history information stored in the storage means, a first maximum value, a first minimum value, a first maximum value, and a first one out of a plurality of the past motion vectors. A second maximum value obtained by adding the dynamic range to the first maximum value, and a second minimum value obtained by subtracting the dynamic range from the first minimum value. Range setting means for setting the second maximum value and the second minimum value as the range of the predicted motion vector of the current frame;
If the motion vector estimated in the current frame of the object is outside the range of the prediction vector, it is determined that the current motion of the object cannot be estimated, and if the motion vector is within the range of the prediction vector, Determining means for determining that the current movement of the object can be estimated;
An image processing apparatus comprising: an extrapolation unit that reads and extrapolates the past motion vector stored in the storage unit when the determination unit determines that the estimation is impossible .
請求項1に記載の画像処理装置。 The range setting means sets a value obtained by adding a threshold value to the second maximum value to prevent the predicted motion vector range from becoming 0 when the dynamic range becomes 0. The image processing apparatus according to claim 1, wherein a value obtained by subtracting the threshold value from the second maximum value is set as the second minimum value .
請求項1に記載の画像処理装置。 If the past motion vector is extrapolated continuously by said extrapolation means, the image processing apparatus according to claim 1 for setting the current motion vector of the object to 0 vector.
前記判断手段により推定可能であると判断された場合、または前記カウンタ手段によるカウンタの値が閾値を超えたと判断された場合、前記カウンタ手段によるカウンタの値を初期化する
請求項1に記載の画像処理装置。 A counter for counting the number of times the past motion vector has been extrapolated by the extrapolator;
2. The image according to claim 1 , wherein the counter value by the counter unit is initialized when it is determined by the determination unit that it can be estimated, or when it is determined that the counter value by the counter unit exceeds a threshold value. Processing equipment.
前記検出手段により前記画像の一時停止が検出された場合、前記範囲設定手段は、前記予測ベクトルの範囲を大きな値に設定する
請求項1に記載の画像処理装置。 Further comprising detection means for detecting a pause of the image,
If the temporary stop of the image is detected by said detecting means, said range setting means, the image processing apparatus according to claim 1 for setting a range of the predicted vector to a large value.
画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、
前記記憶されている前記履歴情報に基づいて、複数の前記過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、前記第1の最大値と前記第1の最小値の差分であるダイナミックレンジを求め、前記第1の最大値に前記ダイナミックレンジを加算した第2の最大値と、前記第1の最小値から前記ダイナミックレンジを減算した第2の最小値を求め、前記第2の最大値と前記第2の最小値を、現在のフレームの予測動きベクトルの範囲として設定し、
前記オブジェクトの現在のフレームで推定された動きベクトルが、前記予測ベクトルの範囲外である場合、前記オブジェクトの現在の動きは推定不可能であると判断し、前記予測ベクトルの範囲内である場合、前記オブジェクトの現在の動きは推定可能であると判断し、
推定不可能であると判断された場合、前記記憶されている前記過去の動きベクトルを読み出して外挿する
ステップを含む画像処理方法。 In an image processing method of an image processing apparatus for tracking a moving object,
Storing past motion vectors of the object in the image as history information;
Based on the stored history information, a first maximum value and a first minimum value, and a first maximum value and a first minimum value from among the plurality of past motion vectors. A dynamic range that is a difference between the first maximum value, a second maximum value obtained by adding the dynamic range to the first maximum value, and a second minimum value obtained by subtracting the dynamic range from the first minimum value, Setting the second maximum value and the second minimum value as a range of a predicted motion vector of a current frame;
If the motion vector estimated in the current frame of the object is outside the range of the prediction vector, it is determined that the current motion of the object cannot be estimated, and if the motion vector is within the range of the prediction vector, Determining that the current movement of the object is estimable;
An image processing method including a step of reading and extrapolating the stored past motion vector when it is determined that estimation is impossible .
画像の中の前記オブジェクトの過去の動きベクトルを履歴情報として記憶し、
前記記憶されている前記履歴情報に基づいて、複数の前記過去の動きベクトルの中から、第1の最大値および第1の最小値、並びに、前記第1の最大値と前記第1の最小値の差分であるダイナミックレンジを求め、前記第1の最大値に前記ダイナミックレンジを加算した第2の最大値と、前記第1の最小値から前記ダイナミックレンジを減算した第2の最小値を求め、前記第2の最大値と前記第2の最小値を、現在のフレームの予測動きベクトルの範囲として設定し、
前記オブジェクトの現在のフレームで推定された動きベクトルが、前記予測ベクトルの範囲外である場合、前記オブジェクトの現在の動きは推定不可能であると判断し、前記予測ベクトルの範囲内である場合、前記オブジェクトの現在の動きは推定可能であると判断し、
推定不可能であると判断された場合、前記記憶されている前記過去の動きベクトルを読み出して外挿する
ステップを含むプログラム。 In a program for causing a computer to execute image processing of an image processing apparatus that tracks a moving object,
Storing past motion vectors of the object in the image as history information;
Based on the stored history information, a first maximum value and a first minimum value, and a first maximum value and a first minimum value from among the plurality of past motion vectors. A dynamic range that is a difference between the first maximum value, a second maximum value obtained by adding the dynamic range to the first maximum value, and a second minimum value obtained by subtracting the dynamic range from the first minimum value, Setting the second maximum value and the second minimum value as a range of a predicted motion vector of a current frame;
If the motion vector estimated in the current frame of the object is outside the range of the prediction vector, it is determined that the current motion of the object cannot be estimated, and if the motion vector is within the range of the prediction vector, Determining that the current movement of the object is estimable;
A program including a step of reading and extrapolating the stored past motion vector when it is determined that estimation is impossible .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006099830A JP4826315B2 (en) | 2006-03-31 | 2006-03-31 | Image processing apparatus and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006099830A JP4826315B2 (en) | 2006-03-31 | 2006-03-31 | Image processing apparatus and method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007272733A JP2007272733A (en) | 2007-10-18 |
JP4826315B2 true JP4826315B2 (en) | 2011-11-30 |
Family
ID=38675452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006099830A Expired - Fee Related JP4826315B2 (en) | 2006-03-31 | 2006-03-31 | Image processing apparatus and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4826315B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4513034B2 (en) * | 2008-02-20 | 2010-07-28 | ソニー株式会社 | Image signal processing apparatus, image signal processing method, and program |
JP5218168B2 (en) | 2009-03-11 | 2013-06-26 | ソニー株式会社 | Imaging device, moving object detection method, moving object detection circuit, program, and monitoring system |
JP5472976B2 (en) * | 2009-08-18 | 2014-04-16 | Necソフト株式会社 | Object detection device, object detection method, program, and recording medium |
KR101630688B1 (en) * | 2010-02-17 | 2016-06-16 | 삼성전자주식회사 | Apparatus for motion estimation and method thereof and image processing apparatus |
JP5702269B2 (en) * | 2011-12-13 | 2015-04-15 | 日本電信電話株式会社 | Parallel video analysis device, parallel video analysis method, and parallel video analysis program |
JP5701947B2 (en) * | 2013-08-19 | 2015-04-15 | 株式会社ニデック | Fundus image processing apparatus and fundus image processing program |
WO2019003709A1 (en) * | 2017-06-30 | 2019-01-03 | 日本電気株式会社 | Information processing device, control method, and program |
EP3788787A1 (en) | 2018-06-05 | 2021-03-10 | Beijing Bytedance Network Technology Co. Ltd. | Interaction between ibc and atmvp |
EP4307671A3 (en) | 2018-06-21 | 2024-02-07 | Beijing Bytedance Network Technology Co., Ltd. | Sub-block mv inheritance between color components |
TWI739120B (en) | 2018-06-21 | 2021-09-11 | 大陸商北京字節跳動網絡技術有限公司 | Unified constrains for the merge affine mode and the non-merge affine mode |
GB2591906B (en) | 2018-09-24 | 2023-03-08 | Beijing Bytedance Network Tech Co Ltd | Bi-prediction with weights in video coding and decoding |
CN112970262B (en) | 2018-11-10 | 2024-02-20 | 北京字节跳动网络技术有限公司 | Rounding in trigonometric prediction mode |
US12039739B2 (en) | 2018-11-19 | 2024-07-16 | Sony Group Corporation | Motion vector detection apparatus and motion vector detection method to accurately detect a motion vector from a captured image utilizing a degree of reliability information |
US11704087B2 (en) * | 2020-02-03 | 2023-07-18 | Google Llc | Video-informed spatial audio expansion |
JP7538631B2 (en) | 2020-06-15 | 2024-08-22 | キヤノン株式会社 | Image processing device, image processing method, and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2749727B2 (en) * | 1991-03-08 | 1998-05-13 | 三菱電機株式会社 | Route prediction device |
JPH07192136A (en) * | 1993-11-22 | 1995-07-28 | Nippon Telegr & Teleph Corp <Ntt> | Object tracking method and device |
JPH08186825A (en) * | 1994-12-28 | 1996-07-16 | Nippon Hoso Kyokai <Nhk> | Moving vector detection method |
JPH10177655A (en) * | 1996-12-16 | 1998-06-30 | Oki Electric Ind Co Ltd | Moving image processor |
JP3481430B2 (en) * | 1997-09-11 | 2003-12-22 | 富士通株式会社 | Mobile tracking device |
JP2004046647A (en) * | 2002-07-12 | 2004-02-12 | Univ Waseda | Method and device for tracking moving object based on dynamic image data |
JP4482795B2 (en) * | 2004-03-05 | 2010-06-16 | ソニー株式会社 | Image processing apparatus, moving object tracking method, moving object tracking program, monitoring apparatus, and game apparatus |
-
2006
- 2006-03-31 JP JP2006099830A patent/JP4826315B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2007272733A (en) | 2007-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4826315B2 (en) | Image processing apparatus and method, and program | |
US8064522B2 (en) | Motion-vector detecting device, motion-vector detecting method, and computer program | |
JP4623122B2 (en) | Image signal processing apparatus, image signal processing method, and program | |
US8605946B2 (en) | Moving object detection apparatus and moving object detection method | |
US8582822B2 (en) | Moving object detection apparatus and moving object detection method | |
US9444977B2 (en) | Method and device for adaptive noise measurement of a video signal | |
EP2372654A1 (en) | Object tracking apparatus, object tracking method, and control program | |
US8311351B2 (en) | Apparatus and method for improving frame rate using motion trajectory | |
US20120134541A1 (en) | Object tracking device capable of detecting intruding object, method of tracking object, and storage medium | |
US20100290672A1 (en) | Moving object detecting device, moving object detecting method, and computer program | |
JP4797753B2 (en) | Image processing apparatus and method, and program | |
JP4514203B2 (en) | Motion vector detection apparatus and method | |
US8260003B2 (en) | Image-signal processor, image-signal processing method, and program for tracking a moving object | |
US20050180506A1 (en) | Unit for and method of estimating a current motion vector | |
US10817727B2 (en) | Information processing apparatus and method of controlling an information processing apparatus that estimate a waiting time in a waiting line | |
JP2010114597A (en) | Motion vector detection apparatus, motion vector processing method and program | |
JP2007274543A (en) | Image processing apparatus and method, program, and recording medium | |
US20210390712A1 (en) | Image processing apparatus, image processing method, and storage medium | |
KR101589492B1 (en) | System and method for motion estimation of digital video using multiple recursion rules | |
JPH09322153A (en) | Automatic monitor | |
US11507768B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2007272731A (en) | Image processing apparatus and method, and program | |
JP2004533073A (en) | Feature point selection | |
Borzov et al. | Detection of small-size dynamic objects by a moving observation system | |
JP2006338266A (en) | Movement detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110303 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110816 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110829 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140922 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |