JP3980666B2 - 動きベクトル推定方法及び画像処理装置 - Google Patents
動きベクトル推定方法及び画像処理装置 Download PDFInfo
- Publication number
- JP3980666B2 JP3980666B2 JP14047895A JP14047895A JP3980666B2 JP 3980666 B2 JP3980666 B2 JP 3980666B2 JP 14047895 A JP14047895 A JP 14047895A JP 14047895 A JP14047895 A JP 14047895A JP 3980666 B2 JP3980666 B2 JP 3980666B2
- Authority
- JP
- Japan
- Prior art keywords
- block
- image
- motion vector
- template
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Description
【産業上の利用分野】
本発明は、動きベクトル推定方法及び画像処理装置に関し、特に、例えば、動画像中の物体追跡処理などで行われる、2画像間の対象領域の動きベクトル推定処理を精度良く行うのに好適な動きベクトル推定方法及び画像処理装置に関する。
【0002】
【従来の技術】
動画において、対象とする物体の動きを予測して次の画像の位置を推定することが行われている。このような2画像間の小領域の動きベクトル推定を行うための従来技術としてブロックマッチングが知られている。このブロックマッチングの技術は、例えば、文献「画像解析ハンドブック」、高木幹雄, 下田陽久, 東京大学出版会,1991 等に開示されているが、以下に、ブロックマッチングの概略について説明する。
【0003】
ブロックマッチング法とは、時間的な前後関係に従って第1、第2の画像とするとき、第1の画像I1 上にn1×n2の矩形のテンプレートを決め、第2の画像I2 上にm1×m2の矩形の探索範囲あるいは探査範囲を決め、この探査範囲内でテンプレートを動かし、もっとも一致した位置を適当な誤差評価関数を用いて探す方法のことである。ここで、上記n1、n2、m1、m2は整数である。
【0004】
図6にブロックマッチング処理のための概略構成のブロック図を示す。処理は以下のように行われる。
【0005】
先ず、マッチング演算処理部101では、テンプレートと探査範囲のリストが設定されているとき、各テンプレートついて、対となる探査範囲中のブロックとのマッチングを行う。最適なマッチングが得られたブロック位置のリストを次段におくる。
【0006】
次に、動きベクトル演算処理部103では、テンプレート位置(t1,t2) を始点とし、前段で得られたマッチング位置(m1,m2) を終点とする動きベクトルvを計算する。すなわち、
v=(m1−t1,m2−t2) (1)
である。
【0007】
図7に画像とテンプレート、探査範囲の関係を示す。マッチング演算は以下のことを実現する処理である。
【0008】
この図7において、第1の画像I1 内の位置(t1,t2) にテンプレートT、第2の画像I2 内の位置(s1,s2) に探査範囲Sがあるとき、探査範囲S内の位置(a,b) のブロックS(a,b) 毎にテンプレートTとの誤差評価値E(a,b) を求める。探査範囲(0≦a≦m1−1,0≦b≦m2−1)でE(a,b) が形成する誤差曲面上の最小値点(mina,minb)を決定する。ここで、上記t1,t2、s1,s2、a、bは整数である。
【0009】
次に、マッチング演算をフローチャートで表すと図8のようになる。ただし、図8において添字iは、上記テンプレートと探査範囲のリストが設定されているときのi番めのリストであることを示す。
【0010】
この図8において、最初のステップS111では、テンプレートTと探査範囲Sをそれぞれ画像I1 、I2 から取り出し、次のステップS112では、上記誤差評価値E(a,b) の最小値minE に大きな定数、例えば誤差評価値E(a,b) として取り得る最大値を代入しておく。次に、探査範囲S内におけるテンプレートのx座標aについてのFORループ113と、y座標bについてのFORループ114による処理に移り、このループ処理においては、探査位置(a,b)を探査範囲内で変えつつ、図7で説明したブロックS(a,b) とテンプレートTの誤差評価値E(a,b) を求め、その評価値が最小値minE となる位置(mina,minb)を求めている。すなわち、このループ内での具体的な処理としては、ステップS115で上記テンプレートTと探査範囲S内のブロックS(a,b) とに基づく誤差評価演算を行って誤差評価値E(a,b) を求め、ステップS116でこの誤差評価値E(a,b) が現時点での最小値minE よりも小さいか否かを判別し、NoのときはFORループの次の処理ステップに移行し、YesのときはステップS117に進んで、minE に誤差評価値E(a,b) を代入し、mina,minbにそれぞれa,bを代入した後、FORループの次の処理ステップに移行している。このFORループの処理が全て終了したとき、探査範囲S内で誤差評価値が最小値minE となるテンプレート位置(mina,minb)が求められる。画像I2 内での探査範囲Sの位置が(s1,s2) であるから、画像I2 内でのテンプレートTのマッチング位置としては、(s1+mina,s2+minb)が出力されることになる。
【0011】
ここで、誤差評価関数E(a,b) としては、比較する画像の相関係数を用いる方法と比較する画像の平均残差を用いる方法があるが、計算の容易さから平均残差を用いる方法がよく使われている。平均残差を用いる方法は、画素毎に残差eの絶対値または2乗を求め、そのテンプレート範囲の平均を誤差評価値Eとするものである。誤差評価関数E(a,b) の具体例を次式に示す。
【0012】
【数1】
【0013】
これらの式(2)〜式(4)において、式(2)は画素毎に残差eの絶対値を用いたとき、式(3)は2乗を用いた時の誤差評価関数E(a,b) を示したものである。分母は(a,b)によらないので、計算上は省略されることが多い。また式(4)は画素毎の残差eを示したものである。
【0014】
また、上記ブロックマッチングを応用し、対象物領域の追跡を行うことを目的とした技術文献としては、特開平4−117079号公報「画像処理システム」や、「映像のための動ベクトル検出法に関する一検討」八木ら, テレビジョン学会誌, Vol.45, No.10, pp.1221-1229, 1991 等がある。以下にその概要を説明する。
【0015】
上記「画像処理システム」は、1つ前のフレームにおいて、対象物領域を示すマスク画像が与えられているときに、前フレームのマスクが1である全ての画素の動きベクトルをブロックマッチングによって推定し、前フレームのマスクが1である全ての画素を動きベクトルによって移動させた結果を現フレームのマスクとする技術である。
【0016】
上記「映像のための動ベクトル検出法に関する一検討」は、1つ前のフレームにおいて、対象物領域を示すマスク画像が与えられているときに、対象物領域内部にブロックを適当個配置し、それらに対し、前フレームと現フレームとの間でブロックマッチングを行い、得られた動きベクトルからマスク画像のアフィン変換パラメータを推定する技術である。現フレームのマスク画像は推定されたアフィン変換パラメータにより、前フレームのマスク画像を変形することにより得られる。
【0017】
【発明が解決しようとする課題】
ところで、上述した従来のブロックマッチングの技術においては、テンプレート内に動きの異なる複数の物体があるとき、上記の誤差評価関数では探索範囲内で物体の数だけ誤差評価関数の極小値が存在する可能性がある。その極小値の大小は、テンプレート内に占める各物体の広さによるので、そのなかの最小値が必ずしもそのときの動きベクトルの正解でない場合がある。
【0018】
そこで、テンプレート内に複数の物体が含まれないように、テンプレートの大きさを小さくすると、画素数すなわち標本数が十分に得られずに動きベクトル推定がノイズに弱くなる。
【0019】
このような実情から、上述した従来のブロックマッチングの技術では動きベクトルを推定しようとする物体の境界付近に関しては、動きベクトルの精度が十分に得られていなかった。
【0020】
そのため、この従来のブロックマッチング技術を利用する物体領域追跡技術である、上記「画像処理システム」や、「映像のための動ベクトル検出法に関する一検討」において、以下のような問題があった。
【0021】
すなわち、上記「画像処理システム」の技術では、対象物画素であると判断された全ての画素の動きベクトルを検出する。そのうち、境界付近にある画素については、動きベクトルに用いるブロックに対象物でない画素が含まれるために、上で述べた理由によりその画素の動きベクトルが正確に得られないため、処理結果としてのマスク画像形状が歪む問題があった。
【0022】
また、上記「映像のための動ベクトル検出法に関する一検討」の技術においては、上述したブロックマッチング技術の欠点は物体境界では避けられない問題であるとして、物体境界から十分に離れた、対象物内部の画素のみを用いて、対象物形状を追跡する処理を行う。そのため、アフィン変換のような写像でえられるような、簡単な形状変形の追随に終始しているのが実情である。
【0023】
以上のように、ブロックマッチングが物体境界領域において抱える問題のために、正確な対象物形状の追跡が実現されていなかった。
【0024】
そこで本発明は、物体の境界付近においても、精度の良い動きベクトル推定を行い得るような動きベクトル推定方法及びこのような処理を行う画像処理装置を提供することを目的とするものである。
【0025】
【課題を解決するための手段】
本発明に係る動きベクトル推定方法は、時間的に前後関係を有する第1、第2の画像中に存在する対象領域についてブロックマッチングを用いて動きベクトルを推定する動きベクトル推定方法において、上記第1の画像中の動きベクトルを求めたいテンプレートブロックと、第2の画像中の探査範囲内にあるテンプレートの移動先候補のブロックとを、それぞれ第1、第2のブロックとし、第1のブロックを利用して対象領域画素であることを濃淡値で示すマスク画像を第3のブロックとする工程と、上記第1、第2のブロック間の各画素の誤差と上記第3のブロックの各画素とを乗算した値の全要素の総和を指標とする工程と、上記第1のブロックに対してもっとも一致する上記第2のブロックの位置を探査する工程とを有し、上記マスク画像は、上記第1のブロック内に存在する対象領域の色に着目して該マスク画像を生成することにより、上述した課題を解決する。
【0026】
また、本発明に係る画像処理装置は、時間的に前後関係を有する第1、第2の画像中に存在する対象領域についてブロックマッチングを用いて動きベクトルを推定する処理を行う画像処理装置において、上記第1の画像中の動きベクトルを求めたいテンプレートブロックと、第2の画像中の探査範囲内にあるテンプレートの移動先候補のブロックとを、それぞれ第1、第2のブロックとし、第1のブロックを利用して対象領域画素であることを濃淡値で示すマスク画像を第3のブロックとして生成する配列生成手段と、上記第1、第2のブロック間の各画素の誤差と上記第3のブロックの各画素とを乗算した値の全要素の総和を計算して指標とする指標生成手段と、上記第1のブロックに対してもっとも一致する上記第2のブロックの位置を探査する探査手段とを備え、上記配列生成手段は、上記第1のブロック内に存在する対象領域の色に着目して、マスク画像を生成することにより、上述した課題を解決する。
【0027】
本発明に係る誤差評価方法及び誤差評価装置によれば、第1、第2のn次元配列間の誤差評価の際に、第3のn次元配列により要素の重要度に応じた重み付けがなされる。
【0028】
本発明に係る動きベクトル推定方法及び画像処理装置によれば、第1の画像中のテンプレートブロックと、第2の画像中の探査範囲内にあるテンプレートの移動先候補のブロックとの間の各要素の誤差と、マスク画像となる第3の画像の各要素とを乗算した値の全要素の総和を指標とし、ブロックマッチングによりテンプレートについての動きベクトルを推定する。
【0029】
【実施例】
以下、本発明に係る好ましい実施例について図面を参照しながら説明する。
【0030】
図1は、本発明の一実施例が適用される動きベクトル推定のための構成を概略的に示すブロック図である。
この図1において、マッチング演算処理部11は、動きベクトルを求めようとする対象物を含む第1、第2の画像I1,I2 と、第1の画像I1 の対象物領域を濃淡値で示す第3の画像I3 と、第1の画像I1 の対象物の輪郭部に適当個配置されたテンプレートと、第2の画像I2 にテンプレートと対応して配置された探査範囲とを入力とし、テンプレートともっとも一致する第2の画像I2 上のマッチング位置を出力とするものである。また、動きベクトル演算処理部12は、テンプレートの位置と、マッチング演算処理部11からのマッチング位置とを入力とし、テンプレートの動きベクトルを出力とするものである。
【0031】
ここで、第3の画像I3 は、第1、第2の画像I1,I2 と同じ大きさで、各要素がそれぞれの重要度あるいは濃淡を示す値を持つような一種のマスク画像である。この第3の画像I3 としては、例えば前のフレームで用いられた第3の画像の情報を用いることができる。また、第3の画像I3 は、2値をもつものでも、中間値をもつものでもよく、例えばタブレット等を用いて手入力したり、所定の色に着目して着目色部分を取り出すようにして第3の画像I3 を得るようにしてもよい。
【0032】
次に、本発明の上記実施例を実現するための画像処理装置の全体の概略構成の一例を図2に示す。
【0033】
この図2において、画像処理装置は、本実施例の動きベクトル推定処理に必要なあらゆる演算を行うためのCPU(中央演算処理装置)21と、画像I1,I2,I3 を保持するための外部記憶手段22と、画像を作成したりするためのマウス、タブレットペンなどの入力手段23と、画像を表示するためのディスプレイなどの表示手段とを有している。これらのCPU21、外部記憶手段22、入力手段23、表示手段24間でのデータの送受は、バスライン25を介して行われる。
【0034】
次に、上記図1のマッチング演算処理部11及び動きベクトル演算処理部12における処理についてさらに詳細に説明する。
【0035】
先ず、上記マッチング演算処理部11でのマッチング演算について、図3のフローチャートを参照しながら説明する。この図3において添字iは、上記テンプレートと探査範囲のリストが設定されているときのi番めのリストであることを示す。
【0036】
この図3において、最初のステップS31では、テンプレートTと探査範囲Sをそれぞれ画像I1 、I2 から取り出し、さらに、画像I1 の対象物領域を濃淡値で示す第3の画像I3 上のテンプレート位置(t1,t2) からブロックWを取り出す。次のステップS32では、上記誤差評価値E(a,b) の最小値minE に大きな定数、例えば誤差評価値E(a,b) として取り得る最大値を代入しておく。
【0037】
次に、探査範囲S内におけるテンプレートのx座標aについてのFORループ33と、y座標bについてのFORループ114による処理に移り、このループ処理においては、探査位置(a,b)を探査範囲内で変えつつ、図7で説明したブロックS(a,b) とテンプレートTの誤差評価値E(a,b) を求め、その評価値が最小値minE となる位置(mina,minb)を求めている。すなわち、このループ内での具体的な処理としては、先ずステップS35において、上記テンプレートTと、探査範囲S内のブロックS(a,b) と、に基づく誤差評価演算を行って誤差評価値E(a,b) を求める。次のステップS36でこの誤差評価値E(a,b) が現時点での最小値minE よりも小さいか否かを判別し、NoのときはFORループの次の処理ステップに移行し、YesのときはステップS37に進んで、minE に誤差評価値E(a,b) を代入し、mina,minbにそれぞれa,bを代入した後、FORループの次の処理ステップに移行している。このFORループの処理が全て終了したとき、探査範囲S内で誤差評価値が最小値minE となるテンプレート位置(mina,minb)が求められる。この場合、画像I2 内での探査範囲Sの位置が上記(s1,s2) であるから、画像I2 内でのテンプレートTのマッチング位置としては、(s1+mina,s2+minb)が出力されることになる。ここで上記t1,t2、s1,s2、a、bは整数である。
【0038】
図4、図5は、本実施例における誤差評価の特徴を説明するための図である。従来のブロックマッチングにおいては、図7において示したように、第1の画像I1 からブロックT、第2の画像I2 からブロックS(a,b) を取り出して、両者の誤差評価を、上記式(1)または式(2)によって行った。これに対して本発明の実施例では、図4に示すように、新たに対象物領域を濃淡値であらわす第3の画像I3 から重要度を示すブロックWを取り出し、前記ブロックT、S(a,b) とともに誤差評価に用いている。すなわち、図5に示すように、これら3つのブロックT、S(a,b) 、Wを誤差評価演算処理部51に送り、例えば次式に示すような誤差評価演算を行い、誤差評価値Eを得る。
【0039】
本発明における誤差評価関数は、次の式(5)(6)(7)のようになる。
【0040】
【数2】
【0041】
ここで、式(5)は従来技術(I)の式(2)の、式(6)は従来技術(I)の式(3)の改良である。
【0042】
ここで、上記式(5)、(6)、(7)において、S(a,b)[i,j]、T[i,j] 、e(a,b)[i,j]をベクトルとみなすことによって、本発明実施例を多値画像にも適用することが可能となる。
【0043】
次に、上記図1の動きベクトル演算処理部12での処理について説明する。この動きベクトル演算は、前述した従来のブロックマッチングの処理と同様の動きベクトル演算を行うことにより実現する。テンプレート位置(t1,t2) を始点とし、前段で得られたマッチング位置(m1,m2) を終点とする動きベクトルvを計算する。すなわち、
v=(m1−t1,m2−t2) (8)
である。ここで、m1,m2 は整数である。
【0044】
次に、以上説明したような本実施例により得られる効果について、上記図4を参照しながら説明する。
【0045】
この図4において、第1の画像I1 中の対象物領域FGの一部の輪郭部からテンプレートTのブロックを取り出している。このテンプレートT内の領域においては、第1の画像I1 中に存在する2つの例えば色の異なる背景BG1、BG2のうち、背景BG1が大部分を占めている。第2の画像I2 中で、このテンプレートTのブロックに対応する位置は、図中に示したブロックS(a,b) である。ところが、この図4の例では、対象物あるいは背景の移動によって、移動先ブロックS(a,b) における背景はBG2が大部分を占めるように変化したので、従来の誤差評価では背景BG1とBG2との差を検出してしまい、誤差が小さくならない。
【0046】
これに対して、本発明の実施例によれば、第3の画像I3 によって、テンプレートT中の対象物領域FGの重要度が高く与えられているため、背景BG1とBG2との差を検出しないような誤差評価が可能である。従って、本発明の実施例によって、テンプレートTのブロックに対応するブロックS(a,b) を正しく求めることができる。
【0047】
なお、本発明は上記実施例のみに限定されるものではなく、例えば、画像の動きベクトル推定の他に、画像パターン等を含む信号パターンあるいはコードパターン等のパターンマッチングのための誤差評価に適用することができる。この場合には、一般に、各次元の要素数が等しい2つのn次元配列の値の誤差を評価する際に、これらのn次元配列と同じ大きさで、各要素がそれぞれの重要度を示す値をもつ第3のn次元配列を与え、上記2つのn次元配列間の各要素の誤差と上記第3のn次元配列の各要素とを乗算した値の全要素の総和を指標として誤差評価を行わせればよい。また、本発明を物体領域追跡に利用することによって、従来の物体領域追跡技術では得られなかった、輪郭領域の追跡精度を向上させることが可能である。
【0048】
【発明の効果】
本発明に係る誤差評価方法及び誤差評価装置によれば、誤差を評価しようとする2つの配列と同じ大きさで、各要素がそれぞれの重要度を示す値をもつ第3の配列を乗算して誤差評価を行っているため、重要度に応じて重み付けされた精度の高い誤差評価が行える。
【0049】
また、本発明に係る動きベクトル推定方法及び画像処理装置によれば、第1の画像中の動きベクトルを求めたいテンプレートブロックと、第2の画像中の探査範囲内にあるテンプレートの移動先候補のブロックとを、それぞれ第1、第2の配列とし、上記テンプレートブロックの各画素に対し、対象領域画素であることを濃淡値で示すマスク画像を第3の配列とし、上記第1、第2の配列間の各要素の誤差と上記第3の配列の各要素とを乗算した値の全要素の総和を指標とし、上記第1の配列ともっとも一致する上記第2の配列の位置を探査することにより、従来ブロックマッチングではエラーの多かった物体境界領域でも精度の良い動きベクトル推定を行うことを実現する。
【図面の簡単な説明】
【図1】本発明の動きベクトル推定方法が適用される実施例の概略構成を示すブロック図である。
【図2】本発明の実施例を実現するための画像処理装置の全体の概略構成を示すブロック図である。
【図3】図1のマッチング演算処理部での演算動作を説明するためのフローチャートである。
【図4】本実施例の効果を説明するための図である。
【図5】誤差評価演算処理部を示すブロック図である。
【図6】従来のブロックマッチングによる動きベクトル推定のための概略構成を示すブロック図である。
【図7】画像と、テンプレート、探査範囲の関係を示す図である。
【図8】図6のマッチング演算処理部での演算動作を説明するためのフローチャートである。
【符号の説明】
11、101 マッチング演算処理部
12、102 動きベクトル演算処理部
21 CPU(中央演算処理装置)
22 外部記憶手段
23 入力手段
24 表示手段
25 バスライン
Claims (2)
- 時間的に前後関係を有する第1、第2の画像中に存在する対象領域についてブロックマッチングを用いて動きベクトルを推定する動きベクトル推定方法において、
上記第1の画像中の動きベクトルを求めたいテンプレートブロックと、第2の画像中の探査範囲内にあるテンプレートの移動先候補のブロックとを、それぞれ第1、第2のブロックとし、第1のブロックを利用して対象領域画素であることを濃淡値で示すマスク画像を第3のブロックとする工程と、
上記第1、第2のブロック間の各画素の誤差と上記第3のブロックの各画素とを乗算した値の全要素の総和を指標とする工程と、
上記第1のブロックに対してもっとも一致する上記第2のブロックの位置を探査する工程とを有し、
上記マスク画像は、上記第1のブロック内に存在する対象領域の色に着目して該マスク画像を生成することを特徴とする動きベクトル推定方法。 - 時間的に前後関係を有する第1、第2の画像中に存在する対象領域についてブロックマッチングを用いて動きベクトルを推定する処理を行う画像処理装置において、
上記第1の画像中の動きベクトルを求めたいテンプレートブロックと、第2の画像中の探査範囲内にあるテンプレートの移動先候補のブロックとを、それぞれ第1、第2のブロックとし、第1のブロックを利用して対象領域画素であることを濃淡値で示すマスク画像を第3のブロックとして生成する配列生成手段と、
上記第1、第2のブロック間の各画素の誤差と上記第3のブロックの各画素とを乗算した値の全要素の総和を計算して指標とする指標生成手段と、
上記第1のブロックに対してもっとも一致する上記第2のブロックの位置を探査する探査手段とを備え、
上記配列生成手段は、上記第1のブロック内に存在する対象領域の色に着目して該マスク画像を生成することを特徴とする画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14047895A JP3980666B2 (ja) | 1995-06-07 | 1995-06-07 | 動きベクトル推定方法及び画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14047895A JP3980666B2 (ja) | 1995-06-07 | 1995-06-07 | 動きベクトル推定方法及び画像処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH08335269A JPH08335269A (ja) | 1996-12-17 |
JP3980666B2 true JP3980666B2 (ja) | 2007-09-26 |
Family
ID=15269549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14047895A Expired - Fee Related JP3980666B2 (ja) | 1995-06-07 | 1995-06-07 | 動きベクトル推定方法及び画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3980666B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4765194B2 (ja) * | 2001-05-10 | 2011-09-07 | ソニー株式会社 | 動画像符号化装置、動画像符号化方法、動画像符号化プログラム格納媒体及び動画像符号化プログラム |
JP2007257287A (ja) * | 2006-03-23 | 2007-10-04 | Tokyo Institute Of Technology | 画像レジストレーション方法 |
-
1995
- 1995-06-07 JP JP14047895A patent/JP3980666B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH08335269A (ja) | 1996-12-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2576771B2 (ja) | 動き補償予測装置 | |
JP4429298B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
US20230206594A1 (en) | System and method for correspondence map determination | |
US20130195351A1 (en) | Image processor, image processing method, learning device, learning method and program | |
JP2021506017A (ja) | 物体検出器及び物体検出方法 | |
JPH07168943A (ja) | 局所異常の排除による動きベクトルフィールド生成装置およびその方法 | |
JP2002373332A (ja) | 画像認識装置および画像認識方法 | |
US7110023B2 (en) | Method and apparatus for target object extraction from an image | |
US7298868B2 (en) | Density estimation-based information fusion for multiple motion computation | |
US7403636B2 (en) | Method and apparatus for processing an image | |
US5621825A (en) | Image processor, image processing method and apparatus applying same | |
Matas et al. | Learning efficient linear predictors for motion estimation | |
JP3980666B2 (ja) | 動きベクトル推定方法及び画像処理装置 | |
US6650362B1 (en) | Movement detecting apparatus with feature point extractor based on luminance gradient in current frame | |
US6934407B2 (en) | Method and system for tag detection and tracking in MRI tagged images | |
KR100996209B1 (ko) | 변화값 템플릿을 이용한 객체 모델링 방법 및 그 시스템 | |
JPH08335268A (ja) | 領域抽出方法 | |
JP4674920B2 (ja) | 対象個数検出装置および対象個数検出方法 | |
US8179967B2 (en) | Method and device for detecting movement of an entity provided with an image sensor | |
CN108280815B (zh) | 一种面向监控场景结构的几何校正方法 | |
JP4453202B2 (ja) | 画像処理装置および画像処理方法、並びにコンピュータ読み取り可能な記録媒体 | |
JP3674084B2 (ja) | 動きベクトル推定方法及び画像処理装置 | |
CN117315092B (zh) | 一种自动标注方法及数据处理设备 | |
CN113705430B (zh) | 基于检测模型的表格检测方法、装置、设备及存储介质 | |
Fotinos et al. | Use of relative entropy in colour edge detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20041217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041228 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050228 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20050405 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050606 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050629 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20050704 |
|
A912 | Removal of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20050722 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070628 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100706 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100706 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110706 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110706 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120706 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |