JP3948616B2 - Image matching device - Google Patents
Image matching device Download PDFInfo
- Publication number
- JP3948616B2 JP3948616B2 JP2002226055A JP2002226055A JP3948616B2 JP 3948616 B2 JP3948616 B2 JP 3948616B2 JP 2002226055 A JP2002226055 A JP 2002226055A JP 2002226055 A JP2002226055 A JP 2002226055A JP 3948616 B2 JP3948616 B2 JP 3948616B2
- Authority
- JP
- Japan
- Prior art keywords
- matching
- image
- vector
- conversion parameter
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Television Systems (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は画像のマッチング装置に関し、特に、動き補正テレビ方式変換や動画像符号化を行う場合、あるいはステレオ画像(左眼画像と右目画像からなる1組の静止画または動画)からの奥行抽出処理を行う場合等に好適な、動画像の中の動きを自動推定したり、左眼・右眼用画像からなるステレオ画像の間の対応点を自動検出したりする画像のマッチング装置に関する。
【0002】
【従来の技術】
従来、テレビ放送やテレビ電話など、動画像の中の動きを自動推定したり、左眼用画像と右眼用画像からなるステレオ画像の間の対応点を自動検出したりする画像のマッチングの処理においてしばしば使用される方式としては、ブロックマッチング法や反復勾配法が挙げられる。これらの方法を説明する文献としては、次の文献を挙げることができる。
川田他:“動き補正テレビ方式変換の改善”、映像情報メディア学会誌、Vol.51,No.9(1997),pp.1577〜1586。
【0003】
これらの方法は、動き推定の場合、画像を、ある小さいサイズの多数のブロックに分割して、そのブロックごとに現フレームと前フレームとを比較して動きを求めることを基本としている。なお、ステレオマッチングの場合は、前記「現フレーム」と「前フレーム」を、「左眼画像」と「右眼画像」に置き換えて考えればよいので、本願の発明は動き推定の場合を中心に説明し、ステレオマッチングの場合の詳細な説明は省略する。
【0004】
【発明が解決しようとする課題】
しかしながら、上記の画像のマッチング処理においては、入力映像の絵柄によって、正しくマッチングできる場合とそうでない場合が存在する。例えば反復勾配法の場合、次のように説明できる。
【0005】
反復勾配法により求まる動きベクトルv(画像内のブロック毎) は、初期偏位動ベクトルをv0 として、次の式(1)で求められる(上記文献参照)。
v = Δv + v0 ・・・(1)
ここに、差分ベクトルΔv の水平、垂直成分Δvx、Δvy は、画素値の水平勾配Δx、垂直勾配Δy、および初期偏位動ベクトルv0による動き補正フィールド(フレーム) 間差分Δt によって、下記の式(2)および式(3)のように表される。なお、和は当該ブロック内の全画素について適用される。
ここに、初期偏位動ベクトルv0は、過去に求められた周辺のブロックの動ベクトルを候補としてマッチングにより決定される(詳細は上記文献参照)。
【0006】
前記式(2)、(3)においては、特に分母が小さい場合に0による除算に近くなるため、ノイズなどわずかな擾乱要因によっても大きな誤差が発生する恐れがある。
【0007】
特に問題となる例としては、規則的な繰り返し模様が絵柄に存在する場合である。この場合、多数の動ベクトルで画像のマッチングが取れるため、ノイズ等により実際の動きとは別の動ベクトルが求まり、その結果、方式変換の場合、内挿画像が極端に劣化することがある。
【0008】
また、反復勾配法においては、画像面の勾配を利用して反復的に動きを求めるため、フレーム間での相関が小さいと、動きが求まりにくくなってしまう。この面から特に問題となるのは、高速シャッターつきで撮影したシーンである。時間的に隣り合う画像間で動物体が離れているため、動きを捉えられなくなる傾向が強まる。
【0009】
以上のように、規則的な繰り返し模様が絵柄に存在する画像と、フレーム間での相関が小さい画像とのように、マッチング処理がうまくいきやすいかどうかという点で、トレードオフの関係にある画像が存在する。
【0010】
本発明の目的は、前記した従来技術の問題点に鑑みてなされたものであり、上記のように適切なマッチング処理を両立させにくい絵柄が混在するような場合でも、適切に両立させることを可能とするマッチング装置を提供することにある。
【0011】
【課題を解決するための手段】
前記した目的を達成するために、本発明は、動画像の中の動きを自動推定したり、左眼用画像と右眼用画像からなるステレオ画像の間の対応点を自動検出したりする画像のマッチング装置において、画像の画素値の水平勾配、垂直勾配および初期偏位ベクトルによる動き補正フィールド(フレーム)間差分を基に求められる差分ベクトルΔvに、変換パラメータαを乗算し、該乗算結果と前記初期偏位ベクトルv0とを加算することによりベクトルvを算出する、反復勾配法により映像のマッチング処理を行うマッチング手段と、該マッチング手段から出力されるマッチング情報信号(ベクトル) の分布に関する特徴量を抽出する特徴量抽出手段と、前記変換パラメータαは選択可能な大小の2つ以上の値を有し、前記特徴量を基に、前記変換パラメータαの大小を決定する変換パラメータ決定手段とを具備し、前記変換パラメータαは、前記特徴量が予め定められた閾値と比較された結果に基づいてその大小が決定され、前記マッチング手段は、該変換パラメータ決定手段で決定された変換パラメータαを用いて、マッチング処理を行うようにした点に第1の特徴がある。また、前記マッチング手段から出力されるマッチング情報信号(ベクトル) の分布に関する特徴量を抽出する特徴量抽出手段に代えて、映像の内容から特徴量を抽出する特徴量抽出手段を具備した点に第2の特徴がある。
これらの特徴によれば、当該画像に最適なマッチングパラメータを適応的に決定することができるようになり、該最適パラメータを用いてマッチング処理を行うことができるので、より正確なマッチング処理が可能になる。
【0012】
また、本発明は、前記マッチング手段は、画素値の水平勾配、垂直勾配および初期偏位ベクトルによる動き補正フィールド(フレーム)間差分を基に求められる差分ベクトルに前記変換パラメータ決定手段で決定された変換パラメータを乗算し、該乗算結果と初期偏位ベクトルとを加算することによりベクトルを算出する、反復勾配法により映像のマッチング処理を行うようにした点に第3の特徴がある。また、前記マッチング手段は、前記差分ベクトルに対してある数を加算もしくは減算し、該加算値もしくは減算値と初期偏位ベクトルとを加算することによりベクトルを算出する、反復勾配法により映像のマッチング処理を行うようにした点に第4の特徴がある。
【0013】
これらの特徴によれば、ベクトルの求まり方(反復勾配法に於けるベクトルの収束速度) が制御可能となる。
【0014】
また、本発明は、前記マッチング手段は、前記差分ベクトルを計算する際の分母が予め定められた閾値より小さいかどうかを判定する手段を有し、該閾値より小さいときに、前記差分ベクトルの寄与度が小さくなるように前記変換パラメータを決定するようにするようにした点に第5の特徴がある。また、前記マッチング手段は、前記差分ベクトルを計算する際の分母が予め定められた閾値より小さいかどうかを判定する手段を有し、該閾値より小さいときに、前記差分ベクトルの寄与度が小さくなるように前記加算もしくは減算する数を決定するようにした点に第6の特徴がある。
【0015】
これらの特徴によれば、ノイズなどに起因する誤推定ベクトルの発生を抑えることが可能となる。
【0016】
【発明の実施の形態】
以下に、図面を参照して、本発明を詳細に説明する。まず、本発明の原理を説明する。
【0017】
画像の動き推定や画像のステレオマッチングの概要は、次の通りである。すなわち、画像の動き推定は、動き補償予測符号化やテレビの動き補正方式変換において、動画像(映像) の各部の動きを推定する処理である。通常、画面を多数のブロックに分割してそのブロックごとに動きを求める。そのブロックサイズは、16画素×16ラインであったり、4 画素×2ラインであったり、さまざまなケースがありうる。
【0018】
また、画像のステレオマッチングとは、2台のカメラを使用し、左眼画像と右眼画像の1組の画像の組を得る。これは静止画である場合も、動画である場合もある。そして、左眼画像中の各部分が右眼画像中のどの部分に対応しているかをマッチングにより求める。これにより最終的には画像中各部がカメラに対しどのくらい離れているかの奥行きを推定するのがステレオマッチング処理の最終目的となる。このステレオマッチングについては、例えば次の文献が参考となる。
尾上守夫編「画像処理ハンドブック」(昭晃堂)(395ページ付近など)。
【0019】
上記の画像動き推定では現フレームと前フレームとのマッチングを求めるのであるから、これら動き推定とステレオマッチングは、マッチング処理としては全く類似の処理となる。そこで、以下に、画像の動き推定処理を例として、説明を続ける。
【0020】
画像の動き推定方法を行う代表的な方法として、反復勾配法がある。これについては、前掲の文献の川田他:“動き補正テレビ方式変換の改善”、映像情報メディア学会誌、Vol.51、No.9(1997)などに詳しく書かれている。該反復勾配法により求まる動きベクトルvは、該文献に記載されているように、式(1)、式(2)、式(3) のように表現される。
【0021】
さて、前述したように、前記式(2)、式(3)においては、分母が小さい場合に、ノイズなどのわずかな擾乱要因によっても大きな誤差が発生する恐れがある。そこで、本発明では、式(2)、式(3)の分母が小さい場合には、式(1)の右辺第1項のΔvに、1より小さい変換パラメータαを掛けて、下記の式(4)のようにする。
v=α・Δv+v0 (ただし、αx<1,αy<1) ・・・(4)
【0022】
式(4) のような変換パラメータαを設定することによって、処理過程を制御することが可能である。従来これらの変換パラメータは固定であった。これを、画像の絵柄やマッチング結果であるベクトルの解析により、最適なパラメータを動的に求め、よりシーンに適合した正確なマッチング処理を可能にする、というのが本発明の第1の原理である。
【0023】
次に、反復勾配法においては、式(4) が示すように、あるシーンになったとき、すぐに正しい動ベクトルが求まるのではなく、反復的に収束していくという性質がある。このため、高速シャッターつきで撮影したシーンのように、フレーム間での相関が小さいと、α<1の場合には動きが求まりにくくなってしまう。したがって、例えばフレーム間での相関が小さい画像に対しても、速やかに最適なパラメータを求め、正確なマッチング処理を可能にする、というのが本発明の第2の原理である。
【0024】
これらの第1、第2の原理は、反復勾配法に限らず、ブロックマッチング法などの他の動き推定方法についても適用できる。なお、前記の説明では、式(1) における差分ベクトルΔvに、ある1より小さい変換パラメータαを掛けるものであったが、該差分ベクトルΔvからある定数を減算または加算するものであってもよい。
【0025】
次に、本発明の実施形態を、図面を参照しながら説明する。図1は、本発明の第1実施形態の構成を示すブロック図である。
【0026】
図示されているように、マッチング装置1は、前記反復勾配法等のマッチング部11、該マッチング部11から出力されたベクトルの特徴量(分散等)を抽出する特徴量抽出部12、および該抽出された特徴量に基づいてパラメータαを決定するパラメータ決定部13から構成されている。該マッチング装置1から得られたマッチング情報信号である出力ベクトルrは、テレビ方式変換部2に送られる。該テレビ方式変換部2は、該出力ベクトルrを用いて、例えばNTSC方式の入力映像pをPAL方式に変換し、PAL方式の出力映像qを出力する。なお、該テレビ方式変換部2は一例であり、これに代えて、動き補償符号化部を置き、前記出力ベクトルrを動き補償符号化に使用してもよい。また、入力映像pが左眼画像と右眼画像の1組の画像の場合には、前記出力ベクトルrはステレオマッチング処理に使用することができる。
【0027】
次に、本実施形態の動作を、図2のフローチャートを参照して説明する。ステップS1では、マッチング部11に、初期変換パラメータとして、動ベクトルの収束を遅くするパラメータ、例えばα=(αx,αy)=(0.1,0.2)が設定される。次いで、マッチング装置1に、所定の処理単位、例えばブロック単位、フィールド単位で入力映像pが取り込まれると、ステップS2で、マッチング部11は、反復勾配法により該処理単位の動き推定を行う。すなわち、前記αを用い、前記式(4)により動き推定を行う。
【0028】
次に、ステップS3では、特徴量抽出部12は、前記動き推定により得られた動ベクトルの分布から、特徴量、例えばベクトルの大きさの分散や標準偏差を抽出する。すなわち、演算により求める。ステップS4では、前記パラメータ決定部13が、前記特徴量の値により、次の処理単位に適用される変換パラメータαを決定する。該特徴量が前記分散や標準偏差の場合には、該特徴量が予め定められた閾値以上の時には、より大きな変換パラメータα(例えば、α=1)に決定される。一方、該閾値より小さいときには、前記初期変換パラメータ値に維持または決定される。
【0029】
ステップS5では、全部の処理単位の動き推定処理が済んだか否かの判断がなされ、この判断が否定の時にはステップS6に進んで、次の処理単位の入力映像pが取り込まれる。次いで、前記ステップS2に戻って、反復勾配法により、該処理単位の動き推定が行われる。
【0030】
以上の処理が、前記ステップS5の判断が肯定になるまで繰り返され、肯定になると、シーン適応型の動的パラメータ制御による動き推定処理は終了する。
【0031】
したがって、本実施形態によれば、動ベクトルの特徴量に応じて、変換パラメータαを可変することができるので、入力映像pがフレーム間で大きな変化がない場合、例えば規則的な繰り返し模様が絵柄に存在する場合等では変換パラメータαは小さく決定され、逆にフレーム間での相関が小さく、隣り合う画像間で動物体が離れている場合等では変換パラメータαは大きく決定される。この結果、適切なマッチング処理を両立させにくい絵柄が混在するような場合でも、適切に両立させることが可能になる。
【0032】
次に、本発明の第2実施形態を、図3のブロック図を参照して説明する。この実施形態では、マッチング装置3を、マッチング部31、入力映像pの特徴量を抽出する特徴量抽出部32、および該抽出された特徴量から変換パラメータαを決定するパラメータ決定部33から構成した点に特徴がある。
【0033】
この実施形態においては、特徴量抽出部32は入力映像pから特徴量、例えば画素値の明るさの変化、その分散、標準偏差などを抽出する。パラメータ決定部33は、該特徴量が予め定められた閾値以上であると、変換パラメータを大きく決定し、逆に該閾値より小さいと前記第1実施形態と同様に前記初期変換パラメータ値に維持または決定される。この動作以外は、前記第1実施形態と同様であるので、説明を省略する。
【0034】
以上のように、この実施形態においても、適切なマッチング処理を両立させにくい絵柄が混在するようなビデオ信号に対しても、マッチング処理を適切に両立させることが可能になる。
【0035】
次に、本発明の第3実施形態を、図4を参照して説明する。この実施形態は、反復勾配法において、前記式(2)、式(3) の差分ベクトル計算時の分母が小さいかどうかを判断して、これにより適応的にパラメータ制御を行うようにした点に特徴があり、図4は前記マッチング部11,31の一具体的構成を示すブロック図である。
【0036】
本実施形態のマッチング部は、入力映像pから前記式(2)、式(3)の分子の計算をする第1、第2演算部41,42、それらの式の分母の計算をする第3演算部43、前記式(2)の除算を行う第4演算部44、前記式(3)の除算を行う第5演算部45、前記第3演算部43で求められた分母の値と前記パラメータ決定部13からの変換パラメータαを基に変換パラメータα(αx,αy)を決定するαx決定部46、αy決定部47、乗算部48,49、および加算部50,51から構成されている。
【0037】
本実施形態では、第3演算部43により、前記式(2)、式(3)の分母の計算を行い、該分母の値が予め定められた閾値以下であれば、前記αx決定部46およびαy決定部47は強制的に小さい値の(αx,αy)を決定する。これにより、(αx,αy)が小さい場合に、ノイズなどのわずかな擾乱要因によって動き推定に大きな誤差が発生するのを防止する。一方、前記分母の値が前記閾値より大きい場合には、αx決定部46およびαy決定部47はパラメータ決定部13,33で決定された変換パラメータαを(αx,αy)と決定する。
【0038】
第4、第5演算部から出力されたΔvx、Δvyは、それぞれ乗算部48,49で前記αx決定部46、αy決定部47で決定されたαx,αyと乗算され、それぞれの乗算結果は、加算部50,51で、v0x、v0yと加算される。この結果、出力ベクトルr、すなわち(vx,vy)が得られる。
【0039】
以上のように、本実施形態によれば、規則的な繰り返し模様が絵柄に存在する場合などの入力映像の場合には、強制的に小さな変換パラメータに決定され、擾乱要因の動き推定に対する寄与が小さくされるので、ノイズなどのわずかな擾乱要因による動き推定の誤差の発生を軽減することができるようになる。
【0040】
なお、前記実施形態の説明では、式(4)をv=α・Δv+v0(ただし、αx<1,αy<1)としたが、v=(Δv−P)+v0 (Pは正の数)、またはv=(Δv+Q)+v0 (Qは正の数)とし、該PおよびQを、前記変換パラメータαと同様に適応的に変えて、動き推定に対するΔvの寄与度を変えるようにしてもよい。
【0041】
本発明者は、本発明方式をテレビ方式変換アルゴリズムに組み込み、計算機シミュレーションにより性能評価を行った。
【0042】
テレビ方式変換では、原画と変換画ではSN比を計算することができない。そこで、まず、625ライン、50枚/秒のテスト動画像を、525ライン、60枚/秒の動画像に変換し、それを再度625ライン、50枚/秒の処理画像に逆変換した。そして、該処理画像と原画のPSNRを計算した。変換・逆変換のアルゴリズムは、ライン数比やフィールド内挿比に関するパラメータを除いて、全く同一とした。
【0043】
テスト画像としては、最適変換パラメータの異なる2種類、すなわち、壁に格子模様を有する“Interview”と、高速シャッターにより撮影された“Carousel”を、それぞれ25フレーム接続して作成して、前半50フィールドを“Interview”シーン、後半50フィールドを“Carousel”シーンとした(計50フレーム)。前記特徴量抽出部12(図1参照)で抽出する特徴量としては、前フィールドの発生動ベクトルの大きさの標準偏差を使用した(1フィールド毎に1特徴量とした)。また、パラメータ決定部13では、適当な閾値を設定し、該特徴量が該閾値より大きければ、次フィールドの変換パラメータを動き優先型(式(4)で、α=(1,1))、小さければ、静止優先型(式(4)で、α=(0.1,0.2))と決定して、適応的に可変にした。なお、前記“Interview”と“Carousel”の各シーンに適する変換パラメータは、それぞれ、静止優先型(式(4)で、α=(0.1,0.2))、動き優先型(式(4)で、α=(1,1))である。
【0044】
図5に、従来方式1,2でテレビ方式変換をした時の処理画像のPSNRのグラフを示し、図6に、本発明方式でテレビ方式変換をした時の処理画像のPSNRのグラフを示す。また、図7は、前記各方式での、各シーン区間における平均のPSNRを示す。なお、図5の従来方式1は、変換パラメータとして前記動き優先型を固定的に使用したものであり、従来方式2は、変換パラメータとして前記静止優先型を固定的に使用したものである。一方、本発明方式では、該動き優先型と静止優先型とを適応的に使用した。
【0045】
この実験の結果、図5および図7から分かるように、前記従来方式1では、“Interview”シーンで大きな劣化が発生したが、“Carousel”シーンは良好に変換された。また、前記従来方式2では、“Interview”シーンは良好に変換されたが、“Carousel”シーンにおいて大きな劣化が発生した。その理由は、各劣化シーンでは、不適切な変換パラメータが使用されているからである。
【0046】
一方、本発明方式では、図6および図7から分かるように、“Carousel”と“Interview”の両シーンにおいて適当な変換パラメータαが自動的に選択され、良好に変換できたことが確認された。図7においても、従来方式1,2よりも良好なPSNR(平均)が得られていることが分かる。なお、本発明方式においても、シーンチェンジの直後においては、しばらくの間はSNが低下している。これは、変換/逆変換で異なる変換パラメータが選択された部分で、ミスマッチの度合いが大きくなったためであると考えられる。
【0047】
【発明の効果】
以上の説明から明らかなように、請求項1、2の発明によれば、、出力されていくマッチング情報信号(ベクトル)や、入力されてくる画像信号の内容を自動解析してそれらの特徴量を抽出することにより、当該画像に最適な変換(マッチング)パラメータを適応的に決定することができる。この結果、該変換パラメータを用いてマッチング処理を行うことにより、より正確なマッチング処理が可能となる。
【0048】
また、請求項3,4の発明によれば、差分ベクトルに前記変換パラメータを乗算し、該乗算値に初期偏位ベクトルを加算してベクトルを算出する、または
差分ベクトルにある数を加算もしくは減算し、該加算値又は減算値に初期偏位動ベクトルを加算してベクトルを算出するようにしたので、ベクトルの求まり方(反復勾配法に於けるベクトルの収束速度) が制御可能となる。
【0049】
また、請求項5,6の発明によれば、差分ベクトルを計算する際の分母が予め定められた閾値より小さいかどうかを判定し、それが小さいときに、前記変換パラメータを1より小さく、あるいは減算する数を大きくもしくは加算する数を小さくするようにしたので、ノイズなどに起因する誤推定ベクトルの発生を押さえることが可能となる。
【0050】
さらに、請求項7の発明によれば、出力されるマッチング情報信号(ベクトル)の特徴量として、ベクトルの分散を計算するようにしたので、有効なマッチング変換パラメータ制御が可能となる。
【図面の簡単な説明】
【図1】 本発明の第1の実施形態の構成を示すブロック図である。
【図2】 該第1の実施形態の動作を説明するフローチャートである。
【図3】 本発明の第2の実施形態の構成を示すブロック図である。
【図4】 本発明の第3の実施形態の要部の構成を示すブロック図である。
【図5】 従来方式による処理画像のPSNRを示すグラフである。
【図6】 本発明方式による処理画像のPSNRを示すグラフである。
【図7】 従来方式1,2,および本発明方式における、各シーンに対するPSNR[dB]および平均のPSNRを示す図である。
【符号の説明】
1,3・・・マッチング装置、2・・・テレビ方式変換部、11,31・・・マッチング部、12,32・・・特徴量抽出部、13,33・・・パラメータ決定部、41〜45・・・第1〜第5演算部、46・・・αx決定部、47・・・αy決定部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image matching device, and in particular, when performing motion correction television system conversion and moving image encoding, or depth extraction processing from a stereo image (a set of still images or moving images including a left eye image and a right eye image). The present invention relates to an image matching apparatus that automatically estimates motion in a moving image and automatically detects corresponding points between stereo images composed of left-eye and right-eye images.
[0002]
[Prior art]
Conventionally, image matching processing that automatically estimates motion in moving images, such as TV broadcasts and videophones, and automatically detects corresponding points between stereo images consisting of left-eye and right-eye images Examples of methods often used in the above include a block matching method and an iterative gradient method. The following documents can be cited as documents explaining these methods.
Kawada et al .: “Improvement of motion compensated TV system conversion”, Journal of the Institute of Image Information and Television Engineers, Vol. 51, No. 9 (1997), pp. 1577-1586.
[0003]
In the case of motion estimation, these methods are based on dividing an image into a large number of blocks of a certain small size and comparing the current frame and the previous frame for each block to obtain motion. In the case of stereo matching, the “current frame” and “previous frame” may be replaced with “left eye image” and “right eye image”, so the invention of the present application focuses on the case of motion estimation. A detailed description of stereo matching will be omitted.
[0004]
[Problems to be solved by the invention]
However, in the above-described image matching processing, there are cases where the matching can be performed correctly and cases where the matching is not possible depending on the design of the input video. For example, the iterative gradient method can be explained as follows.
[0005]
The motion vector v (for each block in the image) obtained by the iterative gradient method is obtained by the following equation (1) with the initial displacement motion vector v 0 (see the above document).
v = Δv + v 0 ... (1)
Here, the horizontal and vertical components Δv x , Δv y of the difference vector Δv are expressed by the horizontal gradient Δx of the pixel value, the vertical gradient Δy, and the difference Δt between motion correction fields (frames) based on the initial displacement motion vector v 0, as follows: (2) and (3). The sum is applied to all pixels in the block.
Here, the initial excursion motion vector v 0 is determined by matching using motion vectors of peripheral blocks obtained in the past as candidates (see the above-mentioned document for details).
[0006]
In the above formulas (2) and (3), especially when the denominator is small, it becomes close to division by zero, so that a large error may occur due to a slight disturbance factor such as noise.
[0007]
A particularly problematic example is the case where a regular repeating pattern exists in the pattern. In this case, since the images can be matched with a large number of motion vectors, a motion vector different from the actual motion is obtained due to noise or the like. As a result, in the case of system conversion, the interpolated image may be extremely deteriorated.
[0008]
In the iterative gradient method, since the motion is repetitively obtained by using the gradient of the image plane, if the correlation between frames is small, it becomes difficult to obtain the motion. Particularly problematic from this aspect is a scene shot with a high-speed shutter. Since moving objects are separated between images that are temporally adjacent, the tendency to become unable to capture movement is increased.
[0009]
As mentioned above, images that have a trade-off relationship in terms of whether the matching process is easy or not, such as images with regular repeating patterns in the pattern and images with small correlation between frames Exists.
[0010]
The object of the present invention has been made in view of the above-mentioned problems of the prior art, and it is possible to achieve both of them appropriately even in the case where there are mixed patterns that are difficult to achieve appropriate matching processing as described above. To provide a matching device.
[0011]
[Means for Solving the Problems]
In order to achieve the above-described object, the present invention automatically estimates a motion in a moving image, or automatically detects a corresponding point between a stereo image composed of a left-eye image and a right-eye image. In the matching device, the difference vector Δv obtained based on the difference between the motion correction fields (frames) based on the horizontal gradient, the vertical gradient, and the initial displacement vector of the pixel value of the image is multiplied by the conversion parameter α, and the multiplication result and A matching unit for calculating a vector v by adding the initial displacement vector v0 and performing a matching process of a video by an iterative gradient method , and a feature amount relating to a distribution of a matching information signal (vector) output from the matching unit based a feature amount extracting section which extracts, the conversion parameter α has two or more values of the selectable size, the feature amount, the conversion path Comprising a conversion parameter determining means for determining a magnitude of the meter alpha, wherein the conversion parameter alpha, the magnitude thereof is determined based on a result of the feature amount is compared with a predetermined threshold value, the matching means, A first feature is that matching processing is performed using the conversion parameter α determined by the conversion parameter determination means. In addition, in place of the feature quantity extracting means for extracting the feature quantity related to the distribution of the matching information signal (vector) output from the matching means, a feature quantity extracting means for extracting the feature quantity from the content of the video is provided. There are two features.
According to these features, it becomes possible to adaptively determine the optimum matching parameter for the image, and the matching process can be performed using the optimum parameter, so that a more accurate matching process can be performed. Become.
[0012]
Further, in the present invention, the matching unit is determined by the conversion parameter determining unit as a difference vector obtained based on a difference between motion correction fields (frames) based on a horizontal gradient, a vertical gradient, and an initial deviation vector of a pixel value. A third feature is that video matching processing is performed by the iterative gradient method, in which a vector is calculated by multiplying the conversion parameter and adding the multiplication result and the initial deviation vector. Further, the matching means adds or subtracts a certain number to the difference vector, and calculates the vector by adding the added value or the subtracted value and an initial deviation vector, and matching the video by the iterative gradient method There is a fourth feature in that processing is performed.
[0013]
According to these features, it is possible to control how the vector is determined (vector convergence speed in the iterative gradient method).
[0014]
In the present invention, the matching means includes means for determining whether a denominator for calculating the difference vector is smaller than a predetermined threshold value. A fifth feature is that the conversion parameter is determined so as to reduce the degree. The matching means includes means for determining whether a denominator for calculating the difference vector is smaller than a predetermined threshold value, and when the difference vector is smaller than the threshold value, the contribution degree of the difference vector becomes small. Thus, the sixth feature is that the number to be added or subtracted is determined.
[0015]
According to these features, it is possible to suppress generation of an erroneous estimation vector due to noise or the like.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the present invention will be described in detail with reference to the drawings. First, the principle of the present invention will be described.
[0017]
The outline of image motion estimation and image stereo matching is as follows. That is, image motion estimation is a process of estimating the motion of each part of a moving image (video) in motion compensation predictive coding or television motion correction method conversion. Usually, the screen is divided into a large number of blocks, and the motion is obtained for each block. There are various cases where the block size is 16 pixels × 16 lines, or 4 pixels × 2 lines.
[0018]
The stereo matching of images uses two cameras and obtains a set of images of a left eye image and a right eye image. This may be a still image or a moving image. Then, it is determined by matching which part in the left eye image corresponds to which part in the right eye image. As a result, the final purpose of the stereo matching process is to estimate how far each part in the image is from the camera. For this stereo matching, for example, the following document is helpful.
Morio Onoe “Image Processing Handbook” (Shododo) (near 395 pages).
[0019]
Since the above-mentioned image motion estimation requires matching between the current frame and the previous frame, these motion estimation and stereo matching are quite similar processing as matching processing. Therefore, the description will be continued below by taking an image motion estimation process as an example.
[0020]
A typical method for performing an image motion estimation method is an iterative gradient method. For details, see Kawada et al., “Improvement of Motion Compensated TV System Conversion”, Journal of the Institute of Image Information and Media Studies, Vol. 51, No. 9 (1997). The motion vector v obtained by the iterative gradient method is expressed as shown in equations (1), (2), and (3) as described in the document.
[0021]
As described above, in the equations (2) and (3), when the denominator is small, a large error may occur due to a slight disturbance factor such as noise. Therefore, in the present invention, when the denominators of Expressions (2) and (3) are small, Δv of the first term on the right side of Expression (1) is multiplied by a conversion parameter α smaller than 1, and the following expression ( Follow 4).
v = α · Δv + v 0 (where α x <1, α y <1) (4)
[0022]
It is possible to control the process by setting a conversion parameter α as shown in Equation (4). Conventionally, these conversion parameters have been fixed. According to the first principle of the present invention, an optimal parameter is dynamically obtained by analyzing a pattern of an image and a matching result, and an accurate matching process more suitable for a scene is made possible. is there.
[0023]
Next, the iterative gradient method has the property that when a certain scene is reached, a correct motion vector is not obtained immediately but converges iteratively as shown in equation (4). For this reason, if the correlation between frames is small as in a scene shot with a high-speed shutter, it is difficult to find a motion when α <1. Therefore, for example, the second principle of the present invention is that an optimum parameter is quickly obtained even for an image having a small correlation between frames to enable accurate matching processing.
[0024]
These first and second principles can be applied not only to the iterative gradient method but also to other motion estimation methods such as a block matching method. In the above description, the difference vector Δv in equation (1) is multiplied by a conversion parameter α smaller than one, but a certain constant may be subtracted or added from the difference vector Δv. .
[0025]
Next, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the first embodiment of the present invention.
[0026]
As shown in the figure, the
[0027]
Next, the operation of the present embodiment will be described with reference to the flowchart of FIG. In step S1, a parameter that slows down the convergence of the motion vector, for example, α = (α x , α y ) = (0.1, 0.2) is set in the matching unit 11 as an initial conversion parameter. Next, when the input image p is captured by the
[0028]
Next, in step S3, the feature quantity extraction unit 12 extracts a feature quantity, for example, a variance of the vector size and a standard deviation, from the distribution of the motion vectors obtained by the motion estimation. That is, it is obtained by calculation. In step S4, the
[0029]
In step S5, it is determined whether or not the motion estimation processing has been completed for all processing units. If this determination is negative, the process proceeds to step S6, and the input video p of the next processing unit is captured. Next, returning to step S2, motion estimation of the processing unit is performed by the iterative gradient method.
[0030]
The above process is repeated until the determination in step S5 becomes affirmative. When the determination is affirmative, the motion estimation process by scene adaptive dynamic parameter control ends.
[0031]
Therefore, according to the present embodiment, since the conversion parameter α can be varied according to the feature quantity of the motion vector, when the input video p does not change greatly between frames, for example, a regular repetitive pattern has a pattern. The conversion parameter α is determined to be small, for example, when there is a small correlation between frames, and when the moving object is separated between adjacent images, the conversion parameter α is determined to be large. As a result, even in the case where a pattern that makes it difficult to achieve appropriate matching processing coexists, it is possible to achieve appropriate compatibility.
[0032]
Next, a second embodiment of the present invention will be described with reference to the block diagram of FIG. In this embodiment, the
[0033]
In this embodiment, the feature
[0034]
As described above, also in this embodiment, matching processing can be appropriately made compatible with a video signal in which a pattern in which it is difficult to make appropriate matching processing compatible is mixed.
[0035]
Next, a third embodiment of the present invention will be described with reference to FIG. In this embodiment, in the iterative gradient method, it is determined whether or not the denominator at the time of calculating the difference vector of the equations (2) and (3) is small, and thereby the parameter control is adaptively performed. FIG. 4 is a block diagram showing a specific configuration of the matching
[0036]
The matching unit of the present embodiment includes first and second arithmetic units 41 and 42 that calculate the numerators of the expressions (2) and (3) from the input image p, and a third that calculates the denominator of these expressions. The
[0037]
In the present embodiment, the
[0038]
Δv x and Δv y output from the fourth and fifth arithmetic units are respectively multiplied by α x and α y determined by the α x determining unit 46 and α y determining unit 47 in
[0039]
As described above, according to the present embodiment, in the case of an input video such as a case where a regular repeating pattern is present in a pattern, it is forcibly determined as a small conversion parameter, and the contribution of the disturbance factor to the motion estimation is made. Since it is made smaller, the occurrence of errors in motion estimation due to slight disturbance factors such as noise can be reduced.
[0040]
In the description of the embodiment, Equation (4) is set to v = α · Δv + v 0 (where α x <1, α y <1), but v = (Δv−P) + v 0 (P is positive) Or v = (Δv + Q) + v 0 (Q is a positive number), and P and Q are adaptively changed in the same manner as the conversion parameter α to change the contribution of Δv to motion estimation. It may be.
[0041]
The inventor incorporated the system of the present invention into a television system conversion algorithm, and evaluated the performance by computer simulation.
[0042]
In the TV system conversion, the SN ratio cannot be calculated for the original image and the converted image. Therefore, first, a test moving image of 625 lines and 50 images / second was converted into a moving image of 525 lines and 60 images / second, which was again converted back to a processed image of 625 lines and 50 images / second. Then, the PSNR of the processed image and the original image was calculated. The conversion / inverse conversion algorithm is exactly the same except for parameters relating to the line number ratio and field interpolation ratio.
[0043]
Two test images with different optimal conversion parameters, namely “Interview” with a grid pattern on the wall and “Carousel” taken with a high-speed shutter, are created by connecting 25 frames each, and the first half 50 fields Is the “Interview” scene, and the second half 50 fields is the “Carousel” scene (50 frames in total). As the feature quantity extracted by the feature quantity extraction unit 12 (see FIG. 1), the standard deviation of the magnitude of the generated motion vector in the previous field was used (one feature quantity for each field). Further, the
[0044]
FIG. 5 shows a PSNR graph of the processed image when the television system conversion is performed by the
[0045]
As a result of this experiment, as can be seen from FIG. 5 and FIG. 7, in the
[0046]
On the other hand, in the method of the present invention, as can be seen from FIG. 6 and FIG. 7, it was confirmed that an appropriate conversion parameter α was automatically selected in both the “Carousel” and “Interview” scenes, and the conversion was satisfactory. . Also in FIG. 7, it can be seen that a better PSNR (average) is obtained than in the
[0047]
【The invention's effect】
As is apparent from the above description, according to the inventions of
[0048]
According to the third and fourth aspects of the invention, the difference parameter is multiplied by the conversion parameter, and the initial deviation vector is added to the multiplication value to calculate the vector, or the number in the difference vector is added or subtracted. Since the initial displacement vector is added to the added value or the subtracted value to calculate the vector, it is possible to control how the vector is determined (vector convergence speed in the iterative gradient method).
[0049]
According to the fifth and sixth aspects of the present invention, it is determined whether or not the denominator for calculating the difference vector is smaller than a predetermined threshold, and when it is small, the conversion parameter is smaller than 1, or Since the number to be subtracted is increased or the number to be added is decreased, it is possible to suppress generation of an erroneous estimation vector due to noise or the like.
[0050]
Furthermore, according to the invention of claim 7, since the variance of the vector is calculated as the feature quantity of the matching information signal (vector) to be output, effective matching conversion parameter control can be performed.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.
FIG. 2 is a flowchart for explaining the operation of the first embodiment.
FIG. 3 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.
FIG. 4 is a block diagram showing a configuration of a main part of a third embodiment of the present invention.
FIG. 5 is a graph showing the PSNR of a processed image according to a conventional method.
FIG. 6 is a graph showing the PSNR of a processed image according to the method of the present invention.
FIG. 7 is a diagram showing PSNR [dB] and average PSNR for each scene in the
[Explanation of symbols]
DESCRIPTION OF
Claims (5)
画像の画素値の水平勾配、垂直勾配および初期偏位ベクトルによる動き補正フィールド(フレーム)間差分を基に求められる差分ベクトルΔvに、変換パラメータαを乗算し、該乗算結果と前記初期偏位ベクトルv0とを加算することによりベクトルvを算出する、反復勾配法により映像のマッチング処理を行うマッチング手段と、
該マッチング手段から出力されるマッチング情報信号(ベクトル) の分布に関する特徴量を抽出する特徴量抽出手段と、
前記変換パラメータαは選択可能な大小の2つ以上の値を有し、前記特徴量を基に、前記変換パラメータαの大小を決定する変換パラメータ決定手段とを具備し、
前記変換パラメータαは、前記特徴量が予め定められた閾値と比較された結果に基づいてその大小が決定され、前記マッチング手段は、該変換パラメータ決定手段で決定された変換パラメータαを用いて、マッチング処理を行うことを特徴とする画像のマッチング装置。In an image matching device that automatically estimates movement in a moving image or automatically detects corresponding points between a stereo image composed of a left-eye image and a right-eye image,
A difference vector Δv obtained based on a difference between motion correction fields (frames) based on a horizontal gradient, a vertical gradient, and an initial displacement vector of an image pixel value is multiplied by a conversion parameter α, and the multiplication result and the initial displacement vector are multiplied. a matching unit for calculating a vector v by adding v0 and performing a matching process of an image by an iterative gradient method ;
A feature quantity extracting means for extracting a feature quantity relating to the distribution of the matching information signal (vector) output from the matching means;
The conversion parameter α has two or more selectable values, and includes conversion parameter determination means for determining the size of the conversion parameter α based on the feature amount,
The size of the conversion parameter α is determined based on a result of comparing the feature amount with a predetermined threshold, and the matching unit uses the conversion parameter α determined by the conversion parameter determination unit, An image matching apparatus characterized by performing a matching process.
画像の画素値の水平勾配、垂直勾配および初期偏位ベクトルによる動き補正フィールド(フレーム)間差分を基に求められる差分ベクトルΔvに、変換パラメータαを乗算し、該乗算結果と前記初期偏位ベクトルv0とを加算することによりベクトルvを算出する、反復勾配法により映像のマッチング処理を行うマッチング手段と、
該映像の内容から特徴量を抽出する特徴量抽出手段と、
前記変換パラメータαは選択可能な大小の2つ以上の値を有し、前記特徴量を基に、前記変換パラメータαの大小を決定する変換パラメータ決定手段とを具備し、
前記変換パラメータαは、前記特徴量が予め定められた閾値と比較された結果に基づいてその大小が決定され、前記マッチング手段は、該変換パラメータ決定手段で決定された変換パラメータαを用いて、マッチング処理を行うことを特徴とする画像のマッチング装置。In an image matching device that automatically estimates movement in a moving image or automatically detects corresponding points between a stereo image composed of a left-eye image and a right-eye image,
A difference vector Δv obtained based on a difference between motion correction fields (frames) based on a horizontal gradient, a vertical gradient, and an initial displacement vector of an image pixel value is multiplied by a conversion parameter α, and the multiplication result and the initial displacement vector are multiplied. a matching unit for calculating a vector v by adding v0 and performing a matching process of an image by an iterative gradient method ;
Feature amount extraction means for extracting feature amounts from the content of the video;
The conversion parameter α has two or more selectable values, and includes conversion parameter determination means for determining the size of the conversion parameter α based on the feature amount,
The size of the conversion parameter α is determined based on a result of comparing the feature amount with a predetermined threshold, and the matching unit uses the conversion parameter α determined by the conversion parameter determination unit, An image matching apparatus characterized by performing a matching process.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002226055A JP3948616B2 (en) | 2002-08-02 | 2002-08-02 | Image matching device |
US10/620,350 US7305032B2 (en) | 2002-08-02 | 2003-07-17 | Image matching device and method for motion pictures |
EP03015654A EP1387588A2 (en) | 2002-08-02 | 2003-07-17 | Image matching device and method for motion estimation |
US11/905,281 US7773674B2 (en) | 2002-08-02 | 2007-09-28 | Image matching device and method for motion pictures |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002226055A JP3948616B2 (en) | 2002-08-02 | 2002-08-02 | Image matching device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004070490A JP2004070490A (en) | 2004-03-04 |
JP3948616B2 true JP3948616B2 (en) | 2007-07-25 |
Family
ID=32013520
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002226055A Expired - Fee Related JP3948616B2 (en) | 2002-08-02 | 2002-08-02 | Image matching device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3948616B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4640032B2 (en) * | 2005-08-11 | 2011-03-02 | カシオ計算機株式会社 | Image composition apparatus, image composition method, and program |
-
2002
- 2002-08-02 JP JP2002226055A patent/JP3948616B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004070490A (en) | 2004-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7773674B2 (en) | Image matching device and method for motion pictures | |
JP4519396B2 (en) | Adaptive motion compensated frame and / or field rate conversion apparatus and method | |
US8860829B2 (en) | Image processing device, image processing method, and image processing program | |
CN101422047B (en) | Motion estimation at image borders and display device | |
JP4570244B2 (en) | An automatic stabilization method for digital image sequences. | |
US8422766B2 (en) | System and method for depth extraction of images with motion compensation | |
KR100579493B1 (en) | Motion vector generation apparatus and method | |
US20220351335A1 (en) | Video denoising method and device, and computer readable storage medium | |
EP0909092A2 (en) | Method and apparatus for video signal conversion | |
JP5081898B2 (en) | Interpolated image generation method and system | |
EP1742485A2 (en) | Motion estimator and estimating method | |
Van Roosmalen et al. | Correction of intensity flicker in old film sequences | |
TW200945904A (en) | Image interpolation with halo reduction | |
KR100657261B1 (en) | Method and apparatus for interpolating with adaptive motion compensation | |
EP2291825A1 (en) | System and method for depth extraction of images with forward and backward depth prediction | |
US9135676B2 (en) | Image interpolation processing apparatus and method thereof | |
JP3948616B2 (en) | Image matching device | |
CN109788297B (en) | Video frame rate up-conversion method based on cellular automaton | |
US9648347B1 (en) | Disparity postprocessing and interpolation for motion estimation and motion correction | |
CN112492249B (en) | Image processing method and circuit | |
KR20050009844A (en) | Apparatus for correcting motion vector error and method therefor, and recording medium for recording programs for realizing the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070117 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070411 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070412 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100427 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110427 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130427 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160427 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |