JP2006227827A - Image matching method and apparatus - Google Patents
Image matching method and apparatus Download PDFInfo
- Publication number
- JP2006227827A JP2006227827A JP2005039622A JP2005039622A JP2006227827A JP 2006227827 A JP2006227827 A JP 2006227827A JP 2005039622 A JP2005039622 A JP 2005039622A JP 2005039622 A JP2005039622 A JP 2005039622A JP 2006227827 A JP2006227827 A JP 2006227827A
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- mapping
- target image
- mapping relationship
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、二つの画像から対応点を検出しマッチングをおこなう画像マッチング方法および装置に関する。 The present invention relates to an image matching method and apparatus for detecting corresponding points from two images and performing matching.
動き検出、ステレオマッチング、画像モーフィング、画像認識、動画像符号化、など多くの技術分野において、一つの画像から他方の画像への対応関係を求める画像マッチングの技術は基本的な問題である。非特許文献1によれば、画像マッチングの技術は大きく分けて4つに分類できる。即ち、オプティカルフロー手法、ブロックベース手法、勾配法、ベイジアンメソッドがある。オプティカルフロー手法は、「輝度の変化は一定である」というオプティカルフロー式を導出し、そのオプティカルフロー式を拘束条件としてフローを求めるものである。ブロックベースの手法は、ブロック毎のテンプレートマッチングによって動きを求める手法である。勾配法は、画像の輝度勾配が減少する方向にマッチングをおこなう手法である。ベイジアンメソッドは、確率的に尤もらしいマッチングを求める手法である。
In many technical fields such as motion detection, stereo matching, image morphing, image recognition, and moving image coding, image matching technology for obtaining a correspondence relationship from one image to another is a basic problem. According to Non-Patent
特許文献1には、上記の分類には属さない技術として多重解像度フィルタを用いた画像マッチングの方法が開示されている。この手法は、複数の多重解像度フィルタによって複数の多重解像度画像ピラミッドを生成し、画像ピラミッドを上から順にマッチング処理をおこなうことによって大きな動きから小さな動きまでマッチング可能なロバスト性の高いマッチング技術である。
従来の画像マッチング技術の多くは対象オブジェクトの輝度が画像間で変化しないということを仮定して構築されている。オプティカルフロー手法がその代表であるが、ブロックマッチングアルゴリズムもベイズメソッドも同様である。このため従来技術では対象オブジェクトに輝度変化が生じている場合に誤マッチングが生じてしまう可能性が高い。 Many conventional image matching techniques are constructed on the assumption that the brightness of the target object does not change between images. The optical flow method is a representative example, but the block matching algorithm and the Bayes method are the same. For this reason, in the prior art, there is a high possibility that erroneous matching occurs when a change in luminance occurs in the target object.
本発明は、輝度変化が発生した場合にも高精度に画像マッチング可能にする画像マッチング方法を提供することを目的とする。 An object of the present invention is to provide an image matching method that enables image matching with high accuracy even when a luminance change occurs.
本発明の一局面は、対象画像と参照画像の間の写像関係を求める画像マッチング方法において、前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第1の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第1の写像関係による第1の写像を求め、該参照画像から該対象画像への第2の写像関係による第2の写像を求める第1の画像マッチングステップと、前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第2の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第3の写像関係による第3の写像を求め、該参照画像から該対象画像への第4の写像関係による第4の写像を求める第2の画像マッチングステップと、対象画像上の点を前記第1の写像関係により写像した点が前記第2の写像関係によって写像された点を求め、それらの点の位置関係によって第1の信頼確率を算出し、対象画像上の点を前記第3の写像関係により写像した点が前記第4の写像関係によって写像された点を求め、それらの点の位置関係によって第2の信頼確率を算出する信頼度算出ステップと、前記第1,第2の信頼確率に従って、前記第1,第2,第3,第4の写像を合成するステップとを有することを特徴とする画像マッチング方法を提供する。 One aspect of the present invention is an image matching method for obtaining a mapping relationship between a target image and a reference image, wherein a first image correlation potential based on a positional relationship between corresponding points of the target image and the reference image and image information. Using a force due to an energy gradient, an elastic force between each point on the target image or the reference image and its adjacent point, and a frictional force acting on each point on the target image or the reference image, A first image matching step of obtaining a first mapping based on a first mapping relationship from the target image to the reference image and obtaining a second mapping based on a second mapping relationship from the reference image to the target image; , A positional relationship between corresponding points of the target image and the reference image and a force due to a gradient of a second image correlation potential energy based on the image information, and the target image or the reference image And a frictional force acting on each point on the target image or the reference image, and a third mapping relationship from the target image to the reference image using a third mapping relationship from the target image to the reference image. A second image matching step for obtaining a fourth mapping based on a fourth mapping relationship from the reference image to the target image, and a point on the target image mapped by the first mapping relationship. A point obtained by mapping a point by the second mapping relationship is obtained, a first reliability probability is calculated by the positional relationship of the points, and a point obtained by mapping the point on the target image by the third mapping relationship is A reliability calculation step of obtaining points mapped by the fourth mapping relationship and calculating a second reliability probability based on a positional relationship between the points; and the first and second reliability in accordance with the first and second reliability probabilities. Steps for composing the second, third, and fourth maps To provide an image matching method characterized by having a flop.
本発明によると、対象オブジェクトに輝度変化が生じても高精度にマッチングが可能となる。また、輝度変化に対応でき大きな動きから小さな動きまでスケーラブルに対応可能となる。 According to the present invention, matching can be performed with high accuracy even if a luminance change occurs in the target object. In addition, it is possible to cope with a change in luminance, and it is possible to cope with a scalable movement from a large movement to a small movement.
[第1の実施形態]
本実施形態を図1のブロック図に従って説明する。本実施形態では、対象画像と参照画像が入力され、例えばプロセッサにより構成される2つの画像マッチングユニット11,12が設けられる。画像マッチングユニット11は輝度変化が無いと仮定した画像マッチング1を行い、画像マッチングユニット12は輝度変化に対して耐性がある画像マッチング2を行う。これら画像マッチングユニット11,12の出力は、例えば演算装置により構成される信頼度算出ユニット13に入力され、マッチングの信頼度が算出される。信頼度算出ユニット13の計算結果は、例えばプロセッサにより構成される接合ユニット14に入力されると、接合ユニット14は信頼度算出ユニット13の算出結果に応じて画像マッチングユニット11,12の写像を合成する。
[First Embodiment]
This embodiment will be described with reference to the block diagram of FIG. In the present embodiment, a target image and a reference image are input, and two
本実施形態において、まず、基本となる画像マッチング1について説明する。 In the present embodiment, first, basic image matching 1 will be described.
連続画像モデルが数式1に示すように表される。
これは実数ベースの連続な画像モデルである。ここでは、デジタル画像を対象と考えているので、上記のモデルをサンプリングした以下のサンプリング画像モデルを用いる。 This is a real-based continuous image model. Here, since a digital image is considered, the following sampled image model obtained by sampling the above model is used.
このサンプリング画像モデルは数式2により表される。
このとき画像マッチング問題は以下の条件、即ち数式3を満たす動きベクトルd:R3→R2を探す問題として定式化できる。
但し、この定式化の場合、暗に同じ対象物の画像値は時間変化をしないと仮定している。また、動きベクトルdが実数なので、右辺は連続画像モデル(数式1)の表記を用いていることに注意を要する。ここでは、対象画像と参照画像、2枚の画像間の画像マッチングを考えているので、等価な数式4を考える。
また、動きベクトルも簡単化され、d:R2→R2となる。点xに対して動きベクトルdは一つだけ決まればよいので、動きベクトルdを一意写像とする。x+d(x)はxに対する写像とみなせるので、g(x)=x+d(x)と定義する。ここでg:R2→R2の一意写像である。上記の画像マッチング問題は数式5を満たす写像gを探す問題に帰着する。
写像gによって決まる点をy=g(x)と定義する。y∈R2である。x=Vnであるからxは格子空間上の点nに一意に対応する。写像gは一意写像であるからyもxに一意に対応する。従ってyはnに一意に対応する。このことは図2で示される。つまりここで取り扱いたい空間は格子空間上の点nによって1対1に対応する変形格子空間である。 A point determined by the mapping g is defined as y = g (x). is a y∈R 2. Since x = Vn, x uniquely corresponds to a point n on the lattice space. Since map g is a unique map, y also uniquely corresponds to x. Therefore, y uniquely corresponds to n. This is shown in FIG. That is, the space to be handled here is a deformed lattice space corresponding to one-to-one by the point n on the lattice space.
以上のようにy=g(x)=g(Vn)なので、nに1対1に対応することを分かりやすくするために、これをyn=g(x)と再定義する。すると画像マッチング問題の式5は数式6を満たすynを探す問題に帰着する。
画像マッチング問題の数式6を解くためにここでは点ynに対してダイナミクスを導入する。つまり画像マッチング問題を点ynに関する動的システムを解く問題に帰着させる。点ynは周りの点との関係も考慮しつつ数式6を満たす状態に移動していき平衡状態に収束する。その平衡状態によって画像マッチングが完了したものとする。この状態は図3に示すように表される。 In order to solve Equation 6 of the image matching problem, dynamics is introduced for the point y n here. In other words, the image matching problem is reduced to the problem of solving the dynamic system about the point y n . The point y n moves to a state satisfying Equation 6 while considering the relationship with surrounding points, and converges to an equilibrium state. Assume that image matching is completed by the equilibrium state. This state is expressed as shown in FIG.
点yに対して新たな時間軸τ∈Rを導入し、関数yn(τ)を定義する。ここで初期値は数式7のように正方格子xと同一であるとする。
新たな時間軸を導入したので時間に関する微分が数式8のように定義できる。
通常ダイナミクスは以下のような常微分方程式9によって記述される。
F∈R2は力の総和である。これは運動方程式とも呼ばれる。 F∈R 2 is the sum of forces. This is also called the equation of motion.
次にyn(τ)にかかる力について考える。まずはダイナミクスを駆動させる力となるポテンシャルエネルギーによる力を考える。これはyn(τ)が数式6を満たす状態に移動するための力である。数式5を変形すると、数式10となる。
通常、数式10を厳密に満たす点を探すことは、画像に含まれるノイズ成分などにより困難である。そこで数式11のようなエネルギー関数を考える。
このエネルギー関数Euが最小となる点を探すようにする。最急降下法の原理を用いれば、yn(τ)の周りでエネルギー関数Euの最急降下の方向に下っていくことによりローカルミニマムに行き着くことができる。従って、この最急降下の方向への勾配をyn(τ)に対する力として定義する。エネルギー関数Euは画像の相関とも考えられるので、この力を画像相関ポテンシャルエネルギーによる力Fuとする。 A point where the energy function Eu is minimized is searched. Using the principle of the steepest descent method, the local minimum can be reached by descending in the direction of the steepest descent of the energy function Eu around y n (τ). Therefore, the gradient in the direction of the steepest descent is defined as a force against y n (τ). Since the energy function E u can be considered as image correlation, this force is defined as a force F u due to image correlation potential energy.
最急降下の方向への勾配を計算する方法は種々考えられるが、ここでは次のような方法を採用する。図4に示すように、最急降下方向への勾配は局所最適化によって直接求める。画像モデルScは連続の画像モデルだが、実際にはサンプリングされた画像モデルSpしか利用できない。そこで局所最適化もサンプリングされた画像モデルをベースに行う。図4に示すようにyn(τ)にもっとも近いサンプリング点を局所空間中心ycとしたいので、数式12のように求める。
隣接空間を数式13のように定義すると、局所探索空間Ωは数式14のように定義できる。
局所最適化をしてその方向へのベクトルを求め、それを正規化し、勾配の大きさをかけると、数式15が得られる。この式が画像相関ポテンシャルエネルギーによる力(二乗誤差エネルギー)を示す。
実装上の扱い易さ等からエネルギー関数を数式16と定義した数式17の画像相関ポテンシャルエネルギーによる力(絶対値差分誤差エネルギー)を用いることもできる。
次に、周辺の点との関係を記述する力について考える。マッチング対象の画像は3次元空間を2次元に投影したものだとする。3次元空間上のオブジェクトが剛体とすると、2次元画像では剛体のサーフェスがオブジェクトとして観測されることになる。3次元空間上のオブジェクトが対象画像と参照画像で観測されるとすると、このときそれぞれの画像上で観測されるオブジェクトの位相は保たれる確率が高い。図5に示すように、対象画像オブジェクト上の点xの位置関係は参照画像オブジェクト上の点yn(τ)でも保たれるはずである。この性質は点yn(τ)の間をバネで接続することによってシミュレーションできる。周辺との関係はバネの力Fkによって記述する。以下のように、まずは対象点周辺の格子点空間Nnを定義する。周囲4点であれば数式18のようになる。
バネ定数(弾性常数)をkとすれば、点yn(τ)にかかるバネの復元力は数式19で表されるバネ力(弾性力)となる。なお、弾性常数は画像相関エネルギーと弾性エネルギーのバランサーであり、弾性定数が大きければ変形がしにくくなり結果が安定する。しかし画像への適合性が悪くなる。弾性定数が小さければ変形がしやすくなるので画像の適合性が良くなる。ただし結果が柔軟になりすぎる。そこで、現在のところ、このパラメータは経験的に与えられる。挙動はこのパラメータの値にそれほど敏感ではではないので、基本的にはある一定値を固定的に与えられる。
周囲4点を接続すると、数式20のような4点接続バネモデルとなる。
最後に保存されたエネルギーを散逸させる力について考える。yn(τ)にかかる力がFu, Fkのみではエネルギーが保存されてしまうために系が振動する定常状態となってしまう。そこで保存されているエネルギーを散逸させる力を導入する。これには摩擦力が利用できる。速度が一定と近似できる場合には摩擦力は数式21で記述できる。
以上の力をまとめると運動方程式は数式22のようになる。
運動方程式
Equation of motion
画像相関ポテンシャルエネルギーによる力Fuが解析的には解けないため常微分方程式22は解析的には解けない。従って、システムのτ→∞における極限を取ることは困難である。そこでシステムが収束するのに十分大きな時間Tを考え、数値解析によってt=(0,Τ)区間を計算することによってシステムの収束状態を推定する。 ODE a force F u by the image correlation potential energy is not solved analytically 22 can not be solved analytically. Therefore, it is difficult to take the limit of τ → ∞ of the system. Therefore, a sufficiently large time T for the system to converge is considered, and the convergence state of the system is estimated by calculating the t = (0, Τ) interval by numerical analysis.
常微分方程式は初期値が決まれば、数値解析によって一意に解が求まる。一般には常微分方程式の初期値問題といわれるものである。この問題の数値解法は数多く存在するが、有名なものではオイラー法、ルンゲクッタ法、ブリルシュ・ストア法、予測子・修正子法、隠的ルンゲクッタ法などがある。ルンゲクッタ法がもっとも有名かつ使用頻度が高い。しかし式22は画像のサイズ分の次元を持つため複雑な数値解法は適合しにくい。そこでここでは実現が最も簡単なオイラー法を応用することを考える。オイラー法は一階の常微分方程式に対する数値解法なので、まずは式22を一階の常微分方程式に変換する。このとき、数式23のように変数変換を行う。
この変数変換を数式22に代入し、数式24を作る。
変換された運動方程式
Transformed equations of motion
常微分方程式25に対するオイラー法のスキームは数式26によって表される。
これはt(n)からt(n+1)≡t(n)+hへと解を進展させるものである。ここでx(n)はnステップであることを示しており、hはステップ幅である。オイラー法のスキームを数式24に適用すると、数式27のオイラー法による更新式が得られる。
以上、画像マッチングをアルゴリズムとしてまとめると以下のようになる。
画像マッチングアルゴリズム:
Image matching algorithm:
次に、画像マッチング2ステップについて説明する。
図6に示すような通常の並進運動をするオブジェクトに対して画像マッチング1ステップを用いると図7に示すような写像が得られる。オブジェクトに対してマッチングがかかった写像が得られていることが分かる。それに対して図8に示すような輝度変化が生じている並進運動をするオブジェクトに対して画像マッチング1ステップを用いると図9に示すような歪んだ写像が生成される。これは画像マッチング問題を数式6のように定式化したことに起因する。この数式6は輝度が変化しないという仮定の下での定式化されている。輝度変化に対応するためには上記の画像マッチング問題を数式28のように一般化画像マッチング問題として定義し直す必要がある。
When one step of image matching is used for an object having a normal translational movement as shown in FIG. 6, a mapping as shown in FIG. 7 is obtained. It can be seen that a matching map is obtained for the object. On the other hand, when one step of image matching is used for an object that performs translational motion in which a luminance change as shown in FIG. 8 occurs, a distorted map as shown in FIG. 9 is generated. This is because the image matching problem is formulated as shown in Equation 6. Formula 6 is formulated under the assumption that the luminance does not change. In order to cope with a change in luminance, it is necessary to redefine the image matching problem as a generalized image matching problem as shown in Equation 28.
これは画像の相関関数φを元にしたものであり、画像の輝度値が等しいとした数式6よりも一般化した表現である。相関関数φは画像の相関が高いほど高くなる確率として定義する。 This is based on the correlation function φ of the image, and is a more general expression than Equation 6 assuming that the luminance values of the images are equal. The correlation function φ is defined as the probability that the higher the image correlation is, the higher the correlation is.
輝度変化に対応可能な輝度変化にロバストな相関関数として相互相関が数式29によって示すことができる。
ここでBは相互相関を計算する計算対象空間であり、この場合、点x,ynの周りに張られる局所ブロックなどを考える。相互相関は期待値を0としたときのs1とs2の共分散を正規化したもので、1のときに最大の正相関がある。分散ベースの相関関数であるため領域全体に輝度のオフセットなどがあっても正しい相関を計算できる。 Here, B is a calculation target space for calculating cross-correlation. In this case, a local block stretched around the points x and yn is considered. The cross-correlation is obtained by normalizing the covariance of s 1 and s 2 when the expected value is 0, and when it is 1, there is a maximum positive correlation. Since it is a dispersion-based correlation function, correct correlation can be calculated even if there is a luminance offset in the entire region.
また同様に輝度のオフセットに不変な統計量として定性的3値表現(Qualitative Trinary Representation(QTR))があげられる。QTRは隣接画素との差分値の大小パターンを比較する手法であり、ノイズや輝度変化などにロバストな特徴を持っている。とくに輝度値のシフトに関しては不変であるという特徴がある。これは次式30で表される。
数式28及び29を元にした画像相関ポテンシャルエネルギーを考えてみる。数式29をベースとしたエネルギー関数は数式31のようになる。
ここでBは局所ブロックであり、数式32などを用いることができる。
画像ステップ1と同様の手法を用いれば、画像相関ポテンシャルエネルギーによる力:相互相関モデルを表す数式33の定式化が得られる。
相互相関は1を最大値とする確率密度関数であるから最小化問題ではなく最大化問題となっていることに注意を要する。 It should be noted that the cross-correlation is a probability density function having a maximum value of 1, so that it is not a minimization problem but a maximization problem.
同様に、QTRを画像相関ポテンシャルエネルギーとして定式化すると次式34のようになる。
ここでNは正規化係数である。
画像相関ポテンシャルエネルギーによる力Fuとして数式33の相互相関モデルを用い、それ以外は画像マッチング1ステップと同じ構成にしたものを画像マッチング2ステップとする。この画像マッチング2ステップによって輝度変化のある並進運動を図8に示し、マッチングを行った結果を図10に示す。この図10から歪み無くマッチングがかかっており、輝度変化に対してロバストであることが分かる。ただし、画像マッチング2ステップは輝度変化にはロバストであるがマッチング性能自体は画像マッチング1ステップには及ばない。そこで両者をハイブリッドした構成が必要となる。
Here, N is a normalization coefficient.
The cross-correlation model of Equation 33 is used as the force Fu due to the image correlation potential energy, and the other components having the same configuration as the image matching 1 step are set as the image matching 2 step. FIG. 8 shows a translational motion with a luminance change by this image matching two steps, and FIG. 10 shows the result of matching. It can be seen from FIG. 10 that matching is applied without distortion and that it is robust against changes in luminance. However, the image matching 2 step is robust to the luminance change, but the matching performance itself is not as good as the image matching 1 step. Therefore, a configuration in which both are hybridized is required.
次に、信頼度算出ステップについて説明する。 Next, the reliability calculation step will be described.
画像マッチング1ステップによる写像と画像マッチング2ステップによる写像を最適に合成したい。しかし、輝度変化に対応するためには輝度の差分値を使った信頼度などを使うことはできない。そこで別の信頼度が必要となる。 I would like to optimally synthesize the mapping by one step of image matching and the mapping by two steps of image matching. However, the reliability using the difference value of luminance cannot be used to cope with the luminance change. Therefore, another degree of reliability is required.
図11に示すように、対象画像のオブジェクトに対して参照画像では光が当たって輝度が変化している場合を考える。このとき対象画像から参照画像と、参照画像から対象画像への双方向のマッチングを考えてみる。対象画像から参照画像へのマッチングでは、オブジェクトの光が当たることになる部分の点は周りの輝度が同じ点に向かってマッチングかかり、本来動きが生じていないはずの部分に動きが生じることになるだろう。それに対して参照画像から対象画像へのマッチングでは、光が当たっている部分の点は同じ輝度の点が対象画像のどこにも存在しないので、その場にとどまると考えられる。このように輝度の差分値をベースとしたマッチングでは輝度変化が生じた場合に双方向のマッチング結果が必ずしも一致しない。従って、双方向のマッチング結果の一致度を使って信頼度を定義できる。 As shown in FIG. 11, a case is considered where the brightness of the reference image is changed by the light hitting the object of the target image. Consider bidirectional matching from the target image to the reference image and from the reference image to the target image. In the matching from the target image to the reference image, the point of the part where the light of the object hits will be matched toward the point where the surrounding brightness is the same, and the movement will occur in the part that should not have moved originally right. On the other hand, in the matching from the reference image to the target image, it is considered that the point where the light hits stays on the spot because no point of the same luminance exists anywhere in the target image. As described above, in the matching based on the difference value of the luminance, when the luminance change occurs, the bidirectional matching result does not always match. Therefore, the reliability can be defined using the degree of coincidence of the bidirectional matching results.
双方向の写像の一致度を定式化するために、動きベクトルd(x,t;lΔt)と写像の定義から、対象画像から参照画像への写像はg(x,t;lΔt)であり、参照画像から対象画像への写像はg(x,t+lΔt;-lΔt)であるとする。図12に示すように、対象画像上の点xは参照画像上の点g(x,t;lΔt)に写像され、参照画像上の点g(x,t;lΔt)は対象画像上の点g(g(x,t;lΔt),t+lΔt;-lΔt)に写像される。点xを写像すると、点g(g(x,t;lΔt),t+lΔt;-lΔt)になるので、双方向の写像が一致していれば、両点は一致するはずである。つまりベクトルg(g(x,t;lΔt),t+lΔt;-lΔt)-xによって一致度を表すことができる。 From the definition of motion vector d (x, t; lΔt) and mapping to formulate the degree of coincidence of bidirectional mapping, the mapping from the target image to the reference image is g (x, t; lΔt), Assume that the mapping from the reference image to the target image is g (x, t + lΔt; −lΔt). As shown in FIG. 12, a point x on the target image is mapped to a point g (x, t; lΔt) on the reference image, and a point g (x, t; lΔt) on the reference image is a point on the target image. It is mapped to g (g (x, t; lΔt), t + lΔt; −lΔt). When the point x is mapped, it becomes a point g (g (x, t; lΔt), t + lΔt; -lΔt). Therefore, if the two-way mappings match, both points should match. That is, the degree of coincidence can be expressed by the vector g (g (x, t; lΔt), t + lΔt; −lΔt) −x.
よって、ベクトルのノルムを用いればノルムを用いた信頼度は数式35によって定義することができる。
囲まれる三角形の面積を用いると、信頼度は数式36と定義することができる。
ここでは画像マッチング1ステップと画像マッチング2ステップがあるので、それぞれの写像を数式37、38によって表すとすると、それぞれの信頼度を数式39、40と定義することができる。
最後に結合ステップについて説明する。結合ステップでは画像マッチング1ステップによる写像と画像マッチング2ステップによる写像を結合する。この場合、信頼度算出ユニット13により求められた信頼度を用いて結合をおこなう。例えば、信頼度p(x|g1(;t;lΔt),g1(;t+lΔt;-lΔt))とp(x|g2(;t;lΔt),g2(;t+lΔt;-lΔt))とを比較して信頼度が高い写像を点xの写像として選択するような方法が考えられる。
Finally, the combining step will be described. In the combining step, the mapping in one image matching step and the mapping in two image matching steps are combined. In this case, the combination is performed using the reliability obtained by the
また、点xに対して二つの写像を定義しそれぞれの写像に信頼度p(x|g1(;t;lΔt),g1(;t+lΔt;-lΔt))とp(x|g2(;t;lΔt),g2(;t+lΔt;-lΔt))を付加しておく方法も考えられる。 In addition, we define two mappings for the point x, and the reliability of each mapping is p (x | g 1 (; t; lΔt), g 1 (; t + lΔt; -lΔt)) and p (x | g 2 (; t; lΔt), g 2 (; t + lΔt; −lΔt)) may be added.
本実施形態では上記のように対応点間の画像の色度空間距離または対応点間の画像の輝度値の差分によって生じる第1の画像相関ポテンシャルエネルギーを用いて対象画像及び参照画像について双方向に画像マッチング1を行い、対応点間の画像の輝度値の相互相関によって生じる第2の画像相関ポテンシャルエネルギーを用いて対象画像及び参照画像について双方向に画像マッチング2を行う構成を取ることにより対象オブジェクトに輝度変化が生じても高精度にマッチングが可能となる。 In the present embodiment, as described above, the target image and the reference image are bi-directionally using the first image correlation potential energy generated by the chromaticity space distance between the corresponding points or the difference in the luminance value between the corresponding points. The target object is configured by performing image matching 1 and performing image matching 2 bidirectionally on the target image and the reference image using the second image correlation potential energy generated by the cross-correlation of the luminance values of the images between corresponding points. Even if a luminance change occurs, matching can be performed with high accuracy.
[第2の実施形態]階層構造
本実施形態を図13のブロック図に従って説明する。本実施形態では対象画像と参照画像が入力されそれらの画像間の写像関係を求める。
[Second Embodiment] Hierarchical Structure This embodiment will be described with reference to the block diagram of FIG. In this embodiment, a target image and a reference image are input, and a mapping relationship between these images is obtained.
第1の実施形態では、対象オブジェクトに輝度変化が生じても高精度にマッチング可能な画像マッチング技術を提供しているが、本実施形態では、大きな動きから小さな動きまでスケーラブルに対応可能とするためにピラミッド階層構造を導入する。以下に詳細に説明する。 In the first embodiment, an image matching technique is provided that enables high-precision matching even if the luminance change occurs in the target object. However, in the present embodiment, in order to be able to deal with a large movement to a small movement in a scalable manner. Introduce a pyramid hierarchy. This will be described in detail below.
まず、基本となる画像マッチング1ステップをピラミッド階層構造に拡張する。画像のピラミッド階層構造は図14に示すようなもので、ここではオリジナルの画像をダウンサンプリングすることによって縮小した画像の階層構造と定義する。各階層のことをレイヤーと呼ぶ。最上位階層をレイヤー0とし、オリジナルの最下層をレイヤーMとする。簡単のため画像サイズを2M×2Mとし、ダウンサンプリングを縦横1/2にするオペレータとすると、画像サイズとレイヤー番号がリンクする。すなわちレイヤー0が20×20、オリジナルの最下層がレイヤーMが2M×2Mとなる。階層構造生成ステップがオリジナルの対象画像と参照画像からこれらの階層構造を生成する。階層型の連続画像モデルを数式41により定義する。
また、それをサンプリングした階層サンプリング画像モデルを数式42により定義する。
動きベクトルも階層化され、d(m)(x(m))となり、写像gも数式43と定義される。
第1の実施形態の手法を適用すれば運動方程式は数式46によって表される。
それぞれの力、即ち画像相関ポテンシャルエネルギーによる力(二乗誤差エネルギー)は数式47のようになる。
バネの力は数式48によって表される。
摩擦力は数式49により表される。
以上のように画像モデルや各点の表現が階層モデルに置き換わっているだけであることが分かる。 As described above, it can be seen that the image model and the representation of each point are merely replaced with the hierarchical model.
運動方程式44を解けばレイヤーmの写像g(m)が求まる。最下層レイヤーMにおける写像g(M)を求めるためには、上位階層で求めた写像を下位階層に伝搬させる手段が必要である。例えば、数式50のように写像g(m)に幾何変換を施してスケールを2倍にすることが考えられる。
ここでは整数化オペレータを使って格子状の写像値を取得したが、バイリニア法などによって格子状の写像から中間値を補間してもよい。 Here, a grid-like mapping value is acquired using an integer operator, but an intermediate value may be interpolated from the grid-like mapping by a bilinear method or the like.
階層型の画像マッチングアルゴリズムは後述する。 The hierarchical image matching algorithm will be described later.
画像マッチング2ステップも同様に拡張する。即ち、画像相関ポテンシャルエネルギーによる力:相互相関モデルは数式51によって定義される。
図13のブロック図に示すように、対象画像及び参照画像が入力される階層構造生成ユニット21が設けられる。階層構造生成ユニット21の出力は画像マッチングユニット22,23に接続される。画像マッチングユニット22,23は画像マッチング1,2をそれぞれ行う。画像マッチングユニット21,22の出力は信頼度算出ユニット24に入力される。信頼度算出ユニット24の出力は接合ユニット25に入力されることにより、接合ユニット25は信頼度算出ユニット24の算出結果に応じて画像マッチングユニット22,23の写像を合成する。即ち、本実施形態では、各レイヤー毎に信頼度算出、写像結合をおこない、その結果を画像マッチング1ステップ、画像マッチング2ステップにフィードバックする。
As shown in the block diagram of FIG. 13, a hierarchical
レイヤーmの信頼度算出ステップについて考える。ここでは画像マッチング1ステップと画像マッチング2ステップがあるので、それぞれの写像を数式52,53で表すとする。
この場合、それぞれの信頼度は、順方向の場合、数式54、55によって定義できる。
逆方向の場合には、数式56、57によってそれぞれ定義できる。
結合ユニット25での結合ステップでは、信頼度p(x(m)|g1 (m)(;t;lΔt),g1 (m)(;t+lΔt;-lΔt))とp(x(m)|g2 (m)(;t;lΔt),g2 (m)(;t+lΔt;-lΔt))を用いて、レイヤーmの順方向結合写像gj (m)(;t;lΔt)を求める。また信頼度p(x(m)|g1 (m)(;t+lΔt;-lΔt),g1 (m)(;t;lΔt))とp(x(m)|g2 (m)(;t+lΔt;-Δt),g2 (m)(;t; lΔt))を用いて、レイヤーmの逆方向結合写像gj (m)(;t+lΔt;-lΔt)を求める。結合には例えば信頼度の高いものを選択するなどの方法が使える。
In the coupling step in the
階層型の画像マッチングアルゴリズムは以下のようになる。
なお、画像マッチング1ステップ、画像マッチング2ステップの順方向マッチングの場合には順方向結合写像gj (m)(;t;lΔt)を結合ステップより取得し、逆方向マッチングの場合には逆方向結合写像gj (m)(;t+lΔt;-lΔt)を結合ステップより取得する。 In the case of forward matching with one step of image matching and two steps of image matching, the forward joint map g j (m) (; t; lΔt) is obtained from the joint step, and in the case of backward matching, the backward direction is obtained. The combined map g j (m) (; t + lΔt; −lΔt) is obtained from the combining step.
以上のように本実施形態では輝度変化に対応でき大きな動きから小さな動きまでスケーラブルに対応可能となる。 As described above, in the present embodiment, it is possible to cope with a change in luminance, and it is possible to cope with a scalable movement from a large movement to a small movement.
11、12…画像マッチングユニット、13…信頼度算出ユニット、14…結合ユニット、21…階層構造生成ユニット、22,23…画像マッチングユニット、24…信頼度算出ユニット、25…結合ユニット
DESCRIPTION OF
Claims (9)
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第1の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第1の写像関係による第1の写像を求め、該参照画像から該対象画像への第2の写像関係による第2の写像を求める第1の画像マッチングステップと、
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第2の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第3の写像関係による第3の写像を求め、該参照画像から該対象画像への第4の写像関係による第4の写像を求める第2の画像マッチングステップと、
対象画像上の点を前記第1の写像関係により写像した点が前記第2の写像関係によって写像された点を求め、それらの点の位置関係によって第1の信頼確率を算出し、対象画像上の点を前記第3の写像関係により写像した点が前記第4の写像関係によって写像された点を求め、それらの点の位置関係によって第2の信頼確率を算出する信頼度算出ステップと、
前記第1,第2の信頼確率に従って、前記第1,第2,第3,第4の写像を合成するステップとを有することを特徴とする画像マッチング方法。 In an image matching method for obtaining a mapping relationship between a target image and a reference image,
The positional relationship between corresponding points of the target image and the reference image, the force due to the gradient of the first image correlation potential energy based on the image information, and between each point on the target image or the reference image and its adjacent points A first mapping based on a first mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference A first image matching step for obtaining a second mapping according to a second mapping relationship from an image to the target image;
The positional relationship between corresponding points of the target image and the reference image, the force due to the second image correlation potential energy gradient based on the image information, and between each point on the target image or the reference image and its adjacent points A third mapping based on a third mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference A second image matching step for obtaining a fourth mapping according to a fourth mapping relationship from the image to the target image;
A point obtained by mapping a point on the target image according to the first mapping relationship to a point mapped by the second mapping relationship is obtained, and a first reliability probability is calculated based on the positional relationship between these points. A reliability calculation step of obtaining a point where a point mapped by the third mapping relationship is mapped by the fourth mapping relationship and calculating a second confidence probability by the positional relationship of those points;
Synthesizing the first, second, third and fourth mappings according to the first and second confidence probabilities.
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第1の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第1の写像関係による第1の写像を求め、該参照画像から該対象画像への第2の写像関係による第2の写像を求める第1の画像マッチング手段と、
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第2の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第3の写像関係による第3の写像を求め、該参照画像から該対象画像への第4の写像関係による第4の写像を求める第2の画像マッチング手段と、
対象画像上の点を前記第1の写像関係により写像した点が前記第2の写像関係によって写像された点を求め、それらの点の位置関係によって第1の信頼確率を算出し、対象画像上の点を前記第3の写像関係により写像した点が前記第4の写像関係によって写像された点を求め、それらの点の位置関係によって第2の信頼確率を算出する信頼度算出手段と、
前記第1,第2の信頼確率に従って、前記第1,第2,第3,第4の写像を合成する合成手段と、
を具備することを特徴とする画像マッチング装置。 In an image matching device for obtaining a mapping relationship between a target image and a reference image,
The positional relationship between corresponding points of the target image and the reference image, the force due to the gradient of the first image correlation potential energy based on the image information, and between each point on the target image or the reference image and its adjacent points A first mapping based on a first mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference First image matching means for obtaining a second mapping according to a second mapping relationship from an image to the target image;
The positional relationship between corresponding points of the target image and the reference image, the force due to the second image correlation potential energy gradient based on the image information, and between each point on the target image or the reference image and its adjacent points A third mapping based on a third mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference Second image matching means for obtaining a fourth mapping according to a fourth mapping relationship from the image to the target image;
A point obtained by mapping a point on the target image according to the first mapping relationship to a point mapped by the second mapping relationship is obtained, and a first reliability probability is calculated based on the positional relationship between these points. A reliability calculation means for obtaining a point obtained by mapping a point of the above-described point according to the third mapping relationship, and calculating a second reliability probability based on the positional relationship between the points;
Combining means for combining the first, second, third and fourth mappings according to the first and second confidence probabilities;
An image matching apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005039622A JP2006227827A (en) | 2005-02-16 | 2005-02-16 | Image matching method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005039622A JP2006227827A (en) | 2005-02-16 | 2005-02-16 | Image matching method and apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006227827A true JP2006227827A (en) | 2006-08-31 |
Family
ID=36989176
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005039622A Pending JP2006227827A (en) | 2005-02-16 | 2005-02-16 | Image matching method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006227827A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065530A (en) * | 2006-09-06 | 2008-03-21 | Casio Comput Co Ltd | Image processor and program |
JP2016070774A (en) * | 2014-09-30 | 2016-05-09 | 株式会社リコー | Parallax value derivation device, moving body, robot, parallax value production method and program |
-
2005
- 2005-02-16 JP JP2005039622A patent/JP2006227827A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008065530A (en) * | 2006-09-06 | 2008-03-21 | Casio Comput Co Ltd | Image processor and program |
JP2016070774A (en) * | 2014-09-30 | 2016-05-09 | 株式会社リコー | Parallax value derivation device, moving body, robot, parallax value production method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7440619B2 (en) | Image matching method and image interpolation method using the same | |
Ke et al. | Quasiconvex optimization for robust geometric reconstruction | |
CN109478330B (en) | Tracking system based on RGB-D camera and method thereof | |
CN110866953A (en) | Map construction method and device, and positioning method and device | |
CN113792730B (en) | Method and device for correcting document image, electronic equipment and storage medium | |
WO2023165093A1 (en) | Training method for visual inertial odometer model, posture estimation method and apparatuses, electronic device, computer-readable storage medium, and program product | |
KR100951309B1 (en) | New Calibration Method of Multi-view Camera for a Optical Motion Capture System | |
US20210374439A1 (en) | Obstacle detection method and device, apparatus, and storage medium | |
CN112907620A (en) | Camera pose estimation method and device, readable storage medium and electronic equipment | |
WO2016103621A1 (en) | Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method | |
US20060078206A1 (en) | Image matching apparatus, method of matching images, and computer program product | |
JP2020154479A (en) | Object detection device, object detection method, program, and moving body | |
JPWO2013089261A1 (en) | Image processing system and image processing method | |
JP4560023B2 (en) | Image matching apparatus, image matching program, and image matching method | |
US20070041658A1 (en) | Image matching apparatus, method of matching images, and computer program product | |
González-Fraga et al. | Accurate generation of the 3d map of environment with a rgb-d camera | |
JP6086491B2 (en) | Image processing apparatus and database construction apparatus thereof | |
JP2006227827A (en) | Image matching method and apparatus | |
JP6260533B2 (en) | Position / orientation estimation apparatus, position / orientation estimation method, and position / orientation estimation program | |
TWI652447B (en) | System and method of selecting a keyframe for iterative closest point | |
Chen et al. | An end-to-end network for upright adjustment of panoramic images | |
JP4271117B2 (en) | Interpolation frame creation device, interpolation frame creation method, and interpolation frame creation program | |
WO2022102236A1 (en) | Information processing device, information processing method, and program | |
JP7076598B1 (en) | 3D information generator from moving images or multiple images | |
WO2023042422A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090106 |
|
A02 | Decision of refusal |
Effective date: 20090428 Free format text: JAPANESE INTERMEDIATE CODE: A02 |