[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006227827A - Image matching method and apparatus - Google Patents

Image matching method and apparatus Download PDF

Info

Publication number
JP2006227827A
JP2006227827A JP2005039622A JP2005039622A JP2006227827A JP 2006227827 A JP2006227827 A JP 2006227827A JP 2005039622 A JP2005039622 A JP 2005039622A JP 2005039622 A JP2005039622 A JP 2005039622A JP 2006227827 A JP2006227827 A JP 2006227827A
Authority
JP
Japan
Prior art keywords
image
point
mapping
target image
mapping relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005039622A
Other languages
Japanese (ja)
Inventor
Sunao Mishima
直 三島
Takeshi Ito
伊藤  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005039622A priority Critical patent/JP2006227827A/en
Publication of JP2006227827A publication Critical patent/JP2006227827A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image matching method for matching corresponding points in two images. <P>SOLUTION: First image matching that determines a first mapping relation from a target image to a reference image using first image correlation potential energy, and second image matching that determines a third mapping relation from the target image to the reference image and a fourth mapping relation from the reference image to the target image using second image correlation potential energy are performed. Points are calculated by mapping using the second mapping relation the points on the target image that are mapped using the first mapping relation. Based on the positional relationship of the points, a first reliability probability is calculated. Points are calculated by mapping using the fourth mapping relation the points on the target image that are mapped using the third mapping relation. Based on the positional relationship of the points, a second reliability probability is calculated. In accordance with the first and second reliability probabilities, the mappings based on the first to fourth mapping relations are combined. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、二つの画像から対応点を検出しマッチングをおこなう画像マッチング方法および装置に関する。   The present invention relates to an image matching method and apparatus for detecting corresponding points from two images and performing matching.

動き検出、ステレオマッチング、画像モーフィング、画像認識、動画像符号化、など多くの技術分野において、一つの画像から他方の画像への対応関係を求める画像マッチングの技術は基本的な問題である。非特許文献1によれば、画像マッチングの技術は大きく分けて4つに分類できる。即ち、オプティカルフロー手法、ブロックベース手法、勾配法、ベイジアンメソッドがある。オプティカルフロー手法は、「輝度の変化は一定である」というオプティカルフロー式を導出し、そのオプティカルフロー式を拘束条件としてフローを求めるものである。ブロックベースの手法は、ブロック毎のテンプレートマッチングによって動きを求める手法である。勾配法は、画像の輝度勾配が減少する方向にマッチングをおこなう手法である。ベイジアンメソッドは、確率的に尤もらしいマッチングを求める手法である。   In many technical fields such as motion detection, stereo matching, image morphing, image recognition, and moving image coding, image matching technology for obtaining a correspondence relationship from one image to another is a basic problem. According to Non-Patent Document 1, image matching techniques can be broadly classified into four. That is, there are an optical flow method, a block-based method, a gradient method, and a Bayesian method. The optical flow method derives an optical flow equation that “a change in luminance is constant”, and obtains a flow using the optical flow equation as a constraint. The block-based method is a method for obtaining motion by template matching for each block. The gradient method is a method for performing matching in a direction in which the luminance gradient of an image decreases. The Bayesian method is a technique for obtaining matching that is probabilistically plausible.

特許文献1には、上記の分類には属さない技術として多重解像度フィルタを用いた画像マッチングの方法が開示されている。この手法は、複数の多重解像度フィルタによって複数の多重解像度画像ピラミッドを生成し、画像ピラミッドを上から順にマッチング処理をおこなうことによって大きな動きから小さな動きまでマッチング可能なロバスト性の高いマッチング技術である。
特許第2927350号公報 A. Murat Tekalp, “Digital Video Processing”, Prentice Hall, 1995
Patent Document 1 discloses an image matching method using a multi-resolution filter as a technique that does not belong to the above classification. This technique is a highly robust matching technique capable of matching a large motion to a small motion by generating a plurality of multi-resolution image pyramids using a plurality of multi-resolution filters and performing a matching process on the image pyramids in order from the top.
Japanese Patent No. 2927350 A. Murat Tekalp, “Digital Video Processing”, Prentice Hall, 1995

従来の画像マッチング技術の多くは対象オブジェクトの輝度が画像間で変化しないということを仮定して構築されている。オプティカルフロー手法がその代表であるが、ブロックマッチングアルゴリズムもベイズメソッドも同様である。このため従来技術では対象オブジェクトに輝度変化が生じている場合に誤マッチングが生じてしまう可能性が高い。   Many conventional image matching techniques are constructed on the assumption that the brightness of the target object does not change between images. The optical flow method is a representative example, but the block matching algorithm and the Bayes method are the same. For this reason, in the prior art, there is a high possibility that erroneous matching occurs when a change in luminance occurs in the target object.

本発明は、輝度変化が発生した場合にも高精度に画像マッチング可能にする画像マッチング方法を提供することを目的とする。   An object of the present invention is to provide an image matching method that enables image matching with high accuracy even when a luminance change occurs.

本発明の一局面は、対象画像と参照画像の間の写像関係を求める画像マッチング方法において、前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第1の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第1の写像関係による第1の写像を求め、該参照画像から該対象画像への第2の写像関係による第2の写像を求める第1の画像マッチングステップと、前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第2の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第3の写像関係による第3の写像を求め、該参照画像から該対象画像への第4の写像関係による第4の写像を求める第2の画像マッチングステップと、対象画像上の点を前記第1の写像関係により写像した点が前記第2の写像関係によって写像された点を求め、それらの点の位置関係によって第1の信頼確率を算出し、対象画像上の点を前記第3の写像関係により写像した点が前記第4の写像関係によって写像された点を求め、それらの点の位置関係によって第2の信頼確率を算出する信頼度算出ステップと、前記第1,第2の信頼確率に従って、前記第1,第2,第3,第4の写像を合成するステップとを有することを特徴とする画像マッチング方法を提供する。   One aspect of the present invention is an image matching method for obtaining a mapping relationship between a target image and a reference image, wherein a first image correlation potential based on a positional relationship between corresponding points of the target image and the reference image and image information. Using a force due to an energy gradient, an elastic force between each point on the target image or the reference image and its adjacent point, and a frictional force acting on each point on the target image or the reference image, A first image matching step of obtaining a first mapping based on a first mapping relationship from the target image to the reference image and obtaining a second mapping based on a second mapping relationship from the reference image to the target image; , A positional relationship between corresponding points of the target image and the reference image and a force due to a gradient of a second image correlation potential energy based on the image information, and the target image or the reference image And a frictional force acting on each point on the target image or the reference image, and a third mapping relationship from the target image to the reference image using a third mapping relationship from the target image to the reference image. A second image matching step for obtaining a fourth mapping based on a fourth mapping relationship from the reference image to the target image, and a point on the target image mapped by the first mapping relationship. A point obtained by mapping a point by the second mapping relationship is obtained, a first reliability probability is calculated by the positional relationship of the points, and a point obtained by mapping the point on the target image by the third mapping relationship is A reliability calculation step of obtaining points mapped by the fourth mapping relationship and calculating a second reliability probability based on a positional relationship between the points; and the first and second reliability in accordance with the first and second reliability probabilities. Steps for composing the second, third, and fourth maps To provide an image matching method characterized by having a flop.

本発明によると、対象オブジェクトに輝度変化が生じても高精度にマッチングが可能となる。また、輝度変化に対応でき大きな動きから小さな動きまでスケーラブルに対応可能となる。   According to the present invention, matching can be performed with high accuracy even if a luminance change occurs in the target object. In addition, it is possible to cope with a change in luminance, and it is possible to cope with a scalable movement from a large movement to a small movement.

[第1の実施形態]
本実施形態を図1のブロック図に従って説明する。本実施形態では、対象画像と参照画像が入力され、例えばプロセッサにより構成される2つの画像マッチングユニット11,12が設けられる。画像マッチングユニット11は輝度変化が無いと仮定した画像マッチング1を行い、画像マッチングユニット12は輝度変化に対して耐性がある画像マッチング2を行う。これら画像マッチングユニット11,12の出力は、例えば演算装置により構成される信頼度算出ユニット13に入力され、マッチングの信頼度が算出される。信頼度算出ユニット13の計算結果は、例えばプロセッサにより構成される接合ユニット14に入力されると、接合ユニット14は信頼度算出ユニット13の算出結果に応じて画像マッチングユニット11,12の写像を合成する。
[First Embodiment]
This embodiment will be described with reference to the block diagram of FIG. In the present embodiment, a target image and a reference image are input, and two image matching units 11 and 12 configured by, for example, a processor are provided. The image matching unit 11 performs image matching 1 assuming that there is no luminance change, and the image matching unit 12 performs image matching 2 that is resistant to luminance changes. The outputs of these image matching units 11 and 12 are input to a reliability calculation unit 13 constituted by, for example, an arithmetic device, and the matching reliability is calculated. When the calculation result of the reliability calculation unit 13 is input to the joining unit 14 configured by, for example, a processor, the joining unit 14 synthesizes the mapping of the image matching units 11 and 12 according to the calculation result of the reliability calculation unit 13. To do.

本実施形態において、まず、基本となる画像マッチング1について説明する。   In the present embodiment, first, basic image matching 1 will be described.

連続画像モデルが数式1に示すように表される。

Figure 2006227827
A continuous image model is expressed as shown in Equation 1.
Figure 2006227827

これは実数ベースの連続な画像モデルである。ここでは、デジタル画像を対象と考えているので、上記のモデルをサンプリングした以下のサンプリング画像モデルを用いる。   This is a real-based continuous image model. Here, since a digital image is considered, the following sampled image model obtained by sampling the above model is used.

このサンプリング画像モデルは数式2により表される。

Figure 2006227827
This sampling image model is expressed by Equation 2.
Figure 2006227827

このとき画像マッチング問題は以下の条件、即ち数式3を満たす動きベクトルd:R3→R2を探す問題として定式化できる。

Figure 2006227827
At this time, the image matching problem can be formulated as a problem of searching for a motion vector d: R 3 → R 2 satisfying the following condition, that is, Expression 3.
Figure 2006227827

但し、この定式化の場合、暗に同じ対象物の画像値は時間変化をしないと仮定している。また、動きベクトルdが実数なので、右辺は連続画像モデル(数式1)の表記を用いていることに注意を要する。ここでは、対象画像と参照画像、2枚の画像間の画像マッチングを考えているので、等価な数式4を考える。

Figure 2006227827
However, in this formulation, it is assumed that the image values of the same object do not change with time. Also, since the motion vector d is a real number, it should be noted that the right side uses the notation of a continuous image model (Formula 1). Here, since image matching between the target image, the reference image, and the two images is considered, an equivalent equation 4 is considered.
Figure 2006227827

また、動きベクトルも簡単化され、d:R2→R2となる。点xに対して動きベクトルdは一つだけ決まればよいので、動きベクトルdを一意写像とする。x+d(x)はxに対する写像とみなせるので、g(x)=x+d(x)と定義する。ここでg:R2→R2の一意写像である。上記の画像マッチング問題は数式5を満たす写像gを探す問題に帰着する。

Figure 2006227827
Also, the motion vector is simplified, and d: R 2 → R 2 . Since only one motion vector d needs to be determined for the point x, the motion vector d is a unique mapping. Since x + d (x) can be regarded as a mapping to x, it is defined as g (x) = x + d (x). Where g: R 2 → R 2 is a unique map. The above image matching problem results in a problem of searching for a mapping g satisfying Equation 5.
Figure 2006227827

写像gによって決まる点をy=g(x)と定義する。y∈R2である。x=Vnであるからxは格子空間上の点nに一意に対応する。写像gは一意写像であるからyもxに一意に対応する。従ってyはnに一意に対応する。このことは図2で示される。つまりここで取り扱いたい空間は格子空間上の点nによって1対1に対応する変形格子空間である。 A point determined by the mapping g is defined as y = g (x). is a y∈R 2. Since x = Vn, x uniquely corresponds to a point n on the lattice space. Since map g is a unique map, y also uniquely corresponds to x. Therefore, y uniquely corresponds to n. This is shown in FIG. That is, the space to be handled here is a deformed lattice space corresponding to one-to-one by the point n on the lattice space.

以上のようにy=g(x)=g(Vn)なので、nに1対1に対応することを分かりやすくするために、これをyn=g(x)と再定義する。すると画像マッチング問題の式5は数式6を満たすynを探す問題に帰着する。

Figure 2006227827
Since y = g (x) = g (Vn) as described above, this is redefined as y n = g (x) in order to make it easy to understand that there is a one-to-one correspondence with n . Then Equation 5 of the image matching problem reduces to a problem to find a y n satisfying Equation 6.
Figure 2006227827

画像マッチング問題の数式6を解くためにここでは点ynに対してダイナミクスを導入する。つまり画像マッチング問題を点ynに関する動的システムを解く問題に帰着させる。点ynは周りの点との関係も考慮しつつ数式6を満たす状態に移動していき平衡状態に収束する。その平衡状態によって画像マッチングが完了したものとする。この状態は図3に示すように表される。 In order to solve Equation 6 of the image matching problem, dynamics is introduced for the point y n here. In other words, the image matching problem is reduced to the problem of solving the dynamic system about the point y n . The point y n moves to a state satisfying Equation 6 while considering the relationship with surrounding points, and converges to an equilibrium state. Assume that image matching is completed by the equilibrium state. This state is expressed as shown in FIG.

点yに対して新たな時間軸τ∈Rを導入し、関数yn(τ)を定義する。ここで初期値は数式7のように正方格子xと同一であるとする。

Figure 2006227827
A new time axis τ∈R is introduced for the point y, and a function y n (τ) is defined. Here, it is assumed that the initial value is the same as that of the square lattice x as shown in Equation 7.
Figure 2006227827

新たな時間軸を導入したので時間に関する微分が数式8のように定義できる。

Figure 2006227827
Since a new time axis is introduced, the derivative with respect to time can be defined as shown in Equation 8.
Figure 2006227827

通常ダイナミクスは以下のような常微分方程式9によって記述される。

Figure 2006227827
Ordinary dynamics are described by the ordinary differential equation 9 as follows.
Figure 2006227827

F∈R2は力の総和である。これは運動方程式とも呼ばれる。 F∈R 2 is the sum of forces. This is also called the equation of motion.

次にyn(τ)にかかる力について考える。まずはダイナミクスを駆動させる力となるポテンシャルエネルギーによる力を考える。これはyn(τ)が数式6を満たす状態に移動するための力である。数式5を変形すると、数式10となる。

Figure 2006227827
Next, consider the force applied to y n (τ). First, consider the potential energy that drives the dynamics. This is a force for moving y n (τ) to a state where Expression 6 is satisfied. When Formula 5 is transformed, Formula 10 is obtained.
Figure 2006227827

通常、数式10を厳密に満たす点を探すことは、画像に含まれるノイズ成分などにより困難である。そこで数式11のようなエネルギー関数を考える。

Figure 2006227827
Usually, it is difficult to search for a point that exactly satisfies Formula 10 because of noise components included in the image. Therefore, an energy function as shown in Equation 11 is considered.
Figure 2006227827

このエネルギー関数Euが最小となる点を探すようにする。最急降下法の原理を用いれば、yn(τ)の周りでエネルギー関数Euの最急降下の方向に下っていくことによりローカルミニマムに行き着くことができる。従って、この最急降下の方向への勾配をyn(τ)に対する力として定義する。エネルギー関数Euは画像の相関とも考えられるので、この力を画像相関ポテンシャルエネルギーによる力Fuとする。 A point where the energy function Eu is minimized is searched. Using the principle of the steepest descent method, the local minimum can be reached by descending in the direction of the steepest descent of the energy function Eu around y n (τ). Therefore, the gradient in the direction of the steepest descent is defined as a force against y n (τ). Since the energy function E u can be considered as image correlation, this force is defined as a force F u due to image correlation potential energy.

最急降下の方向への勾配を計算する方法は種々考えられるが、ここでは次のような方法を採用する。図4に示すように、最急降下方向への勾配は局所最適化によって直接求める。画像モデルScは連続の画像モデルだが、実際にはサンプリングされた画像モデルSpしか利用できない。そこで局所最適化もサンプリングされた画像モデルをベースに行う。図4に示すようにyn(τ)にもっとも近いサンプリング点を局所空間中心ycとしたいので、数式12のように求める。

Figure 2006227827
There are various methods for calculating the gradient in the direction of steepest descent. Here, the following method is adopted. As shown in FIG. 4, the gradient in the steepest descent direction is obtained directly by local optimization. Although the image model Sc is a continuous image model, only the sampled image model Sp can actually be used. Therefore, local optimization is also performed based on the sampled image model. As shown in FIG. 4, since it is desired to set the sampling point closest to y n (τ) as the local space center y c , the following equation 12 is obtained.
Figure 2006227827

隣接空間を数式13のように定義すると、局所探索空間Ωは数式14のように定義できる。

Figure 2006227827
When the adjacent space is defined as in Expression 13, the local search space Ω can be defined as in Expression 14.
Figure 2006227827

Figure 2006227827
Figure 2006227827

局所最適化をしてその方向へのベクトルを求め、それを正規化し、勾配の大きさをかけると、数式15が得られる。この式が画像相関ポテンシャルエネルギーによる力(二乗誤差エネルギー)を示す。

Figure 2006227827
When local optimization is performed to obtain a vector in the direction, normalized, and multiplied by the magnitude of the gradient, Equation 15 is obtained. This equation shows the force (square error energy) due to the image correlation potential energy.
Figure 2006227827

実装上の扱い易さ等からエネルギー関数を数式16と定義した数式17の画像相関ポテンシャルエネルギーによる力(絶対値差分誤差エネルギー)を用いることもできる。

Figure 2006227827
The force (absolute value difference error energy) by the image correlation potential energy of Expression 17 in which the energy function is defined as Expression 16 can be used for ease of handling in mounting.
Figure 2006227827

Figure 2006227827
Figure 2006227827

次に、周辺の点との関係を記述する力について考える。マッチング対象の画像は3次元空間を2次元に投影したものだとする。3次元空間上のオブジェクトが剛体とすると、2次元画像では剛体のサーフェスがオブジェクトとして観測されることになる。3次元空間上のオブジェクトが対象画像と参照画像で観測されるとすると、このときそれぞれの画像上で観測されるオブジェクトの位相は保たれる確率が高い。図5に示すように、対象画像オブジェクト上の点xの位置関係は参照画像オブジェクト上の点yn(τ)でも保たれるはずである。この性質は点yn(τ)の間をバネで接続することによってシミュレーションできる。周辺との関係はバネの力Fkによって記述する。以下のように、まずは対象点周辺の格子点空間Nnを定義する。周囲4点であれば数式18のようになる。

Figure 2006227827
Next, consider the ability to describe the relationship with surrounding points. Assume that the matching target image is a two-dimensional projection of a three-dimensional space. If the object in the three-dimensional space is a rigid body, the surface of the rigid body is observed as an object in the two-dimensional image. If an object in the three-dimensional space is observed in the target image and the reference image, there is a high probability that the phase of the object observed in each image will be maintained. As shown in FIG. 5, the positional relationship of the point x on the target image object should be maintained at the point y n (τ) on the reference image object. This property can be simulated by connecting the points y n (τ) with a spring. The relationship with the periphery is described by the spring force F k . First, the lattice point space N n around the target point is defined as follows. If there are four surrounding points, Equation 18 is obtained.
Figure 2006227827

バネ定数(弾性常数)をkとすれば、点yn(τ)にかかるバネの復元力は数式19で表されるバネ力(弾性力)となる。なお、弾性常数は画像相関エネルギーと弾性エネルギーのバランサーであり、弾性定数が大きければ変形がしにくくなり結果が安定する。しかし画像への適合性が悪くなる。弾性定数が小さければ変形がしやすくなるので画像の適合性が良くなる。ただし結果が柔軟になりすぎる。そこで、現在のところ、このパラメータは経験的に与えられる。挙動はこのパラメータの値にそれほど敏感ではではないので、基本的にはある一定値を固定的に与えられる。

Figure 2006227827
If the spring constant (elastic constant) is k, the restoring force of the spring applied to the point y n (τ) is the spring force (elastic force) expressed by Equation 19. The elastic constant is a balance between image correlation energy and elastic energy. If the elastic constant is large, the elastic constant is difficult to be deformed and the result is stable. However, the adaptability to the image is deteriorated. If the elastic constant is small, the image can be easily deformed, so that the adaptability of the image is improved. However, the results are too flexible. So, at present, this parameter is given empirically. Since the behavior is not so sensitive to the value of this parameter, it is basically given a fixed value.
Figure 2006227827

周囲4点を接続すると、数式20のような4点接続バネモデルとなる。

Figure 2006227827
When the four surrounding points are connected, a four-point connection spring model as shown in Equation 20 is obtained.
Figure 2006227827

最後に保存されたエネルギーを散逸させる力について考える。yn(τ)にかかる力がFu, Fkのみではエネルギーが保存されてしまうために系が振動する定常状態となってしまう。そこで保存されているエネルギーを散逸させる力を導入する。これには摩擦力が利用できる。速度が一定と近似できる場合には摩擦力は数式21で記述できる。

Figure 2006227827
Finally, consider the power to dissipate the stored energy. If the force applied to y n (τ) is only F u and F k , the energy is conserved and the system is in a steady state where it vibrates. Therefore, the power to dissipate the stored energy is introduced. Frictional force can be used for this. If the speed can be approximated as constant, the frictional force can be described by Equation 21.
Figure 2006227827

以上の力をまとめると運動方程式は数式22のようになる。
運動方程式

Figure 2006227827
Summarizing the above forces, the equation of motion is as shown in Equation 22.
Equation of motion
Figure 2006227827

画像相関ポテンシャルエネルギーによる力Fuが解析的には解けないため常微分方程式22は解析的には解けない。従って、システムのτ→∞における極限を取ることは困難である。そこでシステムが収束するのに十分大きな時間Tを考え、数値解析によってt=(0,Τ)区間を計算することによってシステムの収束状態を推定する。 ODE a force F u by the image correlation potential energy is not solved analytically 22 can not be solved analytically. Therefore, it is difficult to take the limit of τ → ∞ of the system. Therefore, a sufficiently large time T for the system to converge is considered, and the convergence state of the system is estimated by calculating the t = (0, Τ) interval by numerical analysis.

常微分方程式は初期値が決まれば、数値解析によって一意に解が求まる。一般には常微分方程式の初期値問題といわれるものである。この問題の数値解法は数多く存在するが、有名なものではオイラー法、ルンゲクッタ法、ブリルシュ・ストア法、予測子・修正子法、隠的ルンゲクッタ法などがある。ルンゲクッタ法がもっとも有名かつ使用頻度が高い。しかし式22は画像のサイズ分の次元を持つため複雑な数値解法は適合しにくい。そこでここでは実現が最も簡単なオイラー法を応用することを考える。オイラー法は一階の常微分方程式に対する数値解法なので、まずは式22を一階の常微分方程式に変換する。このとき、数式23のように変数変換を行う。

Figure 2006227827
If the initial value of the ordinary differential equation is determined, a solution can be uniquely obtained by numerical analysis. In general, it is called the initial value problem of ordinary differential equations. There are many numerical solutions to this problem, but famous ones include the Euler method, the Runge-Kutta method, the Birsch store method, the predictor / corrector method, and the hidden Runge-Kutta method. The Runge-Kutta method is the most famous and frequently used. However, since Equation 22 has dimensions corresponding to the size of the image, a complicated numerical solution method is difficult to adapt. Therefore, here we consider applying the Euler method, which is the simplest implementation. Since the Euler method is a numerical solution to the first-order ordinary differential equation, first, Equation 22 is converted to a first-order ordinary differential equation. At this time, variable conversion is performed as shown in Equation 23.
Figure 2006227827

この変数変換を数式22に代入し、数式24を作る。
変換された運動方程式

Figure 2006227827
Substituting this variable conversion into Equation 22, Equation 24 is created.
Transformed equations of motion
Figure 2006227827

常微分方程式25に対するオイラー法のスキームは数式26によって表される。

Figure 2006227827
The Euler scheme for the ODE 25 is expressed by Equation 26.
Figure 2006227827

Figure 2006227827
Figure 2006227827

これはt(n)からt(n+1)≡t(n)+hへと解を進展させるものである。ここでx(n)はnステップであることを示しており、hはステップ幅である。オイラー法のスキームを数式24に適用すると、数式27のオイラー法による更新式が得られる。

Figure 2006227827
This advances the solution from t (n) to t (n + 1) ≡t (n) + h. Here, x (n) indicates n steps, and h is a step width. When the Euler scheme is applied to Formula 24, an update formula based on the Euler method of Formula 27 is obtained.
Figure 2006227827

以上、画像マッチングをアルゴリズムとしてまとめると以下のようになる。
画像マッチングアルゴリズム:

Figure 2006227827
As described above, image matching is summarized as an algorithm as follows.
Image matching algorithm:
Figure 2006227827

次に、画像マッチング2ステップについて説明する。
図6に示すような通常の並進運動をするオブジェクトに対して画像マッチング1ステップを用いると図7に示すような写像が得られる。オブジェクトに対してマッチングがかかった写像が得られていることが分かる。それに対して図8に示すような輝度変化が生じている並進運動をするオブジェクトに対して画像マッチング1ステップを用いると図9に示すような歪んだ写像が生成される。これは画像マッチング問題を数式6のように定式化したことに起因する。この数式6は輝度が変化しないという仮定の下での定式化されている。輝度変化に対応するためには上記の画像マッチング問題を数式28のように一般化画像マッチング問題として定義し直す必要がある。

Figure 2006227827
Next, the image matching 2 step will be described.
When one step of image matching is used for an object having a normal translational movement as shown in FIG. 6, a mapping as shown in FIG. 7 is obtained. It can be seen that a matching map is obtained for the object. On the other hand, when one step of image matching is used for an object that performs translational motion in which a luminance change as shown in FIG. 8 occurs, a distorted map as shown in FIG. 9 is generated. This is because the image matching problem is formulated as shown in Equation 6. Formula 6 is formulated under the assumption that the luminance does not change. In order to cope with a change in luminance, it is necessary to redefine the image matching problem as a generalized image matching problem as shown in Equation 28.
Figure 2006227827

これは画像の相関関数φを元にしたものであり、画像の輝度値が等しいとした数式6よりも一般化した表現である。相関関数φは画像の相関が高いほど高くなる確率として定義する。   This is based on the correlation function φ of the image, and is a more general expression than Equation 6 assuming that the luminance values of the images are equal. The correlation function φ is defined as the probability that the higher the image correlation is, the higher the correlation is.

輝度変化に対応可能な輝度変化にロバストな相関関数として相互相関が数式29によって示すことができる。

Figure 2006227827
The cross-correlation can be expressed by Equation 29 as a correlation function that is robust to the luminance change that can correspond to the luminance change.
Figure 2006227827

ここでBは相互相関を計算する計算対象空間であり、この場合、点x,ynの周りに張られる局所ブロックなどを考える。相互相関は期待値を0としたときのs1とs2の共分散を正規化したもので、1のときに最大の正相関がある。分散ベースの相関関数であるため領域全体に輝度のオフセットなどがあっても正しい相関を計算できる。 Here, B is a calculation target space for calculating cross-correlation. In this case, a local block stretched around the points x and yn is considered. The cross-correlation is obtained by normalizing the covariance of s 1 and s 2 when the expected value is 0, and when it is 1, there is a maximum positive correlation. Since it is a dispersion-based correlation function, correct correlation can be calculated even if there is a luminance offset in the entire region.

また同様に輝度のオフセットに不変な統計量として定性的3値表現(Qualitative Trinary Representation(QTR))があげられる。QTRは隣接画素との差分値の大小パターンを比較する手法であり、ノイズや輝度変化などにロバストな特徴を持っている。とくに輝度値のシフトに関しては不変であるという特徴がある。これは次式30で表される。

Figure 2006227827
Similarly, a qualitative ternary representation (QTR) is a statistic that is invariant to the luminance offset. QTR is a technique for comparing large and small patterns of difference values with adjacent pixels, and has a feature that is robust to noise, luminance changes, and the like. In particular, the luminance value shift is invariant. This is expressed by Equation 30 below.
Figure 2006227827

数式28及び29を元にした画像相関ポテンシャルエネルギーを考えてみる。数式29をベースとしたエネルギー関数は数式31のようになる。

Figure 2006227827
Consider the image correlation potential energy based on equations 28 and 29. An energy function based on Expression 29 is expressed by Expression 31.
Figure 2006227827

ここでBは局所ブロックであり、数式32などを用いることができる。

Figure 2006227827
Here, B is a local block, and Equation 32 or the like can be used.
Figure 2006227827

画像ステップ1と同様の手法を用いれば、画像相関ポテンシャルエネルギーによる力:相互相関モデルを表す数式33の定式化が得られる。

Figure 2006227827
If a method similar to that in image step 1 is used, Formula 33 representing a force: cross-correlation model based on image correlation potential energy can be obtained.
Figure 2006227827

相互相関は1を最大値とする確率密度関数であるから最小化問題ではなく最大化問題となっていることに注意を要する。   It should be noted that the cross-correlation is a probability density function having a maximum value of 1, so that it is not a minimization problem but a maximization problem.

同様に、QTRを画像相関ポテンシャルエネルギーとして定式化すると次式34のようになる。

Figure 2006227827
Similarly, when QTR is formulated as image correlation potential energy, the following equation 34 is obtained.
Figure 2006227827

ここでNは正規化係数である。
画像相関ポテンシャルエネルギーによる力Fuとして数式33の相互相関モデルを用い、それ以外は画像マッチング1ステップと同じ構成にしたものを画像マッチング2ステップとする。この画像マッチング2ステップによって輝度変化のある並進運動を図8に示し、マッチングを行った結果を図10に示す。この図10から歪み無くマッチングがかかっており、輝度変化に対してロバストであることが分かる。ただし、画像マッチング2ステップは輝度変化にはロバストであるがマッチング性能自体は画像マッチング1ステップには及ばない。そこで両者をハイブリッドした構成が必要となる。
Here, N is a normalization coefficient.
The cross-correlation model of Equation 33 is used as the force Fu due to the image correlation potential energy, and the other components having the same configuration as the image matching 1 step are set as the image matching 2 step. FIG. 8 shows a translational motion with a luminance change by this image matching two steps, and FIG. 10 shows the result of matching. It can be seen from FIG. 10 that matching is applied without distortion and that it is robust against changes in luminance. However, the image matching 2 step is robust to the luminance change, but the matching performance itself is not as good as the image matching 1 step. Therefore, a configuration in which both are hybridized is required.

次に、信頼度算出ステップについて説明する。   Next, the reliability calculation step will be described.

画像マッチング1ステップによる写像と画像マッチング2ステップによる写像を最適に合成したい。しかし、輝度変化に対応するためには輝度の差分値を使った信頼度などを使うことはできない。そこで別の信頼度が必要となる。   I would like to optimally synthesize the mapping by one step of image matching and the mapping by two steps of image matching. However, the reliability using the difference value of luminance cannot be used to cope with the luminance change. Therefore, another degree of reliability is required.

図11に示すように、対象画像のオブジェクトに対して参照画像では光が当たって輝度が変化している場合を考える。このとき対象画像から参照画像と、参照画像から対象画像への双方向のマッチングを考えてみる。対象画像から参照画像へのマッチングでは、オブジェクトの光が当たることになる部分の点は周りの輝度が同じ点に向かってマッチングかかり、本来動きが生じていないはずの部分に動きが生じることになるだろう。それに対して参照画像から対象画像へのマッチングでは、光が当たっている部分の点は同じ輝度の点が対象画像のどこにも存在しないので、その場にとどまると考えられる。このように輝度の差分値をベースとしたマッチングでは輝度変化が生じた場合に双方向のマッチング結果が必ずしも一致しない。従って、双方向のマッチング結果の一致度を使って信頼度を定義できる。   As shown in FIG. 11, a case is considered where the brightness of the reference image is changed by the light hitting the object of the target image. Consider bidirectional matching from the target image to the reference image and from the reference image to the target image. In the matching from the target image to the reference image, the point of the part where the light of the object hits will be matched toward the point where the surrounding brightness is the same, and the movement will occur in the part that should not have moved originally right. On the other hand, in the matching from the reference image to the target image, it is considered that the point where the light hits stays on the spot because no point of the same luminance exists anywhere in the target image. As described above, in the matching based on the difference value of the luminance, when the luminance change occurs, the bidirectional matching result does not always match. Therefore, the reliability can be defined using the degree of coincidence of the bidirectional matching results.

双方向の写像の一致度を定式化するために、動きベクトルd(x,t;lΔt)と写像の定義から、対象画像から参照画像への写像はg(x,t;lΔt)であり、参照画像から対象画像への写像はg(x,t+lΔt;-lΔt)であるとする。図12に示すように、対象画像上の点xは参照画像上の点g(x,t;lΔt)に写像され、参照画像上の点g(x,t;lΔt)は対象画像上の点g(g(x,t;lΔt),t+lΔt;-lΔt)に写像される。点xを写像すると、点g(g(x,t;lΔt),t+lΔt;-lΔt)になるので、双方向の写像が一致していれば、両点は一致するはずである。つまりベクトルg(g(x,t;lΔt),t+lΔt;-lΔt)-xによって一致度を表すことができる。   From the definition of motion vector d (x, t; lΔt) and mapping to formulate the degree of coincidence of bidirectional mapping, the mapping from the target image to the reference image is g (x, t; lΔt), Assume that the mapping from the reference image to the target image is g (x, t + lΔt; −lΔt). As shown in FIG. 12, a point x on the target image is mapped to a point g (x, t; lΔt) on the reference image, and a point g (x, t; lΔt) on the reference image is a point on the target image. It is mapped to g (g (x, t; lΔt), t + lΔt; −lΔt). When the point x is mapped, it becomes a point g (g (x, t; lΔt), t + lΔt; -lΔt). Therefore, if the two-way mappings match, both points should match. That is, the degree of coincidence can be expressed by the vector g (g (x, t; lΔt), t + lΔt; −lΔt) −x.

よって、ベクトルのノルムを用いればノルムを用いた信頼度は数式35によって定義することができる。

Figure 2006227827
Therefore, if the vector norm is used, the reliability using the norm can be defined by Equation 35.
Figure 2006227827

囲まれる三角形の面積を用いると、信頼度は数式36と定義することができる。

Figure 2006227827
Using the area of the enclosed triangle, the reliability can be defined as Equation 36.
Figure 2006227827

ここでは画像マッチング1ステップと画像マッチング2ステップがあるので、それぞれの写像を数式37、38によって表すとすると、それぞれの信頼度を数式39、40と定義することができる。

Figure 2006227827
Here, since there are one image matching step and two image matching steps, if the respective mappings are represented by mathematical expressions 37 and 38, the respective reliability can be defined as mathematical expressions 39 and 40.
Figure 2006227827

最後に結合ステップについて説明する。結合ステップでは画像マッチング1ステップによる写像と画像マッチング2ステップによる写像を結合する。この場合、信頼度算出ユニット13により求められた信頼度を用いて結合をおこなう。例えば、信頼度p(x|g1(;t;lΔt),g1(;t+lΔt;-lΔt))とp(x|g2(;t;lΔt),g2(;t+lΔt;-lΔt))とを比較して信頼度が高い写像を点xの写像として選択するような方法が考えられる。 Finally, the combining step will be described. In the combining step, the mapping in one image matching step and the mapping in two image matching steps are combined. In this case, the combination is performed using the reliability obtained by the reliability calculation unit 13. For example, the reliability p (x | g 1 (; t; lΔt), g 1 (; t + lΔt; -lΔt)) and p (x | g 2 (; t; lΔt), g 2 (; t + lΔt) Compared with; -lΔt)), a method of selecting a map with high reliability as the map of the point x can be considered.

また、点xに対して二つの写像を定義しそれぞれの写像に信頼度p(x|g1(;t;lΔt),g1(;t+lΔt;-lΔt))とp(x|g2(;t;lΔt),g2(;t+lΔt;-lΔt))を付加しておく方法も考えられる。 In addition, we define two mappings for the point x, and the reliability of each mapping is p (x | g 1 (; t; lΔt), g 1 (; t + lΔt; -lΔt)) and p (x | g 2 (; t; lΔt), g 2 (; t + lΔt; −lΔt)) may be added.

本実施形態では上記のように対応点間の画像の色度空間距離または対応点間の画像の輝度値の差分によって生じる第1の画像相関ポテンシャルエネルギーを用いて対象画像及び参照画像について双方向に画像マッチング1を行い、対応点間の画像の輝度値の相互相関によって生じる第2の画像相関ポテンシャルエネルギーを用いて対象画像及び参照画像について双方向に画像マッチング2を行う構成を取ることにより対象オブジェクトに輝度変化が生じても高精度にマッチングが可能となる。   In the present embodiment, as described above, the target image and the reference image are bi-directionally using the first image correlation potential energy generated by the chromaticity space distance between the corresponding points or the difference in the luminance value between the corresponding points. The target object is configured by performing image matching 1 and performing image matching 2 bidirectionally on the target image and the reference image using the second image correlation potential energy generated by the cross-correlation of the luminance values of the images between corresponding points. Even if a luminance change occurs, matching can be performed with high accuracy.

[第2の実施形態]階層構造
本実施形態を図13のブロック図に従って説明する。本実施形態では対象画像と参照画像が入力されそれらの画像間の写像関係を求める。
[Second Embodiment] Hierarchical Structure This embodiment will be described with reference to the block diagram of FIG. In this embodiment, a target image and a reference image are input, and a mapping relationship between these images is obtained.

第1の実施形態では、対象オブジェクトに輝度変化が生じても高精度にマッチング可能な画像マッチング技術を提供しているが、本実施形態では、大きな動きから小さな動きまでスケーラブルに対応可能とするためにピラミッド階層構造を導入する。以下に詳細に説明する。   In the first embodiment, an image matching technique is provided that enables high-precision matching even if the luminance change occurs in the target object. However, in the present embodiment, in order to be able to deal with a large movement to a small movement in a scalable manner. Introduce a pyramid hierarchy. This will be described in detail below.

まず、基本となる画像マッチング1ステップをピラミッド階層構造に拡張する。画像のピラミッド階層構造は図14に示すようなもので、ここではオリジナルの画像をダウンサンプリングすることによって縮小した画像の階層構造と定義する。各階層のことをレイヤーと呼ぶ。最上位階層をレイヤー0とし、オリジナルの最下層をレイヤーMとする。簡単のため画像サイズを2M×2Mとし、ダウンサンプリングを縦横1/2にするオペレータとすると、画像サイズとレイヤー番号がリンクする。すなわちレイヤー0が20×20、オリジナルの最下層がレイヤーMが2M×2Mとなる。階層構造生成ステップがオリジナルの対象画像と参照画像からこれらの階層構造を生成する。階層型の連続画像モデルを数式41により定義する。

Figure 2006227827
First, the basic image matching step is expanded to a pyramid hierarchical structure. The pyramid hierarchical structure of the image is as shown in FIG. 14, and is defined here as the hierarchical structure of the image reduced by down-sampling the original image. Each layer is called a layer. The top layer is layer 0, and the original bottom layer is layer M. For simplicity, assume that the image size is 2 M x 2 M and the downsampling operator is 1/2 in length and width. The image size and layer number are linked. That is, layer 0 is 2 0 × 2 0 , and the original lowermost layer is layer M 2 M × 2 M. The hierarchical structure generation step generates these hierarchical structures from the original target image and the reference image. A hierarchical continuous image model is defined by Equation 41.
Figure 2006227827

また、それをサンプリングした階層サンプリング画像モデルを数式42により定義する。

Figure 2006227827
Further, a hierarchical sampling image model obtained by sampling it is defined by Equation 42.
Figure 2006227827

動きベクトルも階層化され、d(m)(x(m))となり、写像gも数式43と定義される。

Figure 2006227827
The motion vector is also hierarchized to be d (m) (x (m) ), and the mapping g is defined as Equation 43.
Figure 2006227827

Figure 2006227827
Figure 2006227827

第1の実施形態の手法を適用すれば運動方程式は数式46によって表される。

Figure 2006227827
If the method of the first embodiment is applied, the equation of motion is expressed by Equation 46.
Figure 2006227827

それぞれの力、即ち画像相関ポテンシャルエネルギーによる力(二乗誤差エネルギー)は数式47のようになる。

Figure 2006227827
Each force, that is, the force (square error energy) due to the image correlation potential energy is expressed by Equation 47.
Figure 2006227827

バネの力は数式48によって表される。

Figure 2006227827
The spring force is expressed by Equation 48.
Figure 2006227827

摩擦力は数式49により表される。

Figure 2006227827
The frictional force is expressed by Equation 49.
Figure 2006227827

以上のように画像モデルや各点の表現が階層モデルに置き換わっているだけであることが分かる。   As described above, it can be seen that the image model and the representation of each point are merely replaced with the hierarchical model.

運動方程式44を解けばレイヤーmの写像g(m)が求まる。最下層レイヤーMにおける写像g(M)を求めるためには、上位階層で求めた写像を下位階層に伝搬させる手段が必要である。例えば、数式50のように写像g(m)に幾何変換を施してスケールを2倍にすることが考えられる。

Figure 2006227827
By solving the equation of motion 44, a map g (m) of the layer m can be obtained. In order to obtain the mapping g (M) in the lowermost layer M, means for propagating the mapping obtained in the upper layer to the lower layer is necessary. For example, it is conceivable that the scale is doubled by applying geometric transformation to the mapping g (m) as shown in Equation 50.
Figure 2006227827

ここでは整数化オペレータを使って格子状の写像値を取得したが、バイリニア法などによって格子状の写像から中間値を補間してもよい。   Here, a grid-like mapping value is acquired using an integer operator, but an intermediate value may be interpolated from the grid-like mapping by a bilinear method or the like.

階層型の画像マッチングアルゴリズムは後述する。   The hierarchical image matching algorithm will be described later.

画像マッチング2ステップも同様に拡張する。即ち、画像相関ポテンシャルエネルギーによる力:相互相関モデルは数式51によって定義される。

Figure 2006227827
The image matching 2 step is similarly expanded. In other words, the force: cross-correlation model by the image correlation potential energy is defined by Equation 51.
Figure 2006227827

図13のブロック図に示すように、対象画像及び参照画像が入力される階層構造生成ユニット21が設けられる。階層構造生成ユニット21の出力は画像マッチングユニット22,23に接続される。画像マッチングユニット22,23は画像マッチング1,2をそれぞれ行う。画像マッチングユニット21,22の出力は信頼度算出ユニット24に入力される。信頼度算出ユニット24の出力は接合ユニット25に入力されることにより、接合ユニット25は信頼度算出ユニット24の算出結果に応じて画像マッチングユニット22,23の写像を合成する。即ち、本実施形態では、各レイヤー毎に信頼度算出、写像結合をおこない、その結果を画像マッチング1ステップ、画像マッチング2ステップにフィードバックする。   As shown in the block diagram of FIG. 13, a hierarchical structure generation unit 21 to which a target image and a reference image are input is provided. The output of the hierarchical structure generation unit 21 is connected to the image matching units 22 and 23. Image matching units 22 and 23 perform image matching 1 and 2, respectively. The outputs of the image matching units 21 and 22 are input to the reliability calculation unit 24. When the output of the reliability calculation unit 24 is input to the joining unit 25, the joining unit 25 synthesizes the mapping of the image matching units 22 and 23 according to the calculation result of the reliability calculation unit 24. That is, in the present embodiment, reliability calculation and mapping combination are performed for each layer, and the result is fed back to the image matching 1 step and the image matching 2 step.

レイヤーmの信頼度算出ステップについて考える。ここでは画像マッチング1ステップと画像マッチング2ステップがあるので、それぞれの写像を数式52,53で表すとする。

Figure 2006227827
Consider the reliability calculation step of layer m. Here, since there are one image matching step and two image matching steps, the mappings are expressed by equations 52 and 53, respectively.
Figure 2006227827

この場合、それぞれの信頼度は、順方向の場合、数式54、55によって定義できる。

Figure 2006227827
In this case, the respective degrees of reliability can be defined by Equations 54 and 55 in the forward direction.
Figure 2006227827

逆方向の場合には、数式56、57によってそれぞれ定義できる。

Figure 2006227827
In the case of the reverse direction, it can be defined by Equations 56 and 57 respectively.
Figure 2006227827

結合ユニット25での結合ステップでは、信頼度p(x(m)|g1 (m)(;t;lΔt),g1 (m)(;t+lΔt;-lΔt))とp(x(m)|g2 (m)(;t;lΔt),g2 (m)(;t+lΔt;-lΔt))を用いて、レイヤーmの順方向結合写像gj (m)(;t;lΔt)を求める。また信頼度p(x(m)|g1 (m)(;t+lΔt;-lΔt),g1 (m)(;t;lΔt))とp(x(m)|g2 (m)(;t+lΔt;-Δt),g2 (m)(;t; lΔt))を用いて、レイヤーmの逆方向結合写像gj (m)(;t+lΔt;-lΔt)を求める。結合には例えば信頼度の高いものを選択するなどの方法が使える。 In the coupling step in the coupling unit 25, the reliability p (x (m) | g 1 (m) (; t; lΔt), g 1 (m) (; t + lΔt; -lΔt)) and p (x ( m) | g 2 (m) (; t; lΔt), g 2 (m) (; t + lΔt; -lΔt))), the forward joint map g j (m) (; t; lΔt). The reliability p (x (m) | g 1 (m) (; t + lΔt; -lΔt), g 1 (m) (; t; lΔt)) and p (x (m) | g 2 (m) (; t + lΔt; −Δt), g 2 (m) (; t; lΔt)) is used to determine the backward coupled map g j (m) (; t + lΔt; −lΔt) of layer m. For example, a method of selecting a reliable one can be used.

階層型の画像マッチングアルゴリズムは以下のようになる。

Figure 2006227827
The hierarchical image matching algorithm is as follows.
Figure 2006227827

なお、画像マッチング1ステップ、画像マッチング2ステップの順方向マッチングの場合には順方向結合写像gj (m)(;t;lΔt)を結合ステップより取得し、逆方向マッチングの場合には逆方向結合写像gj (m)(;t+lΔt;-lΔt)を結合ステップより取得する。 In the case of forward matching with one step of image matching and two steps of image matching, the forward joint map g j (m) (; t; lΔt) is obtained from the joint step, and in the case of backward matching, the backward direction is obtained. The combined map g j (m) (; t + lΔt; −lΔt) is obtained from the combining step.

以上のように本実施形態では輝度変化に対応でき大きな動きから小さな動きまでスケーラブルに対応可能となる。   As described above, in the present embodiment, it is possible to cope with a change in luminance, and it is possible to cope with a scalable movement from a large movement to a small movement.

本発明の第1の実施形態に従った画像マッチング方法を実行する画像マッチング装置のブロック図1 is a block diagram of an image matching apparatus that executes an image matching method according to a first embodiment of the present invention. 各空間の繋がりを示す図The figure which shows the connection of each space 画像マッチング問題に対するダイナミクスを示す図Diagram showing the dynamics for the image matching problem 画像相関ポテンシャルエネルギーによる力を示す想定図Assumption figure showing force by image correlation potential energy 対象画像上のオブジェクトと参照画像のオブジェクトの位相が保たれている状態を示す図The figure which shows the state with which the phase of the object on a target image and the object of a reference image is maintained 通常の並進運動を示す図Diagram showing normal translational motion 画像マッチング1ステップによる写像を示す図Diagram showing mapping in one step of image matching 輝度変化のある並進運動を示す図Diagram showing translational motion with brightness change 画像マッチング1ステップによる写像を示す図Diagram showing mapping in one step of image matching 画像マッチング2ステップによる写像を示す図Diagram showing mapping by two steps of image matching 双方向によるマッチングを説明する図Diagram explaining bidirectional matching 双方向写像関係を示す図Diagram showing bidirectional mapping relationship 第2の実施形態による画像マッチング方法を実行する画像マッチング装置のブロック図The block diagram of the image matching apparatus which performs the image matching method by 2nd Embodiment 画像のピラミッド階層構造を示す図Diagram showing the pyramid hierarchy of images

符号の説明Explanation of symbols

11、12…画像マッチングユニット、13…信頼度算出ユニット、14…結合ユニット、21…階層構造生成ユニット、22,23…画像マッチングユニット、24…信頼度算出ユニット、25…結合ユニット DESCRIPTION OF SYMBOLS 11, 12 ... Image matching unit, 13 ... Reliability calculation unit, 14 ... Combined unit, 21 ... Hierarchical structure generation unit, 22, 23 ... Image matching unit, 24 ... Reliability calculation unit, 25 ... Combined unit

Claims (9)

対象画像と参照画像の間の写像関係を求める画像マッチング方法において、
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第1の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第1の写像関係による第1の写像を求め、該参照画像から該対象画像への第2の写像関係による第2の写像を求める第1の画像マッチングステップと、
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第2の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第3の写像関係による第3の写像を求め、該参照画像から該対象画像への第4の写像関係による第4の写像を求める第2の画像マッチングステップと、
対象画像上の点を前記第1の写像関係により写像した点が前記第2の写像関係によって写像された点を求め、それらの点の位置関係によって第1の信頼確率を算出し、対象画像上の点を前記第3の写像関係により写像した点が前記第4の写像関係によって写像された点を求め、それらの点の位置関係によって第2の信頼確率を算出する信頼度算出ステップと、
前記第1,第2の信頼確率に従って、前記第1,第2,第3,第4の写像を合成するステップとを有することを特徴とする画像マッチング方法。
In an image matching method for obtaining a mapping relationship between a target image and a reference image,
The positional relationship between corresponding points of the target image and the reference image, the force due to the gradient of the first image correlation potential energy based on the image information, and between each point on the target image or the reference image and its adjacent points A first mapping based on a first mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference A first image matching step for obtaining a second mapping according to a second mapping relationship from an image to the target image;
The positional relationship between corresponding points of the target image and the reference image, the force due to the second image correlation potential energy gradient based on the image information, and between each point on the target image or the reference image and its adjacent points A third mapping based on a third mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference A second image matching step for obtaining a fourth mapping according to a fourth mapping relationship from the image to the target image;
A point obtained by mapping a point on the target image according to the first mapping relationship to a point mapped by the second mapping relationship is obtained, and a first reliability probability is calculated based on the positional relationship between these points. A reliability calculation step of obtaining a point where a point mapped by the third mapping relationship is mapped by the fourth mapping relationship and calculating a second confidence probability by the positional relationship of those points;
Synthesizing the first, second, third and fourth mappings according to the first and second confidence probabilities.
前記第2の画像相関ポテンシャルエネルギーが、対応点間の画像の輝度値の相互相関によって生じることを特徴とする請求項1に記載の画像マッチング方法。   The image matching method according to claim 1, wherein the second image correlation potential energy is generated by cross-correlation of luminance values of images between corresponding points. 前記第2の画像相関ポテンシャルエネルギーが、前記対象画像及び前記参照画像において隣接点間の輝度値の差を量子化した定性的表現を求め、対応点間の定性的表現の一致度合いによって生じることを特徴とする請求項1に記載の画像マッチング方法。   The second image correlation potential energy is determined by obtaining a qualitative expression obtained by quantizing a difference in luminance value between adjacent points in the target image and the reference image, and is generated depending on a degree of coincidence of the qualitative expressions between corresponding points. The image matching method according to claim 1, wherein: 前記第1の画像相関ポテンシャルエネルギーが、対応点間の画像の輝度値の差分によって生じることを特徴とする請求項1または2に記載の画像マッチング方法。   3. The image matching method according to claim 1, wherein the first image correlation potential energy is generated by a difference in image luminance value between corresponding points. 4. 前記第1の画像相関ポテンシャルエネルギーモデルが、対応点間の画像の色度空間距離によって生じることを特徴とする請求項1または2に記載の画像マッチング方法。   The image matching method according to claim 1, wherein the first image correlation potential energy model is generated by a chromaticity space distance of an image between corresponding points. 前記信頼度算出ステップは、対象画像上の点Aを前記第1の写像関係により写像した点Bが前記第2の写像関係によって写像された点Cを求めるステップと、前記点AとCの距離が近いほど信頼確率が高いとする信頼確率を算出するステップと、対象画像上の点Dを前記第3の写像関係により写像した点Eが第4の写像関係によって写像された点Fを求め、前記点EとFの距離が近いほど信頼確率が高いとする信頼確率を算出するステップを含むことを特徴とする請求項1乃至5のいずれか1に記載の画像マッチング方法。   The reliability calculation step includes a step of obtaining a point C in which a point B obtained by mapping the point A on the target image by the first mapping relationship is mapped by the second mapping relationship, and a distance between the points A and C. A step of calculating a reliability probability that the reliability probability is higher as the distance is closer, and obtaining a point F obtained by mapping a point E on the target image according to the third mapping relationship by the fourth mapping relationship; 6. The image matching method according to claim 1, further comprising a step of calculating a reliability probability that the higher the distance between the points E and F, the higher the reliability probability. 前記信頼度算出ステップは、対象画像上の点Aを前記第1の写像関係により写像した点Bが前記第2の写像関係によって写像された点Cを求めるステップと、前記点AとBとCの面積が小さいほど信頼確率が高いとする信頼確率を算出するステップと、対象画像上の点Dを前記第3の写像関係により写像した点Eが前記第4の写像関係によって写像された点Fを求めるステップと、前記点DとEとFの面積が小さいほど信頼確率が高いとする信頼確率を算出するステップを含むことを特徴とする請求項1乃至5のいずれか1に記載の画像マッチング方法。   The reliability calculation step includes a step of obtaining a point C in which a point B obtained by mapping the point A on the target image by the first mapping relationship is mapped by the second mapping relationship, and the points A, B, and C A step of calculating a reliability probability that the smaller the area is, the higher the reliability probability is; and a point F obtained by mapping a point E on the target image according to the third mapping relationship according to the fourth mapping relationship. 6. The image matching according to claim 1, further comprising: calculating a reliability probability that a reliability probability is higher as an area of the points D, E, and F is smaller. Method. 前記対象画像と前記参照画像は、それぞれピラミッド階層構造であることを特徴とする請求項1乃至7のいずれか1に記載の画像マッチング方法。   The image matching method according to claim 1, wherein each of the target image and the reference image has a pyramid hierarchical structure. 対象画像と参照画像の間の写像関係を求める画像マッチング装置において、
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第1の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第1の写像関係による第1の写像を求め、該参照画像から該対象画像への第2の写像関係による第2の写像を求める第1の画像マッチング手段と、
前記対象画像と前記参照画像との対応点間の位置関係および画像情報に基づく第2の画像相関ポテンシャルエネルギーの勾配による力と、前記対象画像上もしくは前記参照画像上の各点とその隣接点間の弾性力と、前記対象画像上もしくは前記参照画像上の各点に働く摩擦力とを用いて、該対象画像から該参照画像への第3の写像関係による第3の写像を求め、該参照画像から該対象画像への第4の写像関係による第4の写像を求める第2の画像マッチング手段と、
対象画像上の点を前記第1の写像関係により写像した点が前記第2の写像関係によって写像された点を求め、それらの点の位置関係によって第1の信頼確率を算出し、対象画像上の点を前記第3の写像関係により写像した点が前記第4の写像関係によって写像された点を求め、それらの点の位置関係によって第2の信頼確率を算出する信頼度算出手段と、
前記第1,第2の信頼確率に従って、前記第1,第2,第3,第4の写像を合成する合成手段と、
を具備することを特徴とする画像マッチング装置。
In an image matching device for obtaining a mapping relationship between a target image and a reference image,
The positional relationship between corresponding points of the target image and the reference image, the force due to the gradient of the first image correlation potential energy based on the image information, and between each point on the target image or the reference image and its adjacent points A first mapping based on a first mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference First image matching means for obtaining a second mapping according to a second mapping relationship from an image to the target image;
The positional relationship between corresponding points of the target image and the reference image, the force due to the second image correlation potential energy gradient based on the image information, and between each point on the target image or the reference image and its adjacent points A third mapping based on a third mapping relationship from the target image to the reference image is obtained using the elastic force of the target image and the frictional force acting on each point on the target image or the reference image, and the reference Second image matching means for obtaining a fourth mapping according to a fourth mapping relationship from the image to the target image;
A point obtained by mapping a point on the target image according to the first mapping relationship to a point mapped by the second mapping relationship is obtained, and a first reliability probability is calculated based on the positional relationship between these points. A reliability calculation means for obtaining a point obtained by mapping a point of the above-described point according to the third mapping relationship, and calculating a second reliability probability based on the positional relationship between the points;
Combining means for combining the first, second, third and fourth mappings according to the first and second confidence probabilities;
An image matching apparatus comprising:
JP2005039622A 2005-02-16 2005-02-16 Image matching method and apparatus Pending JP2006227827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005039622A JP2006227827A (en) 2005-02-16 2005-02-16 Image matching method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005039622A JP2006227827A (en) 2005-02-16 2005-02-16 Image matching method and apparatus

Publications (1)

Publication Number Publication Date
JP2006227827A true JP2006227827A (en) 2006-08-31

Family

ID=36989176

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005039622A Pending JP2006227827A (en) 2005-02-16 2005-02-16 Image matching method and apparatus

Country Status (1)

Country Link
JP (1) JP2006227827A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065530A (en) * 2006-09-06 2008-03-21 Casio Comput Co Ltd Image processor and program
JP2016070774A (en) * 2014-09-30 2016-05-09 株式会社リコー Parallax value derivation device, moving body, robot, parallax value production method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008065530A (en) * 2006-09-06 2008-03-21 Casio Comput Co Ltd Image processor and program
JP2016070774A (en) * 2014-09-30 2016-05-09 株式会社リコー Parallax value derivation device, moving body, robot, parallax value production method and program

Similar Documents

Publication Publication Date Title
US7440619B2 (en) Image matching method and image interpolation method using the same
Ke et al. Quasiconvex optimization for robust geometric reconstruction
CN109478330B (en) Tracking system based on RGB-D camera and method thereof
CN110866953A (en) Map construction method and device, and positioning method and device
CN113792730B (en) Method and device for correcting document image, electronic equipment and storage medium
WO2023165093A1 (en) Training method for visual inertial odometer model, posture estimation method and apparatuses, electronic device, computer-readable storage medium, and program product
KR100951309B1 (en) New Calibration Method of Multi-view Camera for a Optical Motion Capture System
US20210374439A1 (en) Obstacle detection method and device, apparatus, and storage medium
CN112907620A (en) Camera pose estimation method and device, readable storage medium and electronic equipment
WO2016103621A1 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
US20060078206A1 (en) Image matching apparatus, method of matching images, and computer program product
JP2020154479A (en) Object detection device, object detection method, program, and moving body
JPWO2013089261A1 (en) Image processing system and image processing method
JP4560023B2 (en) Image matching apparatus, image matching program, and image matching method
US20070041658A1 (en) Image matching apparatus, method of matching images, and computer program product
González-Fraga et al. Accurate generation of the 3d map of environment with a rgb-d camera
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
JP2006227827A (en) Image matching method and apparatus
JP6260533B2 (en) Position / orientation estimation apparatus, position / orientation estimation method, and position / orientation estimation program
TWI652447B (en) System and method of selecting a keyframe for iterative closest point
Chen et al. An end-to-end network for upright adjustment of panoramic images
JP4271117B2 (en) Interpolation frame creation device, interpolation frame creation method, and interpolation frame creation program
WO2022102236A1 (en) Information processing device, information processing method, and program
JP7076598B1 (en) 3D information generator from moving images or multiple images
WO2023042422A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A02 Decision of refusal

Effective date: 20090428

Free format text: JAPANESE INTERMEDIATE CODE: A02