JP2005063463A - Dynamic image processing device - Google Patents
Dynamic image processing device Download PDFInfo
- Publication number
- JP2005063463A JP2005063463A JP2004324364A JP2004324364A JP2005063463A JP 2005063463 A JP2005063463 A JP 2005063463A JP 2004324364 A JP2004324364 A JP 2004324364A JP 2004324364 A JP2004324364 A JP 2004324364A JP 2005063463 A JP2005063463 A JP 2005063463A
- Authority
- JP
- Japan
- Prior art keywords
- image
- motion
- information
- unit
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Abandoned
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
この発明は、複数の画像情報を入力し、特徴点の位置の変化から対象物体の動きおよび構造を検出する動画像処理装置に関する。 The present invention relates to a moving image processing apparatus that inputs a plurality of pieces of image information and detects the movement and structure of a target object from a change in the position of a feature point.
複数の画像に撮影された物体の構造を検出する方式としては、既に幾つかの方式が提案されている。 Several methods have already been proposed for detecting the structure of an object photographed in a plurality of images.
例えば、S.Ullmanは、The interpretaion of visual motion.MIT Press Cambridge,USA,1919には、3枚以上の平行投影した画像であり、剛体である物体の同一平面上にない4点の対応が決まっている場合に、4点の構造および動きを完全に求める方法が紹介されている。 For example, S. Ullman is the interpretaion of visual motion. MIT Press Cambridge, USA, 1919 is an image of three or more parallel projections, and the correspondence of four points that are not on the same plane of a rigid object is determined. In this case, a method for completely determining the structure and movement of the four points is introduced.
また、H.C.Longuest-HigginsはA computer algorithm for reconstructing a scene from two projections Nature,293:133-135,1981には、透視変換した2枚の画像上で8つの対応点がある場合に、構造および動きを検出する線形計算方式が開示されている。 In addition, HCLonguest-Higgins is a computer algorithm for reconstructing a scene from two projections Nature, 293: 133-135, 1981, where there are eight corresponding points on two perspective transformed images. A linear calculation method for detecting is disclosed.
他に、O.D.FaugerasとS.J.MaybankはMotion from point matches:multiplicity of solutions,IEEE Workshop on Motion 248-255 1989には、中心投影した2画像に5つの対応点があれば、それらの対応を満たす構造および動きは有限になることが記載されている。 In addition, ODFaugeras and SJMaybank have proposed that Motion from point matches: multiplicity of solutions, IEEE Workshop on Motion 248-255 1989, if there are five corresponding points in two centrally projected images, It is described that the motion becomes finite.
また、特開平3−6780号には、2枚の画像上の対応点から、まず3次元の回転運動を求め、次に、その回転運動情報から対応点の一つを基準とする3次元の位置関係を求める方式が開示されている。 In Japanese Patent Laid-Open No. 3-6780, first, a three-dimensional rotational motion is obtained from corresponding points on two images, and then, the three-dimensional rotational motion information based on one of the corresponding points is obtained from the rotational motion information. A method for obtaining a positional relationship is disclosed.
これらの方式は、すべて、物体の3次元座標とこの物体が中心投影で投影された画像上の座標との間に方程式を立て、その方程式を解いて答を求める方式である。 In all of these methods, an equation is established between the three-dimensional coordinates of the object and the coordinates on the image on which the object is projected by central projection, and the answer is obtained by solving the equation.
また、Jan J KoenderinkとAndrea J.van DoolrnのAffine structure from motion, Journal of Optiical Society of America pp. 377-385 vol.8, No.2 1991に開示されているように、物体の運動をアフィン(affine)変換(1次変換)で表わし、そこから物体の構造を検出する方式も計算されている。この方式では、動画像の2枚のフレームから物体のおよその構造を計算することができる。この方式により計算した物体の構造は、奥行き方向の情報がカメラから物体までの距離に比例する未知の係数を掛け合わせることによって得られる構造となる。 Also, as disclosed in Jan J Koenderink and Andrea J. van Doolrn's Affine structure from motion, Journal of Optiical Society of America pp. 377-385 vol.8, No.2 1991, the motion of an object is affine ( (affine) transformation (primary transformation), and a method for detecting the structure of an object from there is also calculated. In this method, an approximate structure of an object can be calculated from two frames of a moving image. The structure of the object calculated by this method is a structure obtained by multiplying information in the depth direction by an unknown coefficient proportional to the distance from the camera to the object.
上述した中心投影の方程式を解く方法は、撮影対象となる物体が撮影装置に非常に近く、大きく写っている場合には、効率良く物体の運動および構造を計算することができるが、実際の処理画像で起きるように、画像中で撮影対象となる物体が写っている面積が小さい場合や、撮影装置から対象物体までの距離が遠い場合には、中心投影による画像の変形が小さくなり、その変形をもとに物体の運動を計算するため、計算結果が不安定になってしまうという欠点があった。例えば、視線方向に垂直な向きへの平行移動と、その移動方向に垂直な軸の周りの回転とを区別することが難しくなったり、それ以外にも、中心投影による効果が小さいと、深さ方向の曖昧性が発生し、近くにある彫りの浅い物体か、遠くにある彫りの深い物体かの判別が難しくなったり、観察者の近くで小さな物体が運動しているのか、遠くで大きな物体が運動しているのか判別が難しくなるようなことが起きた。 The above-described method for solving the central projection equation can efficiently calculate the motion and structure of an object when the object to be imaged is very close to the image capturing apparatus and is reflected in a large image. As occurs in the image, when the area of the object to be photographed is small in the image or when the distance from the photographing device to the target object is long, the deformation of the image by the center projection is small, and the deformation Since the motion of the object is calculated based on the above, the calculation result becomes unstable. For example, it becomes difficult to distinguish parallel translation in the direction perpendicular to the line-of-sight direction and rotation around an axis perpendicular to the movement direction. Directional ambiguity occurs, making it difficult to distinguish between a nearby carved shallow object or a distantly carved object, whether a small object is moving near the observer, or a large object far away It happened that it was difficult to determine whether the person was exercising.
また、Koendoerinkの方法は、検出した物体の構造に未知の係数を含んでいるので、ここから物体の運動を計算することは難しかった。 Also, Koendoerink's method includes an unknown coefficient in the structure of the detected object, so it was difficult to calculate the motion of the object from here.
本発明は、このような問題点を解決するためになされたものであり、観察者の動きによる画像の変形をアフィン変換(1次変換)で近似して表現し、かつ、ある特徴点の実際の運動によって移動した位置と周囲の特徴の運動によるアフィン変形によって移動した位置との差である仮想視差を計算し、仮想視差情報から物体の運動を直接計算することにより、中心投影の曖昧性に影響されることなく、精度良く物体の運動パラメータを算出する動画像処理装置を提供することを目的とする。 The present invention has been made to solve such a problem, and represents the deformation of an image due to the movement of the observer by approximating it with an affine transformation (primary transformation), and the actual feature point. By calculating the virtual parallax that is the difference between the position moved by the movement of the object and the position moved by the affine deformation due to the movement of the surrounding features, and calculating the motion of the object directly from the virtual parallax information, the ambiguity of the central projection It is an object of the present invention to provide a moving image processing apparatus that accurately calculates a motion parameter of an object without being affected.
本発明は、複数の画像に対応する画像情報を入力する画像入力手段と、複数の画像の各々から特徴点を抽出するため前記画像情報に特徴点抽出処理を行う特徴点抽出手段と、近傍の特徴点の運動から並進運動方向を計算する並進フロー計算部と、上記並進フロー計算部で計算した並進運動方向を用いて異なる運動をしている領域を分割する独立運動分割部とを具備する動画像処理装置を提供する。 The present invention provides image input means for inputting image information corresponding to a plurality of images, feature point extraction means for performing feature point extraction processing on the image information to extract feature points from each of the plurality of images, A moving image comprising a translational flow calculation unit for calculating a translational motion direction from the motion of a feature point, and an independent motion splitting unit for dividing a region performing different motions using the translational motion direction calculated by the translational flow calculation unit. An image processing apparatus is provided.
また本発明は、複数の画像に対応する画像情報を入力する画像入力手段と、前記複数の画像間での画像を撮像した観察側の運動情報を推定する運動情報推定手段と推定した運動情報によってポインティングイベントを発生するポインティング情報生成部と、予め記憶した物体の3Dモデルをポインティング情報にしたがって並進回転運動させて表示するポインタ表示手段とを具備する動画像処理装置を提供する。 The present invention also includes an image input unit that inputs image information corresponding to a plurality of images, a motion information estimation unit that estimates motion information on the observation side that captures images between the plurality of images, and an estimated motion information. There is provided a moving image processing apparatus including a pointing information generation unit that generates a pointing event, and pointer display means that displays a 3D model of a previously stored object by translation and rotation according to the pointing information.
更に本発明は、複数の画像に対応する画像情報を入力する画像入力手段と、形状が不明の物体を撮影して得られる複数の画像情報から、物体の3次元形状と物体表面のテクスチャパタンを抽出する構造抽出部と、入力画像を変形して新たな視点から物体を見た時の画像を合成する画像合成部とを具備する画像処理装置を提供する。 Furthermore, the present invention provides an image input means for inputting image information corresponding to a plurality of images, and a plurality of pieces of image information obtained by photographing an object whose shape is unknown. There is provided an image processing apparatus including a structure extracting unit for extracting and an image synthesizing unit for synthesizing an image when an object is viewed from a new viewpoint by deforming an input image.
本発明によれば、動いている背景画像の中から、異なる動きをしている物体を示す領域を取り出すことができ、異なる動きをしている領域を取り除き、背景画像を示す残りの領域から並進運動の画像平面への投影θA以外の運動パラメータも計算しカメラの運動を求めることができる。 According to the present invention, it is possible to extract a region indicating an object that is moving differently from a moving background image, remove the region that is moving differently, and translate from the remaining region indicating the background image. Motion parameters other than projection θA of motion onto the image plane can also be calculated to determine camera motion.
以下、本発明による実施例を図に基づいて説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図1に示される数値表現された物体モデルの運動姿勢の指示に用いた簡単な一実施例によると、画像入力部1は特徴点抽出部2を介してポイティング情報生成部4に接続される。このポイティング情報生成部4には、アフィンフロー解析部3およびジェスチャパタンマッチング部6が接続される。ジェスチャパタンマッチング部6はジェスチャパタン記憶部7に接続され、更にポインタ表示部8とともにステータス切換部5に接続される。ポインタ表示部8は3D(3次元)モデル記憶部9、画像合成部10およびポインタモデル記憶部12に接続される。画像合成部10は画像入力部1に接続されるとともに画像表示部11に接続される。
According to a simple embodiment used to indicate the motion posture of a numerically represented object model shown in FIG. 1, the
画像入力部1は、運動している物体をテレビカメラなどで撮影することによって得られる時系列画像情報を入力し、これを特徴点抽出部2に転送する。この画像は運動している物体を撮影しやすいように画像表示部11の前に座った人間を天井から撮影した画像、画像表示部11のディスプレイの枠状のカメラで撮影した画像および中心投影の効果が大きく出ないように長い焦点距離で撮像範囲を狭くした複数のカメラを並べ、それらのカメラから入力した画像を繋ぎ合わせた画像などである。また、ここで、画像として入力する物体は、人間の手等の体の一部、もしくは、図2のように後の特徴点抽出部2にて処理しやすいように他の部分と容易に区別できるように、例えば一部に色を塗ったり、色のついた物をつけたりして特徴をつけた手袋などをした手などの体の一部、あるいは、人間が手に持って動かすことができ、画像処理で他の部分と区別できる特徴を持った器具などである。図3はそのような器具の一例で、同じ大きさの球を4つ、他の球と区別できるようにそれぞれ異なる色に塗り、3次元空間内で同一平面上にない位置関係で接続したものである。図4は別の器具の一例であり、箱の表面にLED等の発光素子を埋め込んだ器具であり、内蔵する電池による電力で発光する。この器具を掴んだときに指で押させる位置にスイッチがあり、スイッチを押している間は発光を止めてその間には運動を指示することなく器具を動かすことができる。図2の手袋上の特徴、図4の発光素子などは、3次元的なあらゆる視線方向から見て、近傍にない特徴が4点以上見えるように、配置されている。
The
特徴点抽出部2は、画像入力部1から時系列画像情報を入力し、画像処理によって、他の領域と容易に弁別できて物体上の同一の点が投影されたと特定できる、複数の特徴点を抽出し、追跡し、その座標値をポインティング情報生成部4に出力する。撮影した物体が手などであれば、画像中の近傍の画素との明度差が大きいような点を特徴点として抽出する。図2や図3のように色を塗った部分を特徴とする場合は、どのような色を特徴とするか、色情報を記憶するためのメモリを用意しておき、そこに記憶された色情報と同じ色を持った領域を画像情報から抽出し、その重心座標をポインティング情報生成部4に出力する。また、この場合のように、色を持った領域の大きさが判る場合には、領域の大きさも補助情報として、ポインティング情報生成部4に出力する。このメモリに記憶させる色情報はあらかじめメモリに書き込んでおくか、この実施例による装置を起動した後、色情報を学習するための学習手段を起動し、入力した画像情報を画像表示部に表示し、ユーザに画像中のどの部分の色を特徴とするかをカーソルによって領域を選択させるか、あるいは入力した動画像情報とウインドウを重ねて画像表示部11に表示し、ユーザに特徴となる色がウインドウ内に入るように手や器具を操作させ、キー入力などのタイミングでウインドウによって指定した領域の画像を取り込むなどして、特徴となる色を含んだ部分画像を得てそこから色を学習し、メモリに記憶する。色の学習は、例えば、I(明度)H(色相)S(彩度)の3成分で表現された画像であれば、次のような2次方程式による表現を用意し、指定した部分画像の画素値に最小2乗推定を行なってパラメータを推定するなどすれば、色の学習を行なうことができる。
The feature
H=h0+h1I+h2I2
S=s0+s1I+s2I2
図4の器具のように発光素子を使う場合は、適当な閾値を設けて画像を2値化し、閾値より明るい領域のそれぞれの重心を取って特徴の座標値を計算し、ポインティング情報生成部4に出力する。
H = h0 + h1I + h2I2
S = s0 + s1I + s2I2
When a light emitting element is used as in the instrument of FIG. 4, an appropriate threshold value is provided, the image is binarized, the center of gravity of each area brighter than the threshold value is calculated, the feature coordinate value is calculated, and the pointing information generation unit 4 Output to.
ポインティング情報生成部4は特徴点抽出部2から特徴点座標の時系列データを入力し、そこからある2つの時点での複数の特徴点の座標を選んで、アフィンフロー解析部3で運動パラメータを解析し、その結果を用いてポインタを動かすために必要な情報を生成する。
The pointing information generation unit 4 inputs time-series data of feature point coordinates from the feature
このアフィンフロー解析部3で行なっている処理について以下に詳しく説明する。 Processing performed by the affine flow analysis unit 3 will be described in detail below.
アフィンフロー解析部3では、2枚の画像中での4つの特徴点の座標を入力し、4つの特徴点により構成される物体の画像を撮影したカメラ(観察者)の2枚の画像間での運動を計算する。この場合、図5のような中心投影で撮影している撮影系のモデルを考える。ここで、3次元空間上の座標(X,Y,Z)にある点が焦点距離fにある画像平面上の点(x,y)に投影されている。この状態で、観察者側が速度{U1,U2,U3}で並進運動し、{Ω1,Ω2,Ω3}で回転運動をしているとする。特徴点抽出部2から入力した特徴点(x,y)が視線方向に十分近いものとして、特徴点(x,y)の画像平面上での移動速度V(x,y)の成分を(u,v)で表す。
The affine flow analysis unit 3 inputs the coordinates of the four feature points in the two images, and between the two images of the camera (observer) that captured the image of the object composed of the four feature points. Calculate the motion. In this case, an imaging system model in which the center projection as shown in FIG. 5 is used is considered. Here, a point at coordinates (X, Y, Z) in the three-dimensional space is projected onto a point (x, y) on the image plane at the focal length f. In this state, the observer side is translation at a rate {U 1, U 2, U 3}, and has a rotational movement {Ω 1, Ω 2, Ω 3}. Assuming that the feature point (x, y) input from the feature
この速度成分を観察者側の運動パラメータで表現してみる。3次元座標(X,Y,Z)と速度パラメータとの関係は、
であるので、移動後の座標X1、Y1、Z1として
が得られる。これを、3次元座標と画像平面上の点の投影関係、
の微分、
に代入すれば、
を得る。 Get.
vについても同様に計算を行なって、
と、表すことができる。この画像の移動速度は、並進運動に依存するシーンの情報(Z)を含んだ成分と回転運動に依存する成分とに分けることができる。回転運動に依存する成分は、画素の位置によって変化するだけで対象物の場所や形には依存しないので、従来例でも述べたように、数式的に解く方法はあっても、中心投影による効果が出ないと、画像の上に現れる変化が小さくなるので、実際に回転運動のパラメータを求めることは難しい。そのため、回転運動による変化が並進運動に誤差となって加わり、並進運動の計算精度も悪くなる。その結果として、物体の形や運動を精度良く計算することは難しかった。 It can be expressed as. The moving speed of the image can be divided into a component including scene information (Z) that depends on translational motion and a component that depends on rotational motion. Since the component that depends on the rotational motion only changes depending on the pixel position, it does not depend on the location or shape of the object. If the value does not appear, the change appearing on the image becomes small, so it is difficult to actually determine the parameters of the rotational motion. Therefore, a change due to the rotational motion is added to the translational motion as an error, and the calculation accuracy of the translational motion is also deteriorated. As a result, it has been difficult to accurately calculate the shape and motion of an object.
しかし、2つの特徴点が画像上の同じ場所に投影されていたと仮定し、その2つの特徴点の移動速度の差(Δu,Δv)、(以後、これを運動視差と呼ぶ)を考えると、運動視差の大きさは、
である。但し、Z1,Z2は運動視差の計算に用いる2つの特徴点のZ座標である。この運動視差は、物体までの距離と観察者の並進運動だけに依存し、観察者の回転運動には、依存しない。また、この式12から、
のように、x,y,U3が十分に小さければ、運動視差から並進運動の方向が求められることが判る。U3が小さくない場合は、座標値(x,y)の異なる複数の点の運動視差をこの式に代入して解けば,U1とU2の比から並進運動の方向を求めることができる。 Thus, it can be seen that if x, y and U3 are sufficiently small, the direction of translational motion can be obtained from motion parallax. When U 3 is not small, the direction of translational motion can be obtained from the ratio of U 1 and U 2 by substituting the motion parallax of a plurality of points with different coordinate values (x, y) into this equation. .
一方、観察者の運動が十分滑らかで、また、撮影している物体の表面も十分滑らかであれば、式(11)の画像の速度場は、ある小さな領域の中で、線形方程式で近似することができる。つまり、画像上のある座標(x,y)の近傍での画像速度場は、アフィン変換(一次変換)を使って、
で表すことができる。このうち、0(x2,xy,y2)は2次の非線形成分を表すが、この部分は十分小さいものと考えて以後の計算では無視する。 It can be expressed as Of these, 0 (x 2 , xy, y 2 ) represents a second-order nonlinear component, but this portion is considered to be sufficiently small and is ignored in subsequent calculations.
最初の項の[u0,y0]は、画像の平行移動を表し、2番目の項の2×2テンソルは、画像の形の変形を表す。第2項の添字は、添字で示したパラメータで偏微分したことを示す。この第2項の2×2テンソルは、図6にあるような、いくつかの幾何学的に意味のある成分に分割される。向きの変化を示す画像平面上での回転(Curl)curlV、スケールの変化(Divergence)を示す等方的変化divV、画像の変形(Deformation)(面積を一定に保ったまま、ある軸の方向に引き延ばし、それと垂直な軸の方向に縮める変化)の大きさを示すdefV、および画像変形の拡張する方向を示す変形の主軸μなどである。これらの特徴量は、ある座標(x,y)での画像の速度をV(x,y)としたときに、
で表される。これらの特徴量のうち、divV,curlV,defVの値は、画像中で座標系をどのように取っても、取り方による変化のない不変特徴量である。変形の主軸μは、座標系の軸の向きだけに依存する特徴量である。 It is represented by Among these feature amounts, the values of divV, curlV, and defV are invariant feature amounts that do not change depending on how the coordinate system is taken in the image. The principal axis μ of deformation is a feature quantity that depends only on the direction of the axis of the coordinate system.
図7のように、ある画像平面上にある特徴点Pと、その近傍にある3つの特徴点を考える。既に示したように、十分小さい領域の中では画像平面上の速度は、3つの特徴点から求められるアフィン変換(一次変換)で近似できる。点Pと同じ座標にあって、他の3点の移動速度のアフィン変換で決まる移動速度を持つ仮想的な点P′を考える。実際の点Pと仮想的な点P′の運動視差は、点Pと同じ座標に投影されるが、観察者までの距離の違う点との運動の違いである。この点PとP′との運動視差を以後、仮想視差と呼ぶことにする。運動視差は、式(12)に示したように、観察者の回転運動には影響されず、並進運動と距離だけに依存するので、ここから、安定した運動パラメータと、3次元構造情報を計算することができる。 As shown in FIG. 7, a feature point P on a certain image plane and three feature points in the vicinity thereof are considered. As already indicated, in a sufficiently small region, the speed on the image plane can be approximated by affine transformation (primary transformation) obtained from three feature points. Consider a virtual point P ′ that has the same coordinates as the point P and has a moving speed determined by affine transformation of the moving speeds of the other three points. The motion parallax between the actual point P and the virtual point P ′ is projected on the same coordinates as the point P, but is a difference in motion from a point having a different distance to the observer. Hereinafter, the motion parallax between the points P and P ′ will be referred to as virtual parallax. As shown in Equation (12), the motion parallax is not affected by the rotational motion of the observer, but depends only on the translational motion and the distance. From this, stable motion parameters and three-dimensional structure information are calculated. can do.
この仮想視差からどのような情報が得られるか、画像の移動速度(式11)を、アフイン変換式(14)にあてはめて求める。撮影している物体は観察者から十分遠いと仮定しているので、観察者から物体までの距離に比べて物体表面の3次元座標間の距離の変化は非常は小さい。そこで、fが1のときの画像中心から物体までの距離をλとし、物体表面までの距離の変化を
で表すことにより、Zを深さを表す変数λで正規化しておく。これによって、観察者の並進運動の成分と、アフイン変換の各パラメータは、
のように表される。 It is expressed as
この結果を式(15)から(18)までの不変特徴量を表す式に代入すれれば、
となる。式を見てわかるように、これらのパラメータは、観察者の動き、深さ、表面の向きに依存している。これを、2つのベクトルAとFを使って、座標系に依存しないように書き換えることができる。Aは、下の式のような、深さλで正規化された、画像平面に平行な並進速度ベクトルである。Uは並進運動ベクトル、Qは視線方向の単位ベクトルである。
Fは、やはり深さλで正規化した、物体表面の最大勾配の方向を示す2次元ベクトルである。
このFは、図8にあるように、大きさが、物体表面の傾斜σのtangent(視線方向と物体表面の法線のなす角のtangent)を表す。またFの方向は、tangent平面とx軸とのなす角τを表す。
以上のような性質を持つ、ベクトルAとFを使って、上記の不変特徴量の表現を書き換えると、
と表される。画像変形の主軸を示す角μは、AとFの中点を通る角度で表される。
この式(34)から式(37)を使って得られる情報は、中心投影をweak-perspective投影で近似したため、曖昧性を含んだものになっている。例えば、物体の運動速度は、近くを運動している小さな物体と遠くを運動している大きな物体との判別ができなく、大きさと速度の曖昧性があるので、速度の代わりに、現在の運動速度で運動した時に物体に衝突するまでの距離tc
で表すことになる。式(36)は近くにある彫りの浅い物体か、遠くにある彫りの深い物体かの判別ができなく、深さの曖昧性を含んでおり、この式の値からは、画像の変形が、大きく動いた(|A|が大きい)表面の傾きの小さい(|F|が小さい)物体か、小さく動いた表面の傾きの大きい物体かの区別はできなくなっている。このように曖昧性が存在する部分を明らかにしておくことにより、残りの必要な情報をノイズの影響を受けずに精度良く求めることができる。 It will be expressed as Equation (36) cannot determine whether a nearby carved shallow object or a distant carved object is deep and includes depth ambiguity. From the value of this equation, the deformation of the image is It is impossible to distinguish between an object that has moved a lot (with a large | A |) and a surface with a small inclination (small | F |) or an object that has moved a small surface with a large inclination. Thus, by clarifying the portion where ambiguity exists, the remaining necessary information can be accurately obtained without being affected by noise.
次に、アフィンフロー解析部3で行なっている処理を図9のフローチャートに従って説明する。 Next, processing performed by the affine flow analysis unit 3 will be described with reference to the flowchart of FIG.
まず、入力した4つの特徴点から3点を抽出して組み合わせたときに、3点を結んで構成される領域の面積が最大となる3つの特徴点を選び、選んだ3点を参照点、残りの1点を基準点とする(ステップST101)。 First, when three points are extracted and combined from the four input feature points, the three feature points that maximize the area of the region formed by connecting the three points are selected, and the selected three points are used as reference points. The remaining one point is set as a reference point (step ST101).
3つの参照点の運動速度を代入して式(14)を解き、一次近似したアフィン変換パラメータu0,v0,ux,uy,vx,vyを求める。物体の運動が小さくて滑らかな場合には、参照点の3フレーム以上の画像での位置情報を使って最小2乗法を使ってアフイン変換パラメータを求める(ステップST102)。 Equation (14) is solved by substituting the motion speeds of the three reference points, and first-order approximated affine transformation parameters u0, v0, ux, uy, vx, vy are obtained. When the motion of the object is small and smooth, the affine transformation parameter is obtained by using the least square method using the position information of the image of the reference point in three frames or more (step ST102).
次に、基準点とアフイン変換で補間した仮想点の運動速度の仮想視差を求める。物体がカメラから十分遠く、視線方向の並進運動U3が大きくないと仮定できるときには、この仮想視差の方向が、Aの方向θAを表わす。そうでないときには、複数の点の仮想視差を式(13)を代入してθA=Δu/Δvを求める(ステップST103)。 Next, the virtual parallax of the motion speed of the virtual point interpolated by the affine transformation with the reference point is obtained. When it can be assumed that the object is sufficiently far from the camera and the translational motion U3 in the viewing direction is not large, the direction of this virtual parallax represents the direction θA of A. If not, θA = Δu / Δv is obtained by substituting Equation (13) for the virtual parallax of a plurality of points (step ST103).
3つの参照点から式(15),(16),(17)および(18)を使って、curl,div,defの各不変特徴量を求める。これらの不変特徴量は、物体の並進運動や回転運動によって起きる変化に物体表面の向きと画像平面上での動きによって起きる変化が加わったものである(ステップST104)。 Using the equations (15), (16), (17), and (18) from the three reference points, the invariant feature amounts of curl, div, and def are obtained. These invariant feature amounts are obtained by adding the change caused by the object surface orientation and the movement on the image plane to the change caused by the translational or rotational movement of the object (step ST104).
変形の主軸μと並進運動の画像平面への投影θAから、式(37)を使って、参照点の3点で定められる平面の傾きτを求める(ステップST105)。 From the deformation main axis μ and the projection θA of the translational motion onto the image plane, the inclination τ of the plane determined by the three reference points is obtained using equation (37) (step ST105).
式(35)から、表面方向と画像平面上での動きの関係による形の伸縮を差し引く。 From the equation (35), the expansion and contraction of the shape due to the relationship between the surface direction and the movement on the image plane is subtracted.
これまでに判った値を用いて、式(35)からF・A=|defv|cos(τ−θA)を引く。残った成分は、視線方向に沿った物体の動きによる画像のスケールの変化を示し、ここから、衝突までの時間tc が求められる(ステップST106)。 Using the values obtained so far, F · A = | defv | cos (τ−θA) is subtracted from Equation (35). The remaining component indicates a change in the scale of the image due to the movement of the object along the line-of-sight direction. From this, the time tc until the collision is obtained (step ST106).
式(34)から表面の方向と画像平面上での動きの影響を差し引く。これまでに判った値を用いて、式(34)からF×A=|defv|sin(τ−θA)を引くと、残った成分は、物体と撮影者間の視線方向の周りの回転によるものだけになる(ステップST107)。 Subtract the influence of the direction of the surface and the movement on the image plane from Equation (34). When F × A = | defv | sin (τ−θA) is subtracted from Expression (34) using the values obtained so far, the remaining component is due to rotation around the line-of-sight direction between the object and the photographer. It becomes only a thing (step ST107).
アフィンフロー解析部3は、このようにして、並進運動方向θA、スケールの変化tc、視線方向の周りの回転Ω・U、など、画像情報から安定して計算することのできる観察者の運動パラメータを計算し、ポインティング情報生成部4に出力する(ステップST108)。 In this way, the affine flow analysis unit 3 can calculate the motion parameters of the observer that can be stably calculated from the image information, such as the translational motion direction θA, the scale change tc, and the rotation Ω · U around the line-of-sight direction. Is output to the pointing information generator 4 (step ST108).
先に述べたように、ポインティング情報生成部4は特徴点抽出部2から特徴点座標の時系列データを入力し、そこから適当な2つの時点の特徴点座標を選んでアフィンフロー解析部3で運動パラメータを計算し、3次元の空間を指示するために必要な情報を生成する。以下、フローチャート10に従って、この処理を説明する。
As described above, the pointing information generation unit 4 inputs time-series data of feature point coordinates from the feature
まず、特徴点抽出部2から特徴点座標(補助情報がある場合は、補助情報も)を入力する。入力した特徴点の数をnとし、座標を(xi,yi)とする(ステップST201)。
First, feature point coordinates (if there is auxiliary information, also auxiliary information) are input from the feature
撮影対象の物体は動いているので、特徴点が他の部分に隠されて見えなくなったり、隠されていた特徴点が出現したりする場合がある。特徴点が4点より少ない場合は何もせず、特徴点が4点以上になった場合は、前回ポインティング情報を生成した時に抽出した特徴点と今回抽出した特徴点の共通集合から、物体上に均等に位置されるような特徴点を4点選択する(ステップST202)。 Since the object to be imaged is moving, the feature points may be hidden by other portions and may not be visible, or the hidden feature points may appear. If the number of feature points is less than 4, nothing is done. If the number of feature points is 4 or more, the feature points extracted when the previous pointing information was generated and the feature points extracted this time Four feature points that are evenly positioned are selected (step ST202).
選択した特徴点について、前回ポインティングに使った時の座標値(lxi,lyi)からの移動距離((xi−lxi)2+(yi−lyi)2)を計算し、この距離を一定の閾値と比較する。特徴の大きさなど、補助情報がある場合には、その値を使って閾値を決める。選んだ特徴点を以前にポインティングに使ったことがなければ、lxi,lyiに、xi,yiを代入する。4点の移動距離で、閾値以上の距離を持つ点が1つでもあれば、以降の処理を行ない、全て閾値以下であれば、ステップST201に戻る(ステップST203)。 For the selected feature point, the movement distance ((xi−lxi) 2 + (yi−lyi) 2 ) from the coordinate value (lxi, lyi) when used for the previous pointing is calculated, and this distance is set as a certain threshold value. Compare. If there is auxiliary information such as the size of a feature, the threshold is determined using that value. If the selected feature point has not been used for pointing before, xi and yi are substituted into lxi and lyi. If there is at least one point having a distance equal to or greater than the threshold among the four moving distances, the subsequent processing is performed, and if all are equal to or less than the threshold, the process returns to step ST201 (step ST203).
このようにして求めた、4点の過去の座標値(lxi,lyi)と現在の座標値(xi,yi)をアフィンフロー解析部3に入力して運動パラメータを計算する(ステップST204)。 The four past coordinate values (lxi, lyi) and the current coordinate values (xi, yi) obtained in this way are input to the affine flow analysis unit 3 to calculate motion parameters (step ST204).
アフィンフロー解析部3で計算した運動パラメータは物体が静止し、観察者(カメラ)が運動していると仮定した時のパラメータである。これを、物体の運動を表す値に置き換えると、重心の動きは物体のX,Y方向への並進運動、スケールの変化を表すtcはZ方向への並進運動、Ω・Uは、Z軸周りの回転運動、Aは物体のX軸周りの回転運動とY軸周りの回転運動の比を表す。これらパラメータそれぞれについて、閾値と比較し、閾値より大きな動きがあれば、そのパラメータの示す物体の運動を一定の大きさだけ起こすようなポインティングイベントを発生する(ステップST205)。その際、画面上に見るポインタの動きと、人間が、自分の手や、ポインティングに利用する器具を見た時の運動の方向を一致させるようにポインティングイベントでの運動方向の符合を決める。 The motion parameters calculated by the affine flow analysis unit 3 are parameters when it is assumed that the object is stationary and the observer (camera) is moving. When this is replaced with a value representing the motion of the object, the motion of the center of gravity is the translational motion of the object in the X and Y directions, tc representing the change in scale is the translational motion in the Z direction, and Ω · U is around the Z axis. A represents the ratio of the rotational motion around the X axis to the rotational motion around the Y axis. Each of these parameters is compared with a threshold value, and if there is a movement larger than the threshold value, a pointing event that causes the movement of the object indicated by the parameter by a certain amount is generated (step ST205). At that time, the movement direction of the pointing event is determined so that the movement of the pointer seen on the screen matches the direction of movement when a human sees his / her hand or an instrument used for pointing.
ここで発生したポインティングイベントは、ポインタ表示部8およびジェスチャパタンマッチング部6に送られる。アフィンフロー解析部3で求めた運動パラメータは、中心投影を仮定しないと計算できないパラメータは深さλを使った相対的な表現をしているが、ポインティング情報生成部4では物体の絶対的な動きを必要とする時のために、中心投影の方程式(11)にλを使って相対値で表現したパラメータを代入して位置と姿勢を計算し、この情報もポインタ表示部6に出力する(ステップST206)。 The pointing event generated here is sent to the pointer display unit 8 and the gesture pattern matching unit 6. The motion parameters obtained by the affine flow analysis unit 3 are expressed by using the depth λ for the parameters that cannot be calculated unless the central projection is assumed, but the pointing information generation unit 4 uses the absolute motion of the object. To calculate the position and orientation by substituting the parameters expressed by relative values using λ into the central projection equation (11), and also outputs this information to the pointer display unit 6 (step ST206).
ポインタ表示部8は、後で述べるステータス切替部5からの指示によって、ポインタモデル記憶部12に記憶されている。例えば図11のように容易に3次元的に向きのわかるポインタの3Dモデルか、3Dモデル記憶部9に記憶されているモデルのうち、ステータス切替部5によって指定された3Dモデルかを選択し、選択した3Dモデルの現在の位置と姿勢から、入力したポインティングイベントに従って並進、回転運動させたグラフィクス画像情報を生成し、出力する。
The pointer display unit 8 is stored in the pointer
ポインタモデル記憶部12には、前述したようにポインタの3Dモデルと現在の位置と姿勢が記憶されており、3Dモデル記憶部9には、現在、画像に表示されている3Dモデルとモデルの位置と姿勢が記憶されている。
As described above, the pointer
ジェスチャパタンマッチング部6では、ポインティング情報生成部4から入力した最新のポインティングイベントの時系列のリストで、ユーザからのキーボード入力などで途切れていないパタンと、ジェスチャパタン記憶部7に記憶されたジェスチャパタンとを比較して、ユーザによるポインタの操作が、あらかじめ登録された何かの意味を持った動きかどうかを判定する。合致したジェスチャパタンがあれば、そのパタンと一緒に記憶されているオペレーションを実行する。 In the gesture pattern matching unit 6, a list of time series of the latest pointing events input from the pointing information generating unit 4, a pattern that is not interrupted by a keyboard input from the user, and a gesture pattern stored in the gesture pattern storage unit 7. Are compared with each other to determine whether or not the operation of the pointer by the user is a movement having some registered meaning. If there is a matching gesture pattern, the operation stored with the pattern is executed.
ジェスチャパタン記憶部7の中では、ジェスチャパタンは、図12に示すようなリスト構造の並んだ表で記憶されている。1つのジェスチャは、ジェスチャのパタンと、それが起きた時に呼び出されるオペレーションを示す文字列から構成されている。1つのジェスチャパタンは、ポインティングイベントのリストで表現されており、1つのポインティングイベントは並進運動{U1,U2,U3}と、回転運動{Ω1,Ω2,Ω3}の6つのパラメータについて、正負の方向への運動があることを示す+か−、あるいは運動がないことを示す0の3種類のシンボルで表されている。図12で、ジェスチャパタンのリストにリストの次の要素を示す2つのsucessorがあり、自分で閉ループを構成しているものがあるが、これは、この閉ループで同じポインティングイベントの繰り返しを許容する仕組みである。sucessorの横の変数nは4つの閉ループがみな同じ回数だけ繰り返すことを示す。図12の例では、ジェスチャパタンは、xy平面上での任意の大きさの正方形を示し、このジェスチャによって/usr/bin/X11/ktというオペレーションが起動されることを示している。 In the gesture pattern storage unit 7, the gesture patterns are stored in a table with a list structure as shown in FIG. One gesture is composed of a gesture pattern and a character string indicating an operation to be called when the gesture occurs. One gesture pattern is represented by a list of pointing events. One pointing event includes six translational motions {U 1 , U 2 , U 3 } and rotational motions {Ω 1 , Ω 2 , Ω 3 }. The parameters are represented by three types of symbols, + or − indicating that there is movement in the positive and negative directions, or 0 indicating that there is no movement. In FIG. 12, there are two successors indicating the next element of the list in the gesture pattern list, and there is one that constitutes a closed loop by itself. This is a mechanism that allows the same pointing event to be repeated in this closed loop. It is. The variable n next to the sucessor indicates that all four closed loops repeat the same number of times. In the example of FIG. 12, the gesture pattern indicates a square of an arbitrary size on the xy plane, and indicates that the operation / usr / bin / X11 / kt is activated by this gesture.
ステータス切替部5は、ディスプレイに表示された3次元空間内を自由にポインタを動かして操作する、ポインタ操作状態か、表示されたモデルのうちの一つをポインタによって指定した後、モデルの位置や姿勢を変更するモデル把握状態の、どちらかの現在のポインタの状態を記憶し、また、ユーザからの指示か、ポインタ表示部からの指示によって、ポインタの状態を切替え、それにともなって他の部分の設定変更を行なう。 The status switching unit 5 is operated by freely moving the pointer in the three-dimensional space displayed on the display. After the pointer operation state or one of the displayed models is designated by the pointer, the position of the model or Stores either the current pointer state of the model grasping state for which the posture is to be changed, and switches the pointer state according to an instruction from the user or an instruction from the pointer display unit. Change the settings.
ポインタ操作状態の時には、ポインタ表示部8に、ポインタモデル記憶部に記憶されたモデルを使うように指示し、発生したポインティングイベントに従ってポインタモデルの位置と姿勢を変更する。ポインティングイベントはジェスチャパタンマッチング部にも入力され、ジェスチャの認識が行なわれ、イベント列にジェスチャが含まれると認識されれば、そのジェスチャに対応したオペレーションが実行される。ユーザのキーボード入力やジェスチャなどによる指示か、ポインタの3次元位置が3Dモデル記憶部に記憶してある3Dモデルの1つの位置と一致した時に、ポインタの状態はモデル把握状態に切り替わる。 In the pointer operation state, the pointer display unit 8 is instructed to use the model stored in the pointer model storage unit, and the position and orientation of the pointer model are changed according to the generated pointing event. The pointing event is also input to the gesture pattern matching unit, the gesture is recognized, and if the gesture is included in the event sequence, the operation corresponding to the gesture is executed. The pointer state is switched to the model grasping state when an instruction by a user's keyboard input or gesture or the three-dimensional position of the pointer matches one position of the 3D model stored in the 3D model storage unit.
モデル把握状態では、3Dモデル記憶部9に記憶されたモデルを位置姿勢を変更させて表示する。まず、モデル把握状態に入ると、指示された3Dモデルを3Dモデル記憶部9から取り出して、ポインタ表示部8に送り、これを他のモデルと区別できるよう色などを変えて表示するように指示する。次に、画像合成部10に、モデルの位置や形などを入力して、3Dモデルの画像情報と入力した画像情報から、手でモデルを掴んでいたり、ポインティング用の器具に3Dモデルがはめ込まれていたりするように見える画像を合成し、画像表示部11で表示する。モデルの移動や回転には、ポインタ操作状態とは異なり、ポインティングイベントではなく、中心投影に当てはめて計算した位置や姿勢の情報を用いる。 In the model grasping state, the model stored in the 3D model storage unit 9 is displayed with the position and orientation changed. First, when entering the model grasping state, the instructed 3D model is taken out from the 3D model storage unit 9 and sent to the pointer display unit 8 to instruct it to be displayed in a different color so that it can be distinguished from other models. To do. Next, the model position and shape are input to the image composition unit 10, and the model is grasped by hand from the image information of the 3D model and the input image information, or the 3D model is inserted into a pointing device. The images that appear to flutter are combined and displayed on the image display unit 11. For the movement and rotation of the model, unlike the pointer operation state, information on the position and orientation calculated by applying to the central projection is used instead of the pointing event.
画像合成部10では、まず、画像入力部1から入力した画像情報から特徴点を囲む閉領域を切り出すことによって、手や器具の写っている部分を取り出す。次に、手や器具の運動が、実際の運動と画像上での運動の方向がユーザから見て一致するように、取り出した画像の左右を反転する。入力した3Dモデルの位置や形などの情報と特徴点の座標を元に、手や器具の画像に平行移動、スケールの変更などの処理を行なって、特徴点の位置を3Dモデルのグラフィクス画像の頂点などに合わせる。その後、モデルのグラフィクス画像と手や器具の画像を半透明で重ね表示を行なって、図13のように、モデルを掴んでいるように見える画像を合成し、画像表示部11に出力する。
In the image composition unit 10, first, a closed region surrounding a feature point is cut out from the image information input from the
図14を参照して本発明の他の実施例を説明する。 Another embodiment of the present invention will be described with reference to FIG.
動画像入力部21は、カメラ(観察者)が3次元空間内を未知の運動をしながら画像を撮影し、撮影した動画像に対応する画像情報を特徴点抽出部22に転送する。この動画像入力部21が撮影している撮影環境は、基本的に静止環境であるが、運動物体が含まれていても構わない。
The moving
特徴点抽出部22は、動画像入力部21からの時系列画像情報を受け、画像処理によって、明度や色が近傍の領域と急激に変化し、2枚の画像で物体の同一の点が投影されたと特定できる多数の特徴点を抽出し、抽出した特徴点を並進フロー計算部23に入力する。
The feature
並進フロー計算部23は、入力された特徴点のそれぞれの座標を比較し、最近傍の4点を結んだネットワークを構成し、最近傍の4点の組合わせの全てに対してアフィンフロー解析部3が行う処理と同様な処理を行なって、仮想視差を求め、観察者の運動パラメータを計算する。計算した運動パラメータのうち、並進運動方向θAを見ると、この値は、カメラが撮影環境に対して並進運動し得ている方向を示すものであるから、動画像入力部21が撮影した画像が静止環境であれば、どの4点の特徴点の組合わせを取っても同じ値を示している。実際には、中心投影を狭い視野範囲に限定してアフィン変換で近似しているので、互いに近傍にある特徴点の組合わせで同じ値を示す。従って、画像全体に分布する特徴点の組合わせから並進運動方向θAだけを抜き出して、図15のような分布図を作成し、出力する。尚、図15の矢印は、2つの物体の各々の複数の点の動きを示している。
The translation
独立運動分割部24は、並進フロー計算部23で計算した並進運動方向のフロー図において、近傍にある特徴点の組合わせの並進運動方向θAを比較し、その差が一定閾値より大きいところで領域分割を行なう。これによって、図15の実線で囲まれた領域のように、動いている背景画像の中から、異なる動きをしている物体を示す領域を取り出すことができる。この後、異なる動きをしている領域を取り除き、残った、背景画像を示す領域からθA以外の運動パラメータも計算し、カメラの運動を求めて出力する。
The independent
図16を参照して本発明に係る他の実施例を説明する。 Another embodiment of the present invention will be described with reference to FIG.
画像入力部31は、1つの物体を複数の方向から撮影した画像に対応する画像情報を入力する。ここで入力する画像情報の画像は、時間的に連続していなくても構わない。また、物体を撮影した時の観察者の位置関係も不明である。 The image input unit 31 inputs image information corresponding to an image obtained by photographing one object from a plurality of directions. The image information image input here may not be temporally continuous. In addition, the positional relationship of the observer when the object is photographed is unknown.
特徴点抽出部32は、画像入力部31より入力した画像情報に、各点抽出処理などの画像処理を行ない、明度や色が近傍の領域と急激に変化している多数の特徴点に対応する特徴点情報を抽出し、対応特徴探索部33に出力する。抽出した特徴点情報は、入力した画像情報に重ね合わせて画像表示部36に表示される。
The feature point extraction unit 32 performs image processing such as point extraction processing on the image information input from the image input unit 31, and corresponds to a large number of feature points whose brightness and color are rapidly changing from neighboring regions. Feature point information is extracted and output to the corresponding
初期対応探索部33は複数の画像間において特徴点情報を比較し、撮影対象となった物体上の同一の点が投影されたものかどうか調べる。まず、特徴点抽出部32から入力した全ての特徴点情報に未対応を示すフラグをつける。次に、画像間において、特徴点を中心とする小領域の相関マッチングを行ない、相関係数が一定閾値より高い特徴点情報同士を対応させ、対応した特徴点情報には、対応したことを示すフラグをつけ、特徴点の集合情報を対応修正部、即ち対応特徴更新部37に出力する。画像表示部36に、対応した特徴点情報を、色を変えるなどして未対応の特徴点情報と区別できるように入力画像情報と重ね合わせて表示し、また、複数の画像情報間においてどの特徴点情報とどの特徴点情報が対応しているかが分かるように表示する。
The initial
インタフェイス部34は、初期対応探索部33から対応のついた特徴点を含む特徴点集合情報を入力し、特徴点の対応関係の修正作業を行なう。初期対応探索部32によって作成した対応関係が、十分正確で誤りが少なければ、対応点の修正は行なわずに後で処理を行なうことも可能である。
The
初期対応探索の結果、画像表示部36に表示している特徴点を重ね表示した入力画像に、マウスなどのポインティングデバイスで制御されたカーソルを表示し、ユーザが特徴点を選択できるようにする。既に対応フラグのついた特徴点を選んだ場合には、その特徴点とそれに対応する特徴点のフラグを未対応につけかえ、対応関係を取り消す。入力した複数の画像情報において未対応フラグのついた特徴点情報を1つづつ連続して選んだ場合には、それらの特徴点情報に対応が確定したことを示すフラグをつけ、それらの特徴点情報間に対応関係を設定する。また、特徴点のない領域でも、複数の画像において、1つづつ連続して選んだ画素があれば、その画素の座標に対応が確定した特徴点を生成して対応関係を設定する。また、画像と特徴点以外に、対応点の更新および物体の構造抽出並びに画像の合成を呼び出すボタンを表示し、ポインティングデバイスによってこれらを選択できるようにしておく。ユーザが対応点の更新ボタンを選んだ場合には、対応特徴更新部37に特徴点の集合情報を渡して、特徴点の対応関係を更新する。物体の構造抽出のボタンを選んだ場合には、構造抽出部に特徴点の集合を渡して、撮影した物体の3次元構造を抽出する。画像の合成のボタンを選んだ場合には、さらに、どこから見た画像を合成するかを質問して、画像を合成する視点までの並進、回転の運動ベクトルを入力し、画像合成部35に入力した画像、特徴点の集合、構造抽出部で抽出した物体の3次元構造、運動ベクトルを渡して、画像を合成し、画像表示部に表示する。
As a result of the initial correspondence search, a cursor controlled by a pointing device such as a mouse is displayed on the input image in which the feature points displayed on the
画像表示部36は、複数の入力画像、特徴点、画像から抽出した物体構造の3Dモデル、視線方向を変えて合成した画像などを表示し、そこにカーソルを重ね表示して、画像上の座標や特徴点を指示できるようにする。
The
対応特徴更新部37は、インタフェイス部34から特徴点の集合情報を受け、新たな基準に従って、未対応の特徴点の対応づけを行なう。まず、入力した特徴点集合情報の中から、対応が確定し、対応フラグのついた特徴点(これを点A0とする)を選択し、特徴点A0の近傍にある未対応フラグのついた特徴点Bを選択する。特徴点A0と対応する、他の画像中の特徴点A0′の近傍にある特徴点B′と特徴点Bを比較し、対応するかどうかを判定する。BとB′の比較は、両方の近傍に、対応のついた特徴点が2点以下しかなければ、初期対応探索と同様に特徴点を中心とする小領域の相関マッチングを行ない、初期対応探索部33で使った閾値より低い閾値で対応するかどうかを判定する。図17のように、BとB′の両方の近傍に対応のついた特徴点が3点以上あれば、画像の変形を考慮したマッチングを行なう。まず、三角形A0,A1,A2を三角形A0′,A1′,A2′に変形するアフィン変換を計算する。Bを中心とする小領域を、計算したアフィン変換で変形し、変形した小領域とB′を中心とする小領域との間で相関マッチングを行ない、近傍に対応済みの点が2点以下しかない場合と同じ閾値で判定する。このようにして見つけた特徴点には、初期対応探索部33と同様に特徴点に対応を示すフラグをつけ、特徴点間を対応関係で結ぶ。この処理を、新たに対応する特徴点がなくなるまで、繰り返してインタフェイス部34に復帰する。
Corresponding
構造抽出部38は、形状が不明の物体を撮影して得られる複数の画像情報とこれらの画像情報間で対応をつけた特徴点の集合情報を受け、これら情報から物体の3次元形状モデルと、物体表面のテクスチャパタンを抽出し、出力する。まず、特徴点の集合情報から近傍にある4点の組合わせを取り出し、その4点にアフィンフロー解析部3による処理を行なって、運動パラメータを計算する。この4点を、図7のように、3角形を構成する3点と、それ以外の1点Pに分けて考える。点P′は一方の画像で点Pと同じ座標にあって、もう一方の画像では、他の3点の移動で表現されるアフィン変換で移動する仮想的な点である。この点P′は、3次元空間では3点で決まる3次元平面上にあって、画像平面には点Pと同じ座標に投影される点を示している。この仮想視差PP′の大きさは、式(12)より、
で表される。但し、Zpは点pの座標、Zp1は点P′のZ座標である。ここに、この4点の近傍にある別の特徴点Qを追加した図18の状況を想定する。点Q′は点P′と同様に、ほかの3点の移動で決まるアフィン変換で移動する仮想的な点であって、やはり3次元空間では3点で決まる3次元平面上の点である。2つの仮想視差PP′とQQ′を考えると、画像中で近傍にあって、また、観察者から物体までの距離が十分遠いことから、この2つの仮想視差の長さの比は、(ZP−ZP′)/(ZQ−ZQ′)となり、これからPとQのある3次元平面に対する深さ方向の座標の比が求められる。この処理を全ての近傍にある特徴点の組合わせに対して行なって、物体の深さ方向の長さが、ある長さλに対する比で表現された、物体の3Dモデルを算出する。この後、あるλに対応する物体の3Dモデルがグラフィクス表示され、ユーザが、この3Dモデルを見ながらλの値を調整するか、3Dモデルの表面で、平面が交差している部分を見つけ、交差角が直角になるように、λの大きさを推定する、などして、完全な物体の3Dモデルが計算される。また、λの大きさが計算されると、式(31)より、画像上で、近傍にある3点の特徴点で囲まれた3角形の物体表面の勾配が求められ、これから、物体表面のテクスチャ情報も取り出すことができる。 It is represented by However, Zp is the coordinate of the point p, and Zp1 is the Z coordinate of the point P ′. Here, the situation of FIG. 18 is assumed in which another feature point Q in the vicinity of the four points is added. Like the point P ′, the point Q ′ is a virtual point that moves by affine transformation determined by the movement of the other three points, and is also a point on a three-dimensional plane that is determined by three points in the three-dimensional space. Considering the two virtual parallaxes PP ′ and QQ ′, since they are close in the image and the distance from the observer to the object is sufficiently long, the ratio of the lengths of the two virtual parallaxes is (ZP −ZP ′) / (ZQ−ZQ ′), from which the ratio of the coordinate in the depth direction to the three-dimensional plane with P and Q can be obtained. This process is performed on combinations of feature points in all the vicinity to calculate a 3D model of the object in which the length in the depth direction of the object is expressed as a ratio to a certain length λ. After this, the 3D model of the object corresponding to a certain λ is displayed graphically, and the user adjusts the value of λ while looking at the 3D model, or finds the part where the plane intersects on the surface of the 3D model, A complete 3D model of the object is calculated, such as estimating the magnitude of λ so that the intersection angle is a right angle. When the magnitude of λ is calculated, the gradient of the triangular object surface surrounded by the three feature points in the vicinity on the image is obtained from the equation (31). Texture information can also be extracted.
構造抽出部38は、このようにして計算した物体の3Dモデルとテクスチャ情報を出力する。
The
画像合成部35は、入力した物体の3次元構造と視点までの運動ベクトルを使って、入力画像を変形し、新たな視点から物体を見た時の画像を合成する。観察者が動いた時の画像の変形は、式(34)から式(36)によって、観察者の並進運動ベクトルと回転運動ベクトル、物体表面の勾配と、画像平面上の並進運動で表現される。観察者の運動と画像平面上での並進運動は、視点までの運動ベクトルから計算され、物体表面の勾配は、物体の3次元構造から得られるので、これから、視点を変更したことによる、画像の変形を表現するアフィン変換行列を計算することができる。まず、入力画像において対象物体が写っている領域を、領域内にある特徴点を結んだ直線で区切られた3角パッチに分割する。各3角パッチの画像に対して、上記のアフィン変換を適用して、新たな3角パッチ画像を作成する。作成したパッチ画像をつなぎ合わせたものが新たな視線方向から見た時の物体の画像であり、これを画像表示部に表示する。 The image synthesizer 35 deforms the input image using the three-dimensional structure of the input object and the motion vector to the viewpoint, and synthesizes an image when the object is viewed from a new viewpoint. The deformation of the image when the observer moves is expressed by the translational motion vector and the rotational motion vector of the observer, the gradient of the object surface, and the translational motion on the image plane by Expressions (34) to (36). . The motion of the observer and the translational motion on the image plane are calculated from the motion vector to the viewpoint, and the gradient of the object surface is obtained from the three-dimensional structure of the object. An affine transformation matrix representing the deformation can be calculated. First, an area where the target object is shown in the input image is divided into triangular patches separated by a straight line connecting feature points in the area. The above affine transformation is applied to each triangular patch image to create a new triangular patch image. An image of an object when viewed from a new line-of-sight direction is formed by joining the created patch images, and this is displayed on the image display unit.
1…画像入力部、2…特徴点抽出部、3…アフィンフロー解析部、4…ポインティング情報生成部、5…ステータス切替部、6…ジェスチャパタンマッチング部、7…ジェスチャパタン記憶部、8…ポインタ表示部、9…3Dモデル記憶部、10…画像合成部、11…画像表示部、12…ポインタモデル記憶部、21…動画像入力部、22…特徴点抽出部、23…並進フロー計算部、24…独立運動分割部、31…画像入力部、32…特徴点抽出部、33…初期対応探索部、34…インタフェイス部、35…画像合成部、36…画像表示部、37…対応特徴更新部、38…構造抽出部
DESCRIPTION OF
Claims (2)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004324364A JP2005063463A (en) | 2004-11-08 | 2004-11-08 | Dynamic image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004324364A JP2005063463A (en) | 2004-11-08 | 2004-11-08 | Dynamic image processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001280637A Division JP3668168B2 (en) | 2001-09-14 | 2001-09-14 | Moving image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005063463A true JP2005063463A (en) | 2005-03-10 |
Family
ID=34373879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004324364A Abandoned JP2005063463A (en) | 2004-11-08 | 2004-11-08 | Dynamic image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005063463A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046750A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Image processor and image processing method |
JP2010113731A (en) * | 2007-03-09 | 2010-05-20 | Omron Corp | Recognition method, and image processing apparatus using the method |
CN114913235A (en) * | 2022-07-18 | 2022-08-16 | 合肥工业大学 | Pose estimation method and device and intelligent robot |
-
2004
- 2004-11-08 JP JP2004324364A patent/JP2005063463A/en not_active Abandoned
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046750A (en) * | 2006-08-11 | 2008-02-28 | Canon Inc | Image processor and image processing method |
JP2010113731A (en) * | 2007-03-09 | 2010-05-20 | Omron Corp | Recognition method, and image processing apparatus using the method |
US8861834B2 (en) | 2007-03-09 | 2014-10-14 | Omron Corporation | Computer implemented method for recognizing an object based on a correspondence relationship between object feature points and pre-registered model feature points |
CN114913235A (en) * | 2022-07-18 | 2022-08-16 | 合肥工业大学 | Pose estimation method and device and intelligent robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3244798B2 (en) | Moving image processing device | |
US11948376B2 (en) | Method, system, and device of generating a reduced-size volumetric dataset | |
JP4202479B2 (en) | 3D motion restoration system | |
JP4148281B2 (en) | Motion capture device, motion capture method, and motion capture program | |
JP5422735B2 (en) | Computer-aided analysis method for real-time use of image sequences including variable postures | |
US20100302145A1 (en) | Virtual desktop coordinate transformation | |
Dorfmüller-Ulhaas | Robust optical user motion tracking using a kalman filter | |
US8526734B2 (en) | Three-dimensional background removal for vision system | |
JP2011095797A (en) | Image processing device, image processing method and program | |
JP4284664B2 (en) | Three-dimensional shape estimation system and image generation system | |
Leizea et al. | Real-time deformation, registration and tracking of solids based on physical simulation | |
JP2009003813A (en) | Finger shape estimation apparatus, finger shape estimation method and program | |
JP4938748B2 (en) | Image recognition apparatus and program | |
Zou et al. | Automatic reconstruction of 3D human motion pose from uncalibrated monocular video sequences based on markerless human motion tracking | |
JP2010211732A (en) | Object recognition device and method | |
KR101746648B1 (en) | Apparatus and method of markerless augmented reality for 3d object representation | |
JP3668168B2 (en) | Moving image processing device | |
JP3790253B2 (en) | Moving image processing device | |
CN114546125B (en) | Keyboard tracking method and tracking system | |
JP2005063463A (en) | Dynamic image processing device | |
JP2019046096A (en) | Information processing device and method thereof | |
US20220198747A1 (en) | Method for annotating points on a hand image to create training dataset for machine learning | |
KR102239957B1 (en) | Virtual joint sphere based motion modeling method and device | |
WO2023054661A1 (en) | Gaze position analysis system and gaze position analysis method | |
Caron et al. | 3D Model-Based Tracking of Puppet in Depth Images for the Dynamic Video-Mapping of Its Suit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060711 |
|
A762 | Written abandonment of application |
Free format text: JAPANESE INTERMEDIATE CODE: A762 Effective date: 20060908 |