[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2001060265A - Device and method for image processing and medium - Google Patents

Device and method for image processing and medium

Info

Publication number
JP2001060265A
JP2001060265A JP11236331A JP23633199A JP2001060265A JP 2001060265 A JP2001060265 A JP 2001060265A JP 11236331 A JP11236331 A JP 11236331A JP 23633199 A JP23633199 A JP 23633199A JP 2001060265 A JP2001060265 A JP 2001060265A
Authority
JP
Japan
Prior art keywords
image
processing
similarity
setting
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11236331A
Other languages
Japanese (ja)
Inventor
Ikoku Go
偉国 呉
Atsushi Yokoyama
敦 横山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11236331A priority Critical patent/JP2001060265A/en
Publication of JP2001060265A publication Critical patent/JP2001060265A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the precision of feature tracing. SOLUTION: A feature point extraction part 3 extracts feature points from an object image to be traced on the basis of inputted image data and a reference pattern setting part 5 sets the plural extracted feature points as a reference pattern. A normalized pattern matching part 7 performs a pattern matching process in a search area set by a search area setting part 4 by using the reference pattern set by the reference pattern setting part 5. A score value decision means 9 decides whether or not the score value of the matching is larger than a threshold and instructs the search area setting part 4 to set a search area again when deciding that the score value is less than the threshold and a tracing result output part 8 to output the tracing result when deciding that the score value is larger than the threshold. Further, the score value decision part 9 instructs a reference pattern update part 10 to update the reference pattern according to specific conditions.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置および
方法、並びに媒体に関し、特に、テンプレートマッチン
グを行う際、探索領域の決定、探索パターンの更新を適
宜行い、追跡された特徴点運動軌跡の修正も行うことに
より、精度の高い特徴追跡を行う画像処理装置および方
法、並びに媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, method, and medium, and more particularly, to determining a search area and updating a search pattern when performing template matching, and correcting a tracked feature point motion trajectory. Also, the present invention relates to an image processing apparatus and method for performing feature tracking with high accuracy, and a medium.

【0002】[0002]

【従来の技術】運動対象の動きを抽出し解析するには、
観測された時系列の画像から、所定の画像のフレームを
基準とし、その前後のフレーム間の画像におけるテキス
チャー、点、線、面(領域)などの特徴 (位置、形状、明
るさ等) の変化を検出し、追跡することにより、同一な
ものを対応付けるといった処理が必要である。これは一
般に「特徴追跡」と呼ばれている。
2. Description of the Related Art In order to extract and analyze the movement of a moving object,
Changes in features (position, shape, brightness, etc.) such as textures, points, lines, and planes (areas) in the images between the preceding and following frames from the observed time-series images based on the frame of the predetermined image It is necessary to perform processing of detecting the same and tracking them so as to make the same one correspond. This is commonly called "feature tracking."

【0003】特徴追跡の手法には、運動対象や解析目的
等により、輪郭特徴追跡法、線特徴追跡法、点特徴追跡
法という三つの手法に大別できる。輪郭特徴追跡法は、
主に形状が変形する柔軟対象(非剛体物体)の追跡に用
いられ、線特徴追跡法及び点特徴追跡法は、形状の変形
しない剛体の追跡によく用いられる。
[0003] The feature tracking methods can be broadly classified into three methods, that is, a contour feature tracking method, a line feature tracking method, and a point feature tracking method, depending on a moving object and an analysis purpose. The contour feature tracking method
It is mainly used for tracking a flexible object (non-rigid object) whose shape is deformed, and the line feature tracking method and the point feature tracking method are often used for tracking a rigid body whose shape is not deformed.

【0004】ここでは、一般的に用いられている点特徴
追跡法について、図1を参照して説明する。図1に示す
ように、所定の時系列の画像において、時刻tの時点の
画像をF(i,j)、時刻t+1の時点の画像をG
(i,j)とする。また、画像F(i,j)における特
徴点の座標を(Xt,Yt)とし、その座標(Xt,Y
t)を中心とするテンプレート(既存のパターンモデ
ル)をT(i,j)とする。
Here, a commonly used point feature tracking method will be described with reference to FIG. As shown in FIG. 1, in a predetermined time-series image, an image at time t is F (i, j), and an image at time t + 1 is G
(I, j). Also, the coordinates of the feature point in the image F (i, j) are set to (Xt, Yt), and the coordinates (Xt, Y
Let T (i, j) be a template (existing pattern model) centered on t).

【0005】時刻tから時刻t+1に時間が経過すると
共に、画像F(i,j)が画像G(i,j)の位置に移
動したときの、画像G(i,j)の特徴点の座標(Xt
+1,Yt+1)を求める(追跡する)為の手法として
は、パターンモデルT(i,j)との間の距離を求め、
その距離が最小値となるパターンモデルの位置を求める
ことにより行う最短距離法、追跡中のテンプレートをフ
レーム毎に逐次、更新していくことにより求めるテンプ
レートマッチング法、テンプレートマッチングを高速に
行うSSDA(Sequential Similarity Detection Algorith
m)法、探索領域内の相関値が最大となる位置を抽出す
る相関法、既知パターンベクトルと探索領域のパターン
ベクトルとの角度が最小となる位置を求める類似度法
(正規化相関法)、画像F(i,j)と画像G(i,
j)の間の移動量ベクトルを直接に求める転置ベクトル
追跡法などがある。
When time elapses from time t to time t + 1, and coordinates of feature points of image G (i, j) when image F (i, j) moves to the position of image G (i, j) (Xt
+1, Yt + 1) is calculated (tracked) by calculating the distance between the pattern model T (i, j) and
The shortest distance method by finding the position of the pattern model that minimizes the distance, the template matching method by sequentially updating the template being tracked for each frame, SSDA (Sequential Similarity Detection Algorith
m) method, a correlation method for extracting the position where the correlation value in the search area is maximum, a similarity method (a normalized correlation method) for finding the position where the angle between the known pattern vector and the pattern vector in the search area is minimum, Image F (i, j) and image G (i, j
There is a transposition vector tracking method for directly obtaining a movement vector during j).

【0006】[0006]

【発明が解決しようとする課題】上述したいずれの手法
においても、探索領域の設定が困難であるという課題が
あった。すなわち、探索領域を小さく設定した場合、処
理速度が速くなり、誤検出の確率が低くなるが、移動量
の大きい運動体の追跡ができなくなり、逆に、探索領域
を大きく設定した場合、移動量の大きい運動体の追跡が
可能となるが、周りに相似するパターンが存在する場
合、誤検出の生じる可能性があり、処理速度も遅くなる
といったことにより、適切な探索領域の設定が困難であ
った。
In any of the above-mentioned methods, there is a problem that it is difficult to set a search area. In other words, when the search area is set small, the processing speed increases and the probability of erroneous detection decreases, but it becomes impossible to track a moving object with a large movement amount. Conversely, when the search area is set large, the movement amount Although it is possible to track a moving object with a large size, if there are similar patterns around it, erroneous detection may occur and the processing speed will be slow, making it difficult to set an appropriate search area. Was.

【0007】また、パターンの形状変化による運動対象
の追跡が容易ではないといった課題もあった。すなわ
ち、運動対象の回転またはカメラ視点の変化によって、
観測されたパターンの形状と既知パターンの形状が大き
く相違する可能性があり、マッチングスコアの低下また
はエラーマッチングの発生によって運動体の追跡ができ
なくなることもあるといった課題があった。
Another problem is that it is not easy to track a moving object due to a change in pattern shape. That is, by the rotation of the motion object or the change of the camera viewpoint,
There is a possibility that the shape of the observed pattern and the shape of the known pattern may be significantly different, and there is a problem that the tracking of the moving object may not be performed due to a decrease in the matching score or occurrence of error matching.

【0008】さらに、追跡結果が対象の形状及び運動状
況等に大きく影響されるといった課題や、野外の環境光
の変化などによって、対象の見方も大きく変わるので、
一般に、特徴点を正確に追跡することは容易なことでは
ないといった課題もあった。
[0008] Further, since the tracking result is greatly affected by the shape and the motion situation of the object, and the change of the environmental light in the field, the viewpoint of the object greatly changes.
In general, there has been a problem that it is not easy to accurately track feature points.

【0009】本発明はこのような状況に鑑みてなされた
ものであり、テンプレートマッチングを行う際、探索領
域の決定、探索パターンの更新を行い、追跡された特徴
点運動軌跡の修正も行うことにより、もって、確実な特
徴点追跡が可能とすることを目的とする。
The present invention has been made in view of such circumstances. When performing template matching, a search area is determined, a search pattern is updated, and a tracked feature point motion trajectory is also corrected. Accordingly, an object of the present invention is to enable reliable feature point tracking.

【0010】[0010]

【課題を解決するための手段】請求項1に記載の画像処
理装置は、画像を入力する入力手段と、入力手段により
入力された画像の各画素に対して微分画像情報を用いて
定義された特徴量行列の固有値を求め、その固有値が閾
値以上である点を特徴点として抽出する抽出手段と、抽
出手段により抽出された特徴点を含む所定の数の画素を
基準パターンとして設定する設定手段と、画像の所定の
領域内で設定手段により設定された基準パターンとの類
似度を算出する算出手段と、算出手段により算出された
類似度が所定値以上である領域を、複数の画像にわたっ
て探索することにより、画像の所定の被写体を追跡する
追跡手段とを含むことを特徴とする。
According to the present invention, an image processing apparatus is defined by using input means for inputting an image and differential image information for each pixel of the image input by the input means. Extracting means for obtaining eigenvalues of the feature amount matrix and extracting points whose eigenvalues are equal to or more than a threshold value as feature points; and setting means for setting a predetermined number of pixels including the feature points extracted by the extracting means as a reference pattern. Calculating means for calculating the degree of similarity with the reference pattern set by the setting means in a predetermined area of the image, and searching for the area in which the degree of similarity calculated by the calculating means is equal to or more than a predetermined value, over a plurality of images. And a tracking means for tracking a predetermined subject in the image.

【0011】前記算出手段は、正規化相関法を用いて、
類似度を算出するようにすることができる。
The calculating means uses a normalized correlation method,
The degree of similarity can be calculated.

【0012】前記追跡手段は、複数の画像にわたって探
索した結果を基に最小2乗法を用いて得られる多次元関
数曲線を追跡結果として用いるようにすることができ
る。
[0012] The tracking means may use a multidimensional function curve obtained by using a least squares method as a tracking result based on a search result over a plurality of images.

【0013】請求項4に記載の画像処理方法は、画像を
入力する入力ステップと、入力ステップの処理で入力さ
れた画像の各画素に対して微分画像情報を用いて定義さ
れた特徴量行列の固有値を求め、その固有値が閾値以上
である点を特徴点として抽出する抽出ステップと、抽出
ステップの処理で抽出された特徴点を含む所定の数の画
素を基準パターンとして設定する設定ステップと、画像
の所定の領域内で設定ステップの処理で設定された基準
パターンとの類似度を算出する算出ステップと、算出ス
テップの処理で算出された類似度が所定値以上である領
域を、複数の画像にわたって探索することにより、画像
の所定の被写体を追跡する追跡ステップとを含むことを
特徴とする。
According to a fourth aspect of the present invention, there is provided an image processing method comprising: an input step of inputting an image; and a feature amount matrix defined using differential image information for each pixel of the image input in the input step. An extraction step of obtaining a characteristic value and extracting a point whose characteristic value is equal to or larger than a threshold value as a feature point; a setting step of setting a predetermined number of pixels including the characteristic point extracted in the process of the extraction step as a reference pattern; Calculating a similarity between the reference pattern set in the setting step and the similarity calculated in the setting step in a predetermined area, and setting the area in which the similarity calculated in the calculation step is equal to or more than a predetermined value over a plurality of images. A tracking step of tracking a predetermined subject in the image by searching.

【0014】請求項5に記載の媒体のプログラムは、入
力された画像の各画素に対して微分画像情報を用いて定
義された特徴量行列の固有値を求め、その固有値が閾値
以上である点を特徴点として抽出する抽出ステップと、
抽出ステップの処理で抽出された特徴点を含む所定の数
の画素を基準パターンとして設定する設定ステップと、
画像の所定の領域内で設定ステップの処理で設定された
基準パターンとの類似度を算出する算出ステップと、算
出ステップの処理で算出された類似度が所定値以上であ
る領域を、複数の画像にわたって探索することにより、
画像の所定の被写体を追跡する追跡ステップとからなる
ことを特徴とする。
According to a fifth aspect of the present invention, a program for a medium obtains an eigenvalue of a feature amount matrix defined using differential image information for each pixel of an input image, and determines that the eigenvalue is equal to or larger than a threshold value. An extraction step for extracting as a feature point;
A setting step of setting a predetermined number of pixels including the feature points extracted in the processing of the extraction step as a reference pattern,
A calculating step of calculating a similarity with the reference pattern set in the processing of the setting step in a predetermined area of the image; and an area in which the similarity calculated in the processing of the calculating step is equal to or more than a predetermined value, the plurality of images By exploring over
And a tracking step of tracking a predetermined subject in the image.

【0015】請求項6に記載の画像処理装置は、画像を
入力する入力手段と、入力手段により入力された画像か
ら特徴点を抽出する抽出手段と、抽出手段により抽出さ
れた特徴点を含む所定の数の画素を基準パターンとして
設定する設定手段と、画像内で所定の大きさの探索領域
を設定する探索領域設定手段と、探索領域設定手段によ
り設定された探索領域内で、設定手段により設定された
基準パターンとの類似度を算出する算出手段と、算出手
段により算出された類似度が所定値より大きいか否かを
判断する判断手段と、判断手段により類似度が所定値よ
り大きいと判断されなかった場合、探索領域を再設定す
る再設定手段と、判断手段により類似度が所定値より大
きいと判断された場合の領域を、複数の画像にわたって
探索することにより、画像の所定の被写体を追跡する追
跡手段とを含み、算出手段、判断手段、および再設定手
段の処理は、類似度が所定値より大きいと判断されるま
で、または、再設定手段により設定された探索領域が、
所定の大きさの領域より大きいと判断されるまで繰り返
し行われることを特徴とする。
According to a sixth aspect of the present invention, there is provided an image processing apparatus comprising: an input unit for inputting an image; an extracting unit for extracting a feature point from the image input by the input unit; and a predetermined unit including the feature point extracted by the extracting unit. Setting means for setting the number of pixels as a reference pattern, search area setting means for setting a search area of a predetermined size in the image, and setting by the setting means within the search area set by the search area setting means. Calculating means for calculating the similarity with the reference pattern, determining means for determining whether the similarity calculated by the calculating means is greater than a predetermined value, and determining that the similarity is greater than the predetermined value by the determining means If not, resetting means for resetting the search area, and searching for the area where the similarity is determined to be greater than the predetermined value by the determining means, over a plurality of images. Tracking means for tracking a predetermined subject of an image, wherein the processing of the calculating means, the determining means, and the resetting means is performed until the similarity is determined to be larger than the predetermined value or set by the resetting means. Search area
The process is repeated until it is determined that the region is larger than a region of a predetermined size.

【0016】請求項9に記載の画像処理方法は、画像を
入力する入力ステップと、入力ステップの処理で入力さ
れた画像から特徴点を抽出する抽出ステップと、抽出ス
テップの処理で抽出された特徴点を含む所定の数の画素
を基準パターンとして設定する設定ステップと、画像内
で所定の大きさの探索領域を設定する探索領域設定ステ
ップと、探索領域設定ステップの処理で設定された探索
領域内で、設定ステップの処理で設定された基準パター
ンとの類似度を算出する算出ステップと、算出ステップ
の処理で算出された類似度が所定値より大きいか否かを
判断する判断ステップと、判断ステップの処理で類似度
が所定値より大きいと判断されなかった場合、探索領域
を再設定する再設定ステップと、判断ステップの処理で
類似度が所定値より大きいと判断された場合の領域を、
複数の画像にわたって探索することにより、画像の所定
の被写体を追跡する追跡ステップとを含み、算出ステッ
プ、判断ステップ、および再設定ステップの処理は、類
似度が所定値より大きいと判断されるまで、または、再
設定ステップの処理で設定された探索領域が、所定の大
きさの領域より大きいと判断されるまで繰り返し行われ
ることを特徴とする。
According to a ninth aspect of the present invention, in the image processing method, an input step of inputting an image, an extraction step of extracting a feature point from the image input in the processing of the input step, and a feature extracted in the processing of the extraction step. A setting step of setting a predetermined number of pixels including points as a reference pattern, a search area setting step of setting a search area of a predetermined size in an image, and a search area set in the processing of the search area setting step. A calculating step of calculating a similarity with the reference pattern set in the processing of the setting step; a determining step of determining whether the similarity calculated in the processing of the calculating step is greater than a predetermined value; If the similarity is not determined to be greater than the predetermined value in the processing of step (a), the similarity is determined to be smaller than the predetermined value in the processing of the resetting step of resetting the search area and the determination step. An area when it is determined to be larger,
A tracking step of tracking a predetermined subject of the image by searching over a plurality of images, the processing of the calculating step, the determining step, and the resetting step being performed until the similarity is determined to be larger than the predetermined value. Alternatively, the search area is repeatedly performed until it is determined that the search area set in the processing of the resetting step is larger than an area having a predetermined size.

【0017】請求項10に記載の媒体のプログラムは、
画像から特徴点を抽出する抽出ステップと、抽出ステッ
プの処理で抽出された特徴点を含む所定の数の画素を基
準パターンとして設定する設定ステップと、画像内の所
定の大きさの探索領域を設定する探索領域設定ステップ
と、探索領域設定ステップの処理で設定された探索領域
内で、設定ステップの処理で設定された基準パターンと
の類似度を算出する算出ステップと、算出ステップの処
理で算出された類似度が所定値より大きいか否かを判断
する判断ステップと、判断ステップの処理で類似度が所
定値より大きいと判断されなかった場合、探索領域を再
設定する再設定ステップと、判断ステップの処理で類似
度が所定値より大きいと判断された場合の領域を、複数
の画像にわたって探索することにより、画像の所定の被
写体を追跡する追跡ステップとからなり、算出ステッ
プ、判断ステップ、および再設定ステップの処理は、類
似度が所定値より大きいと判断されるまで、または、再
設定ステップの処理で設定された探索領域が、所定の大
きさの領域より大きいと判断されるまで繰り返し行われ
ることを特徴とする。
[0017] The program of the medium according to claim 10 is:
An extraction step of extracting feature points from an image, a setting step of setting a predetermined number of pixels including the feature points extracted in the processing of the extraction step as a reference pattern, and setting a search area of a predetermined size in the image A search area setting step, a calculation step of calculating a degree of similarity with the reference pattern set in the processing of the setting step in the search area set in the processing of the search area setting step, and a calculation step of calculating the similarity. A determining step of determining whether the similarity is greater than a predetermined value; a resetting step of resetting the search area if the similarity is not determined to be greater than the predetermined value in the processing of the determining step; By searching a plurality of images for an area in which the similarity is determined to be larger than the predetermined value in the processing of (1), tracking of a predetermined subject in the image is performed. The processing of the calculating step, the determining step, and the resetting step is performed until the similarity is determined to be larger than the predetermined value, or the search area set in the processing of the resetting step has a predetermined size. It is repeatedly performed until it is determined that the area is larger than the area.

【0018】請求項11に記載の画像処理装置は、画像
を入力する入力手段と、入力手段により入力された画像
から特徴点を抽出する抽出手段と、抽出手段により抽出
された特徴点を含む所定の数の画素を基準パターンとし
て設定する設定手段と、画像内の所定の領域内で設定手
段により設定された基準パターンとの類似度を算出する
算出手段と、算出手段により算出された類似度が所定値
より大きいか否かを判断する判断手段と、判断手段によ
り類似度が所定値より大きいと判断されなかった場合、
基準パターンを再設定する再設定手段と、判断手段によ
り類似度が所定値より大きいと判断された場合の領域
を、複数の画像にわたって探索することにより、画像の
所定の被写体を追跡する追跡手段とを含み、算出手段、
判断手段、および再設定手段の処理は、類似度が所定値
より大きいと判断されるまで繰り返し行われることを特
徴とする。
An image processing apparatus according to claim 11, wherein the input means inputs an image, the extracting means extracts feature points from the image input by the input means, and the predetermined means includes the feature points extracted by the extracting means. Setting means for setting the number of pixels as a reference pattern, calculating means for calculating a similarity with the reference pattern set by the setting means in a predetermined area in the image, and similarity calculated by the calculating means. Determining means for determining whether or not the similarity is greater than a predetermined value; and determining that the similarity is not greater than the predetermined value by the determining means.
A resetting means for resetting the reference pattern; and a tracking means for tracking a predetermined subject of the image by searching over a plurality of images for an area when the similarity is determined to be larger than the predetermined value by the determining means. Calculating means,
The processing of the determining means and the resetting means is repeatedly performed until it is determined that the similarity is larger than a predetermined value.

【0019】請求項14に記載の画像処理方法は、画像
を入力する入力ステップと、入力ステップの処理で入力
された画像から特徴点を抽出する抽出ステップと、抽出
ステップの処理で抽出された特徴点を含む所定の数の画
素を基準パターンとして設定する設定ステップと、画像
内の所定の領域内で設定ステップの処理で設定された基
準パターンとの類似度を算出する算出ステップと、算出
ステップの処理で算出された類似度が所定値より大きい
か否かを判断する判断ステップと、判断ステップの処理
で類似度が所定値より大きいと判断されなかった場合、
基準パターンを再設定する再設定ステップと、判断ステ
ップの処理で類似度が所定値より大きいと判断された場
合の領域を、複数の画像にわたって探索することによ
り、画像の所定の被写体を追跡する追跡ステップとを含
み、算出ステップ、判断ステップ、および再設定ステッ
プの処理は、類似度が所定値より大きいと判断されるま
で繰り返し行われることを特徴とする。
According to a fourteenth aspect of the present invention, in the image processing method, an input step of inputting an image, an extraction step of extracting a feature point from the image input in the processing of the input step, and a feature extracted in the processing of the extraction step. A setting step of setting a predetermined number of pixels including points as a reference pattern, a calculation step of calculating a similarity with the reference pattern set in the processing of the setting step in a predetermined area in the image, A judging step of judging whether or not the similarity calculated in the processing is larger than a predetermined value, and if the similarity is not judged to be larger than the predetermined value in the processing of the judging step,
A tracking step of tracking a predetermined subject in an image by searching a plurality of images for an area when the similarity is determined to be larger than a predetermined value in the processing of the resetting step of resetting the reference pattern and the determination step And the steps of the calculating step, the determining step, and the resetting step are repeatedly performed until it is determined that the similarity is greater than a predetermined value.

【0020】請求項15に記載の媒体のプログラムは、
入力された画像から特徴点を抽出する抽出ステップと、
抽出ステップの処理で抽出された特徴点を含む所定の数
の画素を基準パターンとして設定する設定ステップと、
画像内の所定の領域内で設定ステップの処理で設定され
た基準パターンとの類似度を算出する算出ステップと、
算出ステップの処理で算出された類似度が所定値より大
きいか否かを判断する判断ステップと、判断ステップの
処理で類似度が所定値より大きいと判断されなかった場
合、基準パターンを再設定する再設定ステップと、判断
ステップの処理で類似度が所定値より大きいと判断され
た場合の領域を、複数の画像にわたって探索することに
より、画像の所定の被写体を追跡する追跡ステップとか
らなり、算出ステップ、判断ステップ、および再設定ス
テップの処理は、類似度が所定値より大きいと判断され
るまで繰り返し行われることを特徴とする。
[0020] The program of the medium according to claim 15 is:
An extraction step of extracting feature points from the input image;
A setting step of setting a predetermined number of pixels including the feature points extracted in the processing of the extraction step as a reference pattern,
A calculating step of calculating a similarity with the reference pattern set in the processing of the setting step within a predetermined area in the image;
A determining step of determining whether or not the similarity calculated in the processing of the calculating step is larger than a predetermined value; and resetting the reference pattern if the similarity is not determined to be larger than the predetermined value in the processing of the determining step. A resetting step, and a tracking step of tracking a predetermined subject in the image by searching a plurality of images for an area when the similarity is determined to be greater than the predetermined value in the processing of the determining step. The processing of the step, the determining step, and the resetting step is repeatedly performed until it is determined that the similarity is greater than a predetermined value.

【0021】請求項1に記載の画像処理装置、請求項4
に記載の画像処理方法、請求項5に記載の媒体において
は、入力された画像の各画素に対して微分画像情報を用
いて定義された特徴量行列の固有値が求められ、その固
有値が閾値以上である点を特徴点として抽出され、抽出
された特徴点を含む所定の数の画素が基準パターンとし
て設定され、画像の所定の領域内で基準パターンとの類
似度が算出され、類似度が所定値以上である領域を、複
数の画像にわたって探索することにより、画像の所定の
被写体が追跡される。
An image processing apparatus according to claim 1, wherein
In the image processing method described in the above, the eigenvalue of the feature amount matrix defined using the differential image information is obtained for each pixel of the input image, and the eigenvalue is equal to or larger than the threshold value Is extracted as a feature point, a predetermined number of pixels including the extracted feature point are set as a reference pattern, a similarity with the reference pattern is calculated in a predetermined area of the image, and the similarity is determined by a predetermined value. A predetermined subject in the image is tracked by searching a plurality of images for an area that is equal to or larger than the value.

【0022】請求項6に記載の画像処理装置、請求項9
に記載の画像処理方法、および請求項10に記載の媒体
においては、入力された画像から特徴点が抽出され、抽
出された特徴点を含む所定の数の画素が基準パターンと
して設定され、画像内で所定の大きさの探索領域が設定
され、探索領域内で基準パターンとの類似度が算出さ
れ、類似度が所定値より大きいと判断されなかった場
合、探索領域が再設定され、類似度が所定値より大きい
と判断された場合の領域を、複数の画像にわたって探索
することにより、画像の所定の被写体が追跡され、類似
度が所定より大きいと判断されるまで、または、再設定
された探索領域が、所定の大きさの領域より大きいと判
断されるまで、類似度の算出や所定値との比較が、繰り
返し行われる。
An image processing apparatus according to claim 6,
In the image processing method described in the above, and the medium described in the claim 10, feature points are extracted from the input image, a predetermined number of pixels including the extracted feature points are set as a reference pattern, A search area of a predetermined size is set, and the similarity with the reference pattern is calculated in the search area. If the similarity is not determined to be larger than the predetermined value, the search area is reset and the similarity is calculated. By searching a plurality of images for a region determined to be larger than the predetermined value, a predetermined subject of the image is tracked, and until the similarity is determined to be larger than the predetermined value, or a reset search is performed. Until it is determined that the area is larger than the area of the predetermined size, the calculation of the similarity and the comparison with the predetermined value are repeatedly performed.

【0023】請求項11に記載の画像処理装置、請求項
14に記載の画像処理方法、および請求項15に記載の
媒体においては、入力された画像から特徴点が抽出さ
れ、抽出された特徴点を含む所定の数の画素を基準パタ
ーンとして設定され、画像内の所定の領域内で基準パタ
ーンとの類似度が算出され、類似度が所定値より大きい
と判断されなかった場合、基準パターンが再設定され、
類似度が所定値より大きいと判断された場合の領域を、
複数の画像にわたって探索することにより、画像の所定
の被写体が追跡され、類似度が所定値より大きいと判断
されるまで、基準パターンの再設定や類似度の算出が繰
り返し行われる。
In the image processing apparatus according to the eleventh aspect, the image processing method according to the fourteenth aspect, and the medium according to the fifteenth aspect, feature points are extracted from the input image, and the extracted feature points are extracted. Is set as a reference pattern, the similarity to the reference pattern is calculated in a predetermined area in the image, and if the similarity is not determined to be larger than the predetermined value, the reference pattern is re-created. Is set,
The area when the similarity is determined to be larger than the predetermined value is
By searching over a plurality of images, a predetermined subject of the image is tracked, and resetting of the reference pattern and calculation of the similarity are repeatedly performed until it is determined that the similarity is larger than the predetermined value.

【0024】[0024]

【発明の実施の形態】図2は、本発明を適用した画像処
理装置1の内部構成を示す図である。画像入力部2に
は、処理対象となる時系列画像の画像データが入力され
る。画像入力部2に入力された画像データは、特徴点抽
出部3と探索領域設定部4に出力される。特徴点抽出部
3は、入力された画像データを基に特徴点を抽出(詳細
は後述する)し、その特徴点を基準パターン設定部5に
出力する。基準パターン設定部5は、入力された特徴点
から基準パターンを作成し、スイッチ6の端子Aに出力
する。
FIG. 2 is a diagram showing the internal configuration of an image processing apparatus 1 to which the present invention is applied. Image data of a time-series image to be processed is input to the image input unit 2. The image data input to the image input unit 2 is output to the feature point extraction unit 3 and the search area setting unit 4. The feature point extraction unit 3 extracts feature points based on the input image data (details will be described later), and outputs the feature points to the reference pattern setting unit 5. The reference pattern setting unit 5 creates a reference pattern from the input feature points, and outputs the reference pattern to the terminal A of the switch 6.

【0025】探索領域設定部4は、探索領域を設定し、
その設定した探索領域に関するデータと、画像入力部2
から入力された画像データを、正規化パターンマッチン
グ部7に出力する。正規化パターンマッチング部7は、
スイッチ6を介して入力される基準パターンを用いて、
探索領域設定部4が設定した探索領域内をパターンマッ
チング処理し、その結果を追跡結果出力部8とスコア値
判定部9に出力する。
The search area setting section 4 sets a search area,
The data relating to the set search area and the image input unit 2
Is output to the normalized pattern matching unit 7. The normalized pattern matching unit 7
Using the reference pattern input via the switch 6,
A pattern matching process is performed in the search area set by the search area setting unit 4, and the result is output to the tracking result output unit 8 and the score value determination unit 9.

【0026】スコア値判定部9は、所定の値(閾値)を
保持しており、パターンマッチングによるスコア値が、
その閾値以上であるか否かを判定する。基準パターン更
新部10は、スコア値判定部9の判定により、基準パタ
ーンを更新し、スイッチ6の端子Bに出力する。また、
スコア値判定部9は、スコア値が閾値以下であると判定
した場合、探索領域設定部4に探索領域の再設定を指示
し、スコア値が閾値以上であると判定した場合、追跡結
果出力部8に入力されたデータを、追跡結果処理部11
に出力するように指示する。
The score value judging section 9 holds a predetermined value (threshold), and the score value obtained by pattern matching is
It is determined whether or not it is equal to or greater than the threshold. The reference pattern updating unit 10 updates the reference pattern based on the determination by the score value determining unit 9 and outputs the updated reference pattern to the terminal B of the switch 6. Also,
When determining that the score value is equal to or less than the threshold, the score value determining unit 9 instructs the search area setting unit 4 to reset the search area, and when determining that the score value is equal to or greater than the threshold, the tracking result output unit. 8 is input to the tracking result processing unit 11
To output to.

【0027】追跡結果処理部11は、入力されたデータ
を用いて、n次曲線の係数を求めるなどの処理を行うこ
とにより、追跡対象となっている被写体の追跡情報を確
実なものとする。
The tracking result processing section 11 performs processing such as calculating the coefficient of the n-th order curve using the input data to ensure the tracking information of the subject to be tracked.

【0028】次に、図3のフローチャートを参照し、特
徴点抽出部3による特徴点の抽出処理について説明す
る。ステップS1において、画像入力部2から、特徴点
抽出部3に画像f(x,y)の画像データが入力され
る。特徴点抽出部3は、ステップS2において、画像f
(x,y)のx方向の変化率とy方向の変化率を、それ
ぞれ次式(1),(2)により算出する。
Next, with reference to the flowchart of FIG. 3, the feature point extraction processing by the feature point extraction unit 3 will be described. In step S <b> 1, image data of an image f (x, y) is input from the image input unit 2 to the feature point extraction unit 3. The feature point extracting unit 3 determines in step S2 that the image f
The rate of change of (x, y) in the x direction and the rate of change in the y direction are calculated by the following equations (1) and (2), respectively.

【0029】 f’x(x,y)=∂f(x,y)/∂x ・・・ (1) f’y(x,y)=∂f(x,y)/∂y ・・・ (2) ステップS3において、所定の画素数(w×w)から構
成されるウィンドー内の画像変化率による各画素P
(x,y)の特徴量行列R(x,y)の係数を、次式
(3)に従って算出される。なお、ステップS3におい
て、処理対象となる画素P(x,y)は、例えば、画像
ウィンドーの中心に位置する画素である。
F′x (x, y) = ∂f (x, y) / ∂x (1) f′y (x, y) = ∂f (x, y) / ∂y ... (2) In step S3, each pixel P based on the image change rate in a window composed of a predetermined number of pixels (w × w)
The coefficient of the feature amount matrix R (x, y) of (x, y) is calculated according to the following equation (3). In step S3, the pixel P (x, y) to be processed is, for example, a pixel located at the center of the image window.

【0030】[0030]

【数1】 (Equation 1)

【0031】ステップS4において、ステップS3にお
いて求められた特徴行列R(x,y)の対角化により固
有値λ1,λ2が求められる。求められた固有値λ1,
λ2のうち、小さい方の値を特徴値λとする。ステップ
S5において、特徴値λが、予め設定されている閾値λ
tよりも大きいか否かが判定される。ステップS5にお
ける判定は、追跡可能な特徴点パターンを定義するため
の処理である。ステップS5において、特徴値λが閾値
λtよりも大きいと判定された場合、ステップS6に進
む。
In step S4, eigenvalues λ1 and λ2 are obtained by diagonalizing the feature matrix R (x, y) obtained in step S3. The obtained eigenvalue λ1,
The smaller one of λ2 is set as the feature value λ. In step S5, the characteristic value λ is set to a predetermined threshold λ
It is determined whether it is greater than t. The determination in step S5 is a process for defining a traceable feature point pattern. If it is determined in step S5 that the characteristic value λ is larger than the threshold value λt, the process proceeds to step S6.

【0032】ステップS6において、処理対象となって
いる画素P(x,y)が特徴点として設定され、ステッ
プS8に進む。一方、ステップS5において、特徴値λ
が閾値λtよりも小さいと判定された場合、ステップS
7に進む。ステップS7において、処理対象となってい
る画素P(x,y)は、特徴点として設定されず、ステ
ップS8に進む。ステップS8において、入力画像f
(x,y)内の全ての画素に対して上述した計算が完了
したか否かが判定される。
In step S6, the pixel P (x, y) to be processed is set as a feature point, and the flow advances to step S8. On the other hand, in step S5, the characteristic value λ
Is determined to be smaller than the threshold λt,
Go to 7. In step S7, the pixel P (x, y) to be processed is not set as a feature point, and the process proceeds to step S8. In step S8, the input image f
It is determined whether or not the above-described calculation has been completed for all pixels in (x, y).

【0033】ステップS8において、全画素に対しての
計算が完了していないと判定された場合、ステップS3
に戻り、それ以降の処理が繰り返され、全画素に対して
の計算が完了したと判定された場合、ステップS9(図
4)に進む。ステップS9以降の処理を説明する前に、
ステップS8までの処理について、図5を参照してさら
に説明する。
If it is determined in step S8 that the calculation has not been completed for all the pixels, step S3
Then, the subsequent processing is repeated, and when it is determined that the calculation for all the pixels is completed, the process proceeds to step S9 (FIG. 4). Before describing the processing after step S9,
The processing up to step S8 will be further described with reference to FIG.

【0034】図5(A)は、ステップS1において、画
像入力部2を介して特徴点抽出部3に入力される画像f
(x,y)を示している。図5においては、所定の画素
数のウィンドーとして、5×5の25画素(従って、1
マスは1画素を示す)で構成される画像ウィンドーを例
に挙げて説明する。図5(B)は、ステップS2におい
て、入力された画像f(x,y)のx方向の変化率を計
算したときの計算結果を示している。同様に、図5
(C)は、y方向の変化率を計算したときの計算結果を
示している。
FIG. 5A shows an image f input to the feature point extraction unit 3 via the image input unit 2 in step S1.
(X, y). In FIG. 5, as a window having a predetermined number of pixels, 5 × 5 25 pixels (therefore, 1 pixel)
The description will be made by taking an image window composed of (a square represents one pixel) as an example. FIG. 5B shows a calculation result when the change rate of the input image f (x, y) in the x direction is calculated in step S2. Similarly, FIG.
(C) shows a calculation result when the change rate in the y direction is calculated.

【0035】図5(D)は、算出された変化率を基に、
ステップS3において、式(3)に従って、特徴量行列
の係数を算出した時の算出結果を示している。図5
(E)は、ステップS4で算出される固有値λ1,λ2
を示している。さらに、図5(F)は、ステップS5に
おいて、特徴値λとして設定された値を示している。
FIG. 5D shows the calculated change rate based on the calculated change rate.
In step S3, a calculation result when the coefficient of the feature amount matrix is calculated according to equation (3) is shown. FIG.
(E) shows the eigenvalues λ1 and λ2 calculated in step S4.
Is shown. Further, FIG. 5F shows the value set as the characteristic value λ in step S5.

【0036】図5に示した結果から、直線やエッジなど
を含む画像ウィンドー(図中左の4図)は、特徴値λが
0のため、特徴点を含む画像ウィンドーとして選択され
ない(適切ではない)と判定される。それに対して、コ
ーナーを含む画像ウィンドー(図中右の2図)は、固定
値λが3であり、閾値λtが3以下の数値として設定さ
れていれば、特徴点を含む画像ウィンドー(以下、適
宜、特徴ウィンドーと記述する)として選択される。
From the results shown in FIG. 5, an image window including straight lines and edges (four left diagrams in FIG. 5) is not selected as an image window including a feature point because the feature value λ is 0 (not appropriate). ) Is determined. On the other hand, in the image window including the corners (the two figures on the right in the figure), if the fixed value λ is 3 and the threshold value λt is set as a numerical value of 3 or less, the image window including the feature points (hereinafter, referred to as “the window”) Where appropriate, described as a feature window).

【0037】このように、直線やエッジを含む画像ウィ
ンドーを特徴ウィンドーとして用いないのは、後の処理
においてパターンマッチングによる特徴追跡を行う場
合、ミスマッチングを引き起こす原因となる可能性があ
るからである。逆に、上述したような処理により特徴ウ
ィンドーを設定する場合、コーナーを含む画像ウィンド
ーが特徴ウィンドーとして設定される(候補とされる)
ことが確認できる。
As described above, the reason why an image window including a straight line or an edge is not used as a feature window is that when feature tracking by pattern matching is performed in subsequent processing, it may cause mismatching. . Conversely, when a feature window is set by the processing described above, an image window including a corner is set as a feature window (candidate).
Can be confirmed.

【0038】図4のフローチャートの説明に戻り、特徴
点抽出部3は、ステップS9において、特徴点P(x,
y)とされた複数の点に、それぞれ対応する特徴値λを
大きい順に並び替える。ステップS10において、大き
い順に並び替えられた特徴値λを大きい方から順に、特
徴点P(x,y)を中心とする特徴ウィンドー内で、重
なる特徴ウィンドーがあるかないかが検索される。その
検索結果を用いて、ステップS11において、重なる特
徴ウィンドーはないか否かが判定され、重なる特徴ウィ
ンドーはないと判定された場合、ステップS12に進
み、重なる特徴ウィンドーがあると判定された場合、ス
テップS13に進む。
Returning to the description of the flowchart of FIG. 4, the feature point extracting unit 3 determines in step S9 that the feature point P (x,
The feature values λ corresponding to the plurality of points indicated by y) are rearranged in descending order. In step S10, the feature windows centered on the feature point P (x, y) are searched in order from the largest feature value λ rearranged in the descending order to determine whether there is an overlapping feature window. Using the search result, in step S11, it is determined whether or not there is an overlapping feature window. If it is determined that there is no overlapping feature window, the process proceeds to step S12. If it is determined that there is an overlapping feature window, Proceed to step S13.

【0039】ステップS12においては、特徴点P
(x,y)が中心に位置する特徴ウィンドーが作成さ
れ、ステップS13においては、特徴ウィンドーは作成
されない。このような処理が全ての特徴点において行わ
れたか否かが、ステップS14において判定され、全て
の特徴点のチェックが完了していないと判定された場
合、ステップS10に戻り、それ以降の処理が繰り返さ
れ、全ての特徴点のチェックが完了したと判定された場
合、特徴点抽出(特徴ウィンドーの設定)処理は終了さ
れる。
In step S12, the characteristic point P
A feature window centered at (x, y) is created, and no feature window is created in step S13. It is determined in step S14 whether or not such processing has been performed on all feature points. If it is determined that the check of all feature points has not been completed, the process returns to step S10, and the subsequent processing is performed. If it is determined that all the feature points have been checked, the feature point extraction (feature window setting) process is terminated.

【0040】時系列画像におけるフレームの画像f
(x,y,t)(ここで、tは時刻を表し、基準となる
1フレーム目の画像をt=1とする)を用いて、上述し
たような処理により得られたコーナーなどを含む画像の
特徴ウィンドーを、基準パターン設定部5に基準パター
ン(テンプレート)Ti1(x,y)(i=1乃至P)
として記憶させる。また、それらの中心点(すなわち、
ここでは特徴点)をPi1(xi1,yi1)と記し、
この座標値も基準パターン設定部5に記憶させる。
The image f of the frame in the time-series image
(X, y, t) (where t represents time, and the image of the first frame serving as a reference is assumed to be t = 1), the image including the corner and the like obtained by the above-described processing. Is stored in the reference pattern setting unit 5 as a reference pattern (template) Ti1 (x, y) (i = 1 to P)
To be stored. Also, their center point (ie,
Here, the feature point) is described as Pi1 (xi1, yi1),
This coordinate value is also stored in the reference pattern setting unit 5.

【0041】時系列画像f(x,y,t)(時刻t>
1)を用いて特徴点Pit(xit,yit)を中心と
する特徴ウインドーのパターンTit(x,y)の動き
を追跡するために、正規化相関によるパターンマッチン
グ法を用いる。しかしながら、運動対象の速度や方向な
どの変化によって、実際に対象を効率良く追跡するため
の探索領域の設定は容易ではない。即ち、探索領域を小
さく設定すると、追跡のための処理時間が速くなり、周
りの相似パターンにより発生する誤追跡の抑制に有利で
あるが、運動速度の速い対象に対して追跡できない可能
性がでてくる。逆に、探索領域を大きく設定すると、運
動速度の速い対象でも追跡可能となるが、追跡処理のた
めの時間が長くなり、周りの相似パターンによる誤追跡
の発生などの問題が生じることになる。そのため、運動
対象の速度に柔軟に対応できる探索領域の設定が必要と
なる。
Time-series image f (x, y, t) (time t>
In order to track the movement of the pattern Tit (x, y) of the feature window centering on the feature point Pit (xit, yit) using 1), a pattern matching method using normalized correlation is used. However, it is not easy to set a search area for actually tracking the target efficiently due to changes in the speed, direction, and the like of the target. In other words, if the search area is set to be small, the processing time for tracking becomes faster, which is advantageous for suppressing erroneous tracking caused by a similar pattern around it. Come. Conversely, if the search area is set to be large, it is possible to track even an object with a fast moving speed, but the time required for the tracking process becomes longer, and problems such as occurrence of erroneous tracking due to similar patterns in the surroundings occur. Therefore, it is necessary to set a search area that can flexibly respond to the speed of the motion target.

【0042】そこで、本実施の形態においては、正規化
相関によるパターンマッチングのスコア値を評価基準と
して用い、探索領域の更新を適宜行うことにより、運動
対象の速度に柔軟に対応し、もって、適切な追跡が行え
るようにする。具体的に、図6のフローチャートを参照
して探索領域の設定と、パターンマッチングに用いる基
準パターンの設定の仕方について説明する。ステップS
31において、探索領域設定部4に、画像入力部2より
時系列の画像f(x,y,t)(t=1乃至F)が入力
される。ステップS32において、図3と図4のフロー
チャートを参照して説明したようにして、特徴ウィンド
ーが設定される。その設定された特徴ウィンドー(基準
パターン設定5に記憶されている特徴ウィンドー)が初
期の特徴パターンTi1として設定される。
Therefore, in the present embodiment, the score value of the pattern matching based on the normalized correlation is used as an evaluation criterion, and the search area is appropriately updated, thereby flexibly responding to the speed of the moving object. Tracking. Specifically, a method of setting a search area and setting a reference pattern used for pattern matching will be described with reference to the flowchart of FIG. Step S
At 31, a time-series image f (x, y, t) (t = 1 to F) is input from the image input unit 2 to the search area setting unit 4. In step S32, the characteristic window is set as described with reference to the flowcharts of FIGS. The set feature window (the feature window stored in the reference pattern setting 5) is set as the initial feature pattern T i1 .

【0043】ステップS3において、探索領域設定部4
は、時刻tを時刻t+1にし、再帰モードフラグT Cont
inueを有効に設定する。時刻tを時刻t+1にすること
により、処理対象画像がf(x,y,t+1)になる。
ステップS34において、探索領域設定部4は、探索領
域の初期設定を行う。初期設定される探索領域として
は、例えば、大きさをw×w(特徴ウィンドーと同じ大
きさ)とし、中心座標を(Xik+DXik,Yik+D
ik)と設定する。正規化パターンマッチング部7は、
ステップS34において、探索領域設定部4が設定した
探索領域内を、基準パターン設定部5に記憶されスイッ
チ6を介して入力されると基準パターンTi1を用い
て、パターンマッチングの処理を行う。
In step S3, the search area setting unit 4
Sets the time t to the time t + 1 and sets the recursive mode flag T Cont
Enable inue. By setting the time t to the time t + 1, the processing target image becomes f (x, y, t + 1).
In step S34, the search area setting unit 4 performs initial setting of the search area. As the search area to be initially set, for example, the size is set to w × w (the same size as the feature window), and the center coordinates are (X ik + DX ik , Y ik + D)
Y ik ). The normalized pattern matching unit 7
In step S34, when the search area set by the search area setting unit 4 is stored in the reference pattern setting unit 5 and input via the switch 6, pattern matching processing is performed using the reference pattern Ti1.

【0044】スコア値判定部9は、ステップS36にお
いて、正規化パターンマッチング部7によるマッチング
度(スコア値)が、予め設定されている閾値T1より大
きいか否かが判定される。閾値T1としては、例えば、
80(%)と設定される。ステップS36において、ス
コア値が閾値T1より大きいと判定された場合、ステッ
プS42に進み、時刻tが最終フレームの時刻Fよりも
大きいか否か、換言すれば、処理すべき画像f(x、
y、t)が残っているか否かが判定される。ステップS
42において、時刻tが最終フレームの時刻Fよりも小
さいと判定された場合、ステップS33に戻り、それ以
降の処理が繰り返される。
The score value determination unit 9, in step S36, the matching degree by normalizing the pattern matching section 7 (score value), whether the thresholds T 1 is greater than that has been set in advance. The threshold value T 1, for example,
80 (%) is set. In step S36, if the score value is determined to be greater than the threshold value T 1, the process proceeds to step S42, whether the time t is greater than time F of the last frame, in other words, the image f (x to be processed,
It is determined whether or not y, t) remains. Step S
If it is determined at 42 that the time t is smaller than the time F of the last frame, the process returns to step S33, and the subsequent processing is repeated.

【0045】一方、ステップS36において、スコア値
が閾値T1よりも小さいと判定された場合、ステップS
37に進む。スコア値判定部9には、正規化パターンマ
ッチング部7からスコア値の他に、探索領域に関するデ
ータも供給され、そのデータを用いて、ステップS37
の処理を行う。すなわち、ステップS37においてスコ
ア値判定部9は、探索領域が、予め設定されている閾値
2よりも小さいか否かを判定する。このステップS3
7の処理は、スコア値判定部9が、探索領域設定部4に
指示を出すことにより、探索領域設定部4が行うように
しても良いが、ここでは、スコア値判定部9が行うとし
て説明する。
On the other hand, if in step S36, it is determined as the score value is smaller than the threshold value T 1, step S
Proceed to 37. The score value determining unit 9 is also supplied with data on the search area in addition to the score value from the normalized pattern matching unit 7, and uses the data to execute step S37.
Is performed. That is, the score value determination unit 9 in step S37, the search area is determined or smaller or not than the threshold value T 2 which is set in advance. This step S3
The process of 7 may be performed by the search area setting unit 4 by giving an instruction to the search area setting unit 4 by the score value determining unit 9, but here, it is assumed that the score value determining unit 9 performs the processing. I do.

【0046】本実施の形態においては、探索領域も、適
宜、更新させるわけだが、観測画像(処理対象の画像)
におけるノイズの影響が大きい場合、特徴パターンの追
跡ができなくなる場合が想定されるので、探索領域の最
大値を設定しておく必要がある。そこで、例えば、探索
領域の最大値(閾値T2)を、(W+5DXik)×
(W+5DYik)と設定する。
In the present embodiment, the search area is also updated appropriately, but the observation image (the image to be processed)
In the case where the influence of the noise in is large, it is assumed that the feature pattern cannot be tracked. Therefore, it is necessary to set the maximum value of the search area. Therefore, for example, the maximum value (threshold value T 2 ) of the search area is calculated by (W + 5DXik) ×
(W + 5DYik) is set.

【0047】ステップS37において、スコア値判定部
9が、探索領域が閾値T2よりも小さいと判定した場
合、探索領域設定部4に探索領域の再設定の指示が出さ
れ、ステップS37において、探索領域設定部4は、探
索領域を大きく設定し直す。そして、その更新された探
索領域が用いられて、ステップS35以下の処理が繰り
返される。
[0047] In step S37, the score value determination unit 9 is, if the search area is determined to be smaller than the threshold value T 2, the instruction for resetting the search area to the search area setting unit 4 is issued, at step S37, the search The area setting unit 4 resets the search area to a large value. Then, the processing from step S35 is repeated using the updated search area.

【0048】一方、ステップS37において、探索領域
が閾値T2よりも大きいと判定された場合、ステップS
39に進む。ステップS39において、基準パターン更
新部10は、1フレーム前の画像における特徴パターン
を新たな基準パターンTi(t−1)(x,y)として
設定し、スイッチ6を介して正規化パターンマッチング
部7に出力する。そして、ステップS40において再帰
モードフラグT Continueが有効であるか否かが判定さ
れ、有効であると判定された場合、ステップS41に進
み、再帰モードフラグT Continueが無効に設定され、ス
テップS34に戻り、それ以降の処理が繰り返される。
Meanwhile, if in step S37, it is determined the search area is larger than the threshold value T 2, step S
Proceed to 39. In step S39, the reference pattern updating unit 10 sets the feature pattern in the image one frame before as a new reference pattern Ti (t-1) (x, y), and via the switch 6, the normalized pattern matching unit 7 Output to Then, in step S40, it is determined whether or not the recursive mode flag T Continue is valid. If it is determined that the recursive mode flag T Continue is valid, the process proceeds to step S41, the recursive mode flag T Continue is set to invalid, and the process returns to step S34. , And the subsequent processes are repeated.

【0049】一方、ステップS40において、再帰モー
ドフラグT Continueが有効ではないと判定された場合、
ステップS42に進み、時刻tは、最終フレームの時刻
Fよりも大きいか否かが判定され、大きいと判定された
場合、ステップS33に戻り、それ以降の処理が繰り返
され、大きくはないと判定、すなわち処理対象画像がな
いと判定された場合、このフローチャートの処理は終了
される。このフローチャートが終了される際、スコア値
判定部9は、追跡結果出力部8に対して、得られた追跡
結果を追跡結果処理部11に出力する許可信号を出力す
る。
On the other hand, if it is determined in step S40 that the recursive mode flag T Continue is not valid,
Proceeding to step S42, it is determined whether or not the time t is greater than the time F of the last frame. If it is determined that the time t is greater, the process returns to step S33, and the subsequent processing is repeated to determine that the time is not greater. That is, when it is determined that there is no image to be processed, the processing of this flowchart ends. When this flowchart ends, the score value determination unit 9 outputs a permission signal to the tracking result output unit 8 to output the obtained tracking result to the tracking result processing unit 11.

【0050】図6のフローチャートを参照して説明した
探索領域と基準パターンの設定について、図7と図8を
参照してさらに説明する。図7は、探索領域の設定の仕
方(ステップS34乃至S38の処理)を説明する図で
ある。kフレーム目の画像f(x,y,k)における基
準となる基準パターンをTik(x,y)(i=1,
…,P)とし、画像f(x,y,k)における、基準パ
ターンの中心座標値を(Xik,Yik)とし、(k−
1)フレーム目からkフレーム目までの基準パターンの
移動距離を(DXik,DYik)とする。(k+1)
フレーム目の画像f(x,y,k+1)における基準パ
ターンを追跡するために、探索領域の初期値として、大
きさをw×wとし、中心座標を(Xik+DXik,Y
ik+DYik)と設定する(ステップS34の処
理)。
The setting of the search area and the reference pattern described with reference to the flowchart of FIG. 6 will be further described with reference to FIGS. 7 and 8. FIG. 7 is a diagram illustrating how to set a search area (the processing of steps S34 to S38). The reference pattern serving as a reference in the image f (x, y, k) of the k-th frame is represented by Tik (x, y) (i = 1,
, P), the center coordinate value of the reference pattern in the image f (x, y, k) is (Xik, Yik), and (k−
1) The moving distance of the reference pattern from the frame to the k-th frame is (DXik, DYik). (K + 1)
In order to track the reference pattern in the image f (x, y, k + 1) of the frame, the size is set to w × w and the center coordinate is set to (Xik + DXik, Y) as the initial value of the search area.
ik + DYik) (step S34).

【0051】そして、基準パターンTit(x,y)
(i=1,…,P,t<k)を用いて、設定された探索
領域内でパターンマッチング(ステップS35の処理)
を行い、そのスコア値が用意された閥値T1より小さけ
れば(ステップS36の処理)、XY方向で探索領域を
拡大し(ステップS37,S38の処理)、再度、新た
に設定された探索領域内でパターンマッチングを行う。
パターンマッチングのスコア値が用意された閥値T1
り大きくなる時点で、追跡処理が終了する。
Then, the reference pattern Tit (x, y)
Using (i = 1,..., P, t <k), pattern matching within the set search area (processing in step S35)
If the conducted, less than faction value T 1 that the score value is prepared (in step S36), expanding the search area in the XY direction (process of step S37, S38), again, the newly set search area Perform pattern matching within.
When the score value of the pattern matching is larger than the clique value T 1 that is prepared, the tracking process is completed.

【0052】領域1(ここで、初期探索領域とする)に
おいてパターンマッチングによって運動対象を追跡する
と、スコア値が閾値T1より小さいので、探索領域が領
域2にまで拡大され、再度追跡が行なわれる。領域2で
も、運動対象を追跡することができない(スコア値が閾
値T1よりも小さい)ので、このような操作が繰り返え
されて、探索領域を領域3まで拡大される。領域3まで
拡大された場合、運動対象が追跡され、処理が完了す
る。
[0052] region 1 (where the initial search area) when tracking the motion object by pattern matching in, since the score value is smaller than the threshold value T 1, the search area is expanded to the region 2, is performed tracked again . Even in the area 2, the moving object cannot be tracked (the score value is smaller than the threshold value T 1 ), and thus such an operation is repeated to expand the search area to the area 3. When the area is enlarged to the area 3, the moving object is tracked, and the processing is completed.

【0053】図8は、基準パターンの更新(ステップS
39の処理)を説明する図である。追跡対象の運動姿勢
またはカメラの視点変化により、一般に正規化相関を用
いるテンプレートマッチングのスコア値が小さくなる。
そのため、テンプレートを変形させる(例えば、回転な
ど)ことによってマッチングのスコア値を上げる手法も
提案されているが、処理時間が非常に長くなるので、特
徴パターンを高速に追跡することが困難である。そこ
で、より確実で高速に特徴パターンを追跡するために、
本実施の形態においては、テンプレートマッチングの基
準パターンを時間的に更新する手法を用いた。
FIG. 8 shows the updating of the reference pattern (step S
FIG. 39 is a diagram illustrating the process (39). Generally, the score value of template matching using normalized correlation becomes smaller due to the movement posture of the tracking target or a change in the viewpoint of the camera.
Therefore, a method of increasing the matching score value by deforming (for example, rotating) the template has also been proposed. However, since the processing time is extremely long, it is difficult to track the feature pattern at high speed. Therefore, in order to track feature patterns more reliably and faster,
In the present embodiment, a method of temporally updating the reference pattern for template matching is used.

【0054】時間的に基準パターンを更新する場合、フ
レーム毎または一定のフレーム間隔毎に更新していく手
法もあるが、追跡対象の運動姿勢や速度により、フレー
ム毎に基準パターンを更新することは効率的ではなく、
追跡処理の誤差が累積されるという可能性もある。ま
た、一定のフレーム間隔毎に基準パターンを更新してい
くことは、効率的にはよいが、その適切なパターン更新
時間間隔の設定が容易ではない。そこで、本実施の形態
においては、正規化相関によるパターンマッチングのス
コア値を基準パターン更新の評価基準として用いて、基
準パターンを更新し、特徴パターンの追跡を行う。上述
したように、特徴点(パターン)が検出され、1フレー
ム目の画像における特徴パターンを検出し、それらを初
期の基準パターンTi1(x,y)(i=1,…,P)
とする。
When the reference pattern is updated temporally, there is a method of updating the reference pattern for each frame or at a constant frame interval. However, it is not possible to update the reference pattern for each frame depending on the movement posture and speed of the tracking target. Not efficient
It is also possible that errors in the tracking process are accumulated. Updating the reference pattern at regular frame intervals is efficient, but it is not easy to set an appropriate pattern update time interval. Therefore, in the present embodiment, the reference pattern is updated and the feature pattern is tracked using the score value of the pattern matching based on the normalized correlation as an evaluation criterion for updating the reference pattern. As described above, the feature points (patterns) are detected, the feature patterns in the image of the first frame are detected, and these are used as the initial reference patterns Ti1 (x, y) (i = 1,..., P).
And

【0055】また、それらの基準パターンを時系列画像
f(x,y,t)(t>1)に適用し、正規化相関によ
るパターンマッチングを行い、マッチングのスコア値が
設定されていた閥値T1より小さくなる場合、その一つ
前のフレーム画像における特徴パターンを新たな基準パ
ターンとして更新する。また、画像内のノイズによっ
て、追跡対象の運動姿勢が変わらなくても、マッチング
のスコア値が低下することも考えられるので、実際に、
基準パターン更新の評価基準とするマッチングスコアの
閥値T1は、上述したように80%ぐらいと設定した方
が適切である。
Further, those reference patterns are applied to the time-series image f (x, y, t) (t> 1), pattern matching is performed by normalized correlation, and the threshold value for which the matching score value has been set is set. If less than T 1, to update the feature pattern in the previous frame image as a new reference pattern. In addition, even if the movement posture of the tracking target does not change due to the noise in the image, the matching score value may decrease, so in practice,
Clique value T 1 of the matching score to be evaluated criteria of the reference pattern updating, it is better to set the around 80%, as described above.

【0056】1フレーム目の画像から特徴(点)パター
ンを基準パターンTi1(x,y)として検出し、正規
化相関によるパターンマッチングを用いて、そのマッチ
ングスコア値を追跡の評価基準とし、2フレーム目の画
像、3フレーム目の画像における同一対象を追跡する。
また、対象の回転などによって、4フレーム目の画像に
おける追跡対象のマッチングスコア値が設定された閾値
1より小さくなるので、その一つ前のフレーム画像に
おける対象パターンを新たな基準パターンとする。そし
て、その新たな基準パターンを用いて、4フレーム目の
画像における同一対象を追跡する。このような基準パタ
ーン更新の処理を繰り返すことによって、追跡対象の回
転などの運動姿勢変化に対して、より信頼性の高い特徴
追跡が可能となる。
A feature (point) pattern is detected as a reference pattern Ti1 (x, y) from the image of the first frame, and the matching score value is used as a tracking evaluation criterion using pattern matching by normalized correlation. The same object is tracked in the eye image and the third frame image.
Also, depending on the rotation of the target, since the matching score value tracked in the fourth frame image is smaller than the thresholds T 1, which is set to the target pattern at the previous frame image as a new reference pattern. Then, the same target in the image of the fourth frame is tracked using the new reference pattern. By repeating such a reference pattern update process, more reliable feature tracking becomes possible with respect to changes in the movement posture such as rotation of the tracking target.

【0057】このようにして得られた追跡結果は、追跡
結果出力部8から追跡結果処理部11に出力される。追
跡結果処理部11は、図9のフローチャートを参照して
説明する処理を行うことにより、追跡結果の解析を行
う。
The tracking result thus obtained is output from the tracking result output unit 8 to the tracking result processing unit 11. The tracking result processing unit 11 analyzes the tracking result by performing the processing described with reference to the flowchart in FIG.

【0058】得られた追跡結果をそのまま用いずに、解
析を行う理由は、例えば、以下に上げるような理由があ
る。連続的に撮影された時系列画像において、環境光の
変化(光の反射など)、焦点ボケ、対象の回転などによ
る運動姿勢変化やパターン更新による累積追跡誤差、デ
ジタル画像の量子化誤差などにより、一定の時間間隔に
わたって、すべての瞬間でも運動対象を確実に追跡でき
るとは限らない。上述の探索領域の設定、基準パターン
更新といった手法を適用しても、実際に、追跡誤差や誤
追跡などが発生することが少なくない。
The reason why the analysis is performed without using the obtained tracking result as it is is as follows. In time series images taken continuously, due to changes in environmental light (such as light reflection), defocusing, changes in movement posture due to rotation of the object, cumulative tracking errors due to pattern updates, quantization errors in digital images, etc. It is not always possible to track a moving object at all moments over a certain time interval. Even if the above-described techniques such as the setting of the search area and the updating of the reference pattern are applied, tracking errors and erroneous tracking often occur.

【0059】そこで、本実施の形態では、一般的に運動
対象の動きが連続的であると考えられることから、追跡
された特徴点座標データに対して、最小二乗法を用いる
ことにより追跡データの解析を行う手法を示す。ステッ
プS61において、追跡結果出力部8から追跡結果処理
部11に2F×Pからなる特徴点の追跡結果が出力され
る。その結果、追跡結果処理部11には、数Pとなる特
徴点のFフレームにおけるxとyの座標値が入力され
る。その入力された座標値に対して、ステップS62に
おいて、エネルギー最小化関数を用いるN次曲線の係数
の算出が行われる。
Therefore, in the present embodiment, since the movement of the moving object is generally considered to be continuous, the tracking data of the tracking data is obtained by using the least squares method for the tracked feature point coordinate data. The method of performing the analysis is shown. In step S61, the tracking result of the 2F × P feature point is output from the tracking result output unit 8 to the tracking result processing unit 11. As a result, the tracking result processing unit 11 receives the coordinate values of x and y in the F frame of the feature points of the number P. In step S62, the coefficients of the Nth-order curve using the energy minimizing function are calculated for the input coordinate values.

【0060】ステップS63において、N次曲線による
特徴点のx座標値とy座標値が推測(算出)される。そ
の推測値と、実際に入力された実測値とが、ステップS
64において比較され、その比較結果が、すなわち誤差
が、閾値より大きいか否かがステップS65において判
定され、閾値より大きいと判定された場合、その追跡軌
跡を不確かな追跡軌跡と決定し、そのデータを用いない
(削除)する。
In step S63, the x-coordinate value and the y-coordinate value of the characteristic point based on the Nth order curve are estimated (calculated). The estimated value and the actually input actual value are used in step S
64, it is determined in step S65 whether the comparison result, that is, the error is greater than a threshold, and if it is determined that the error is greater than the threshold, the tracking trajectory is determined as an uncertain tracking trajectory, and the data Is not used (deleted).

【0061】ステップS66において、全ての追跡軌跡
(特徴点座標値)の解析が完了したか否かが判定され、
完了していないと判定された場合、ステップS62に戻
り、それ以降の処理が繰り返され、完了したと判定され
た場合、このフォローチャート(追跡結果の解析処理)
は終了される。
In step S66, it is determined whether or not the analysis of all the tracking trajectories (feature point coordinate values) has been completed.
When it is determined that the processing has not been completed, the process returns to step S62, and the subsequent processing is repeated. When it is determined that the processing has been completed, this follow chart (processing of analyzing the tracking result) is performed.
Is terminated.

【0062】上述した追跡画像のデータの解析は、具体
的には、以下に示すような式により算出されることによ
り行われる。すなわち、まず、1フレーム目の画像f
(x,y,1)における中心座標Pi1(xi1,yi
1)となる基準パターンTi1(x,y)(i=1,
…,P)を用いて、kフレームの時系列画像に対して、
基準パターンを更新しながら追跡されたk組の対象パタ
ーンの中心座標をPit(xit,yit)(t=1,
2,…,k)と記する。また、運動対象の動き軌跡が次
式(4)のようにn次曲線で表すことができる。
The analysis of the tracking image data described above is specifically performed by calculation using the following equation. That is, first, the image f of the first frame
Center coordinates Pi1 (xi1, yi) at (x, y, 1)
1) reference pattern Ti1 (x, y) (i = 1,
.., P), for a time-series image of k frames,
The center coordinates of k sets of target patterns tracked while updating the reference pattern are represented by Pit (xit, yit) (t = 1,
2,..., K). Further, the motion trajectory of the motion target can be represented by an n-th order curve as in the following equation (4).

【0063】 anxn+an−1xn−1+・・・+a1x +bnxn+bn−1xn−1+・・・+b1y−1=0 ・・・(4)Anxn + an-1xn-1 + ... + a1x + bnxn + bn-1xn-1 + ... + b1y-1 = 0 (4)

【0064】式(4)のn次曲線の係数を決めるため
に、k≧(2n+1)を満たさなければならない。ま
た、上式(4)を次式(5)のように書き換えることが
できる。
In order to determine the coefficient of the n-th order curve of the equation (4), k ≧ (2n + 1) must be satisfied. The above equation (4) can be rewritten as the following equation (5).

【0065】 [Mxy]・[Pab]=[I] ・・・(5) ここで、[Mxy] · [Pab] = [I] (5) where

【0066】[0066]

【数2】 (Equation 2)

【0067】[0067]

【数3】 (Equation 3)

【0068】[0068]

【数4】 (Equation 4)

【0069】n次曲線の係数パラメータ[Pab]を求
めるために、次のエネルギー関数Eを導入し、それを最
小化するような解を求める。即ち、 E=([Mxy]・[Pab]−[I])T×([Mxy]・[Pab]−[ I]) ・・・ (9) をエネルギー関数Eとし、それを最小化する(∂E/∂
[Pab]=0)を求めることによって、[Pab]が
次式(10)のように求められる。
In order to find the coefficient parameter [Pab] of the nth order curve, the following energy function E is introduced, and a solution that minimizes it is found. That is, E = ([Mxy] · [Pab] − [I]) T × ([Mxy] · [Pab] − [I]) (9) is defined as an energy function E, and is minimized ( ∂E / ∂
By calculating [Pab] = 0), [Pab] is obtained as in the following equation (10).

【0070】 [Pab]=([Mxy]T・[Mxy])−1・[Mxy]T・[I] ・・・(10) このようなn次曲線による追跡軌跡の修正処理を全ての
特徴点に対して行うことにより、運動対象の運動軌跡を
より確実に追跡することができる。
[Pab] = ([Mxy] T · [Mxy]) − 1 · [Mxy] T · [I] (10) The tracking trajectory correction processing using the nth-order curve is performed in all the features. By performing the operation on the points, the motion trajectory of the motion target can be more reliably tracked.

【0071】このようにして得られた運動対象の運動軌
跡を追跡した結果(追跡結果処理部11から出力される
結果)は、例えば3次元モデルの復元などに用いられ
る。
The result obtained by tracking the movement trajectory of the movement target (the result output from the tracking result processing unit 11) is used for, for example, restoring a three-dimensional model.

【0072】次に、28枚の時系列画像を用いて被写体
の動きを追跡した場合の一例を図10以降を参照して説
明する。図10に28枚(フレーム)の時系列画像のう
ち、初めの1乃至4フレームと、終わりの25乃至28
フレームを示した。中央に円筒を備えた四角いブロック
が、追跡対象の被写体であり、その被写体が徐々に、右
回りに回転している様子が示されている。
Next, an example in which the movement of a subject is tracked using 28 time-series images will be described with reference to FIGS. FIG. 10 shows the first 1 to 4 frames and the last 25 to 28 frames out of 28 time-series images (frames).
Frame shown. A square block having a cylinder at the center is a subject to be tracked, and shows that the subject is gradually rotating clockwise.

【0073】このフレーム1の画像から、図3,4のフ
ローチャートを参照して説明した処理により、特徴点を
抽出すると、図11に示したような結果となる。図11
に示した例では、34個の特徴点が抽出され、それらの
34個の特徴点から構成される特徴パターン(基準パタ
ーン)を示している。さらに、28枚の時系列画像を上
述したような処理により追跡すると、その追跡結果は、
図12に示したようになる。図12において、白線が、
各特徴点を追跡した結果の軌跡を示したものである。
When the feature points are extracted from the image of frame 1 by the processing described with reference to the flowcharts of FIGS. 3 and 4, the result shown in FIG. 11 is obtained. FIG.
In the example shown in (3), 34 feature points are extracted, and a feature pattern (reference pattern) composed of the 34 feature points is shown. Further, when the 28 time-series images are tracked by the above-described processing, the tracking result is as follows.
As shown in FIG. In FIG. 12, the white line is
It shows a trajectory as a result of tracking each feature point.

【0074】図13には、正規化相関によるテンプレー
トマッチングを用いる第2番目の特徴点の追跡結果を示
した。対象の回転、カメラの視点変化などによって、テ
ンプレートマッチングによる同一対象の追跡が困難とな
るが、探索領域の設定や基準パターンの更新などによ
り、より確実な特徴パターンの追跡が可能となる。さら
に、対象の回転などにより、追跡中の累積誤差が生じる
ことがあるが、最小二乗法により推定されたn次曲線を
用いて、その追跡軌跡を修正し、より滑らかな対象の運
動の軌跡を得ることができる。図14には、このような
手法によって図13に示された第2番目の特徴点の運動
の軌跡を修正した結果を示した。
FIG. 13 shows the result of tracking the second feature point using template matching by normalized correlation. Tracking of the same target by template matching becomes difficult due to rotation of the target, a change in the viewpoint of the camera, and the like. However, more accurate tracking of the feature pattern can be performed by setting a search area or updating a reference pattern. In addition, the accumulated error during tracking may occur due to the rotation of the target, etc., and the tracking trajectory is corrected using the n-th order curve estimated by the least squares method, and a smoother trajectory of the motion of the target is obtained. Obtainable. FIG. 14 shows the result of correcting the motion trajectory of the second feature point shown in FIG. 13 by such a method.

【0075】このように、被写体の動きを追跡し、処理
することにより、時系列画像を用いる因子分解法による
3次元形状とカメラの動きの復元において、最も重要と
なる特徴点の自動追跡を精度良く実現することが可能と
なる。また、探索領域の設定、追跡対象の変形への対
応、追跡結果(軌跡)のデータ解析を行うことにより、
特徴追跡方での追跡の信頼性を向上させることが可能と
なる。
In this way, by tracking and processing the movement of the subject, the automatic tracking of the most important feature points in the restoration of the three-dimensional shape and the movement of the camera by the factor decomposition method using the time-series image can be performed with high accuracy. It can be realized well. In addition, by setting the search area, responding to the deformation of the tracking target, and analyzing the data of the tracking result (trajectory),
It is possible to improve the reliability of tracking in the feature tracking method.

【0076】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。一連の処理をソフトウェアにより
実行させる場合には、そのソフトウェアを構成するプロ
グラムが、専用のハードウエアとしての画像処理装置1
に組み込まれているコンピュータ、または、各種のプロ
グラムをインストールすることで、各種の機能を実行す
ることが可能な、例えば、汎用のパーソナルコンピュー
タなどにインストールされる。
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software is executed by the image processing apparatus 1 as dedicated hardware.
It is installed in, for example, a general-purpose personal computer or the like, which can execute various functions by installing a computer incorporated in the PC or various programs.

【0077】次に、図15を参照して、上述した一連の
処理を実行するプログラムをコンピュータにインストー
ルし、コンピュータによって実行可能な状態とするため
に用いられる媒体について、そのコンピュータが汎用の
パーソナルコンピュータである場合を例として説明す
る。
Next, referring to FIG. 15, regarding a medium used for installing a program for executing the above-described series of processes in a computer and making the computer executable, the computer is a general-purpose personal computer. The following is an example of the case.

【0078】プログラムは、図15(A)に示すよう
に、パーソナルコンピュータ31に内蔵されている記録
媒体としてのハードディスク32や半導体メモリ33に
予めインストールした状態でユーザに提供することがで
きる。
As shown in FIG. 15A, the program can be provided to the user in a state where the program is previously installed in a hard disk 32 or a semiconductor memory 33 as a recording medium built in the personal computer 31.

【0079】あるいはまた、プログラムは、図15
(B)に示すように、フロッピーディスク41、CD-ROM
(Compact Disk-Read Only Memory)42、MO(Magne
to-Optical)43、DVD(Digital Versatile Disk)4
4、磁気ディスク45、半導体メモリ46などの記録媒
体に、一時的あるいは永続的に格納し、パッケージソフ
トウェアとして提供することができる。
Alternatively, the program is executed as shown in FIG.
As shown in (B), floppy disk 41, CD-ROM
(Compact Disk-Read Only Memory) 42, MO (Magne
to-Optical) 43, DVD (Digital Versatile Disk) 4
4. It can be temporarily or permanently stored in a recording medium such as a magnetic disk 45 or a semiconductor memory 46 and provided as package software.

【0080】さらに、プログラムは、図15(C)に示
すように、ダウンロードサイト51から、デジタル衛星
放送用の人工衛星52を介してパーソナルコンピュータ
31に無線で転送したり、ローカルエリアネットワー
ク、インターネットといったネットワーク61を介し
て、パーソナルコンピュータ31に有線で転送し、パー
ソナルコンピュータ31において、内蔵するハードディ
スクなどに格納させることができる。
Further, as shown in FIG. 15C, the program is wirelessly transferred from the download site 51 to the personal computer 31 via the artificial satellite 52 for digital satellite broadcasting, or transmitted from the local area network or the Internet. The data can be transferred to the personal computer 31 via the network 61 by wire, and can be stored in a built-in hard disk or the like in the personal computer 31.

【0081】本明細書における媒体とは、これら全ての
媒体を含む広義の概念を有するものである。
The medium in the present specification has a broad concept including all these media.

【0082】パーソナルコンピュータ31は、例えば、
図16に示しように、CPU(CentralProcessing Unit)
72を内蔵している。CPU72にはバス71を介して入
出力インタフェース75が接続されており、CPU72
は、入出力インタフェース75を介して、ユーザから、
キーボード、マウスなどよりなる入力部77から指令が
入力されると、それに対応して、図15(A)の半導体
メモリ33に対応するROM(Read Only Memory)73に
格納されているプログラムを実行する。あるいはまた、
CPU72は、ハードディスク72に予め格納されている
プログラム、衛星52もしくはネットワーク61から転
送され、通信部78により受信され、さらに、ハードデ
ィスク32にインストールされたプログラム、またはド
ライブ79に装着されたフロッピーディスク41、CD-R
OM42、MOディスク43、DVD44、もしくは磁気ディ
スク45から読み出され、ハードディスク32にインス
トールされたプログラムをRAM(Random Access Memor
y)44にロードして実行する。さらに、CPU72は、そ
の処理結果を、例えば、入出力インタフェース75を介
して、LCD(Liquid Crystal Display)などよりなる表
示部76に必要に応じて出力する。
The personal computer 31, for example,
As shown in FIG. 16, a CPU (Central Processing Unit)
72 are built-in. An input / output interface 75 is connected to the CPU 72 via a bus 71.
From the user via the input / output interface 75
When a command is input from an input unit 77 including a keyboard, a mouse, and the like, a program stored in a ROM (Read Only Memory) 73 corresponding to the semiconductor memory 33 in FIG. . Alternatively,
The CPU 72 is a program stored in the hard disk 72 in advance, transferred from the satellite 52 or the network 61, received by the communication unit 78, and further installed in the hard disk 32 or the floppy disk 41 attached to the drive 79. CD-R
The program read from the OM 42, the MO disk 43, the DVD 44, or the magnetic disk 45 and installed on the hard disk 32 is stored in a RAM (Random Access Memory).
y) Load to 44 and execute. Further, the CPU 72 outputs the processing result to a display unit 76 such as an LCD (Liquid Crystal Display) via the input / output interface 75 as necessary.

【0083】なお、本明細書において、媒体により提供
されるプログラムを記述するステップは、記載された順
序に従って、時系列的に行われる処理は勿論、必ずしも
時系列的に処理されなくとも、並列的あるいは個別に実
行される処理をも含むものである。
In this specification, steps for describing a program provided by a medium are not limited to time-series processing, but may be performed in parallel according to the described order. Alternatively, it also includes individually executed processing.

【0084】[0084]

【発明の効果】以上の如く請求項1に記載の画像処理装
置、請求項4に記載の画像処理方法、請求項5に記載の
媒体によれば、入力された画像の各画素に対して微分画
像情報を用いて定義された特徴量行列の固有値を求め、
その固有値が閾値以上である点を特徴点として抽出し、
抽出された特徴点を含む所定の数の画素を基準パターン
として設定し、画像の所定の領域内で基準パターンとの
類似度を算出し、類似度が所定値以上である領域を、複
数の画像にわたって探索することにより、画像の所定の
被写体を追跡するようにしたので、特徴追跡の精度を高
くすることが可能となる。
As described above, according to the image processing apparatus according to the first aspect, the image processing method according to the fourth aspect, and the medium according to the fifth aspect, each pixel of the input image is differentiated. Find the eigenvalue of the feature matrix defined using the image information,
A point whose eigenvalue is equal to or greater than a threshold is extracted as a feature point,
A predetermined number of pixels including the extracted feature points is set as a reference pattern, a degree of similarity with the reference pattern is calculated in a predetermined area of the image, and an area where the degree of similarity is equal to or more than a predetermined value is defined as a plurality of By searching over a predetermined subject in the image, the accuracy of feature tracking can be improved.

【0085】また請求項6に記載の画像処理装置、請求
項9に記載の画像処理方法、および請求項10に記載の
媒体によれば、入力された画像から特徴点を抽出し、抽
出された特徴点を含む所定の数の画素を基準パターンと
して設定し、画像内で所定の大きさの探索領域を設定
し、探索領域内で基準パターンとの類似度を算出し、類
似度が所定値より大きいと判断されなかった場合、探索
領域を再設定し、類似度が所定値より大きいと判断され
た場合の領域を、複数の画像にわたって探索することに
より、画像の所定の被写体を追跡し、類似度が所定値よ
り大きいと判断されるまで、または、再設定された探索
領域が、所定の大きさの領域以上であると判断されるま
で、類似度の算出や所定値との比較が、繰り返し行われ
るようにしたので、特徴追跡の精度を高くすることが可
能となる。
According to the image processing apparatus of the sixth aspect, the image processing method of the ninth aspect, and the medium of the tenth aspect, a feature point is extracted from an input image and extracted. A predetermined number of pixels including a feature point is set as a reference pattern, a search area of a predetermined size is set in an image, and a similarity with the reference pattern is calculated in the search area. If it is not determined to be larger, the search area is reset, and the area where the similarity is determined to be larger than the predetermined value is searched for over a plurality of images, thereby tracking a predetermined subject in the image, and The calculation of the similarity and the comparison with the predetermined value are repeatedly performed until it is determined that the degree is larger than the predetermined value, or until it is determined that the reset search area is equal to or larger than the predetermined size. So that It is possible to increase the accuracy of the symptoms tracking.

【0086】さらに請求項11に記載の画像処理装置、
請求項14に記載の画像処理方法、および請求項15に
記載の媒体によれば、入力された画像から特徴点を抽出
し、抽出された特徴点を含む所定の数の画素を基準パタ
ーンとして設定し、画像内の所定の領域内で基準パター
ンとの類似度を算出し、類似度が所定値より大きいと判
断されなかった場合、基準パターンを再設定し、類似度
が所定値より大きいと判断された場合の領域を、複数の
画像にわたって探索することにより、画像の所定の被写
体を追跡し、類似度が所定値より大きいと判断されるま
で、基準パターンの再設定や類似度の算出が繰り返し行
われるようにしたので、特徴追跡の精度を高くすること
が可能となる。
An image processing apparatus according to claim 11,
According to the image processing method of the present invention, a feature point is extracted from an input image, and a predetermined number of pixels including the extracted feature point is set as a reference pattern. Then, the similarity with the reference pattern is calculated in a predetermined area in the image, and if the similarity is not determined to be larger than the predetermined value, the reference pattern is reset and the similarity is determined to be larger than the predetermined value. A predetermined subject in the image is tracked by searching for the region in the case where a plurality of images have been obtained, and the resetting of the reference pattern and the calculation of the similarity are repeated until the similarity is determined to be larger than the predetermined value. Since it is performed, it is possible to increase the accuracy of feature tracking.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の特徴追跡について説明する図である。FIG. 1 is a diagram for describing conventional feature tracking.

【図2】本発明を適用した画像処理装置の構成を示す図
である。
FIG. 2 is a diagram illustrating a configuration of an image processing apparatus to which the present invention has been applied.

【図3】特徴点抽出処理について説明するフローチャー
トである。
FIG. 3 is a flowchart illustrating a feature point extraction process.

【図4】図3に続くフローチャートである。FIG. 4 is a flowchart following FIG. 3;

【図5】特徴点の抽出を説明する図である。FIG. 5 is a diagram illustrating extraction of a feature point.

【図6】探索領域設定と、基準パターンの設定について
説明するフローチャートである。
FIG. 6 is a flowchart illustrating search area setting and reference pattern setting.

【図7】探索領域の設定について説明する図である。FIG. 7 is a diagram illustrating setting of a search area.

【図8】基準パターンの設定について説明する図であ
る。
FIG. 8 is a diagram illustrating setting of a reference pattern.

【図9】追跡結果の処理について説明するフローチャー
トである。
FIG. 9 is a flowchart illustrating processing of a tracking result.

【図10】追跡結果を得たい時系列画像を示した図であ
る。
FIG. 10 is a diagram showing a time-series image for which it is desired to obtain a tracking result.

【図11】特徴点を抽出した結果を示す図である。FIG. 11 is a diagram showing a result of extracting feature points.

【図12】追跡結果を軌跡として示した図である。FIG. 12 is a diagram showing a tracking result as a trajectory.

【図13】追跡結果示したグラフである。FIG. 13 is a graph showing a tracking result.

【図14】図13のグラフで示した結果を修正したとき
のグラフである。
FIG. 14 is a graph when the result shown in the graph of FIG. 13 is corrected.

【図15】媒体を説明する図である。FIG. 15 is a diagram illustrating a medium.

【図16】図15のパーソナルコンピュータの内部構成
を示すブロック図である。
16 is a block diagram showing an internal configuration of the personal computer shown in FIG.

【符号の説明】[Explanation of symbols]

1 画像処理装置, 2 画像入力部, 3 特徴点抽
出部, 4 探索領域設定部, 5 基準パターン設定
部, 6 スイッチ, 7 正規化パターンマッチング
部, 8 追跡結果出力部, 9 スコア値判定部,
10 基準パターン更新部, 11 追跡結果処理部
1 image processing unit, 2 image input unit, 3 feature point extraction unit, 4 search area setting unit, 5 reference pattern setting unit, 6 switch, 7 normalized pattern matching unit, 8 tracking result output unit, 9 score value judgment unit,
10 Reference pattern update unit, 11 Tracking result processing unit

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 画像を入力する入力手段と、 前記入力手段により入力された前記画像の各画素に対し
て微分画像情報を用いて定義された特徴量行列の固有値
を求め、その固有値が閾値以上である点を特徴点として
抽出する抽出手段と、 前記抽出手段により抽出された特徴点を含む所定の数の
画素を基準パターンとして設定する設定手段と、 前記画像の所定の領域内で前記設定手段により設定され
た前記基準パターンとの類似度を算出する算出手段と、 前記算出手段により算出された前記類似度が所定値以上
である領域を、複数の画像にわたって探索することによ
り、前記画像の所定の被写体を追跡する追跡手段とを含
むことを特徴とする画像処理装置。
An input unit for inputting an image, and an eigenvalue of a feature amount matrix defined using differential image information is obtained for each pixel of the image input by the input unit, and the eigenvalue is equal to or larger than a threshold. Extracting means for extracting a point as a feature point; setting means for setting a predetermined number of pixels including the feature point extracted by the extracting means as a reference pattern; and setting means within a predetermined area of the image. Calculating means for calculating the degree of similarity with the reference pattern set by the method, and searching for a region in which the degree of similarity calculated by the calculating means is equal to or more than a predetermined value over a plurality of images, thereby determining the predetermined degree of the image. And a tracking unit for tracking the subject.
【請求項2】 前記算出手段は、正規化相関法を用い
て、前記類似度を算出することを特徴とする請求項1に
記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the calculating unit calculates the similarity using a normalized correlation method.
【請求項3】 前記追跡手段は、複数の画像にわたって
探索した結果を基に最小2乗法を用いて得られる多次元
関数曲線を追跡結果として用いることを特徴とする請求
項1に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the tracking unit uses a multidimensional function curve obtained by using a least squares method based on a search result over a plurality of images as a tracking result. apparatus.
【請求項4】 画像を入力する入力ステップと、 前記入力ステップの処理で入力された前記画像の各画素
に対して微分画像情報を用いて定義された特徴量行列の
固有値を求め、その固有値が閾値以上である点を特徴点
として抽出する抽出ステップと、 前記抽出ステップの処理で抽出された特徴点を含む所定
の数の画素を基準パターンとして設定する設定ステップ
と、 前記画像の所定の領域内で前記設定ステップの処理で設
定された前記基準パターンとの類似度を算出する算出ス
テップと、 前記算出ステップの処理で算出された前記類似度が所定
値以上である領域を、複数の画像にわたって探索するこ
とにより、前記画像の所定の被写体を追跡する追跡ステ
ップとを含むことを特徴とする画像処理方法。
4. An input step of inputting an image, and an eigenvalue of a feature matrix defined using differential image information for each pixel of the image input in the processing of the input step is obtained. An extraction step of extracting a point equal to or larger than a threshold value as a feature point; a setting step of setting a predetermined number of pixels including the feature point extracted in the processing of the extraction step as a reference pattern; A calculating step of calculating a similarity with the reference pattern set in the processing of the setting step, and searching for a region in which the similarity calculated in the processing of the calculating step is equal to or more than a predetermined value over a plurality of images. A tracking step of tracking a predetermined subject in the image.
【請求項5】 入力された前記画像の各画素に対して微
分画像情報を用いて定義された特徴量行列の固有値を求
め、その固有値が閾値以上である点を特徴点として抽出
する抽出ステップと、 前記抽出ステップの処理で抽出された特徴点を含む所定
の数の画素を基準パターンとして設定する設定ステップ
と、 前記画像の所定の領域内で前記設定ステップの処理で設
定された前記基準パターンとの類似度を算出する算出ス
テップと、 前記算出ステップの処理で算出された前記類似度が所定
値以上である領域を、複数の画像にわたって探索するこ
とにより、前記画像の所定の被写体を追跡する追跡ステ
ップとからなることを特徴とするプログラムをコンピュ
ータに実行させる媒体。
5. An extraction step of obtaining an eigenvalue of a feature amount matrix defined using differential image information for each pixel of the input image, and extracting a point whose eigenvalue is equal to or larger than a threshold value as a feature point. A setting step of setting a predetermined number of pixels including the feature points extracted in the processing of the extraction step as a reference pattern; and the reference pattern set in the processing of the setting step in a predetermined area of the image. Calculating a similarity of a plurality of images, and searching for a region in which the similarity calculated in the processing of the calculating step is equal to or more than a predetermined value over a plurality of images, thereby tracking a predetermined subject of the image. And a medium for causing a computer to execute a program comprising steps.
【請求項6】 画像を入力する入力手段と、 前記入力手段により入力された前記画像から特徴点を抽
出する抽出手段と、 前記抽出手段により抽出された特徴点を含む所定の数の
画素を基準パターンとして設定する設定手段と、 前記画像内で所定の大きさの探索領域を設定する探索領
域設定手段と、 前記探索領域設定手段により設定された前記探索領域内
で、前記設定手段により設定された前記基準パターンと
の類似度を算出する算出手段と、 前記算出手段により算出された前記類似度が所定値より
大きいか否かを判断する判断手段と、 前記判断手段により前記類似度が所定値より大きいと判
断されなかった場合、前記探索領域を再設定する再設定
手段と、 前記判断手段により前記類似度が所定値より大きいと判
断された場合の領域を、複数の画像にわたって探索する
ことにより、前記画像の所定の被写体を追跡する追跡手
段とを含み、 前記算出手段、判断手段、および再設定手段の処理は、
前記類似度が所定値より大きいと判断されるまで、また
は、前記再設定手段により設定された探索領域が、所定
の大きさの領域より大きいと判断されるまで繰り返し行
われることを特徴とする画像処理装置。
6. An input unit for inputting an image, an extraction unit for extracting a feature point from the image input by the input unit, and a predetermined number of pixels including the feature point extracted by the extraction unit as a reference. Setting means for setting as a pattern, search area setting means for setting a search area of a predetermined size in the image, and setting by the setting means in the search area set by the search area setting means Calculating means for calculating the degree of similarity with the reference pattern; determining means for determining whether the degree of similarity calculated by the calculating means is greater than a predetermined value; A resetting means for resetting the search area when it is not determined to be large, and an area when the similarity is determined to be larger than a predetermined value by the determining means. By searching across the image, and a tracking means for tracking a predetermined subject of the image, the calculation unit, the processing of the determination means, and resetting means,
The image is repeatedly performed until the similarity is determined to be larger than a predetermined value, or until the search area set by the resetting means is determined to be larger than a predetermined size area. Processing equipment.
【請求項7】 前記算出手段は、正規化相関法を用い
て、前記類似度を算出することを特徴とする請求項6に
記載の画像処理装置。
7. The image processing apparatus according to claim 6, wherein the calculating unit calculates the similarity using a normalized correlation method.
【請求項8】 前記追跡手段は、複数の画像にわたって
探索した結果を基に最小2乗法を用いて得られる多次元
関数曲線を追跡結果として用いることを特徴とする請求
項6に記載の画像処理装置。
8. The image processing apparatus according to claim 6, wherein said tracking means uses a multidimensional function curve obtained by using a least squares method based on a search result over a plurality of images as a tracking result. apparatus.
【請求項9】 画像を入力する入力ステップと、 前記入力ステップの処理で入力された前記画像から特徴
点を抽出する抽出ステップと、 前記抽出ステップの処理で抽出された特徴点を含む所定
の数の画素を基準パターンとして設定する設定ステップ
と、 前記画像内で所定の大きさの探索領域を設定する探索領
域設定ステップと、 前記探索領域設定ステップの処理で設定された前記探索
領域内で、前記設定ステップの処理で設定された前記基
準パターンとの類似度を算出する算出ステップと、 前記算出ステップの処理で算出された前記類似度が所定
値より大きいか否かを判断する判断ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断されなかった場合、前記探索領域を再設定する
再設定ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断された場合の領域を、複数の画像にわたって探
索することにより、前記画像の所定の被写体を追跡する
追跡ステップとを含み、 前記算出ステップ、判断ステップ、および再設定ステッ
プの処理は、前記類似度が所定値より大きいと判断され
るまで、または、前記再設定ステップの処理で設定され
た探索領域が、所定の大きさの領域より大きいと判断さ
れるまで繰り返し行われることを特徴とする画像処理方
法。
9. An input step of inputting an image, an extraction step of extracting a feature point from the image input in the processing of the input step, and a predetermined number including the feature points extracted in the processing of the extraction step A setting step of setting a pixel as a reference pattern, a search area setting step of setting a search area of a predetermined size in the image, and within the search area set in the processing of the search area setting step, A calculating step of calculating a similarity with the reference pattern set in the processing of the setting step; a determining step of determining whether the similarity calculated in the processing of the calculating step is larger than a predetermined value; If the similarity is not determined to be greater than the predetermined value in the processing of the determining step, a resetting step of resetting the search area; A tracking step of tracking a predetermined subject in the image by searching a plurality of images for an area when the similarity is determined to be larger than a predetermined value in the processing of the map, The processing of the determining step and the resetting step is performed until the similarity is determined to be larger than a predetermined value, or when the search area set in the processing of the resetting step is larger than an area of a predetermined size. An image processing method which is repeatedly performed until a determination is made.
【請求項10】 入力された前記画像から特徴点を抽出
する抽出ステップと、 前記抽出ステップの処理で抽出された特徴点を含む所定
の数の画素を基準パターンとして設定する設定ステップ
と、 前記画像内の所定の大きさの探索領域を設定する探索領
域設定ステップと、 前記探索領域設定ステップの処理で設定された前記探索
領域内で、前記設定ステップの処理で設定された前記基
準パターンとの類似度を算出する算出ステップと、 前記算出ステップの処理で算出された前記類似度が所定
値より大きいか否かを判断する判断ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断されなかった場合、前記探索領域を再設定する
再設定ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断された場合の領域を、複数の画像にわたって探
索することにより、前記画像の所定の被写体を追跡する
追跡ステップとからなり、 前記算出ステップ、判断ステップ、および再設定ステッ
プの処理は、前記類似度が所定値より大きいと判断され
るまで、または、前記再設定ステップの処理で設定され
た探索領域が、所定の大きさの領域より大きいと判断さ
れるまで繰り返し行われることを特徴とするプログラム
をコンピュータに実行させる媒体。
10. An extraction step of extracting a feature point from the input image, a setting step of setting a predetermined number of pixels including the feature point extracted in the processing of the extraction step as a reference pattern, A search area setting step of setting a search area of a predetermined size within the area; and a similarity of the reference pattern set in the processing of the setting step in the search area set in the processing of the search area setting step. A calculating step of calculating a degree, a determining step of determining whether or not the similarity calculated in the processing of the calculating step is greater than a predetermined value, and determining that the similarity is greater than a predetermined value in the processing of the determining step. If it is not determined, it is determined that the similarity is larger than a predetermined value in the resetting step of resetting the search area and the processing of the determining step And a tracking step of tracking a predetermined subject in the image by searching for a region in a plurality of images. In the processing of the calculating step, the determining step, and the resetting step, the similarity is a predetermined value. The program is repeatedly executed until it is determined that the search area is larger or the search area set in the processing of the resetting step is determined to be larger than an area of a predetermined size. Medium to be made.
【請求項11】 画像を入力する入力手段と、 前記入力手段により入力された前記画像から特徴点を抽
出する抽出手段と、 前記抽出手段により抽出された特徴点を含む所定の数の
画素を基準パターンとして設定する設定手段と、 前記画像内の所定の領域内で前記設定手段により設定さ
れた前記基準パターンとの類似度を算出する算出手段
と、 前記算出手段により算出された前記類似度が所定値より
大きいか否かを判断する判断手段と、 前記判断手段により前記類似度が所定値より大きいと判
断されなかった場合、前記基準パターンを再設定する再
設定手段と、 前記判断手段により前記類似度が所定値大きいと判断さ
れた場合の領域を、複数の画像にわたって探索すること
により、前記画像の所定の被写体を追跡する追跡手段と
を含み、 前記算出手段、判断手段、および再設定手段の処理は、
前記類似度が所定値より大きいと判断されるまで繰り返
し行われることを特徴とする画像処理装置。
11. An input unit for inputting an image, an extraction unit for extracting a feature point from the image input by the input unit, and a predetermined number of pixels including the feature point extracted by the extraction unit as a reference. Setting means for setting as a pattern; calculating means for calculating a similarity with the reference pattern set by the setting means in a predetermined area in the image; and wherein the similarity calculated by the calculating means is a predetermined value. Determining means for determining whether or not the similarity is greater than a predetermined value; resetting means for resetting the reference pattern when the similarity is not determined to be greater than a predetermined value; Tracking means for tracking a predetermined subject in the image by searching for a region in which the degree is determined to be larger by a predetermined value over a plurality of images; Calculating means, the processing of the determination means, and resetting means,
An image processing apparatus, wherein the processing is repeatedly performed until it is determined that the similarity is larger than a predetermined value.
【請求項12】 前記算出手段は、正規化相関法を用い
て、前記類似度を算出することを特徴とする請求項11
に記載の画像処理装置。
12. The method according to claim 11, wherein the calculating unit calculates the similarity using a normalized correlation method.
An image processing apparatus according to claim 1.
【請求項13】 前記追跡手段は、複数の画像にわたっ
て探索した結果を基に最小2乗法を用いて得られる多次
元関数曲線を追跡結果として用いることを特徴とする請
求項11に記載の画像処理装置。
13. The image processing apparatus according to claim 11, wherein said tracking means uses a multidimensional function curve obtained by using a least-squares method based on a search result over a plurality of images as a tracking result. apparatus.
【請求項14】 画像を入力する入力ステップと、 前記入力ステップの処理で入力された前記画像から特徴
点を抽出する抽出ステップと、 前記抽出ステップの処理で抽出された特徴点を含む所定
の数の画素を基準パターンとして設定する設定ステップ
と、 前記画像内の所定の領域内で前記設定ステップの処理で
設定された前記基準パターンとの類似度を算出する算出
ステップと、 前記算出ステップの処理で算出された前記類似度が所定
値より大きいか否かを判断する判断ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断されなかった場合、前記基準パターンを再設定
する再設定ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断された場合の領域を、複数の画像にわたって探
索することにより、前記画像の所定の被写体を追跡する
追跡ステップとを含み、 前記算出ステップ、判断ステップ、および再設定ステッ
プの処理は、前記類似度が所定値より大きいと判断され
るまで繰り返し行われることを特徴とする画像処理方
法。
14. An input step of inputting an image, an extraction step of extracting feature points from the image input in the processing of the input step, and a predetermined number including the feature points extracted in the processing of the extraction step. A setting step of setting a pixel of the image as a reference pattern; a calculating step of calculating a similarity with the reference pattern set in the processing of the setting step within a predetermined region in the image; and a processing of the calculating step. A determining step of determining whether the calculated similarity is greater than a predetermined value; and a step of resetting the reference pattern if the similarity is not determined to be greater than the predetermined value in the processing of the determining step. A setting step; and searching a plurality of images for an area when the similarity is determined to be greater than a predetermined value in the processing of the determining step. A tracking step of tracking a predetermined subject in the image, wherein the processing of the calculating step, the determining step, and the resetting step are repeatedly performed until the similarity is determined to be larger than a predetermined value. An image processing method characterized by the following.
【請求項15】 入力された前記画像から特徴点を抽出
する抽出ステップと、 前記抽出ステップの処理で抽出された特徴点を含む所定
の数の画素を基準パターンとして設定する設定ステップ
と、 前記画像内の所定の領域内で前記設定ステップの処理で
設定された前記基準パターンとの類似度を算出する算出
ステップと、 前記算出ステップの処理で算出された前記類似度が所定
値より大きいか否かを判断する判断ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断されなかった場合、前記基準パターンを再設定
する再設定ステップと、 前記判断ステップの処理で前記類似度が所定値より大き
いと判断された場合の領域を、複数の画像にわたって探
索することにより、前記画像の所定の被写体を追跡する
追跡ステップとからなり、 前記算出ステップ、判断ステップ、および再設定ステッ
プの処理は、前記類似度が所定値より大きいと判断され
るまで繰り返し行われることを特徴とするプログラムを
コンピュータに実行させる媒体。
15. An extracting step of extracting a feature point from the input image, a setting step of setting a predetermined number of pixels including the feature point extracted in the processing of the extracting step as a reference pattern, and Calculating a similarity with the reference pattern set in the processing of the setting step in a predetermined area of the area; and determining whether the similarity calculated in the processing of the calculation step is larger than a predetermined value. And a resetting step of resetting the reference pattern if the similarity is not determined to be greater than a predetermined value in the processing of the determining step; A tracking step of tracking a predetermined subject in the image by searching a plurality of images for an area determined to be larger than the predetermined value; Made, the calculation step, decision step, and the process of re-setting step, the medium to execute the program, wherein the degree of similarity is repeatedly performed until it is determined to be greater than the predetermined value to the computer.
JP11236331A 1999-08-24 1999-08-24 Device and method for image processing and medium Withdrawn JP2001060265A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11236331A JP2001060265A (en) 1999-08-24 1999-08-24 Device and method for image processing and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11236331A JP2001060265A (en) 1999-08-24 1999-08-24 Device and method for image processing and medium

Publications (1)

Publication Number Publication Date
JP2001060265A true JP2001060265A (en) 2001-03-06

Family

ID=16999233

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11236331A Withdrawn JP2001060265A (en) 1999-08-24 1999-08-24 Device and method for image processing and medium

Country Status (1)

Country Link
JP (1) JP2001060265A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005236508A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd Automatic tracking device and method
US6993158B2 (en) 2001-08-07 2006-01-31 Samsung Electronic Co., Ltd. Device for and method of automatically tracking a moving object
JP2008243215A (en) * 2001-12-03 2008-10-09 Microsoft Corp System for automatic detection and tracking of multiple individuals using multiple cues
JP2009017271A (en) * 2007-07-05 2009-01-22 Nikon Corp Imaging apparatus
JP2009112617A (en) * 2007-11-08 2009-05-28 Kowa Co Panoramic fundus image-compositing apparatus and method
WO2010128579A1 (en) * 2009-05-07 2010-11-11 パナソニック株式会社 Electron camera, image processing device, and image processing method
CN113947686A (en) * 2021-08-06 2022-01-18 上海有个机器人有限公司 Method and system for dynamically adjusting feature point extraction threshold of image

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6993158B2 (en) 2001-08-07 2006-01-31 Samsung Electronic Co., Ltd. Device for and method of automatically tracking a moving object
KR100792283B1 (en) * 2001-08-07 2008-01-07 삼성전자주식회사 Device and method for auto tracking moving object
JP2008243215A (en) * 2001-12-03 2008-10-09 Microsoft Corp System for automatic detection and tracking of multiple individuals using multiple cues
JP4642093B2 (en) * 2001-12-03 2011-03-02 マイクロソフト コーポレーション System for automatic detection and tracking of multiple individuals using multiple queues
JP2005236508A (en) * 2004-02-18 2005-09-02 Matsushita Electric Ind Co Ltd Automatic tracking device and method
JP4597543B2 (en) * 2004-02-18 2010-12-15 パナソニック株式会社 Automatic tracking device and automatic tracking method
JP2009017271A (en) * 2007-07-05 2009-01-22 Nikon Corp Imaging apparatus
JP2009112617A (en) * 2007-11-08 2009-05-28 Kowa Co Panoramic fundus image-compositing apparatus and method
WO2010128579A1 (en) * 2009-05-07 2010-11-11 パナソニック株式会社 Electron camera, image processing device, and image processing method
JP2010263439A (en) * 2009-05-07 2010-11-18 Panasonic Corp Electronic camera, image processing device, and image processing method
CN113947686A (en) * 2021-08-06 2022-01-18 上海有个机器人有限公司 Method and system for dynamically adjusting feature point extraction threshold of image

Similar Documents

Publication Publication Date Title
US7403634B2 (en) Object tracking apparatus and method
EP1329850B1 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
JP3576987B2 (en) Image template matching method and image processing apparatus
Zhou et al. Road tracking in aerial images based on human–computer interaction and Bayesian filtering
CN106934333B (en) Gesture recognition method and system
JP7263216B2 (en) Object Shape Regression Using Wasserstein Distance
CN112336342A (en) Hand key point detection method and device and terminal equipment
KR20020037660A (en) Object activity modeling method
KR102559790B1 (en) Method for detecting crack in structures
JP7192143B2 (en) Method and system for object tracking using online learning
EP3404583A1 (en) System and method for model adaptation
CN113989604B (en) Tire DOT information identification method based on end-to-end deep learning
CN113608663A (en) Fingertip tracking method based on deep learning and K-curvature method
Kumar et al. An efficient approach for highway lane detection based on the Hough transform and Kalman filter
CN115810133B (en) Welding control method based on image processing and point cloud processing and related equipment
Chen et al. Image segmentation based on mathematical morphological operator
JP2001060265A (en) Device and method for image processing and medium
Bisht et al. Integration of hough transform and inter-frame clustering for road lane detection and tracking
JP2001250121A (en) Image recognition device and recording medium
CN114863129A (en) Instrument numerical analysis method, device, equipment and storage medium
CN114429488A (en) Target tracking method and target tracking device
US11881016B2 (en) Method and system for processing an image and performing instance segmentation using affinity graphs
CN118189959A (en) Unmanned aerial vehicle target positioning method based on YOLO attitude estimation
JPH07146121A (en) Recognition method and device for three dimensional position and attitude based on vision
CN113033593A (en) Text detection training method and device based on deep learning

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20061107