[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JPH04117089A - Moving image motion detecting system - Google Patents

Moving image motion detecting system

Info

Publication number
JPH04117089A
JPH04117089A JP2232219A JP23221990A JPH04117089A JP H04117089 A JPH04117089 A JP H04117089A JP 2232219 A JP2232219 A JP 2232219A JP 23221990 A JP23221990 A JP 23221990A JP H04117089 A JPH04117089 A JP H04117089A
Authority
JP
Japan
Prior art keywords
region
image
motion
corner
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2232219A
Other languages
Japanese (ja)
Other versions
JP2973223B2 (en
Inventor
Yoshihiro Miyamoto
義弘 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP23221990A priority Critical patent/JP2973223B2/en
Publication of JPH04117089A publication Critical patent/JPH04117089A/en
Application granted granted Critical
Publication of JP2973223B2 publication Critical patent/JP2973223B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Of Color Television Signals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)
  • Color Television Systems (AREA)

Abstract

PURPOSE:To perform motion detection without being affected by the other surrounding areas by detecting motion on an image in with only the area to be subject to motion detection extracted. CONSTITUTION:An area dividing means 11 dividing an image into plural areas and outputting area division information, an area extraction means 12 generating an area extraction image based on the area division information and a motion vector detection means 13 detecting and outputing a motion vector between the frames of the extracted area from the area extraction image are provided. An inputted image is divided into plural independent areas A to D, the area A to be subject to the motion detection is extracted based on an area division result, the area extraction image is generated, and motion detection for the area A is performed. Thus, all the signals in the surrounding area are eliminated, and an accurate motion detection can be executed without being affected by the surrounding areas in detecting the motion at the border part of the area A.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、動@像信号の動き補償フレーム間予測符号化
や、画像中の移動物体の動き認識などに用いられる動画
像の動き検出方式に関する。
Detailed Description of the Invention (Industrial Application Field) The present invention relates to a motion detection method for moving images used for motion compensated interframe predictive coding of moving @ image signals, motion recognition of moving objects in images, etc. Regarding.

(従来の技術) 従来、動画像の動き検出方式としてはブロックマツチン
グ方式が用いられている。この検出方式では、供給され
た画像を決められた大きさの小ブロックに分割し、各小
ブロツク毎にフレーム間ブロックマツチングを行い、前
フレーム上で最も相関の強い位置を検出して該当小ブロ
ックのフレーム間動きベクトルを出力する。
(Prior Art) Conventionally, a block matching method has been used as a motion detection method for moving images. This detection method divides the supplied image into small blocks of a predetermined size, performs interframe block matching for each small block, detects the position with the strongest correlation on the previous frame, and Outputs the interframe motion vector of the block.

また、他の動き検出方式として勾配法が用いられること
もある。この検出方式では画像平面上での輝度変化が連
続的であるという仮定のらとに、動き検出位置での輝度
勾配とフレーム間輝度変化量から画素毎あるいは小ブロ
ツク毎のフレーム間動きベクトルを計算により求める。
Additionally, a gradient method may be used as another motion detection method. This detection method assumes that the brightness change on the image plane is continuous, and calculates the interframe motion vector for each pixel or small block from the brightness gradient at the motion detection position and the amount of interframe brightness change. Find it by

(発明が解決しようとする課題) ところで、画像平面上で統一的に動いている独立領域が
あると仮定し、これを動き検出の対象と考えると、小ブ
ロツク毎のブロックマ・ソチングによる動き検出方式で
は、動きの異なる複数の領域にまたがったブロックで動
きベクトルの誤検出が多くなる。また、ブロックマツチ
ング方式では画像平面上での動きが平行移動であること
を前提としているから、画像の拡大・縮小・回転運動に
対しても誤検出が多くなる。
(Problem to be Solved by the Invention) By the way, assuming that there is an independent region that moves uniformly on the image plane, and considering this as the object of motion detection, motion detection using block masoching for each small block is possible. With this method, motion vector errors are often detected in blocks that span multiple regions with different motions. Furthermore, since the block matching method assumes that the movement on the image plane is parallel movement, there are many false detections when the image is enlarged, reduced, or rotated.

一方、勾配法では画像平面上での輝度が連続的に変化す
ることを前提としているから、輝度が急峻に変化する領
域境界部分では動き検出の誤り率が高くなる。また、同
様に領域内部で輝度変化が少ない部分でも誤検出率が高
くなる。すなわちブロックマツチング法や勾配法では、
ある統一的な動きベクトルを発生すべき領域内で異なる
動きベクトルを検出することがある。
On the other hand, since the gradient method assumes that the brightness on the image plane changes continuously, the error rate of motion detection increases at area boundary parts where the brightness changes sharply. Similarly, the false detection rate also increases in areas where there is little change in brightness within the area. In other words, in the block matching method and gradient method,
Different motion vectors may be detected within a region where a uniform motion vector should be generated.

本発明の目的は、画像平面上での独立した領域毎の動き
をより精度よく検出すると共に、画像の拡大・縮小・回
転運動に対しても精度の高い動き検出を行うことができ
る動画像の動き検出方式を提供することにある。
An object of the present invention is to provide a moving image that can detect the movement of each independent area on the image plane with more precision, and can also perform highly accurate motion detection of enlargement, reduction, and rotational movements of the image. The object of the present invention is to provide a motion detection method.

(課題を解決するための手段) 本発明に係る第1の動画像の動き検出方式は、動画像の
分割領域毎にフレーム間動き検出を行う動き検出方式で
あって、画像を複数の領域に分割し、領域分割情報を出
力する領域分割手段と、前記領域分割情報に元づきそれ
ぞれの領域を抽出した領域抽出画像を生成する領域抽出
手段と、前記領域抽出画像から該当抽出領域のフレーム
間動きベクトルを検出し、該動きベクトルを出力する動
きベクトル検出手段とを備えることを特徴とする。
(Means for Solving the Problems) A first motion detection method for moving images according to the present invention is a motion detection method that performs interframe motion detection for each divided region of a moving image, and divides an image into multiple regions. a region dividing means for dividing the region and outputting region division information; a region extracting means for generating a region extraction image in which each region is extracted based on the region division information; and an inter-frame movement of the corresponding extraction region from the region extraction image. It is characterized by comprising a motion vector detection means for detecting a vector and outputting the motion vector.

本発明に係る第2の動画像の動き検出方式は、動画像の
分割領域毎にフレーム間動き検出を行う動き検出方式で
あって、画像を複数の領域に分割し、領域分割情報を出
力する領域分割手段と、該領域分割情報に基づきそれぞ
れの領域を抽出した領域抽出画像を生成する領域抽出手
段と、該領域抽出画像に基づき該抽出領域の特徴点であ
る領域輪郭線のコーナーを検出するコーナー検出手段と
、該抽出領域毎に検出されたコーナーのフレーム間対応
位置からコーナーの動きを検出し、該コーナーの動きを
該当領域の動きベクトルとして出力する動きベクトル検
出手段とを備えることを特徴とする。
The second moving image motion detection method according to the present invention is a motion detection method that performs interframe motion detection for each divided region of a moving image, and divides the image into a plurality of regions and outputs region division information. a region dividing means, a region extracting means for generating a region extraction image in which each region is extracted based on the region division information, and a corner of a region outline that is a feature point of the extraction region based on the region extraction image. The present invention is characterized by comprising a corner detection means, and a motion vector detection means for detecting the movement of the corner from the inter-frame corresponding position of the corner detected for each extraction area, and outputting the movement of the corner as a motion vector of the corresponding area. shall be.

本発明に係る第3の動画像の動き検出方式は、動画像の
分割領域毎にフレーム間動き検出を行う動き検出方式で
あって、画f象を複数の領域に分割し、領域分割情報を
出力する領域分割手段と、該領域分割情報に基づきそれ
ぞれの領域を抽出した領域抽出画像を生成する領域抽出
手段と、該領域抽出画像に基づき該抽出領域の特徴点で
ある領域輪郭線のコーナーを検出するコーナー検出手段
と、該検出されたコーナーとこれに連なるエツジ点列と
からパタン化画像を生成するパタン化手段と、該パタン
化画像から前記コーナーの近傍領域をテンプレートとし
て切り出し、該テンプレートを用いた重み付けフレーム
間マツチングを行うことによって前記コーナーのフレー
ム間の動きを検出し、該コーナーの動きを該当抽出領域
の動きベクトルとして出力する動きベクトル検出手段と
を備えることを特徴とする。
The third motion detection method for moving images according to the present invention is a motion detection method that performs interframe motion detection for each divided region of a moving image, and divides the image f into a plurality of regions and uses the region division information. A region dividing means for outputting, a region extracting means for generating a region extraction image by extracting each region based on the region division information, and a region extracting means for generating a region extraction image by extracting each region based on the region division information; a corner detection means for detecting a corner; a patterning means for generating a patterned image from the detected corner and a series of edge points connected thereto; a patterning means for cutting out a region near the corner from the patterned image as a template; The present invention is characterized by comprising a motion vector detecting means for detecting inter-frame motion of the corner by performing weighted inter-frame matching, and outputting the motion of the corner as a motion vector of the corresponding extraction region.

本発明に係る第4の動画像の動き検出方式は、カラー動
画像の分割領域毎にフレーム間動き検出を行う動き検出
方式であって、カラー画像中の色度変化の少ない連続し
た領域を同一の動きを持つ領域として分割し、領域分割
情報を出力する領域分割手段と、該領域分割情報に基づ
きそれぞれの領域を抽出した領域抽出画像を生成する領
域抽出手段と、前記領域抽出画像から該当抽出領域のフ
レーム間動きベクトルを検出し、該動きベクトルを出力
する動きベクトル検出手段とを備えることを特徴とする
The fourth motion detection method for moving images according to the present invention is a motion detection method that performs interframe motion detection for each divided region of a color moving image, and is a motion detection method that performs inter-frame motion detection for each divided region of a color moving image, in which consecutive regions with little chromaticity change in a color image are a region dividing means for dividing the region into regions with motion and outputting region division information; a region extracting means for generating a region extraction image in which each region is extracted based on the region division information; and a region extraction means for generating a region extraction image by extracting each region based on the region division information; The apparatus is characterized by comprising a motion vector detection means for detecting an inter-frame motion vector of a region and outputting the motion vector.

本発明に係る第5の動画像の動き検出方式は、カラー動
画像の分割領域毎にフレーム間動き検出を行う動き検出
方式であって、カラー画像を3つの成分に分解する信号
分離手段と、該3つの成分から前記カラー画像を構成す
る複数の代表色を検出し、各代表色を出力する代表色検
出手段と、各代表色毎に前記カラー画像から2値化画像
を生成する2値化手段と、該2値化画像毎にフレーム間
の動きベクトルを検出する動きベクトル検出手段を備え
ることを特徴とする。
A fifth moving image motion detection method according to the present invention is a motion detection method that performs interframe motion detection for each divided region of a color moving image, and includes a signal separation means for decomposing the color image into three components; representative color detection means for detecting a plurality of representative colors constituting the color image from the three components and outputting each representative color; and binarization for generating a binarized image from the color image for each representative color. and a motion vector detection means for detecting a motion vector between frames for each binarized image.

く作用) 本発明に係る第1の動画像の動き検出方式では、まず入
力画像を複数の独立した領域に分割し、分割された各領
域毎に動きを持つことを前提として動き検出を行う。そ
こでこの動き検出方式の原理を第6図を用いて説明する
。一般に入力画像は複数の領域から構成され、第6図(
a)のように領域分割することができる。このような領
域分割は入力画像の限定信号レベル画像への多値化や、
信号レベル変動の急峻な部分を検出するエッチ検出等に
よって実現される。次に、分割した各領域の動き検出を
行うが、ここでは領域Aが他の領域とは独立した動きを
示していると仮定してこの領域Aに注目する。いよ第6
図(a)のように複数の領域が混在する画像上でブロッ
クマツチングにより動き検出をおこなったとすると、領
域Aの境界部で周囲の領域B、D等とまたがった小ブロ
ックでは、これら動きの異なる周囲の領域の影響で誤検
出率が大きくなる。そこで領域分割結果をもとに動き検
出の対象とする領域Aを抽出して、第6図(b)のよう
な領域抽出画像を生成する。この領域抽出画像は領域A
のみを残した画像で、その他の部分は全てOなどの一定
値で置き換えたものである。領域Aの動き検出はこの領
域抽出画像上でおこなう。こうすることで周囲の領域の
信号は全て切り捨てられているから、領域Aの境界部の
動き検出において、周囲の領域の影響を受けることなく
より圧確な動き検出を行うことができる。
In the first moving image motion detection method according to the present invention, an input image is first divided into a plurality of independent regions, and motion detection is performed on the assumption that each of the divided regions has motion. Therefore, the principle of this motion detection method will be explained using FIG. 6. In general, the input image is composed of multiple regions, as shown in Fig. 6 (
The area can be divided as shown in a). This kind of region division involves converting the input image into a multivalued image with a limited signal level,
This is achieved by etch detection, etc., which detects steep portions of signal level fluctuations. Next, motion detection is performed for each divided region, but here, we focus on region A, assuming that region A exhibits movement independent of other regions. Now, the 6th
If motion detection is performed by block matching on an image in which multiple regions coexist as shown in Figure (a), small blocks that straddle surrounding regions B, D, etc. at the boundary of region A will be affected by these motions. The false positive rate increases due to the influence of different surrounding areas. Therefore, a region A to be subjected to motion detection is extracted based on the region division results, and a region extracted image as shown in FIG. 6(b) is generated. This area extracted image is area A
This is an image in which only O is left, and all other parts are replaced with a constant value such as O. Motion detection for area A is performed on this area extracted image. By doing this, all the signals of the surrounding area are discarded, so that more accurate motion detection can be performed at the boundary of area A without being affected by the surrounding area.

本発明に係る第2の動画像の動き検出方式では、抽出領
域の特徴点として複数のコーナーを検出し、これらコー
ナーのフレーム間対応位置がら該当抽出領域の動きを求
める。そこでこの動き検出方式の原理を第7図を用いて
説明する。いま、第7図(a)に示すように、入力画像
から領域Aが抽出されているものとする。領域Aは複数
の連続した滑らかなエッチ点列の連結で閉じられており
、個々のエッチ点列の連結部をコーナーと呼ぶ。なおコ
ーナーは、第7図(b)に示すように、エッチ点列の追
跡により検出される。すなわち連続したエッチ点列を追
跡した場合に、直線あるいは岬やかな曲線から外れる点
がコーナーとして検出される。次に、第7図(a)に示
すように検出された複数のコーナーを領域Aの特徴点と
定義して、各コーナーの前フレーム上での対応位置を求
めることでコーナー毎の動きが検出される。コーナーの
動き検出方法としては、現フレームでのコーナー位置を
(xc、yc)としたときに、前フレーム上での探査領
域(xc±sx、yc±sy)内に存在するコーナーを
フレーム間対応するコーナーとすることができる。ここ
でsx、syは動き検出領域幅を定めるためにあらかじ
め与えられた値である。以上のようにしてコーナー毎に
検出した動きベクトルから該当領域全体の動きを定義す
る。
In the second moving image motion detection method according to the present invention, a plurality of corners are detected as feature points of an extraction region, and the motion of the corresponding extraction region is determined from the interframe corresponding positions of these corners. Therefore, the principle of this motion detection method will be explained using FIG. 7. Assume now that region A has been extracted from the input image, as shown in FIG. 7(a). Region A is closed by connecting a plurality of continuous and smooth etch point arrays, and the connecting portions of individual etch point arrays are called corners. Note that the corner is detected by tracing a series of etch points, as shown in FIG. 7(b). That is, when a continuous etch point sequence is traced, a point that deviates from a straight line or a sharp curve is detected as a corner. Next, as shown in Figure 7(a), the detected corners are defined as feature points of area A, and the movement of each corner is detected by finding the corresponding position of each corner on the previous frame. be done. As a corner motion detection method, when the corner position in the current frame is (xc, yc), the corners existing in the search area (xc±sx, yc±sy) on the previous frame are matched between frames. It can be a corner. Here, sx and sy are values given in advance to determine the width of the motion detection area. The motion of the entire corresponding area is defined from the motion vector detected for each corner as described above.

例えば領域Aのフレーム間での動きが平行移動であれば
、領域Aに属する複数のコーナーの動きベクトルは全て
同一の値を示す。従って、領域A内の全ての画素の動き
は唯一の動きベクトルで与えられる。また領域Aか回転
している場合には、各コーナーの動きベクトルは異なる
値をもち領域Aの回転を表現する。このときgt$、A
内部の動さけこれら複数のコーナーの動きベクトルから
内挿計算により近似的に求めることが可能である。以上
に説明したように、領域の特徴点であるコーナーの動き
検出を行い、この結果をもとに領域全体の動きを求める
から、領域内部の状態によらない動き検出を行うことが
できる。また、動き検出のための計算はコーナーに対し
てのみ実行されるから、動き検出のための計算量を削減
することができる。
For example, if the movement between frames of area A is parallel movement, the motion vectors of multiple corners belonging to area A all exhibit the same value. Therefore, the motion of all pixels within region A is given by a single motion vector. Furthermore, when area A is rotating, the motion vectors at each corner have different values to represent the rotation of area A. At this time gt$, A
It is possible to approximately determine the internal motion by interpolation from the motion vectors of these multiple corners. As described above, motion detection is performed at the corner, which is a feature point of the region, and the motion of the entire region is determined based on this result, so that motion detection can be performed regardless of the state inside the region. Furthermore, since calculations for motion detection are performed only for corners, the amount of calculations for motion detection can be reduced.

本発明に係る第3の動画像の動き検出方式の原理を第9
図を用いて説明する。いまエッヂ・コーナー検出により
複数のコーナーとこれに連なるエッチ点列が検出され、
この結果に基づきパタン化画像が生成されてるものとす
る。第9図は現フレームで検出された特定のコーナーを
中心としてパタン化画像からNXN画素のブロック[p
 i j ]を切り出したものである。ここでブロック
内の各画素はC+ e、n、mいずれかの値をとる。C
はコーナーを示す値であり、eはコーナーtこ連なるエ
ッチ点列を示す値である。また、nは領域の外側をmは
卵域内部をそれぞれ示す値である。コーナーの動き検出
はこの切り出しブロック[pij]をテンプレートとし
たフレーム間マツチングにより行われる。すなわち前フ
レームで検出されたコーナー近傍からNxN画素のブロ
ック信号[qij]が読み出され、[piJコと[qi
jコとのマツチングが評価される。評価値としては<1
)式に示すブロック間差分値D P(を用いることがで
きる。
The principle of the third moving image motion detection method according to the present invention is described in the ninth section.
This will be explained using figures. Now, multiple corners and a series of etch points connected to them are detected by edge/corner detection,
It is assumed that a patterned image is generated based on this result. FIG. 9 shows a block of N×N pixels [p
i j ]. Here, each pixel within the block takes a value of C+e, n, or m. C
is a value indicating a corner, and e is a value indicating a series of etch points connected to the corner t. Further, n is a value indicating the outside of the area, and m is a value indicating the inside of the egg area. Corner motion detection is performed by interframe matching using this cutout block [pij] as a template. That is, a block signal [qij] of N×N pixels is read out from near the corner detected in the previous frame, and [piJ and [qi
The matching with J-co is highly evaluated. Evaluation value is <1
) can be used.

J (kは1.2などの自然数) D I4の計算はブロック[qiJ]の切り出し位置や
、対象とする前フレーム上でのコーナーを様々に変えて
行い、Dl、が最小となるブロック[qfJ]の中心が
該当コーナーの前フレーム上での位置と決定される。な
お、(1)式を用いたマツチング評価法においては、ブ
ロック内画素値Ce、n、mの与え方により異なる効果
を期待することができる。
J (k is a natural number such as 1.2) Calculation of D I4 is performed by variously changing the cutting position of the block [qiJ] and the corner on the target previous frame, and the block [qfJ ] is determined as the position of the corresponding corner on the previous frame. Note that in the matching evaluation method using equation (1), different effects can be expected depending on how the intra-block pixel values Ce, n, and m are given.

まず 第1の例としてC≠0かつe”=m=n≠Cとす
れば、コーナー点の対応のみで動き検出を行う方法とな
る。従ってこの場合には縮小・回転運動を伴うフレーム
間の動き検出を行うことができる。
First, as a first example, if C≠0 and e''=m=n≠C, then motion detection is performed only by the correspondence of corner points. Motion detection can be performed.

次に、第2の例としてC≠O,e≠O,c≠eかつm=
n≠Cとすれば、コーナー点の位置とコーナー近傍のエ
ッチの形とを考慮した動き検出となる。ところで、フレ
ーム間の動きが拡大・縮小あるいは角度の小さい回転運
動の場合にもコーナー近傍でのエッチの形は不変である
。従って、以上の様な動きに対しても動き検出を行うこ
とができる。さらに、m#nとすれば、領域の内fil
l/外側を示す情報も考慮した動き検出となる。以上に
説明したように、テンプレート・マツチングを用いるこ
とで卯域を特徴付けるコーナーのフレーム間動きベクト
ルを求めることができる。
Next, as a second example, C≠O, e≠O, c≠e and m=
If n≠C, motion detection takes into account the position of the corner point and the shape of the etch near the corner. Incidentally, even when the movement between frames is enlargement/reduction or rotational movement at a small angle, the shape of the etch near the corner remains unchanged. Therefore, motion detection can be performed even for the above-mentioned motions. Furthermore, if m#n, then fil in the area
The motion detection also takes into account information indicating l/outside. As explained above, by using template matching, it is possible to obtain interframe motion vectors at corners that characterize the area.

本発明に係る第4の動画像の動き検出方式では、カラー
人力画像を色度信号により領域分割することで、分割領
域毎の動き検出の精度を高めることかできる。いま入力
画像が3次元的な凹凸のある物体を撮影した画像である
場合に、この物体の輝度分布は照明の方向や物体そのも
のの動きに伴い大きく変化し易い。従って、輝度レベル
の変化を利朋した領域分割法では分割誤りが多くなる。
In the fourth moving image motion detection method according to the present invention, by dividing a color human-powered image into regions based on chromaticity signals, it is possible to improve the precision of motion detection for each divided region. When the input image is an image of an object with three-dimensional unevenness, the brightness distribution of this object is likely to change greatly depending on the direction of illumination and the movement of the object itself. Therefore, a region segmentation method that takes advantage of changes in brightness level will result in many segmentation errors.

しかし、物体の本来の色が一様であると仮定できる場合
には、2次元画像上での色度の変化は輝度の変化に較べ
て小さい。そこで、色度変化の少ない領域を一つの連続
した領域として分割することによって、より精度の高い
領域分割を期待することができる。このような領域分割
の具体的な方法としては色度の急激に変化するエッチ部
をそのまま領域の境界とする方法や、原画像から検出し
た複数の代表色のみで画像全体を表現する限定色表現の
方法を用いてもよい。
However, if it can be assumed that the original color of an object is uniform, changes in chromaticity on a two-dimensional image are smaller than changes in brightness. Therefore, by dividing an area with little chromaticity change into one continuous area, more accurate area division can be expected. Specific methods for such area division include a method in which the etched area where the chromaticity changes rapidly is used as the boundary of the area, and a limited color expression in which the entire image is expressed using only multiple representative colors detected from the original image. You may also use this method.

本発明に係る第5の動画像の動き検出方法では、まず入
力画像から複数の代表色を検出する。カラー人力画像の
各画素の値はRGB3成分に分離・粗量子化され、各画
素のRGB3成分の組合せ値Pが決定される。
In the fifth moving image motion detection method according to the present invention, first, a plurality of representative colors are detected from an input image. The value of each pixel of the color human image is separated into three RGB components and coarsely quantized, and a combination value P of the three RGB components of each pixel is determined.

次に、画像全体で各画素値Pのヒストグラムが作成され
、発生頻度の高い値が代表色として複数選択される。画
素値Pの採り方としては、RGBの他に、輝度値Yと2
つの色差値CI、C2との3成分の組合せを用いてもよ
いし、他の色度表現方法を用いてもよい。
Next, a histogram of each pixel value P is created for the entire image, and a plurality of frequently occurring values are selected as representative colors. In addition to RGB, the pixel value P can be calculated using the luminance value Y and 2.
A combination of three components with two color difference values CI and C2 may be used, or other chromaticity expression methods may be used.

次に、検出された各々の代表色に対して人、力画像から
2値化画像が各々生成されるが、この原理を第10図を
用いて説明する。第10図では説明の簡略化のために1
次元画素値のヒストグラムを示す。いまこのヒストグラ
ム上で発生頻度の高い値PL、P2.P3か代表色とし
て選択されたとするにのとき、各代表色にもとづいてヒ
ストグラムはしきい値T1.T2で領域R1,R2,R
3に分割される。このしきい値TI、T2は代表色値P
1□P2.P3各々の中央の値として設定されてる。ま
た、領域分割・代表色選択の別の方法として次のような
方法を用いてもよい。この方法では、ヒストグラムを適
当に定めなしきい値T1、T2で領域R1,R2,R3
に分割し、各領域内画素値の分散を計算する。この操作
は様々なしきい値について行われ、各領域の分散の総和
が最小となる領域分割か求められる。次に、各領域に属
する画素値の平均値から代表色Pi、P2P3が決定さ
れる。
Next, binarized images are generated from the person and force images for each of the detected representative colors, and the principle of this will be explained using FIG. 10. In Figure 10, 1 is used to simplify the explanation.
Figure 3 shows a histogram of dimensional pixel values. Now, the values PL, P2., which occur frequently on this histogram. Suppose that P3 is selected as the representative color, the histogram is created based on each representative color at the threshold value T1. Regions R1, R2, R at T2
It is divided into 3 parts. These threshold values TI and T2 are representative color values P
1□P2. It is set as the center value of each P3. Furthermore, the following method may be used as another method for region division and representative color selection. In this method, the histogram is formed in regions R1, R2, R3 using appropriately determined thresholds T1 and T2.
and calculate the variance of pixel values within each region. This operation is performed for various threshold values, and a region division that minimizes the sum of the variances of each region is determined. Next, representative colors Pi and P2P3 are determined from the average value of pixel values belonging to each area.

なお、第10図では1次元ヒストグラムを用いて説明し
たが、RGBなどの3成分を持つ画素値のヒストグラム
においても同様な方法で代表色の選択を実現することが
できる。以上に説明した方法で分割されたヒストグラム
各領域R1,R2゜R3の画素値は、それぞれの領域の
代表色PIP2.P3に置き換えられる。こうすること
で入力画像は複数の代表色のみで現された限定□色画像
となる。2値化画像はこの限定色画像から各々の代表色
部分のみ抽出することで生成される。動き検出は、生成
された2値化画像毎に、2値化により抽出された領域の
特徴点をテンプレートとしたテンプレートマツチングな
どによって行われる。
Although the explanation has been made using a one-dimensional histogram in FIG. 10, selection of a representative color can also be achieved in a similar manner using a histogram of pixel values having three components such as RGB. The pixel values of each region R1, R2°R3 of the histogram divided by the method described above are determined by the representative color PIP2 of each region. Replaced by P3. By doing this, the input image becomes a limited □ color image expressed only by a plurality of representative colors. A binarized image is generated by extracting only each representative color portion from this limited color image. Motion detection is performed for each generated binarized image by template matching using feature points of the area extracted by binarization as a template.

以上に説明したように、本発明の方式を用いれば、カラ
ー画像中の異なる代表色で表現される領域の動きを領域
毎に分離して検出することができる。
As described above, by using the method of the present invention, it is possible to separate and detect the movement of regions expressed by different representative colors in a color image.

従って、カラー画像中に特定代表色で表現される独立し
た動きを持つ被写体が存在する場合、この被写体の動き
を周囲の被写体や背景の影響を排除して検出することか
できる。
Therefore, if there is a subject in a color image with independent movement expressed using a specific representative color, the movement of this subject can be detected without the influence of surrounding subjects and background.

(実施例) 第1図は本発明に係る第1の動画像の動き検出方式の一
実施例を示すブロック図である。まず、領域分割回路1
1に入力画像101が供給される。
(Embodiment) FIG. 1 is a block diagram showing an embodiment of the first moving image motion detection method according to the present invention. First, area division circuit 1
1 is supplied with an input image 101.

領域分割回路11は、入力画像101を複数の領域に分
割して領域分割情報102を領域抽出回路12に供給す
る。次に2領域抽出回路12は、領域分割情報102を
もとに入力画像101から領域抽出画像103をを生成
し、該領域抽出面#AlO3を動きベクトル検出回#1
13および前フレーム情報メモリ14に供給する。動き
ベクトル検出回路13は、現フレームでの領域抽出画像
103と前フレーム情報メモリ14から供給された前フ
レームでの領域抽出画像104とから該当する抽出領域
の動きベクトル105を検出し、該動きベクトル105
を出力する。
The region division circuit 11 divides the input image 101 into a plurality of regions and supplies region division information 102 to the region extraction circuit 12 . Next, the two-region extraction circuit 12 generates a region extraction image 103 from the input image 101 based on the region division information 102, and extracts the region extraction surface #AlO3 from the motion vector detection time #1.
13 and previous frame information memory 14. The motion vector detection circuit 13 detects a motion vector 105 of the corresponding extraction region from the region extraction image 103 in the current frame and the region extraction image 104 in the previous frame supplied from the previous frame information memory 14, and detects the motion vector 105 of the corresponding extraction region. 105
Output.

第2図は本発明に係る第2の動画像に動き検出方式の一
実施例を示すブロック図である。ます、領域分割回路2
1に入力画f@101が供給される5領域分割回路21
は、入力画像101を複数の領域に分割して領域分割情
報102を領域抽出回路22に供給する。次に、領域抽
出口F!@22は、領域分割情報102をもとに入力画
像101から領域抽出画像103を生成し、該領域抽出
画像103をコーナー検出回路23に供給する。コーナ
ー検出回路23は、領域抽出画像103から抽出領域毎
にコーナー情報201を検出し、該コーナー情報201
を動きベクトル検出回路24および前フレーム情報メモ
リ24に供給する。動きベクトル検出回路24は現フレ
ームでのコーナー情報201と前フレーム情報メモリ2
5から供給された前フレームでのコーナー情報202と
からコーナー毎の動きを検出し、該コーナーの動きを該
当する抽出領域の動きベクトル105として出力する。
FIG. 2 is a block diagram showing an embodiment of a motion detection method for a second moving image according to the present invention. Area division circuit 2
5 area dividing circuit 21 to which input image f@101 is supplied to 1
divides the input image 101 into a plurality of regions and supplies region division information 102 to the region extraction circuit 22 . Next, area extraction port F! @22 generates a region extraction image 103 from the input image 101 based on the region division information 102, and supplies the region extraction image 103 to the corner detection circuit 23. The corner detection circuit 23 detects corner information 201 for each extraction region from the region extraction image 103, and
is supplied to the motion vector detection circuit 24 and the previous frame information memory 24. The motion vector detection circuit 24 stores corner information 201 in the current frame and previous frame information memory 2.
The motion of each corner is detected from the corner information 202 of the previous frame supplied from 5, and the motion of the corner is output as a motion vector 105 of the corresponding extraction region.

第8図は第2図の動き検出方式の動きベクトル検出回路
の一実施例を示すブロック図である2よす、コーナー情
報201はコーナー情報分離回路81でコーナーの位置
情報801とコーナーの属する領域番号802と前記領
域内でのコーナ一番号803とに分解される。これら分
解された情報801.802,803は前フレーム情報
メモリ82に供給され記憶される。同時に、前フレーム
情報メモリ82は領域番号802とコーナ一番号803
とで指定された前フレームでの該当コーナーの位置情報
804を差分器83に供給する。差分器83は該当コー
ナーの現フレームでの位置情報801と前フレームでの
位置情報804との差分を求め、該差分を該当する抽出
領域の動きベクトル105として出力する。
FIG. 8 is a block diagram showing an embodiment of a motion vector detection circuit using the motion detection method shown in FIG. It is divided into a number 802 and a corner number 803 within the area. These decomposed information 801, 802, 803 are supplied to the previous frame information memory 82 and stored therein. At the same time, the previous frame information memory 82 stores the area number 802 and corner number 803.
The position information 804 of the corresponding corner in the previous frame specified by is supplied to the subtractor 83. The subtractor 83 calculates the difference between the position information 801 in the current frame of the corresponding corner and the position information 804 in the previous frame, and outputs the difference as a motion vector 105 of the corresponding extraction area.

第3図は本発明に係る第3の動画像の動き検出方式の一
実施例を示すブロック図である9まず、IFt域分割回
路31に入力画像101か供給される。
FIG. 3 is a block diagram showing an embodiment of the third moving image motion detection method according to the present invention.9 First, an input image 101 is supplied to the IFt area dividing circuit 31. As shown in FIG.

領域分割回路31は、入力画像101を複数の領域に分
割して領域分割情報102を領域抽出回路32に供給す
る。次に、領域抽出回路32は領域分割情報102をも
とに入力画像101から領域抽出画像103を生成し、
該領域抽出面1103をコーナー検出回路33に供給す
る。コーナー検出回路33は領域抽出画像103から抽
出領域毎にコーナー情報201を検出し、該コーナー情
報201をパタン化回路34に供給する。パタン化回路
34はコーナー情報201から抽出領域のエッチ・コー
ナーと領域の内側・外側とを示すパタンで構成されるパ
タン化画像301を生成し、パタン化画像301を動き
ベクトル検出回路35および前フレーム情報メモリ36
に供給する。動きベクトル検出回路35は現フレームで
のパタン化画像301から動き検出対象とするコーナー
近傍領域を切り出し、該切り出されたコーナー近傍領域
を該当コーナーのテンプレートとする。このテンプレー
トと前フレーム情報メモリ36から供給される前フレー
ムでのパタン化画像302とのテンプレートマツチング
が動きベクトル検出回路35で行われ、コーナーの動き
が検出される。検出結果は該当する抽出領域の動きベク
トル105として出力される。
The region division circuit 31 divides the input image 101 into a plurality of regions and supplies region division information 102 to the region extraction circuit 32 . Next, the region extraction circuit 32 generates a region extraction image 103 from the input image 101 based on the region division information 102,
The region extraction surface 1103 is supplied to the corner detection circuit 33. The corner detection circuit 33 detects corner information 201 for each extraction region from the region extraction image 103 and supplies the corner information 201 to the patterning circuit 34 . The patterning circuit 34 generates a patterned image 301 consisting of patterns indicating the etch corners of the extraction region and the inside and outside of the region from the corner information 201, and transfers the patterned image 301 to the motion vector detection circuit 35 and the previous frame. Information memory 36
supply to. The motion vector detection circuit 35 cuts out a region near a corner to be subjected to motion detection from the patterned image 301 in the current frame, and uses the cut out region near the corner as a template for the corner. The motion vector detection circuit 35 performs template matching between this template and the patterned image 302 of the previous frame supplied from the previous frame information memory 36, and the movement of the corner is detected. The detection result is output as a motion vector 105 of the corresponding extraction area.

第4図は本発明に係る第4の動画像の動き検出方式の一
実施例を示すブロック図である。まずカラー人力画像1
01が信号分離回路41に供給され、入力画像中の色度
信号401を領域分割回路42に供給する。領域分割回
路42は色度信号401を利用して画像の領域分割を行
う。すなわち色度変化の小さい連続した画像部分は同一
領域に属すると判断することによって入力画像は複数の
領域に分割され、領域分割情報102は領域抽出回路4
3に供給される。領域抽出回路43は、領域分割情報1
02をもとに入力画1101から領域抽出面@103を
生成し、該領域抽出面1103を動きベクトル検出回路
44および前フレーム情報メモリ45に供給する。動き
ベクトル検出回路44は現フレームでの領域抽出画像1
03と前フレーム情報メモリ45から供給された前フレ
ームでの領域抽出画@104とから該当する抽出領域の
動きベクトル105を検出し、該動きベクトル105を
出力する。
FIG. 4 is a block diagram showing an embodiment of the fourth moving image motion detection method according to the present invention. First, color human power image 1
01 is supplied to the signal separation circuit 41, and the chromaticity signal 401 in the input image is supplied to the area division circuit 42. The area dividing circuit 42 divides the image into areas using the chromaticity signal 401. That is, the input image is divided into a plurality of regions by determining that consecutive image parts with small chromaticity changes belong to the same region, and the region division information 102 is transmitted to the region extraction circuit 4.
3. The region extraction circuit 43 extracts region division information 1
A region extraction plane @103 is generated from the input image 1101 based on 02, and the region extraction plane 1103 is supplied to the motion vector detection circuit 44 and the previous frame information memory 45. The motion vector detection circuit 44 extracts area extraction image 1 in the current frame.
03 and the region extraction image @104 in the previous frame supplied from the previous frame information memory 45, a motion vector 105 of the corresponding extraction region is detected, and the motion vector 105 is output.

第5図は本発明に係る第5の動画像の動き検出方式め一
実施例を示すブロック図である。まず、カラー人力画像
101は信号分離回路51で5IS2  S3の3つの
信号に分解され、31,52S3の各信号は代表色検出
回路52に供給される。
FIG. 5 is a block diagram showing an embodiment of the fifth moving image motion detection method according to the present invention. First, the color human image 101 is decomposed into three signals of 5IS2 and S3 by the signal separation circuit 51, and each signal of 31 and 52S3 is supplied to the representative color detection circuit 52.

ごこで、31.S2、S3の3つの信号として(R,G
、B)や(Y、I、Q)あるいは(YR,−YB−Y)
等の成分を用いることができる。
Gokode, 31. As three signals S2 and S3 (R, G
, B) or (Y, I, Q) or (YR, -YB-Y)
Components such as the following can be used.

次に、代表色検出回路52は供給されたSl、S2、S
3信号から入力画1象101を代表する複数の代表色を
検出し、該代表色を代表色情報501ヒして2値化回路
53に供給する。2値化回路53はカラー人力画像10
1から2値化画(@502を生成する。2値化画素50
2は、代表色検出回路52から供給された各々の代表色
毎に生成され、各2値化画像502は動きベクトル検出
回路54および前フレーム情報メモリ55に供給される
Next, the representative color detection circuit 52 receives the supplied Sl, S2, and
A plurality of representative colors representing one input image 101 are detected from the three signals, and the representative colors are supplied as representative color information 501 to the binarization circuit 53. The binarization circuit 53 converts the color manual image 10
Generates a binary image (@502 from 1. Binarized pixel 50
2 is generated for each representative color supplied from the representative color detection circuit 52, and each binarized image 502 is supplied to the motion vector detection circuit 54 and the previous frame information memory 55.

動きベクトル検出回路54は、現フレームでの2値化画
@50と前フレーム情報メモリ55から供給された前フ
レームでの2値化画像503とから該当する抽出領域の
動きベクトル105を検出し該動きベクトル105を出
力する。
The motion vector detection circuit 54 detects the motion vector 105 of the corresponding extraction area from the binarized image @50 of the current frame and the binarized image 503 of the previous frame supplied from the previous frame information memory 55. A motion vector 105 is output.

(発明の効果) 以上に説明したように1本発明によれば、vJき検出対
象とする領域のみを抽出した画像上で動き検出を行うか
ら、周囲の他の領域の影響を排除した動き検出を行うこ
とができる。また、領域毎に特徴点として複数のコーナ
ーを検出しかつこれらコーナーのフレーム間対応を求め
ることによって該当領域の動きが検出されるから、動き
検出のための計算量を削減することができる。さらに、
コーナーの形状は画像の拡大・縮小や角度の小さい回転
に対しても不変であるから、これらの動きに対してもよ
り精度の高い動き検出を行うことができる。
(Effects of the Invention) As explained above, according to the present invention, motion detection is performed on an image in which only the region to be detected by VJ is extracted, so motion detection is performed while eliminating the influence of other surrounding regions. It can be performed. Further, since the motion of the corresponding region is detected by detecting a plurality of corners as feature points for each region and determining the interframe correspondence of these corners, the amount of calculation for motion detection can be reduced. moreover,
Since the shape of the corner remains unchanged even when the image is enlarged/reduced or rotated by a small angle, more accurate motion detection can be performed even for these movements.

カラー画像の動き検出においては、色度信号をもとに領
域分割を行うから、より正確な頒域分割か実現され、周
囲の池の領域の影響を排除した動き検出を行うことがで
きる。
In motion detection of a color image, since region division is performed based on the chromaticity signal, more accurate region division can be achieved, and motion detection can be performed while eliminating the influence of the surrounding pond region.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る第1の動画像の動き検出方式の一
実施例を示すブロック図、第2図は本発明に係る第2の
動画像の動き検出方式の一実施例を示すブロック図、第
3図は本発明に係る第3の動画像の動き検出方式の一実
施例を示すブロック図、第4図は本発明に係る第4の動
画像の動き検出方式の一実施例を示すブロック図、第5
図は本発明に係る第5の動画像の動き検出方式の一実施
例を示すブロック図、第6図(a)、(b)は本発明に
係る第1の動画像の動き検出方式を説明するための図、
第7図は本発明に係る第2の動画像の動き検出方式を説
明するための図、第8図は本発明に係る第2の動画像の
動き検出方式におけるコーナーの動き検出の一実施例を
示すブロック図、第9図は本発明に係る第3の動画像の
動き検出方式を説明するための図、第10図は本発明に
係る第5の動画像の動き検出方式における2値化画像生
成方法を説明するための図である。 11.21,31.42・・・領域分割回路、1222
.32.43・・・領域抽出回路、13.2435.4
4.54・・・動きベクトル検出回路、14゜25.3
6.45,55.82・・・前フレーム情報メモリ、2
3.33・・・コーナー検出回路、34・・・パタン化
回路、41.51・・・信号分離回路、52・・・代表
色検出回路、53・・・2値化回路、81・・・コーナ
ー情報分離回路、83・・・差分器、101・・・入力
画像、102・・・領域分割情報、103,104・・
・領域抽出画像、105・・・動きベクトル、201・
・・コーナー情報、301,302・・・パタン化画像
、401・・・色度信号、501・・・代表色情報、5
02゜503・・・2値化画像、801,804・・・
コーナーの位置情報、802・・・領域番号、803・
・・コーナ一番号。 (a) 入 カ jヰし イ東 第 図 ○ まコーカーと示す (a)  x (b) 第 図 第 図 丁1 1!!i!J#値のヒズトク゛う4 第1o図
FIG. 1 is a block diagram showing an embodiment of the first moving picture motion detection method according to the present invention, and FIG. 2 is a block diagram showing an embodiment of the second moving picture motion detection method according to the present invention. 3 is a block diagram showing an embodiment of the third moving picture motion detection method according to the present invention, and FIG. 4 is a block diagram showing an embodiment of the fourth moving picture motion detection method according to the present invention. Block diagram shown, No. 5
The figure is a block diagram showing an embodiment of the fifth moving image motion detection method according to the present invention, and FIGS. 6(a) and 6(b) illustrate the first moving image motion detection method according to the present invention. diagram for,
FIG. 7 is a diagram for explaining the second moving image motion detection method according to the present invention, and FIG. 8 is an example of corner motion detection in the second moving image motion detection method according to the present invention. 9 is a diagram for explaining the third moving image motion detection method according to the present invention, and FIG. 10 is a diagram for explaining the binarization in the fifth moving image motion detection method according to the present invention. FIG. 3 is a diagram for explaining an image generation method. 11.21, 31.42... area division circuit, 1222
.. 32.43...Area extraction circuit, 13.2435.4
4.54...Motion vector detection circuit, 14°25.3
6.45, 55.82...Previous frame information memory, 2
3.33... Corner detection circuit, 34... Patterning circuit, 41.51... Signal separation circuit, 52... Representative color detection circuit, 53... Binarization circuit, 81... Corner information separation circuit, 83...Differentiator, 101...Input image, 102...Region division information, 103, 104...
・Region extraction image, 105...Motion vector, 201・
... corner information, 301, 302 ... patterned image, 401 ... chromaticity signal, 501 ... representative color information, 5
02°503...Binarized image, 801,804...
Corner position information, 802...area number, 803...
...Corner number one. (a) Input the key to the left. ! i! Hidden stress of J# value 4 Figure 1o

Claims (5)

【特許請求の範囲】[Claims] (1)動画像のフレーム間の動きを検出する方式におい
て、画像を複数の領域に分割し、領域分割情報を出力す
る領域分割手段と、前記領域分割情報に基づきそれぞれ
の領域を抽出した領域抽出画像を生成する領域抽出手段
と、前記領域抽出画像から該当抽出領域のフレーム間動
きベクトルを検出し、該動きベクトルを出力する動きベ
クトル検出手段とを備えることを特徴とする動画像の動
き検出方式。
(1) In a method for detecting motion between frames of a moving image, a region dividing means divides the image into a plurality of regions and outputs region division information, and region extraction extracts each region based on the region division information. A motion detection method for a moving image, comprising a region extracting means for generating an image, and a motion vector detecting means for detecting an inter-frame motion vector of a corresponding extraction region from the region extracted image and outputting the motion vector. .
(2)動画像のフレーム間の動きを検出する方式におい
て、画像を複数の領域に分割し、領域分割情報を出力す
る領域分割手段と、該領域分割情報に基づきそれぞれの
領域を抽出した領域抽出画像を生成する領域抽出手段と
、該領域抽出画像に基づき該抽出領域の特徴点である領
域輪郭線のコーナーを検出するコーナー検出手段と、該
抽出領域毎に検出されたコーナーのフレーム間対応位置
からのコーナーの動きを検出し、該コーナーの動きを該
当領域の動きベクトルとして出力する動きベクトル検出
手段とを備えることを特徴とする動画像の動き検出方式
(2) In a method for detecting motion between frames of a moving image, a region dividing means divides the image into a plurality of regions and outputs region division information, and region extraction extracts each region based on the region division information. A region extracting means for generating an image, a corner detecting means for detecting a corner of a region outline that is a feature point of the extracted region based on the region extracted image, and inter-frame corresponding positions of corners detected for each extraction region. 1. A motion detection method for a moving image, comprising: a motion vector detection means for detecting a corner motion from a region and outputting the corner motion as a motion vector of a corresponding area.
(3)動画像のフレーム間の動きを検出する方式におい
て、画像を複数の領域に分割し、領域分割情報を出力す
る領域分割手段と、該領域分割情報に基づきそれぞれの
領域を抽出した領域抽出画像を生成する領域抽出手段と
、該領域抽出画像に基づき該抽出領域の特徴点である領
域輪郭線のコーナーを検出するコーナー検出手段と、該
検出されたコーナーとこれに連なるエッジ点列とからパ
タン化画像を生成するパタン化手段と、該パタン化画像
から前記コーナーの近傍領域をテンプレートとして切り
出し、該テンプレートを用いた重み付けフレーム間マッ
チングを行うことによって前記コーナーのフレーム間の
動きを検出し、該コーナーの動きを該当抽出領域の動き
ベクトルとして出力する動きベクトル検出手段とを備え
ることを特徴とする動画像の動き検出方式。
(3) In a method for detecting motion between frames of a moving image, a region dividing means divides the image into a plurality of regions and outputs region division information, and region extraction extracts each region based on the region division information. A region extracting means for generating an image, a corner detecting means for detecting a corner of a region outline that is a feature point of the extracted region based on the region extracted image, and a sequence of edge points connected to the detected corner. a patterning unit that generates a patterned image; a patterning unit that extracts a region near the corner from the patterned image as a template, and detects movement between frames of the corner by performing weighted interframe matching using the template; A motion detection method for a moving image, comprising: motion vector detection means for outputting the motion of the corner as a motion vector of the corresponding extraction area.
(4)動画像のフレーム間の動きを検出する方式におい
て、カラー画像中の色度変化の少ない連続した領域を同
一の動きを持つ領域として分割し、領域分割情報を出力
する領域分割手段と、該領域分割情報に基づきそれぞれ
の領域を抽出した領域抽出画像を生成する領域抽出手段
と、前記領域抽出画像から該当抽出領域のフレーム間動
きベクトルを検出し、該動きベクトルを出力する動きベ
クトル検出手段とを備えることを特徴とする動画像の動
き検出方式。
(4) In a method for detecting motion between frames of a moving image, an area dividing means divides continuous areas with little chromaticity change in a color image as areas having the same movement, and outputs area division information; A region extracting means for generating a region extraction image by extracting each region based on the region division information, and a motion vector detection means for detecting an inter-frame motion vector of a corresponding extraction region from the region extraction image and outputting the motion vector. A motion detection method for moving images, comprising:
(5)動画像のフレーム間の動きを検出する方式におい
て、カラー画像を3つの成分に分解する信号分離手段と
、該3つの成分から前記カラー画像を構成する複数の代
表色を検出し、各代表色を出力する代表色検出手段と、
各代表色毎に前記カラー画像から2値化画像を生成する
2値化手段と、該2値化画像毎にフレーム間の動きベク
トルを検出する動きベクトル検出手段を備えることを特
徴とする動画像の動き検出方式。
(5) In a method for detecting motion between frames of a moving image, a signal separating means separates a color image into three components, detects a plurality of representative colors constituting the color image from the three components, and detects each of the plurality of representative colors constituting the color image from the three components. representative color detection means for outputting a representative color;
A moving image characterized by comprising: binarization means for generating a binarized image from the color image for each representative color; and motion vector detection means for detecting a motion vector between frames for each binarized image. motion detection method.
JP23221990A 1990-08-31 1990-08-31 Motion detection method for moving images Expired - Lifetime JP2973223B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23221990A JP2973223B2 (en) 1990-08-31 1990-08-31 Motion detection method for moving images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23221990A JP2973223B2 (en) 1990-08-31 1990-08-31 Motion detection method for moving images

Publications (2)

Publication Number Publication Date
JPH04117089A true JPH04117089A (en) 1992-04-17
JP2973223B2 JP2973223B2 (en) 1999-11-08

Family

ID=16935852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23221990A Expired - Lifetime JP2973223B2 (en) 1990-08-31 1990-08-31 Motion detection method for moving images

Country Status (1)

Country Link
JP (1) JP2973223B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105712A (en) * 1996-09-30 1998-04-24 Mitsubishi Heavy Ind Ltd Moving body tracking device
JP2006349909A (en) * 2005-06-15 2006-12-28 Seiko Epson Corp Image display device and its control method
JP2008071143A (en) * 2006-09-14 2008-03-27 Daihatsu Motor Co Ltd Image processor
JP2012022651A (en) * 2010-07-16 2012-02-02 Canon Inc Image processing apparatus, image processing method and program

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227524B1 (en) * 2011-08-10 2013-01-31 엘지전자 주식회사 Method and apparatus for processing image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105712A (en) * 1996-09-30 1998-04-24 Mitsubishi Heavy Ind Ltd Moving body tracking device
JP2006349909A (en) * 2005-06-15 2006-12-28 Seiko Epson Corp Image display device and its control method
US7809209B2 (en) 2005-06-15 2010-10-05 Seiko Epson Corporation Image display device, and control method for the same
JP4701851B2 (en) * 2005-06-15 2011-06-15 セイコーエプソン株式会社 Image display apparatus and control method thereof
JP2008071143A (en) * 2006-09-14 2008-03-27 Daihatsu Motor Co Ltd Image processor
JP2012022651A (en) * 2010-07-16 2012-02-02 Canon Inc Image processing apparatus, image processing method and program

Also Published As

Publication number Publication date
JP2973223B2 (en) 1999-11-08

Similar Documents

Publication Publication Date Title
Cheng et al. A hierarchical approach to color image segmentation using homogeneity
Meier et al. Video segmentation for content-based coding
Lu et al. Salient object detection using concavity context
CN108592823B (en) Decoding method based on binocular vision color stripe coding
CN108592822B (en) Measuring system and method based on binocular camera and structured light coding and decoding
US10037602B2 (en) Method and apparatus for enhancing stereo vision
KR100572768B1 (en) Automatic detection method of human facial objects for the digital video surveillance
Wang et al. In-hand object scanning via RGB-D video segmentation
Abdusalomov et al. An improvement for the foreground recognition method using shadow removal technique for indoor environments
Pokrajac et al. Spatiotemporal blocks-based moving objects identification and tracking
CN102457724A (en) Image motion detecting system and method
Sengar et al. Moving object tracking using Laplacian-DCT based perceptual hash
JPH04117089A (en) Moving image motion detecting system
KR20160085708A (en) Method and apparatus for generating superpixels for multi-view images
Koschan et al. Dense depth maps by active color illumination and image pyramids
Kim et al. Multi-view object extraction with fractional boundaries
Dryanovski et al. Real-time pose estimation with RGB-D camera
Kim et al. Hand tracking and motion detection from the sequence of stereo color image frames
Abdusalomov et al. Robust shadow removal technique for improving image enhancement based on segmentation method
KR20040107962A (en) System for detecting moving objects and method thereof
Chandrakar et al. Study and comparison of various image edge detection techniques
Abdusalomov et al. Review on various widely used shadow detection methods to identify a shadow from images
Tchah Object oriented face detection using colour transformation and range segmentation
Joo et al. Graph-based robust shape matching for robotic application
Sankoh et al. Robust background subtraction method based on 3D model projections with likelihood

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 11

EXPY Cancellation because of completion of term