[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2003533800A - Mcアップコンバージョンにおけるハローを低減する動き推定器 - Google Patents

Mcアップコンバージョンにおけるハローを低減する動き推定器

Info

Publication number
JP2003533800A
JP2003533800A JP2001584368A JP2001584368A JP2003533800A JP 2003533800 A JP2003533800 A JP 2003533800A JP 2001584368 A JP2001584368 A JP 2001584368A JP 2001584368 A JP2001584368 A JP 2001584368A JP 2003533800 A JP2003533800 A JP 2003533800A
Authority
JP
Japan
Prior art keywords
vector
image
velocity
edge
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001584368A
Other languages
English (en)
Inventor
ハーン,ヘラルト デ
イェー ウェー メルテンス,マルク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26072246&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2003533800(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Philips Electronics NV filed Critical Philips Electronics NV
Publication of JP2003533800A publication Critical patent/JP2003533800A/ja
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/223Analysis of motion using block-matching
    • G06T7/238Analysis of motion using block-matching using non-full search, e.g. three-step search
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Television Systems (AREA)

Abstract

(57)【要約】 前の画像と後の画像の間の時間的な中間位置で動きを検出する装置は、候補ベクトルの規準関数を最適化する最適化手段(1)を有し、これにより、規準関数は、前の画像と後の画像の両方の画像からのデータに依存する。動きは、ノンカバリング領域及びノンアンカバリング領域内の時間的な中間位置で検出される。本発明による装置は、カバリング領域及びアンカバリング領域を検出する手段(2)を有し、最適化手段がカバリング領域内の次の画像の時間的な位置と、アンカバリング領域内の前の画像の時間的な位置とで最適化を行なうよう構成される。

Description

【発明の詳細な説明】
【0001】 本発明は、前の画像と後の画像の両方の画像からのデータに依存する候補ベク
トルの規準関数が、ノンカバリング領域及びノンアンカバリング領域内の時間的
な中間位置で最適化される、前の画像と後の画像の間の時間的な中間位置で動き
を検出する方法に関する。
【0002】 本発明は、ビデオシーケンスから二つの連続した画像間の動きを推定する推定
器は、カバリグ又はアンカバリングが生じる領域では、典型的に情報が二つの画
像のうちの何れか一方だけで生じるので、巧く動作し得ないという基本的な問題
の考察を鑑みてなされた。ブロック照合器は、正確なベクトルに対しても、常に
、大きい照合誤差を生じる。
【0003】 本発明の目的は、上記問題を、特に、前の画像及び/又は後の画像からのベク
トル場を計算する際に生じる一般的な問題を、解決することである。
【0004】 本発明によれば、上記目的は、最適化がカバリング領域内の後の画像の時間的
な位置と、アンカバリング領域内の前の画像の時間的な位置とで行なわれること
により達成される。
【0005】 さらに、本発明は、前の画像と後の画像の間で動きを検出する装置に関する。
この装置は、候補ベクトルの規準関数を最適化する最適化手段を有し、規準関数
は前の画像と後の画像の両方の画像からのデータに依存し、最適化は、ノンカバ
リング領域内及びノンアンカバリング領域内の時間的な中間位置で行なわれ、カ
バリング領域又はアンカバリング領域を検出する手段が設けられ、最適化は、カ
バリング領域内の次の画像の時間的な位置と、アンカバリング領域内の前の画像
の時間的な位置とで行なわれる。
【0006】 本発明による方法及び装置の実施例は、従属請求項に記載される。
【0007】 以下、添付図面を参照して本発明を詳細に説明する。
【0008】 本発明は、種々の技術分野へ適用される。たとえば、画像レート変換に適用し
た場合、本発明によって改良されたベクトル場は、感じの良い、アーティファク
トを含まないビデオストリームを生成する。このアプリケーションに対する典型
的な装置は、テレビ(TV)とパーソナルコンピュータ(PC)である。
【0009】 3次元不均衡解析では、画像がカメラをロールすることによって、或いは、ロ
ールするシーンから生成される。
【0010】 動きに基づく画像圧縮では、本発明により改良されたベクトル場が対象をより
忠実に抽出し、これにより、たとえば、監視カメラのビデオ解析、ビデオ特殊効
果、及び、通行解析などの後処理を容易化する。
【0011】 たとえば、背景のボケの回避のようなテレビ技術における画像強調にも適用さ
れる。
【0012】 科学的なアプリケーションとしては、本発明により改良されたベクトル場は、
より優れたデータ解析、たとえば、雲や海洋の衛星写真などを可能にする。
【0013】 カバリング(被覆型)の場合、現在画像内の全ての情報は先行画像内に存在し
、アンカバリング(暴露型)の場合、アンカバリング領域で、現在画像は先行画
像の全ての情報を含む(アンカバリング領域の周辺で局所的)。そのため、たと
えば、国際公開特許WO00/11863に記載されているように、カバリング/アンカバ
リング検出器によって制御されるマッチ誤差計算を、現在画像と動き補償された
先行画像とのマッチング(カバリング)から、先行画像と動き補償された現在画
像とのマッチング(アンカバリング)へ修正することにより、推定器内の曖昧さ
が阻止される。これにより、非常に正確で、かつ、一貫したベクトル場が得られ
ることが期待され、その結果として、ハローが減少する。この修正については、
後述する。
【0014】 このマッチ計算の動的な修正の副作用として、曖昧さのないベクトル場は、あ
る瞬間に有効ではなくなり、まして、アップコンバージョンが行なわれる瞬間は
有効ではなくなるが、この「有効な瞬間」は、着目中の領域がカバリングである
か、アンカバリングであるか、或いは、単なる不動領域であるかに応じて変化す
る。この作用は、後述するように、本発明の第2の要素によって軽減される。
【0015】 次に、図1を参照して、動きベクトルを計算するため、全探索型ブロックマッ
チング動き推定アルゴリズムを使用する改良型動きベクトル計算を説明する。こ
のアルゴリズムは、動き推定問題に関して、最も費用効果の高いアプローチでは
ないが、比較的費用効果の高いアプローチである。同じ原理は、文献:G. De Ha
an, P.W.A.C. Biezen, H. Huygen and O.A. Ojo, "True Motion Estimation wit
h 3-D Recursive Search Block-Matching", IEEE Tr. on Circuits and Systems
for Video Technology, vol.3, October 1993, pages 368-388、並びに、文献
:G. De Haan and P.W.A.C. Biezen, "Sub-Pixel motion estimation with 3-D
recursive search block-matching", Signal Processing: Image Communication
6 (1994), pages 220-239に記載されている。
【0016】 ブロックマッチング動き推定アルゴリズムの場合、変位ベクトルは、先行画像
n−1において、
【0017】
【数33】 を中心とする探索領域
【0018】
【数34】 内で類似ブロックを探索することにより、現在画像n内の画素のブロック
【0019】
【数35】 の中心
【0020】
【数36】 に割り当てられる。類似ブロックは、
【0021】
【数37】 に対して、変位ベクトル
【0022】
【数38】 だけシフトした中心を有する。この変位ベクトル
【0023】
【数39】 を見つけるため、多数の候補ベクトル
【0024】
【数40】 が、ブロック類似度を定量化する誤差測度
【0025】
【数41】 を適用することにより推定される。より形式的に表わすと、CSmaxは、前の
画像の探索領域
【0026】
【数42】 内で、
【0027】
【数43】 に関して、起こり得る全ての変位(通常、整数である)を記述する候補
【0028】
【数44】 の集合として定義される。
【0029】
【数45】 式中、N及びMは、
【0030】
【数46】 を制限する定数である。
【0031】
【数47】 に中心が置かれ、サイズがX×Yであるブロック
【0032】
【数48】 は、現在画像n内の画素位置
【0033】
【数49】 により構成され、
【0034】
【数50】 ブロックマッチング処理から生じた変位ベクトル
【0035】
【数51】 は、誤差関数
【0036】
【数52】 の最小値を与える候補ベクトル
【0037】
【数53】 である。
【0038】
【数54】 一般的に、最小マッチング誤差に関するベクトル
【0039】
【数55】 が、中心画素だけではなく、ブロック
【0040】
【数56】 の全画素位置xに割り当てられた場合、すなわち、
【0041】
【数57】 であるならば、計算回数の大幅な削減が実現される。
【0042】 暗黙的に、連続したブロック
【0043】
【数58】 は、重なり合わない。所与の候補ベクトル
【0044】
【数59】 に対する誤差値は、現在ブロック内の画素の明度値と、先行画像からのシフトし
たブロック内の画素の明度値との関数を、ブロック
【0045】
【数60】 の全体で総和したものである。一般的に選択され、本例でも使用される関数は、
絶対値の差の和(SAD)である。
【0046】
【数61】 式中、αは、0≦α≦1なる定数であり、二つの画像間で、ベクトル場が有効で
なければならない時間的な位置を決める。
【0047】 図2は、起こり得る全ての基準位置0≦α≦1に対し生じる状況をより明瞭に
示す。上側の線aが、時間域で移動するフォアグラウンド対象物のエッジの位置
に対応する場合を考える。未来の画像において、速度ベクトルのエッジ位置X (動きベクトルが有意な空間的な変化を示す位置)の何れかの側で正確なフォア
グラウンド又はバックグラウンド速度を見つける。しかし、基準位置αを通過し
た画像の方へ動かすのに伴って、曖昧さの領域が拡大し、映像化によって正確な
ベクトルを検出することが不可能である。全ての候補ベクトルは、大きいSAD
値をとるので、最小化は、得られたベクトル場が殆ど訂正できないということを
意味するある一定の候補をランダムに選択する。
【0048】 同様に、図3から、アンカバリング領域に関して、基準位置αを0としたとき
、曖昧さのない動き推定が得られることがわかる。すなわち、未来から過去へブ
ロックが投影される。変更できない動きの場合、基準位置を中程度にしたとき(
たとえば、αが0.5であるとき)、誤差は生じない。領域がカバリング領域で
あるか、又は、アンカバリング領域であるかは、先に計算されたベクトル場にお
けるベクトルエッジXの何れかの側で獲得された動きベクトルのx成分の差の
符号に基づいて決定することができる。
【0049】 本発明は、たとえば、カバリング領域の場合に、未来の画像におけるオクルー
ジョン領域内、若しくは、オクルージョン領域周辺に存在する全画素は、過去の
画像内で見つけることができるが、しかし、過去の画像には、未来の画像中では
カバーされているために未来の画像に存在しない余分なブロックが存在する、と
いう点に着眼している。ブロックマッチング用の基準位置αを置くための自然な
位置は、未来の画像の時間的な位置である。なぜならば、オクルージョン領域の
内部及び周辺における全てのブロックに対して、正確な動きベクトルを実際に見
つけることができるからである。
【0050】 本発明によって提案される改良点は、カバリングが生じる領域において、正確
な動きベクトルは、α=1を使用する推定器だけによって推定することができる
、という点の考察によって得られる。同様に、アンカバリングに関して、正確な
ベクトルは、α=0を使用する推定器だけによって推定される、 中間的な時間的瞬間に対するベクトルを計算する動き推定器は、最悪の状況で
、曖昧さの領域が両端の時間的瞬間に対する推定器よりも小さくなるので、カバ
リングとアンカバリングの両方に関して困難を伴う。最悪の状況の曖昧さは、α
=0.5を適用する推定器の場合に最小になる。図2及び3は、曖昧さの領域の
サイズに対するαの効果を示す。
【0051】 第1のステップは、式(5)を次式のように修正することによって、補間画像
に対し要求されるαの値とは無関係に、カバリング状況及びアンカバリング状況
に対するブロックマッチング器を改良する。
【0052】 カバリング領域に対して、たとえば、引用文献WO/11863に記載されているカバ
リング/アンカバリング検出器によって示されるように、式(5)を次式のよう
に修正する。
【0053】
【数62】 また、アンカバリング領域に対しては、式(5)を式(7)のように修正する
【0054】
【数63】 ノンオクルージョン領域では、たとえば、α=0.5とし、過去の画像及び未
来の画像の両方向から基準ブロック位置へブロックを投影し、時間的な位置での
補間画像でそれらを比較する。カバリングブロックでは、α=1とし、未来の画
像内で元の位置にあるブロックを、候補ベクトルを用いて過去の画像から取り出
されたブロックと比較する。画像のアンカバリング領域では、α=0をとり、過
去の画像のブロックを、未来の画像からのブロックとマッチングする。
【0055】 オクルージョン、又は、より特定的なカバリング領域及びアンカバリング領域
は多数の方法で検出できる。
【0056】 カバリング/アンカバリング検出器は、先行ベクトル場、或いは、現在ベクト
ル場の先行計算(反復法)を使用するか、又は、近傍画像間で計算されたマッチ
誤差の推定に基づく方法を使用する。
【0057】 好ましいカバリング/アンカバリング検出器は、速度の符号を調べる。近傍の
速度が互いの方へ向かうとき、カバリングが生じている筈である。それ以外の場
合には、状況に応じて解析され、以下のようにまとめることができる。
【0058】 V−V>δ(カバリング) V−V<−δ(アンカバリング) ここで、V は速度エッジXであり、Vはエッジより下の速度であり、δは
、検出結果にノイズが含まれるのを避けるための小さい定数である。この方法は
、ベクトルの特定の数値に依存していないので、非常にロバスト性を備えている
。常に、エッジの何れかの側で多少正確なベクトル値を得ることができ、たとえ
、値が不正確であるとしても、その差を訂正することが可能である。第2に、カ
バリング及びアンカバリングの推定は、フォアグラウンドFG領域において、す
なわち、曖昧さのある三角形の外側で、従来の推定(式7)と同様に動作するの
で、予測エッジの周りの大きいバンドは「保護」されている。これにより、エッ
ジXの位置の変動に対するロバスト性が得られる。
【0059】 αを0又は1に切り換えることによって、最小化によって不正確なベクトルが
生じることはないという利益が得られるが、獲得されたベクトルは必ずしも正確
なブロック位置にあるとは限らない、という不利益を伴う。たとえば、フォアグ
ラウンドFGエッジ(ベクトルがバックグラウンドBGからフォアグラウンドF
G速度へ変化するブロック位置)は、その本当の位置Uではなく、位置Xで検
出される(図2及び3を参照のこと)。その理由は、マッチングの時点が正確で
はなかったためである(たとえば、α=0.5ではなく、α=0)。
【0060】 実際上、獲得されたベクトル場は、単一の時点では有効ではないが、画像内の
位置に依存して、三つの異なる時点では有効である。そのため、この方法は、「
3時点動き推定器(tritemporal motion estimator)」と呼ばれる。一般的に、ベ
クトル場は、所望の中間位置(たとえば、α=0.5)へ時間修正する必要があ
る。フォアグラウンドFG対象物が静止し、バックグラウンドBGがフォアグラ
ウンドの裏側で動作する特別のシーケンスの場合には、フォアグラウンドFGエ
ッジが移動しないので、時間的ベクトル場の時間修正は不要である。
【0061】 本発明による修正の結果として、ベクトル場が有効である正確な時点は犠牲と
なるが、動き評価器の曖昧さは無い。
【0062】 このアルゴリズムの第2のステップの再タイマーでは、時間誤差を訂正する。
このため、ベクトル場は、所望の時点へ投影され、カバリングの場合には、時間
的に、
【0063】
【数64】 へ後方投影され、アンカバリングの場合には、
【0064】
【数65】 へ前方投影される。
【0065】 この投影は、曖昧な領域、すなわち、ベクトルが割り当てられていない領域を
再導入する。この曖昧さの原因は、1回の推定では、たとえば、不連続性の上方
の位置
【0066】
【数66】 から獲得されたベクトルがアンコンバージョンベクトル場内のこの位置に置かれ
るべきバックグラウンドベクトルであることが自明ではないため、不連続性が図
2の線aに沿って移動したのか、線bに沿って移動したのかがわからない、とい
う点にある。しかし、先行ベクトル場を使用することにより、エッジが二つの可
能なベクトルのうちの何れのベクトルによって移動したかを判断することが可能
であり、どちらがバックグラウンド速度であり、どちらがフォアグラウンド速度
であるかを判断することが可能である。
【0067】 再タイマーは、以下の動作を実行し、再タイミング(時間変更)を行うべきか
どうかを判定する。再タイマーは、速度エッジXを探し、このエッジの周囲で
十分に広いオクルージョン領域にマークを付ける。次に、再タイマーは、フォア
グラウンドFG速度をブロック精度へ丸めることによって、厳密に訂正されるべ
きブロックの数を計算する。そして、再タイマーは、どの再タイマー訂正動作を
適用すべきかを判定する。
【0068】 さらに、再タイマーは、曖昧さのないベクトル場内のベクトルエッジ
【0069】
【数67】 からのフォアグラウンド速度を投影することにより、時点n−1+αのベクトル
場内で曖昧領域の開始位置
【0070】
【数68】 を判定する。中間的なベクトル場内のエッジの位置
【0071】
【数69】 が一つのベクトル場からの推定値をシフトした結果ではなく、現在ベクトル場及
び先行ベクトル場における位置の(αによる)加重平均として計算された場合に
、僅かな改良が行われる。次に、再タイマーは、フォアグラウンド領域が、
【0072】
【数70】 の左側と右側のどちら側にあるか、並びに、フォアグラウンド速度の符号に依存
して、フォアグラウンド速度又はバックグラウンド速度を用いて、
【0073】
【数71】
【0074】
【数72】 の間の空間を埋める。この戦略を動作させるためには、ロバスト性を備えたフォ
アグラウンド/バックグラウンド判定戦略が必要である。
【0075】 以下の1.から3.に依存して、8種類の再タイマーの状況が存在する。 1.カバリング対アンカバリング 2.フォアグラウンドFG速度の符号 3.速度エッジXのどちら側にフォアグラウンドFGが存在するか。 これは、図4に、中間画像に対しα=0.5として示されている。
【0076】 図4の一番左の上部分は、カバリングの状況に関連する。エッジの下側がフォ
アグラウンドFGであり、フォアグラウンド速度はVFG<0である。この状況
では、二つのフォアグラウンドFGのブロックがバックグラウンドBGブロック
によって置き換えられる(BGを埋める)。図4の次の上部分は、フォアグラウ
ンドFG速度がVFG>0であり、エッジの下側がフォアグラウンドFGである
、カバリングの状況に関する。一つのバックグラウンドBGブロックだけがフォ
アグラウンドFGブロックによって置き換えられる(フォアグラウンドFGを埋
める)。図4の3番目の上部分は、アンカバリングの状況に関連し、フォアグラ
ウンド速度はVFG<0であり、エッジの下側にフォアグラウンドFGがある。
この場合、一つのバックグラウンドBGブロックだけが一つのフォアグラウンド
FGブロックによって置き換えられる(フォアグラウンドFGを埋める)。図4
の4番目の上部分は、フォアグラウンド速度がVFG>0であり、エッジの下側
にフォアグラウンドFGがある、アンカバリング状況に関連する。この場合、一
つのフォアグラウンドFGブロックだけがバックグラウンドBGブロックによっ
て置き換えられる(バックグラウンドBGを埋める)。図4の一番左の上部分は
、カバリングの状況に関連し、フォアグラウンドFG速度は、VFG<0であり
、エッジの下側にはバックグラウンドBGがある。一つのバックグラウンドBG
ブロックだけがフォアグラウンドFGブロックによって置き換えられるべきであ
る(フォアグラウンドを埋める)。図4の2番目の下部分は、カバリング状況に
関連し、フォアグラウンド速度はVFG>0であり、エッジの下側はバックグラ
ウンドBGである。一つのフォアグラウンドFGブロックだけがバックグラウン
ドBGブロックによって置き換えられる(バックグラウンドBGを埋める)。図
4の3番目の下部分は、アンカバリング状況に関連し、フォアグラウンド速度は
FG<0であり、エッジの上側にはフォアグラウンドFGがある。この場合、
一つのフォアグラウンドFGブロックがバックグラウンドBGブロックによって
置き換えられる(バックグラウンドBGを埋める)。図4の4番目の下部分は、
アンカバリング状況に関連し、エッジの上側にフォアグラウンドFGがあり、フ
ォアグラウンド速度はVFG>0である。この場合、一つのバックグラウンドB
GブロックはフォアグラウンドFGブロックによって置き換えられる(フォアグ
ラウンドFGを埋める)。図4の例の場合、中間画像はn+1/2であるが、明
らかに、中間画像は、先行画像から距離αだけ離れ、αは可変であることに注意
する必要がある。
【0077】 再タイマーは、対象物エッジの周辺の速度の中でフォアグラウンドとバックグ
ラウンドを区別する必要がある。先行動きベクトル場を用いることにより、フォ
アグラウンドに属する対象物領域若しくは速度と、バックグラウンドに属する対
象物領域若しくは決定することができる。バックグラウンドブロックは、階調値
画素と、関連した速度ベクトルが共にカバリング状況下で消えるブロックである
。フォアグラウンド/バックグラウンド検出器は、画素ベースの測定量よりも簡
単で、非常に信頼性の高い測定量を与えるので、フォアグラウンド/バックグラ
ウンド検出器におけるベクトルの対応関係が使用される。
【0078】 図5に示されている、第1の戦略である平均フォアグラウンド/バックグラウ
ンド判定において、ベクトル
【0079】
【数73】 が、カバリングの場合には先行ベクトル場からバックグラウンド速度を取り出し
、アンカバリングの場合にはフォアグラウンド速度を取り出す、という事実を利
用する。ここで、kは1よりも小さく、
【0080】
【数74】 及び
【0081】
【数75】 は、位置
【0082】
【数76】 におけるフォアグラウンド対象物の速度及びバックグラウンド対象物の速度であ
る。使用する際に最も安全なベクトルは、平均ベクトル
【0083】
【数77】 である。より厳密に説明すると、カバリングの場合に、先行画像ペア内でエッジ
の二つの実現可能な候補
【0084】
【数78】 及び
【0085】
【数79】 を計算する。たとえば、カバリングの場合に、ベクトル場n内で、位置
【0086】
【数80】 における垂直エッジに対して、
【0087】
【数81】 であり、曖昧領域内の先行ベクトル場(カバリング)で中間位置に存在するベク
トルを取る。
【0088】
【数82】 補間ベクトル場の曖昧領域にフォアグランドベクトルを埋める場合には、
【0089】
【数83】
【0090】
【数84】 の間で、
【0091】
【数85】 とは最も異なるベクトルを選択する。
【0092】 この第1の戦略の変形では、アンカバリングの場合に、未来(後続)ベクトル
場からバックグラウンドベクトルを取り出す。
【0093】
【数86】 ここで、
【0094】
【数87】 である。
【0095】 第2の戦略(図6を参照せよ)である、両側セルフ速度フォアグラウンド/バ
ックグラウンド判定は、アンカバリングの場合に、バックグラウンド速度で過去
へ投影された位置が、ベクトル
【0096】
【数88】 を用いて投影したときよりもフォアグラウンド領域へ向かって交差する可能性が
高い、という事実を使用する。これは、小さい相対速度
【0097】
【数89】 又は、不正確な推定ベクトルが生じる場合に興味深い。どの速度がバックグラウ
ンド速度であるかは、アプリオリにはわからないので、固有の速度
【0098】
【数90】 を用いて、エッジの両側に二つの位置を投影する(図3を参照せよ)。理想的な
状況からわかるように、低速度は、nにおけるバックグラウンド速度から、n−
1におけるフォアグラウンド速度へ変化する。nにおけるフォアグラウンド内の
ブロックがn−1におけるフォアグラウンドへ投影する確率は非常に高いので、
実際的な理由からその確率は1であるとみなすことができる。他の確率的な全て
の決定項目は表1に掲載されている。
【0099】
【表1】 2回の投影によって同じ(フォアグラウンド)ベクトルが生じる場合、ある判
定結果が得られる。このベクトルが上方ブロックのベクトルと一致する場合、こ
のベクトルはフォアグラウンド速度ベクトルであり、逆にこのベクトルが下方ブ
ロックのベクトルと一致する場合、このベクトルはバックグラウンド速度ベクト
ルである。ベクトルが異なる場合、この方法は成功しないので、不確実な判定結
果が得られる。未来に向かう類似した投影は、カバリングの場合に適用可能であ
る。
【0100】 第3の戦略(図7を参照せよ)である、エッジ投影フォアグラウンド/バック
グラウンド判定は、たとえば、カバリングの場合に、先行画像nにおける
【0101】
【数91】
【0102】
【数92】 の間のエッジが位置a又はb(図2を参照せよ)に存在するかどうかを検査する
。エッジが位置aで検出されたとき、
【0103】
【数93】 であり、逆もまた真である。n−1における速度は、nにおける速度と同じであ
ることに注意する必要がある。なぜならば、他の速度エッジが投影の近くに生じ
るからである。明らかに、この原理は、アンカバリングでカバリングを置き換え
、未来で過去を置き換えることにより適用され得る。
【0104】 これらの戦略は、マッチ誤差を組み込むことにより強化され得ることに注意す
る必要がある。フォアグラウンド領域への交差が生じる場合、そのブロック内の
ベクトルのマッチ誤差は小さい。誤って割り付けられたバックグラウンド領域へ
先行画像のフォアグラウンドベクトルを投影した場合、誤差は大きくなる。
【0105】 図8を参照するに、本発明の一実施例に従って先行画像と後続画像の間で時間
的中間位置で動きを検出する装置が示されている。この装置は、候補ベクトル用
の規準関数を最適化する最適化手段1を含む。この規準関数は、先行画像及び後
続画像の両方の画像からのデータに依存する。このような最適化手段は、文献:
G. de Haan, P.W.A.C. Biezen, H. Huygen, and O.A. Ojo, "True Motion Estim
ation with 3-D Recursive Search Block-Matching", IEEE Tr. on Circuits an
d Systems for Video Technology, vol.3, October 1993, pages 368-388に記載
されるように実現することができる。候補ベクトル用の規準関数の最適化手段1
の入力へは、画像信号Jが供給され、最適化手段1の出力から動きベクトルMV
が獲得される。
【0106】 画像信号Jは、カバリング/アンカバリング領域を検出する検出手段2へも供
給される。検出手段2は、たとえば、文献:WO00/1863に記載されている。
【0107】 最適化手段1は、検出手段2によって制御されるスイッチング手段を有するの
で、最適化手段1による最適化は、ノンカバリング領域とノンアンカバリング領
域において時間的中間位置で実行され、一方、最適化は、カバリング領域におけ
る後続画像の時間的位置と、アンカバリング領域における先行画像の時間的位置
とで行われる。
【0108】 この先行画像は、候補ベクトルのα倍だけシフトさせられ、後続画像は、候補
ベクトルの(1−α)倍だけシフトさせられる。この倍率αは、画像周期中に変
化する。上記の規準関数は、最小化されたマッチ誤差である。マッチ誤差は倍率
αの関数でもある。
【0109】 マッチ誤差を最適化する手段が設けられるので、倍率αは、マッチング処理中
にカバリング/アンカバリング検出器によって制御される。好ましくは、倍率α
は、カバリングの場合には1にセットされ、アンカバリングの場合には、0にセ
ットされる。
【0110】 検出手段2は、好ましくは、現在推定中で、α倍された先行画像内のデータに
基づいて判定する。
【0111】 画像信号Jは、フォアグラウンド/バックグラウンド検出器4へも供給され、
検出器4の出力は再タイマー3を制御する。再タイマー3の出力は規準関数の最
適化手段1へ接続される。
【0112】 再タイマー3は、画像信号中で速度エッジXを判定し、エッジの周辺にオク
ルージョン領域をマークする。再タイマー3は、オクルージョン領域において、
オクルージョンがカバリング領域であるか、若しくは、アンカバリング領域であ
るかと、フォアグラウンド速度の符号と、フォアグラウンドが速度エッジX
どちら側にあるかと、に依存して、フォアグラウンド速度がバックグラウンド速
度によって置き換えられるか、或いは、バックグラウンド速度がフォアグラウン
ド速度によって置き換えられるように、最適化手段1を制御する。
【0113】 図9には、本発明によるフォアグラウンド/バックグラウンド検出器の一実施
例が示されている。この検出器は、画像信号Jが供給され、速度エッジの位置
【0114】
【数94】 における計算を実行する計算手段5及び6を含む。計算手段5は、エッジの一方
の側で第1のベクトルに沿って
【0115】
【数95】 をシフトすることにより、先行(カバリング)画像又は後続(アンカバリング)
画像における第1の位置
【0116】
【数96】 を計算し、計算手段6は、エッジのもう一方の側で第2のベクトルに沿って
【0117】
【数97】 をシフトすることにより、先行(カバリング)画像又は後続(アンカバリング)
画像における第2の位置
【0118】
【数98】 を計算する。先行画像と後続画像の間の選択は、カバリング/アンカバリング検
出器7によって実行される。この検出器として、図1のカバリング及びアンカバ
リング領域を検出する手段2が使用できることは明らかである。
【0119】 計算手段5及び6の出力は、計算手段8の入力に接続され、計算手段8は、
【0120】
【数99】
【0121】
【数100】 の間で第3の中間位置を計算する。
【0122】 図9のフォアグラウンド/バックグラウンド検出器は、さらに、取り込み手段
9が設けられ、取り込み手段9の一方の入力は、第3の位置を計算する手段8の
出力に接続され、取り込み手段の他方の入力には、画像信号Jが供給される。取
り込み手段9の出力から、バックグラウンド速度VBGが取得され得る。取り込
み手段9は、先行(カバリング)画像若しくは後続(アンカバリング)画像から
のバックグラウンドベクトルを、第3の位置の速度で取り込む。このベクトルは
、バックグラウンドベクトル
【0123】
【数101】 を埋めるべき場合に、ベクトルが投影されていないエッジの環境内で画像の領域
に埋められる。フォアグラウンドベクトル
【0124】
【数102】 を埋めるべき場合には、
【0125】
【数103】 と、
【0126】
【数104】 の間で選択され、
【0127】
【数105】 から最も離れているベクトルが埋められる。
【0128】 更に詳述すると、第3の中間位置は、
【0129】
【数106】 である。
【0130】 フォアグラウンド/バックグラウンド検出器の別の一実施例は図10に示され
ている。この検出器は、投影手段10及び11を含み、投影手段の入力には、画
像信号Jが供給される。これらの投影手段10及び11は、カバリング/アンカ
バリング検出器12によって制御される。カバリング/アンカバリング検出器1
2にも画像信号Jが供給される。検出器12は、図1に示されたカバリング領域
及びアンカバリング領域を検出する検出手段2で置き換えてもよい。カバリング
/アンカバリング検出の制御動作は、投影手段10が速度エッジの一方の側の位
置を先行(カバリング)画像若しくは後続(アンカバリング)画像に投影し、投
影手段11が速度エッジのもう一方の側の位置を先行(カバリング)画像若しく
は後続(アンカバリング)画像に投影するように行われる。識別手段14は、投
影手段10及び11に接続され、識別手段14の出力側で、バックグラウンド速
【0131】
【数107】 と、フォアグラウンド速度
【0132】
【数108】 が獲得される。この識別手段14は、バックグラウンド速度を、速度不連続性を
交差する速度として認定し、先行画像のフォアグラウンド速度へ投影し、フォア
グラウンド速度をそれ自体に投影する。
【0133】 好ましくは、検査手段13が投影手段10及び11に接続される。検査手段1
3は、2回の投影が同じベクトルを生成したかどうかを検査する。同じベクトル
を生成した場合、この識別は確実である。
【0134】 図11には、フォアグラウンド/バックグラウンド検出器の更なる一実施例が
示されている。この検出器は、カバリング/アンカバリング検出器17によって
制御される。検出器17は、図1に示されたカバリング領域及びアンカバリング
領域を検出する検出手段2で置き換えてもよい。図11の検出器の場合、画像信
号Jが投影手段16の入力へ供給され、投影手段16は、カバリング/アンカバ
リング検出器の制御下で、不連続性を、カバリング状況を埋める先行ベクトルに
投影し、アンカバリング状況の後続ベクトル場に投影する。さらに、不連続性の
一方側で速度を判定する手段18と、不連続性のもう一方側で速度を判定する手
段19と、が設けられる。判定された速度は、判定する手段18及び19の出力
からテスト手段20へ供給される。テスト手段20は、投影手段16へ接続され
、エッジが不連続性の一方側で第1のベクトルを上回って移動したか、或いは、
不連続性のもう一方側で第2のベクトルを上回って移動したかどうかをテストす
る。テスト手段20は、バックグラウンドベクトル
【0135】
【数109】 を送出し、このバックグラウンドベクトルは、不連続性が第1(第2)のベクト
ルに関して移動した場合には、第2(第1)のベクトルである。
【0136】 さらに、充填手段をテスト手段20へ接続してもよい。充填手段は、フォアグ
ラウンドベクトルを埋めるべき場合には、第1のベクトルを、ベクトルが投影さ
れていない不連続性の環境内で、投影されたベクトル場の領域に埋め、バックグ
ラウンドベクトルを埋めるべき場合には、第2のベクトルを埋める。
【0137】 図12には、画像表示装置が示されている。この装置は、先行画像と後続画像
の間の時間的中間位置で動きベクトルを検出する装置21を含む。画像信号Jは
装置21へ供給されるとともに、先行画像と後続画像の間で画像部を補間する手
段22へ供給される。装置21の出力で検出された動きベクトルは、補間手段2
2の入力へ供給される。補間手段22の出力は、陰極線管23へ供給される。動
くベクトルを検出する装置21は、上述の装置に従って実現することが可能であ
る。
【図面の簡単な説明】
【図1】 動き推定方法の一例を示す図である。
【図2】 カバリングのために曖昧な領域を示す図である。
【図3】 アンカバリングのために曖昧な領域を示す図である。
【図4】 再タイマーのケースを示す図である。
【図5】 フォアグラウンド/バックグラウンド検出方法の一実施例を示す図である。
【図6】 フォアグラウンド/バックグラウンド検出方法の他の実施例を示す図である。
【図7】 フォアグラウンド/バックグラウンド検出方法の更なる実施例を示す図である
【図8】 動き検出装置の好ましい一実施例の構成図である。
【図9】 フォアグラウンド/バックグラウンド検出器の一実施例の構成図である。
【図10】 フォアグラウンド/バックグラウンド検出器の他の実施例の構成図である。
【図11】 フォアグラウンド/バックグラウンド検出器の更なる実施例の構成図である。
【図12】 本発明が組み込まれた画像表示装置の構成図である。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,CY, DE,DK,ES,FI,FR,GB,GR,IE,I T,LU,MC,NL,PT,SE,TR),CN,J P,KR (72)発明者 メルテンス,マルク イェー ウェー オランダ国,5656 アーアー アインドー フェン,プロフ・ホルストラーン 6 Fターム(参考) 5C059 MA05 MA14 NN10 NN21 NN38 PP04 TA65 TB08 TC02 TC24 TC42 TD02 TD06 TD09 UA02 5L096 EA15 FA06 GA19 HA02 HA07

Claims (25)

    【特許請求の範囲】
  1. 【請求項1】 候補ベクトル用の規準関数は最適化され、 該規準関数は先行画像及び後続画像の両方の画像からのデータに依存し、 規準関数の最適化は非カバリング領域及び非アンカバリング領域における時間
    的中間位置で行われる、 先行画像と後続画像の間の時間的中間位置における動き検出方法であって、 最適化は、カバリング領域における後続画像の時間的位置と、アンカバリング
    領域における先行画像の時間的位置と、で行われることを特徴とする、 動き検出方法。
  2. 【請求項2】 αは、0以上かつ1以下の数であり、画像周期中に変化させ
    ることができる数であり、 先行画像は候補ベクトルのα倍だけシフトさせられ、 後続画像は候補ベクトルの1−α倍だけシフトさせられる、 請求項1記載の動き検出方法。
  3. 【請求項3】 規準関数は最小化されたマッチ誤差である、請求項1記載の
    動き検出方法。
  4. 【請求項4】 αは、マッチング処理中にカバリング/アンカバリング検出
    器によって制御される、請求項2記載の動き検出方法。
  5. 【請求項5】 カバリングの場合、αは1にセットされ、アンカバリングの
    場合、αは0にセットされる、請求項4記載の動き検出方法。
  6. 【請求項6】 カバリング/アンカバリング検出器は、現在推定の際に、倍
    率αに関する先行画像内のデータに基づいて判定する、請求項4記載の動き検出
    方法。
  7. 【請求項7】 速度エッジXが判定され、 オクルージョン領域が該エッジの周辺でマークを付けられ、 オクルージョンがカバリングとアンカバリングのどちらであるかと、フォアグ
    ラウンド速度の符号と、フォアグラウンドが速度エッジXのどちら側にあるか
    と、に依存して、該オクルージョン領域内で、フォアグラウンド速度がバックグ
    ラウンド速度で置き換えられ、又は、バックグラウンド速度がフォアグラウンド
    速度で置き換えられる、 請求項1記載の動き検出方法。
  8. 【請求項8】 速度エッジの位置 【数1】 において、 先行カバリング画像内又は後続アンカバリング画像内の第1の位置 【数2】 は、エッジの一方の側で第1のベクトルの量で、 【数3】 をシフトすることにより計算し、 先行カバリング画像内又は後続アンカバリング画像内の第2の位置 【数4】 は、エッジの他方の側で第2のベクトルの量で、 【数5】 をシフトすることにより計算し、 【数6】 と 【数7】 の間で第3の中間位置を計算し、 エッジの環境内でベクトルが投影されていない画像の領域に充填されるベクト
    ルは、バックグラウンドベクトル 【数8】 を埋める必要がある場合には、先行カバリング画像又は後続アンカバリング画像
    内の第3の位置で 【数9】 を用いて取り込まれたベクトルであり、フォアグラウンドベクトル 【数10】 を埋める必要がある場合には、 【数11】 と、 【数12】 の間で選択され、 【数13】 から最も離れているベクトルである、 請求項7記載の動き検出方法。
  9. 【請求項9】 中間位置は、 【数14】 である、 請求項8記載の動き検出方法。
  10. 【請求項10】 バックグラウンド速度は、速度不連続性を越える速度とし
    て認定され、先行画像のフォアグラウンド速度へ投影し、フォアグラウンド速度
    はフォアグラウンド速度自体へ投影する、請求項7記載の動き検出方法。
  11. 【請求項11】 近傍のエッジがエッジの一方側で第1のベクトルによって
    え移動したかどうか、又は、エッジの他方側で第2のベクトルによって移動した
    かどうかを判定し、 エッジが第1のベクトルによって移動した場合には、エッジの環境内で投影さ
    れたベクトル場の領域に第2のベクトルを充填し、エッジが第2のベクトルによ
    って移動した場合には、エッジの環境内で投影されたベクトル場の領域に第1の
    ベクトルを充填し、エッジの環境内で投影されたベクトル場の領域は、バックグ
    ラウンドベクトル 【数15】 を投影すべき場合には、ベクトルが投影されず、フォアグラウンドベクトル 【数16】 を投影すべき場合には、他のベクトルが充填される、 請求項7記載の動き検出方法。
  12. 【請求項12】 先行画像内におけるバックグラウンド領域からフォアグラ
    ウンド領域への通過は、ブロック内のベクトルのマッチ誤差によって照合される
    、請求項10記載の動き検出方法。
  13. 【請求項13】 先行画像及び後続画像の両方の画像からのデータに依存す
    る候補ベクトル用の規準関数を、非カバリング領域及び非アンカバリング領域に
    おける時間的中間位置で最適化する最適化手段を有する、 先行画像と後続画像の間の時間的中間位置における動き検出装置であって、 カバリング領域又はアンカバリング領域を検出する検出手段が設けられ、 最適化は、カバリング領域における後続画像の時間的位置と、アンカバリング
    領域における先行画像の時間的位置と、で行われることを特徴とする、 動き検出装置。
  14. 【請求項14】 αは、0以上かつ1以下の数であり、画像周期中に変化さ
    せることができる数であり、 先行画像は候補ベクトルのα倍だけシフトさせられ、 後続画像は候補ベクトルの1−α倍だけシフトさせられる、 請求項13記載の動き検出装置。
  15. 【請求項15】 規準関数は最小化されたマッチ誤差である、請求項13記
    載の動き検出装置。
  16. 【請求項16】 αは、マッチング処理中にカバリング/アンカバリングの
    検出手段によって制御される、請求項14記載の動き検出装置。
  17. 【請求項17】 カバリングの場合、αは1にセットされ、アンカバリング
    の場合、αは0にセットされる、請求項16記載の動き検出装置。
  18. 【請求項18】 カバリング/アンカバリングの検出手段は、現在推定の際
    に、倍率αに関する先行画像内のデータに基づいて判定する、請求項16記載の
    動き検出装置。
  19. 【請求項19】 速度エッジXが判定され、 オクルージョン領域が該エッジの周辺でマークを付けられ、 オクルージョンがカバリングとアンカバリングのどちらであるかと、フォアグ
    ラウンド速度の符号と、フォアグラウンドが速度エッジXのどちら側にあるか
    と、に依存して、該オクルージョン領域内で、フォアグラウンド速度がバックグ
    ラウンド速度で置き換えられ、又は、逆にバックグラウンド速度がフォアグラウ
    ンド速度で置き換えられる、 請求項13乃至18のうち何れか一項記載の動き検出装置。
  20. 【請求項20】 計算手段が設けられ、速度エッジの位置 【数17】 において、 先行カバリング画像内又は後続アンカバリング画像内の第1の位置 【数18】 は、エッジの一方の側で第1のベクトルの量で、 【数19】 をシフトすることにより計算し、 先行カバリング画像内又は後続アンカバリング画像内の第2の位置 【数20】 は、エッジの他方の側で第2のベクトルの量で、 【数21】 をシフトすることにより計算し、 【数22】 と 【数23】 の間で第3の中間位置を計算し、 エッジの環境内でベクトルが投影されていない画像の領域に充填されるベクト
    ルは、バックグラウンドベクトル 【数24】 を埋める必要がある場合には、先行カバリング画像又は後続アンカバリング画像
    内の第3の位置で 【数25】 を用いて取り込まれたベクトルであり、フォアグラウンドベクトル 【数26】 を埋める必要がある場合には、 【数27】 と、 【数28】 の間で選択され、 【数29】 から最も離れているベクトルである、 請求項19記載の動き検出装置。
  21. 【請求項21】 中間位置は、 【数30】 である、 請求項20記載の動き検出装置。
  22. 【請求項22】 エッジの両側の二つの位置を先行カバリング画像又は後続
    アンカバリング画像へ投影する手段が設けられ、 バックグラウンド速度は、速度不連続性を越える速度ととして認定され、先行
    画像のフォアグラウンド速度へ投影し、フォアグラウンド速度はフォアグラウン
    ド速度自体へ投影する、請求項19記載の動き検出装置。
  23. 【請求項23】 近傍のエッジがエッジの一方側で第1のベクトルによって
    え移動したかどうか、又は、エッジの他方側で第2のベクトルによって移動した
    かどうかを判定するテスト手段が設けられ、 エッジが第1のベクトルによって移動した場合には、エッジの環境内で投影さ
    れたベクトル場の領域に第2のベクトルを充填し、エッジが第2のベクトルによ
    って移動した場合には、エッジの環境内で投影されたベクトル場の領域に第1の
    ベクトルを充填し、エッジの環境内で投影されたベクトル場の領域は、バックグ
    ラウンドベクトル 【数31】 を投影すべき場合には、ベクトルが投影されず、フォアグラウンドベクトル 【数32】 を投影すべき場合には、他のベクトルが充填される、 請求項19記載の動き検出装置。
  24. 【請求項24】 先行画像内におけるバックグラウンド領域からフォアグラ
    ウンド領域への通過を、ブロック内のベクトルのマッチ誤差によって照合する照
    合手段が設けられている、請求項22記載の動き検出装置。
  25. 【請求項25】 請求項13記載の動き検出方法によって動きベクトルを検
    出する検出装置と、 該検出装置へ接続され、画像部分を補間する手段と、 該補間手段へ接続された表示装置と、 を有する画像表示装置。
JP2001584368A 2000-05-18 2001-04-24 Mcアップコンバージョンにおけるハローを低減する動き推定器 Pending JP2003533800A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP00201752.3 2000-05-18
EP00201752 2000-05-18
EP01200560.9 2001-02-16
EP01200560 2001-02-16
PCT/EP2001/004598 WO2001088852A2 (en) 2000-05-18 2001-04-24 Motion estimator for reduced halos in motion compensared picture rate up-conversion

Publications (1)

Publication Number Publication Date
JP2003533800A true JP2003533800A (ja) 2003-11-11

Family

ID=26072246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001584368A Pending JP2003533800A (ja) 2000-05-18 2001-04-24 Mcアップコンバージョンにおけるハローを低減する動き推定器

Country Status (6)

Country Link
US (1) US7010039B2 (ja)
EP (1) EP1287492A2 (ja)
JP (1) JP2003533800A (ja)
KR (1) KR100840133B1 (ja)
CN (1) CN100504925C (ja)
WO (1) WO2001088852A2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406305B2 (en) 2006-04-19 2013-03-26 Entropic Communications, Inc. Method and system for creating an interpolated image using up-conversion vector with uncovering-covering detection
US8432495B2 (en) 2006-09-15 2013-04-30 Panasonic Corporation Video processor and video processing method

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003017649A1 (en) * 2001-08-20 2003-02-27 Koninklijke Philips Electronics N.V. Image size extension
ATE320143T1 (de) * 2001-11-07 2006-03-15 Koninkl Philips Electronics Nv Vorrichtung und verfahren zum erkennen von verdeckung
EP1474781A2 (en) * 2002-02-05 2004-11-10 Koninklijke Philips Electronics N.V. A method of and unit for estimating a motion vector of a group of pixels
KR100976718B1 (ko) 2002-02-28 2010-08-18 엔엑스피 비 브이 필드 레이트 업변환을 위한 방법 및 장치
EP1665808B1 (en) * 2003-09-02 2016-05-25 Entropic Communications, Inc. Temporal interpolation of a pixel on basis of occlusion detection
JP2007506333A (ja) * 2003-09-17 2007-03-15 コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. 動きベクトルフィールド再タイミング
EP1583364A1 (en) * 2004-03-30 2005-10-05 Matsushita Electric Industrial Co., Ltd. Motion compensated interpolation of images at image borders for frame rate conversion
CA2565670A1 (en) 2004-05-04 2005-11-17 Qualcomm Incorporated Method and apparatus for motion compensated frame rate up conversion
KR100913260B1 (ko) 2004-07-01 2009-08-21 콸콤 인코포레이티드 규모 가변적 비디오 코딩에서 프레임 레이트 업 변환을 이용하는 방법 및 장치
WO2006012384A2 (en) 2004-07-20 2006-02-02 Qualcomm Incorporated Method and apparatus for encoder assisted-frame rate up conversion (ea-fruc) for video compression
US8553776B2 (en) 2004-07-21 2013-10-08 QUALCOMM Inorporated Method and apparatus for motion vector assignment
EP1943832A2 (en) * 2005-10-24 2008-07-16 Nxp B.V. Motion vector field retimer
JP5215668B2 (ja) * 2005-11-07 2013-06-19 シャープ株式会社 画像表示装置及び方法
US9036015B2 (en) 2005-11-23 2015-05-19 Koninklijke Philips N.V. Rendering views for a multi-view display device
EP1958451B1 (en) * 2005-11-30 2014-03-19 Entropic Communications, Inc. Motion vector field correction
US8634463B2 (en) 2006-04-04 2014-01-21 Qualcomm Incorporated Apparatus and method of enhanced frame interpolation in video compression
US8750387B2 (en) 2006-04-04 2014-06-10 Qualcomm Incorporated Adaptive encoder-assisted frame rate up conversion
KR100855976B1 (ko) * 2007-02-02 2008-09-02 삼성전자주식회사 배경과 이동 객체를 분리하여 움직임을 추정하는 프레임보간 장치 및 프레임 보간 방법
DE102007015002A1 (de) 2007-03-28 2008-10-02 Micronas Gmbh Iteratives Verfahren zur Interpolation von Bildinformationswerten
CN101953167B (zh) * 2007-12-20 2013-03-27 高通股份有限公司 减少光晕的图像插值
US20100013992A1 (en) * 2008-07-18 2010-01-21 Zhi Zhou Method and system for detecting motion at an intermediate position between image fields
US20100201870A1 (en) * 2009-02-11 2010-08-12 Martin Luessi System and method for frame interpolation for a compressed video bitstream
US9699475B2 (en) 2009-02-12 2017-07-04 Qualcomm Incorporated Video sequence analysis for robust motion estimation
WO2010091750A1 (en) 2009-02-12 2010-08-19 Zoran (France) Scaling method and device for image signals
WO2010091937A1 (en) 2009-02-12 2010-08-19 Zoran (France) Temporal video interpolation method with 2-frame occlusion handling
KR20110022133A (ko) * 2009-08-27 2011-03-07 삼성전자주식회사 영상의 움직임 추정방법 및 영상처리장치
TR200909120A2 (tr) * 2009-12-04 2011-06-21 Vestel Elektroni̇k San. Ve Ti̇c. A.Ş. Hareket vektör alani yeni̇den zamanlandirma yöntemi̇@
US8233085B1 (en) 2009-12-08 2012-07-31 Kolorific, Inc. Method and system for interpolating a pixel value of a pixel located at an on-screen display
US20110249870A1 (en) * 2010-04-08 2011-10-13 National Taiwan University Method of occlusion handling
JP2017103744A (ja) * 2015-12-04 2017-06-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、及び画像符号化復号装置
CN107942095B (zh) * 2017-11-15 2019-11-26 哈尔滨工程大学 波浪滑翔器实际航向预测方法
CN111325673B (zh) * 2018-12-14 2023-06-30 瑞昱半导体股份有限公司 影像处理方法与影像处理电路

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336650A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> フィールド内挿方法
WO1999022520A2 (en) * 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1987005769A1 (en) * 1986-03-19 1987-09-24 British Broadcasting Corporation Tv picture motion measurement
EP0936575B1 (fr) * 1998-02-17 2004-07-28 Koninklijke Philips Electronics N.V. Procédé de traitement d'images pour l'estimation de mouvement dans une séquence d'images
US6195389B1 (en) * 1998-04-16 2001-02-27 Scientific-Atlanta, Inc. Motion estimation system and methods
US6192079B1 (en) * 1998-05-07 2001-02-20 Intel Corporation Method and apparatus for increasing video frame rate
WO2000011863A1 (en) * 1998-08-21 2000-03-02 Koninklijke Philips Electronics N.V. Problem area location in an image signal
US6594313B1 (en) * 1998-12-23 2003-07-15 Intel Corporation Increased video playback framerate in low bit-rate video applications
US6480615B1 (en) * 1999-06-15 2002-11-12 University Of Washington Motion estimation within a sequence of data frames using optical flow with adaptive gradients

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07336650A (ja) * 1994-06-06 1995-12-22 Nippon Hoso Kyokai <Nhk> フィールド内挿方法
WO1999022520A2 (en) * 1997-10-29 1999-05-06 Koninklijke Philips Electronics N.V. Motion vector estimation and detection of covered/uncovered image parts

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG199800433010, 井口和久,外2名, "方式変換におけるアンカバー処理の検討", テレビジョン学会技術報告, 19960202, 第20号,第5巻, p.81〜88, JP, 社団法人テレビジョン学会 *
JPN6010054489, 井口和久,外2名, "方式変換におけるアンカバー処理の検討", テレビジョン学会技術報告, 19960202, 第20号,第5巻, p.81〜88, JP, 社団法人テレビジョン学会 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8406305B2 (en) 2006-04-19 2013-03-26 Entropic Communications, Inc. Method and system for creating an interpolated image using up-conversion vector with uncovering-covering detection
US8432495B2 (en) 2006-09-15 2013-04-30 Panasonic Corporation Video processor and video processing method

Also Published As

Publication number Publication date
US20030206246A1 (en) 2003-11-06
KR20020020939A (ko) 2002-03-16
WO2001088852A2 (en) 2001-11-22
CN100504925C (zh) 2009-06-24
WO2001088852A3 (en) 2002-06-20
KR100840133B1 (ko) 2008-06-23
EP1287492A2 (en) 2003-03-05
CN1381024A (zh) 2002-11-20
US7010039B2 (en) 2006-03-07

Similar Documents

Publication Publication Date Title
JP2003533800A (ja) Mcアップコンバージョンにおけるハローを低減する動き推定器
TWI435608B (zh) 圖框速率轉換裝置及方法
US6625333B1 (en) Method for temporal interpolation of an image sequence using object-based image analysis
US8130837B2 (en) Method and apparatus for determining motion between video images
US7346109B2 (en) Motion vector computation for video sequences
EP2180695B1 (en) Apparatus and method for improving frame rate using motion trajectory
JP2002523985A (ja) 画像信号における問題領域位置決め
US20060045365A1 (en) Image processing unit with fall-back
KR20050089886A (ko) 배경 움직임 벡터 검출
KR20060135177A (ko) 움직임 에러 검출장치와 이를 포함하는 움직임 에러보정장치와 이에 의한 움직임 에러 검출방법 및 움직임에러 보정방법
WO2013100791A1 (en) Method of and apparatus for scalable frame rate up-conversion
CN101496063A (zh) 用于创建内插图像的方法和系统
KR20040078690A (ko) 오클루전을 고려하여 일군의 화소들의 움직임 벡터를 추정
US9106926B1 (en) Using double confirmation of motion vectors to determine occluded regions in images
US9357161B1 (en) Motion vector interpolation for motion compensation
US8509552B1 (en) Digital image processing error concealment method
JP2000201328A (ja) 動きベクトルの検出方法および回路
WO2004082294A1 (en) Method for motion vector determination
JPH09182077A (ja) 画像符号化方法および画像符号化装置
KR100436593B1 (ko) 능동 카메라 환경에서의 고속 움직임 검출을 위한 배경보상 장치 및 방법
JP2006215655A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP2006215657A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
Mertens et al. Motion vector field improvement for picture rate conversion with reduced halo
JP2743763B2 (ja) 動画像の動き推定方法
JP2003309820A (ja) 動きベクトル検出装置及び方法

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080227

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080421

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080421

A072 Dismissal of procedure [no reply to invitation to correct request for examination]

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20080708

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110301