[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2007506333A - 動きベクトルフィールド再タイミング - Google Patents

動きベクトルフィールド再タイミング Download PDF

Info

Publication number
JP2007506333A
JP2007506333A JP2006526751A JP2006526751A JP2007506333A JP 2007506333 A JP2007506333 A JP 2007506333A JP 2006526751 A JP2006526751 A JP 2006526751A JP 2006526751 A JP2006526751 A JP 2006526751A JP 2007506333 A JP2007506333 A JP 2007506333A
Authority
JP
Japan
Prior art keywords
motion vector
image
specific
motion
spatial position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006526751A
Other languages
English (en)
Inventor
リンメルト ビー ウィッテブロード
ハーン ゲラルド デ
Original Assignee
コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ. filed Critical コニンクリユケ フィリップス エレクトロニクス エヌ.ブイ.
Publication of JP2007506333A publication Critical patent/JP2007506333A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/553Motion estimation dealing with occlusions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置(
Figure 2007506333

)において位置される、特定の画素に関する特定の動きベクトル(
Figure 2007506333

)を、前記第1画像に関して推定される第1動きベクトルフィールド(
Figure 2007506333

)に基づくとともに、前記第2画像に関して推定される第2動きベクトルフィールド(
Figure 2007506333

)に基づき推定する方法が開示される。当該方法は、前記特定の画素の前記特定の空間的位置に基づき、前記第1動きベクトルフィールド(
Figure 2007506333

)及び第2動きベクトルフィールド(
Figure 2007506333

)から複数の動きベクトルを選択することによって一群の動きベクトル(
Figure 2007506333


Figure 2007506333


Figure 2007506333

)を生成するステップと、前記一群のベクトル(
Figure 2007506333


Figure 2007506333


Figure 2007506333

)に順序統計的演算を実行することによって前記特定の動きベクトル(
Figure 2007506333

)を確定するステップと含む。

Description

本発明は、特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置において位置される、特定の画素に関する特定の動きベクトルを、前記第1画像に関して推定される第1動きベクトルフィールドに基づくとともに前記第2画像に関して推定される第2動きベクトルフィールドに基づき推定する方法に関する。
本発明は、更に、特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置において位置される、特定の画素に関する特定の動きベクトルを、前記第1画像に関して推定される第1動きベクトルフィールドに基づくとともに前記第2画像に関して推定される第2動きベクトルフィールドに基づき推定する動き推定ユニットに関する。
本発明は、更に、
−ビデオ画像の系列に対応する信号を受信する受信手段と、
−前記ビデオ画像のうちの第1ビデオ画像に関する第1動きベクトルフィールドと、前記ビデオ画像のうちの第2画ビデオ画像に関する第2動きベクトルフィールドとを推定する動き推定手段と、
−上述のような、特定の動きベクトルを推定する動き推定ユニットと、
−出力画像の系列を前記ビデオ画像の系列及び前記特定の動きベクトルに基づき計算する画像処理ユニットと、
を備える画像処理機器に関する。
本発明は、更に、特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置において位置される、特定の画素に関する特定の動きベクトルを、前記第1画像に関して推定される第1動きベクトルフィールドに基づくとともに、前記第2画像に関して推定される第2動きベクトルフィールドに基づき推定する命令を有する、計算機構成によってロードされるべき計算機プログラムであって、前記計算機構成が処理手段及びメモリを備える計算機プログラムに関する。
遮蔽領域(occlusion area)とは、キャプチャされるシーンの位置と対応する領域であって、連続する一連の画像のうちの1つの画像において可視であるが、次の又は手前の画像においては可視でない領域を意味する。このことは、背景物体よりもカメラの近くに位置される、シーンにおける前景物体が、背景物体の一部に被ることがあり得るという事実によって引き起こされる。例えば前景物体が動く場合、背景物体の幾らかの部分は塞がれ、一方で、背景物体の他の部分は塞がれない。
遮蔽領域は、時間的補間においてアーチファクトを生じさせ得る。例えば、アップコンバージョンの場合、遮蔽領域は、いわゆるハローになり得る。アップコンバージョンの場合、動きベクトルは、アップコンバージョンされる出力画像を計算するために時間的補間を用いて推定される。時間的補間、すなわち2つの原入力画像の間の新たな画像の計算に関して、全く同一の物体に関連する画素の数が、連続する画像から取得されることが好ましい。このことは、何の関連する画素も両方の連続する画像において発見され得ないので、遮蔽領域の場合に単純には行われ得ない。通常1つ手前の又は次の原画像の画素値の補間に基づく他の補間方法が必要とされる。遮蔽領域に関する適した動きベクトルの推定が重要であることは明らかである。
冒頭の段落において記載の種類のユニットの実施例は、国際特許出願公開第01/88852号から既知である。手前の画像と次の画像との間における時間的中間位置における動きを検出する既知の機器は、候補の動きベクトルに関する規準関数を最適化する最適化手段を有し、これにより、前記規準関数は、手前の画像と次の画像の両方からのデータに依存する。動きは、非カバー(non-covering)領域において及び非アンカバー(non-uncovering)領域における時間的中間位置において検出される。既知の機器は、カバー領域及びアンカバー領域を検出する手段を有し、次の時間的位置におけるカバー領域において、及び手前の画像の時間的位置におけるアンカバー領域において最適化を実行するように構成される最適化手段を有する。
本発明の目的は、比較的堅固な、冒頭の段落において記載の種類の方法を提供することである。
本発明の目的は、当該方法が、
−特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを作成するステップと、
−前記一群の動きベクトルに順序統計的演算(order statistical operation)を実行することによって特定の動きベクトルを確定するステップと、
を有することにおいて実現される。
好ましくは、順序統計的演算は、メジアン(median)演算である。本発明に従う方法は、一群の動きベクトルからの中間動きベクトルフィールドに関する適切な動きベクトルの選択に基づき、前記動きベクトルは、前記原入力画像の系列の画像に関して計算される動きベクトルを有する。正しい動きベクトルがこれら原入力画像に関して推定される確率は、比較的高い。このことは、特に、これら動きベクトルが3つ又はそれ以上入力画像に基づき推定された場合に高い。2つの入力画像に基づく中間時間的位置に関する動きベクトルの直接推定は、通常、遮蔽領域に関する誤った動きベクトルになる。手前の原画像及び次の原画像に関して推定される動きベクトルを適用することは、中間時間的位置に関する堅固な動きベクトルフィールドになる。任意選択的に、中間時間的位置に関して初めに推定された初期動きベクトルは、一群の動きベクトルの要素として用いられる、及び/又は原入力画像の系列の画像のどの動きベクトルが選択されるべきかを決定するのに用いられる。
本発明に従う方法の実施例において、一群の動きベクトルを生成するステップは、特定の画素の特定の空間的位置に対応する第1空間的位置を有する、第1画像に関して推定される第1動きベクトルを選択するステップを含む。言い換えれば、零ベクトルに基づいて、第1画像に関して推定される第1動きベクトルが選択される。本発明に従うこの実施例の有利な点は、中間動きベクトルフィールドの何の初期計算も必要とされないことである。好ましくは、選択された第1動きベクトルは、その後、一群の(動きベクトル)の生成に関する更なる動きベクトルを選択するのに用いられる。したがって、好ましくは、一群の動きベクトルを作成するステップは、選択される第1動きベクトル及び特定の画素の特定の空間的位置によって決定される第2空間的位置を有する、第1画像に関して推定される第2動きベクトルを選択するステップを有し、一群の動きベクトルを作成するステップは、選択される第1動きベクトル及び特定の画素の特定の空間的位置によって決定される第3空間的位置を有する、第2画像に関して推定される第3動きベクトルを選択するステップを有する。
本発明に従う方法の実施例において、前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置及び前記特定の画素に関して推定される第1動きベクトルによって決定される第2空間的位置を有する、前記第1画像に関して推定される第2動きベクトルを選択するステップを含む。好ましくは、前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置及び前記特定の画素に関して推定される前記第1動きベクトルによって決定される第3空間的位置を有する、前記第2画像に関して推定される第3動きベクトルを選択するステップを含む。
本発明に従う方法の実施例において、一群の動きベクトルを生成するステップは、特定の画素の特定の空間的位置に対応する第2空間的位置を有する、第2画像に関して推定される第2動きベクトルを選択するステップを含む。本発明によるこの実施例の有利な点は、第1及び第2動きベクトルの選択が、単純である、すなわち特定の空間的位置に基づくことである。好ましくは、前記一群の動きベクトルを生成するステップは、前記第1画像に関して推定され第3空間的位置を有する第3動きベクトルと、前記第1画像に関して推定され第4空間的位置を有する第4空間動きベクトルとを選択するステップを更に有し、前記第1空間的位置、前記第3空間的位置及び前記第4空間的位置が、線上に位置される。好ましくは、前記第2動きベクトルフィールドから選択される前記動きベクトルは、第2線上において位置される。前記第1線の向きは、前記第1動きベクトルと一致し、前記第2線の向きは、前記第2動きベクトルと一致する。前記第1空間的位置及び前記第2空間的位置の空間近辺において比較的多数の動きベクトルを選択するステップを用いることによって前記一群の動きベクトルを生成することの有利な点は、堅固性である。動きベクトルフィールド毎の選択される動きベクトルの数、すなわち順序統計的演算を実行するフィルタの開口(aperture)は、予想される最大動作、すなわち最大動きベクトルのサイズに関係される。
本発明による方法の実施例は、第1中間動きベクトルフィールドの前記第1動きベクトルフィールドへのアップコンバージョンするステップを含み、前記第1動きベクトルフィールドが、前記第1中間動きベクトルフィールドより高い解像度を有し、また前記方法は、第2中間動きベクトルフィールドの前記第2動きベクトルフィールドへのアップコンバージョンするステップを含み、前記第2動きベクトルフィールドが、前記第2中間動きベクトルフィールドより更に高い解像度を有する。このアップコンバージョンは、好ましくは、いわゆるブロック侵食(block-erosion)を用いて実行される。ブロック侵食は、特定のブロックの画素に関する別の動きベクトルを、前記特定のブロックの画素の動きベクトル及び近辺のブロックの画素の動きベクトルに基づき計算する既知の方法である。ブロック侵食は、例えば米国特許明細書第5,148,269号において開示される。解像度を増加することによって、より多くの動きベクトルが、前記第1空間的位置及び前記第2空間的位置の空間的近辺において生成され、より信頼度のある特定の動きベクトルになる。
本発明の更なる目的は、比較的堅固である、冒頭の段落において開示された種類の動き推定ユニットを提供することである。
本発明のこの目的は、動き推定ユニットが、
−特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを生成する群生成手段と、
−前記一群のベクトルに順序統計的演算を実行することによって特定の動きベクトルを確定する確定手段と、
を備えることにおいて達成される。
本発明の更なる目的は、比較的堅固である動き推定ユニットを備える、冒頭の段落において開示された種類の画像処理機器を提供することである。
本発明のこの目的は、前記動き推定ユニットが、
−特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを生成する群生成手段と、
−前記一群のベクトルに順序統計的演算を実行することによって特定の動きベクトルを確定する確定手段と、
を備えることにおいて達成される。
任意選択的に、前記画像処理機器は、出力画像を表示する表示装置を更に備える。前記画像処理機器は、例えば、テレビ、セットトップボックス、VRC(ビデオカセットレコーダ)プレーヤ、衛星チューナ、DVD(デジタル多機能ディスク)プレーヤ又はレコーダであり得る。
本発明の更なる目的は、比較的堅固である、冒頭の段落において開示された種類の計算機プログラムを提供することである。
本発明のこの目的は、前記計算機プログラムが、ロードされた後に、
−特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを生成するステップと、
−前記一群のベクトルに順序統計的演算を実行することによって特定の動きベクトルを確定するステップと、
を実行する能力を前記処理手段に提供することにおいて達成される。
動き推定ユニットの変更態様及び変形態様は、記載される画像処理機器、方法、計算機プログラムの動き推定ユニットの変更態様及び変形態様に対応し得る。
本発明による、動き推定ユニット、画像処理機器、方法及び計算機プログラムのこれら及び他の態様は、以下に記載される実行態様及び実施例、及び添付の図面をから明らかであり、これらに関して及びこれらを参照にして説明される。
同一の参照符号は、図面において類似の部分を示すのに用いられる。
図1は、シーンにおける前景物体118の動き及び背景の動きを概略的に示す。図1において、時間的位置
Figure 2007506333
及び
Figure 2007506333
における2つの原画像100及び104が示される。これらの画像内の物体118は、上方向
Figure 2007506333
に動いており、物体118は、灰色の長方形によって記され、黒の実線106及び108によってつなげられる。長く細い黒い点線110及び112は、下方向である、背景の動き
Figure 2007506333
を示す。ハッチング領域114及び116は、遮蔽領域を示す。−1≦α≦0である時間的位置
Figure 2007506333
において作成される必要がある新たな画像102は、鎖線120によって示される。
図2は、図1において示される画像に関して推定される動きベクトルフィールドを概略的に示し、すなわち、推定される動きベクトルフィールドは、矢印によって示される。第1動きベクトルフィールドは、2つの原画像のうちの第1画像100に関して推定され、第2動きベクトルフィールドは、2つの原画像のうちの第2画像104に関して推定される。これら2つの動きベクトルフィールドは、3フレーム動き推定器を用いて計算される。第1動きベクトルフィールドは、
Figure 2007506333
によって示される。この第1動きベクトルフィールドは、輝度フレーム
Figure 2007506333

Figure 2007506333
及び
Figure 2007506333
間において推定される。第2動きベクトルフィールドは、
Figure 2007506333
によって示される。この第2動きベクトルフィールドは、輝度フレーム
Figure 2007506333

Figure 2007506333
及び
Figure 2007506333
間において推定される。このことに加えて、第1及び第2動きベクトルフィールドの間における時間的位置
Figure 2007506333
に関して、初期動きベクトルフィールドが計算される。この初期動きベクトルフィールド
Figure 2007506333
は、輝度フレーム
Figure 2007506333
及び
Figure 2007506333
間において推定される。3フレーム動き推定器の動きベクトルフィールド
Figure 2007506333
及び
Figure 2007506333
は、前景物体118と略一致し、2フレーム動き推定器の動きベクトルフィールド
Figure 2007506333
は、背景へと延在する前景ベクトルを示す。
本発明の方法によると、最終的な動きベクトルフィールド
Figure 2007506333
は、3つの動きベクトルフィールド
Figure 2007506333

Figure 2007506333
及び
Figure 2007506333
を用いることによって計算され得、この最終動きベクトルフィールドは、全ての位置において、すなわちカバー領域及びアンカバー領域においても適切な動きベクトルを有する。このことは、背景ベクトルが遮蔽領域において決定されることを意味する。この最終動きベクトルフィールド
Figure 2007506333
は、2フレーム動き推定器
Figure 2007506333
から動きベクトルと、動きベクトルフィールド
Figure 2007506333
及び
Figure 2007506333
からベクトル
Figure 2007506333
を用いて取得される動きベクトルとのメジアンを取ることによって生成されるのが好ましい。これらの後者のベクトルは、
Figure 2007506333
及び
Figure 2007506333
によって示される。メジアンは、数式1
Figure 2007506333
において明示され、ここで、「med」演算子は、別々にベクトルメジアンすなわちベクトル成分にわたるメジアンであり得る。動きベクトルが副画素精度である場合、好ましくは、適切な補間が実行される。ベクトルメジアン演算子は、J.Astola等による、1990年4月のProceedings of the IEEE、78号:678-689ページにおける「Vector median filters」の記事において明示される。ベクトルメジアンは、数式2及び3を用いて明示され得る。ここで、
Figure 2007506333
そして、
Figure 2007506333
とする。
図3は、空間的位置
Figure 2007506333
及び
Figure 2007506333
のそれぞれにおける2つの例の画素に関する、本発明に従う方法を概略的に示す。始めに、位置
Figure 2007506333
における画素周りの状況を考慮する。初期動きベクトルフィールド
Figure 2007506333
からの動きベクトル
Figure 2007506333
は、動きベクトル
Figure 2007506333
及び
Figure 2007506333
を第1動きベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
のそれぞれから取得するのに用いられる。この選択処理は、太い黒線の矢印300及び302によってそれぞれ示される。初期動きベクトルフィールド
Figure 2007506333
からの動きベクトル
Figure 2007506333
は、前景ベクトルであるが、取得されたベクトル
Figure 2007506333
及び
Figure 2007506333
の両方が背景ベクトルであるので、メジアン演算子は、背景ベクトルを選択し得る。
同様の処理は、位置
Figure 2007506333
における他の画素に関する適切な動きベクトルを確定するのに用いられ得る。初期動きベクトルフィールド
Figure 2007506333
からの動きベクトル
Figure 2007506333
は、動きベクトル
Figure 2007506333
及び
Figure 2007506333
を第1動きベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
のそれぞれから取得するのに用いられる。この選択処理は、太い黒線の矢印304及び306によってそれぞれ示される。ここにおいて、
Figure 2007506333
及び
Figure 2007506333
を用いて取得された動きベクトルは、それぞれ背景ベクトル及び前景ベクトルである。初期動きベクトルフィールド
Figure 2007506333
からの動きベクトル
Figure 2007506333
も背景ベクトルであるので、メジアン演算子は、背景ベクトルを選択し得る。
図2及び図3に関連して、時間的位置
Figure 2007506333
に関する動きベクトルフィールドが、初期動きベクトルフィールド
Figure 2007506333
に基づいて決定されていることが説明されている。図4は、初期動きベクトルフィールド
Figure 2007506333
が中間時間的位置に関して計算されていない場合における、2つの例の画素に関する、本発明に従う方法を概略的に示す。前記例の画素は、それぞれ空間的位置
Figure 2007506333
及び
Figure 2007506333
において位置される。
始めに、位置
Figure 2007506333
における画素周りの状況を考慮する。第1動きベクトルフィールド
Figure 2007506333
からの動きベクトル
Figure 2007506333
は、動きベクトル
Figure 2007506333
及び
Figure 2007506333
を第1ベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
のそれぞれから取得するのに用いられる。動きベクトル
Figure 2007506333
は、第1画素の空間的位置
Figure 2007506333
及び零動きベクトルに基づいて見つけられる。このことは、鎖線矢印400によって示される。選択処理は、それぞれ太い黒線の矢印300及び302によって示される。動きベクトル
Figure 2007506333
は、前景ベクトルであるが、両方の取得されたベクトル
Figure 2007506333
及び
Figure 2007506333
が背景ベクトルあるので、メジアン演算子は、背景ベクトルを選択し得る。
同様の処理は、位置
Figure 2007506333
における他の画素に関する適切な動きベクトルを確定するのに用いられ得る。第2動きベクトルフィールド
Figure 2007506333
からの動きベクトル
Figure 2007506333
は、動きベクトル
Figure 2007506333
及び
Figure 2007506333
を第1動きベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
のそれぞれから取得するのに用いられる。動きベクトル
Figure 2007506333
は、第2画素の空間的位置
Figure 2007506333
及び零動きベクトルに基づいて見つけられる。このことは、鎖線矢印402によって示される。この選択処理は、太い黒線の矢印304及び306によってそれぞれ示される。ここにおいて、取得された動きベクトル
Figure 2007506333
及び
Figure 2007506333
は、それぞれ背景ベクトル及び前景ベクトルである。動きベクトル
Figure 2007506333
も背景ベクトルであるので、メジアン演算子は、背景ベクトルを選択し得る。
図5Aは、時間的位置
Figure 2007506333
に関する最終動きベクトルフィールドを計算するように構成される、本発明に従う動き推定ユニット500の実施例を概略的に示す。動き推定ユニット500は、3つの動きベクトルフィールドを具備される。これら具備される動きベクトルフィールドの第1動きベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
は、3フレーム動き推定器506を用いて計算される。3フレーム動き推定器506の実施例は、米国特許第6,011,596号において開示される。第3の提供される動きベクトルフィールド
Figure 2007506333
は、2フレーム動き推定器508を用いて計算される。この2フレーム動き推定器508は、例えば、G. de Haan等による、1993年10月のIEEE Transactions on circuits and systems for video technology、vol.3、no.5、368-379ページにおける「True-Motion Estimation with 3-D Recursive Search Block Matching」という記事において明示される。
本発明に従う動き推定ユニット500は、特定の画素に関する特定の動きベクトルを推定するとともに、
−特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド
Figure 2007506333
、第2動きベクトルフィールド
Figure 2007506333
及び第3動きベクトルフィールド
Figure 2007506333
のそれぞれから複数の動きベクトルを選択することによって
一群の動きベクトル
Figure 2007506333

Figure 2007506333
及び
Figure 2007506333
を生成する群生成ユニット502と、
−前記一群の動きベクトルに順序統計的演算を実行することによって、特定の動きベクトル
Figure 2007506333
を確定する確定ユニット504とを備えるように構成される。
本発明による動き推定ユニット500の動作は、図3に関連して記載される。
3フレーム動き推定器506、2フレーム動き推定器508、群生成ユニット502及び確定ユニット504は、1つの処理器を用いて実装され得る。通常、これらの機能は、ソフトウェアプログラムの制御の元に実行される。実行において、通常、ソフトウェアプログラムは、RAMのようなメモリにロードされ、そこから実行される。該プログラムは、ROM、ハードディスク又は磁気及び/若しくは光学記憶媒体のようなバックグラウンドメモリからロードされ得るか、インターネットのようなネットワークを介してロードされ得る。任意選択的に、特定用途向け集積回路が、前記開示された機能を提供する。
図5Bは、本発明による動き推定ユニットの代替の実施例501を概略的に示す。この動き推定ユニット501は、動きベクトル再タイミングユニット(motion vector re-timing unit)501とも称され、その理由は、動きベクトル再タイミングユニット501が、それぞれ時間的位置
Figure 2007506333
及び
Figure 2007506333
において位置する2つの提供される動きベクトルフィールド
Figure 2007506333
及び
Figure 2007506333
に対して中間である時間的位置
Figure 2007506333
に関する最終動きベクトルフィールドを計算するように構成されるからである。これら提供される動きベクトルフィールドの第1動きベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
は、3フレーム動き推定器506を用いて計算される。3フレーム動き推定器506の例は、米国特許第6,011,596号において開示される。
本発明による動き推定ユニット501は、特定の画素に関する特定の動きベクトルを推定すると共に、
−特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド
Figure 2007506333
及び第2動きベクトルフィールド
Figure 2007506333
のそれぞれから複数の動きベクトルを選択することによって一群の動きベクトル
Figure 2007506333

Figure 2007506333
及び
Figure 2007506333
を生成する群生成ユニット502と、
−前記群の動きベクトルに順序統計的演算を実行することによって特定の動きベクトル
Figure 2007506333
を確定する確定ユニット504と、
を有するように構成される。
本発明による動き推定ユニット501の動作は、図4に関連して記載される。
本発明による動き推定ユニットにおいて生成される一群の動きベクトルにおける動きベクトルの数は、図3及び図4と関連して記載される例における3つの動きベクトルよりも高くあり得ることを注意されるべきである。
異なる時間的位置
Figure 2007506333

Figure 2007506333
及び
Figure 2007506333
に関する動きベクトルの計算は、同期して実行されることが好ましい。このことは、例えば時間位置
Figure 2007506333
に関する特定の動きベクトルフィールドが、対応する原入力ビデオ画像の全ての画素の動きを同時に表す一群の動きベクトルに必ずしも対応しないことを意味する。言い換えれば、動きベクトルフィールドは、例えば対応する原入力ビデオ画像の画素の10%のみである、一部の画素の動きを同時に表す一群の動きベクトルに対応し得る。
図6Aは、本発明による実施例において適用される一群の動きベクトルの生成を概略的に示す。図6Aは、第1画像に関して推定される第1動きベクトルフィールド620と、第2画像に関して推定される第2動きベクトルフィールド622とを概略的に示す。前記一群の動きベクトルは、特定の動きベクトルが確定される必要がある特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド620及び第2動きベクトルフィールド622から複数の動きベクトルを選択することによって生成される。特定の画素は、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置(
Figure 2007506333
)において位置される。一群の動きベクトルは、第1動きベクトルフィールド620から選択される第1の準群の動きベクトル601〜607を有する。この第1の準群は、特定の空間的位置に対応する、第1画像における第1空間的位置600に基づくとともに、第1空間的位置に属する第1動きベクトル604に基づく。線608は、第1動きベクトル604に基づき規定される。
第1の複数の動きベクトルは、この線において、第1の準群の動きベクトル601〜607を作成するために選択される。通常、第1の準群は、9個の動きベクトルを有する。選択された第1の複数の動きベクトルは、第1画像における第1空間的位置600を中心にして位置されることが好ましい。代替には、該選択は、第1空間的位置600を中心にして位置されないが、線608上を第1動きベクトル604の方向に移動される。
一群の動きベクトルは、第2動きベクトルフィールド620から選択される第2の準群の動きベクトル611〜617を有する。この第2の準群は、特定の空間的位置に対応する、第2画像における第2空間的位置610に基づくとともに、第2空間的位置に属する第2動きベクトル614に基づく。線618は、第2動きベクトル614に基づき規定される。第2の複数の動きベクトルは、この線において、第2の準群の動きベクトル611〜617を作成するために選択される。通常、第2の準群は、9個の動きベクトルを有する。選択された第2の複数の動きベクトルは、第2画像における第2空間的位置610を中心にして位置されることが好ましい。代替には、該選択は、第2空間的位置610を中心にして位置されないが、線618上を第2動きベクトル614の方向に移動される。
代替には、一群の動きベクトルは、第2動きベクトルフィールドから選択される別の第2の準群の動きベクトルを有する。(これらの動きベクトルは図示されない。)この別の第2の準群は、特定の空間的位置に対応する、第2画像における第2空間的位置610に基づくとともに、第1空間的位置に属する第1動きベクトル604に基づく。線は、第1動きベクトル604に基づき規定される。第2の複数の動きベクトルは、この線において、もう一つの第2の準群の動きベクトルを作成するために選択される。通常、第2の準群も、9個の動きベクトルを有する。
結果的に、特定の動きベクトルは、例えば601〜607、611〜617などの一群の動きベクトルに順序統計的演算を実行することによって確定される。順序統計的演算は、好ましくはメジアン演算である。任意選択的に、メジアンは、いわゆる重み付け又は中央重み付けメジアン演算である。このことは、一群の動きベクトルが、同一の空間的位置に対応する多重動きベクトルを有することを意味する。例えば、一群の動きベクトルは、第1動きベクトルの及び第2動きベクトルの多重の例を有する。全部で9個の動きベクトル601〜607が第1動きベクトルフィールド620から選択されると仮定する場合、一群は、第1動きベクトル604の9個の例を有し得る。
図6Bは、本発明による代替実施例において適用される一群の動きベクトルの生成を概略的に示す。図6Bは、第1画像に関して推定される第1動きベクトルフィールド620と、第2画像に関して推定される第2動きベクトルフィールド622とを概略的に示す。前記一群の動きベクトルは、特定の動きベクトルが確定される必要がある特定の画素の特定の空間的位置に基づき、第1動きベクトルフィールド620及び第2動きベクトルフィールド622から複数の動きベクトルを選択することによって生成される。
一群の動きベクトルは、第1動きベクトルフィールド620から選択される第1準群の動きベクトル621〜627を有する。この第1準群は、特定の空間的位置に対応する、第1画像における第1空間的位置600に基づく。第1の複数の動きベクトルは、この第1空間的位置に対して、第1の準群の動きベクトル621〜627を作成するために選択される。
一群の動きベクトルは、第2動きベクトルフィールド622から選択される第2準群の動きベクトル631〜637を有する。この第2準群は、特定の空間的位置に対応する、第2画像における第2空間的位置610に基づく。第2の複数の動きベクトルは、この第2空間的位置に対して、第2の準群の動きベクトル631〜637を作成するために選択される。
結果的に、特定の動きベクトルは、一群の動きベクトル621〜627、631〜637に順序統計的演算を実行することによって確定される。順序統計的演算は、好ましくはメジアン演算である。メジアンは、任意選択的に、いわゆる重み付け又は中央重み付けメジアン演算である。
代替的に2つの順序統計的演算が、2つの異なる成分群に基づき実行される。このことは以下のように動作する。第1の準群の水平成分の動きベクトルは、第1動きベクトルフィールド620の第1の複数の動きベクトル625〜627の水平成分を取ることによって作成され、第2の準群の水平成分の動きベクトルは、第2動きベクトルフィールド622の第1の複数の動きベクトル635〜637の水平成分を取ることによって作成される。特定の動きベクトルの水平成分は、順序統計的演算を用いることによって、水平成分の全体の群から決定される。第1の準群の垂直成分の動きベクトルは、第1動きベクトルフィールド620の第1の複数の動きベクトル621〜624の垂直成分を取ることによって作成され、第2の準群の垂直成分の動きベクトルは、第2動きベクトルフィールド622の第1の複数の動きベクトル631〜634の垂直成分を取ることによって作成される。特定の動きベクトルの垂直成分は、順序統計的演算を用いることによって、垂直成分の全体の群から決定される。
図7は、
−ビデオ画像の系列に対応する信号を受信する受信手段702と、
−前記ビデオ画像の第1画像に関する第1動きベクトルフィールド及び、前記ビデオ画像の第2画像に関する第2動きベクトルフィールドを推定する動き推定ユニット506と、
−図5Bに関連して説明される動きベクトル再タイミングユニット501と、
−国際特許出願第03/041416号又は国際特許出願第00/11863号などに記載の、カバー及びアンカバーの領域を検出する遮蔽検出器708と、
−前記ビデオの系列に基づき出力画像の系列を計算する画像処理ユニット704であって、前記動きベクトルフィールドが、前記動きベクトル再タイミングユニット501によって供給され、前記遮蔽マップが、前記遮蔽検出器708によって提供される画像処理ユニット704と、
−前記画像処理ユニット704の出力画像を表示する表示装置706と、
を有する、本発明による画像処理機器700の実施例を概略的に示す。
信号は、アンテナ又はケーブルを介して受信された放送信号であり得るが、VCR(ビデオカセットレコーダ)又はデジタル多機能ディスク(DVD)のような記憶装置からの信号でもあり得る。信号は、入力コネクタ708において供給される。画像処理機器700は、例えばテレビであり得る。代替として、画像処理器700は、光学表示装置を備えないが、表示装置706を有する機器へ出力画像を供給する。この場合画像処理機器700は、例えばセットトップボックス、衛星チューナ、VCRプレーヤ、DVDプレーヤ又はレコーダであってもよい。任意選択的に、画像処理機器700は、ハードディスク又は例えば光学ディスクなどの取り外し可能な媒体への記録用手段のような記憶手段を備える。画像処理機器700は、映画スタジオ又は放送局によって適用されるシステムでもあり得る。
上述の実施例は、本発明を制限するものよりもむしろ例証するものであり、当業者が、添付の請求の範囲から逸脱することなく、代わりの実施例を設計することが可能であることを注意しなければならない。請求項において、括弧記号間に位置される如何なる参照符号も、請求項を制限するように解釈されてはならない。「有する」という語句は、請求項に記載される以外の要素又はステップの存在を排除しない。単数形の構成要素は、複数個の斯様な構成要素の存在を排除しない。本発明は、いくつかの個別の構成要素を有するハードウェアを用いて、及び適切にプログラムされた計算機を用いて実施され得る。いくつかの手段を列挙しているユニット請求項において、これらの手段のいくつかはただ同一のハードウェアの項目によって、実施化することが可能である。第1、第2及び第3などの語句の使用は、如何なる順序付けも示さない。これらの語句は、名称として解釈されるべきである。
図1は、シーンにおける前景物体の動き及び背景物体の動きを概略的に示す。 図2は、図1に示される画像に関して推定される動きベクトルフィールドを概略的に示す。 図3は、2つの例の画素に関する、本発明による方法を概略的に示す。 図4は、中間時間位置に関して何の初期動きベクトルフィールドも計算されていなかった場合における2つの例の画素に関する、本発明による方法を概略的に示す。 図5Aは、3つの動きベクトルフィールドが備えられる、本発明による動き推定ユニットの実施例を概略的に示す。 図5Bは、2つの動きベクトルフィールドが備えられる、本発明による動き推定ユニットの実施例を概略的に示す。 図6Aは、本発明による実施例に適用される一群の動きベクトルの生成を概略的に示す。 図6Bは、本発明による代わりとなる実施例に適用される一群の動きベクトルの生成を概略的に示す。 図7は、本発明による画像処理機器の実施例を概略的に示す。

Claims (16)

  1. 特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置(
    Figure 2007506333
    )において位置される、特定の画素に関する特定の動きベクトル(
    Figure 2007506333
    )を、前記第1画像に関して推定される第1動きベクトルフィールド(
    Figure 2007506333
    )に基づくとともに、前記第2画像に関して推定される第2動きベクトルフィールド(
    Figure 2007506333
    )に基づき推定する方法であって、当該方法は、
    −前記特定の画素の前記特定の空間的位置に基づき、前記第1動きベクトルフィールド(
    Figure 2007506333
    )及び前記第2動きベクトルフィールド(
    Figure 2007506333
    )から複数の動きベクトルを選択することによって一群の動きベクトル(
    Figure 2007506333

    Figure 2007506333

    Figure 2007506333
    )を生成するステップと、
    −前記一群のベクトル(
    Figure 2007506333

    Figure 2007506333

    Figure 2007506333
    )に順序統計的演算を実行することによって前記特定の動きベクトル(
    Figure 2007506333
    )を確定するステップと、
    を有する方法。
  2. 前記順序統計的演算が、メジアン演算である、請求項1に記載の、特定の動きベクトルを推定する方法。
  3. 前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置に対応する第1空間的位置を有する、前記第1画像に関して推定される第1動きベクトルを選択するステップを含む、請求項1に記載の、特定の動きベクトルを推定する方法。
  4. 前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置及び選択される前記第1動きベクトルによって決定される第2空間的位置を有する、前記第1画像に関して推定される第2動きベクトルを選択するステップを含む、請求項3に記載の、特定の動きベクトルを推定する方法。
  5. 前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置及び選択される前記第1動きベクトルによって決定される第3空間的位置を有する、前記第2画像に関して推定される第3動きベクトルを選択するステップを含む、請求項4に記載の、特定の動きベクトルを推定する方法。
  6. 前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置及び前記特定の画素に関して推定される第1動きベクトルによって決定される第2空間的位置を有する、前記第1画像に関して推定される第2動きベクトルを選択するステップを含む、請求項1に記載の、特定の動きベクトルを推定する方法。
  7. 前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置及び前記特定の画素に関して推定される前記第1動きベクトルによって決定される第3空間的位置を有する、前記第2画像に関して推定される第3動きベクトルを選択するステップを含む、請求項6に記載の、特定の動きベクトルを推定する方法。
  8. 前記一群の動きベクトルを生成するステップが、前記特定の画素の前記特定の空間的位置に対応する第2空間的位置を有する、前記第2画像に関して推定される第2動きベクトルを選択するステップを含む、請求項3に記載の、特定の動きベクトルを推定する方法。
  9. 前記一群の動きベクトルを生成するステップは、前記第1画像に関して推定され第3空間的位置を有する第3動きベクトルと、前記第1画像に関して推定され第4空間的位置を有する第4空間動きベクトルとを選択するステップを更に有し、前記第1空間的位置、前記第3空間的位置及び前記第4空間的位置が線上に位置される、請求項8に記載の、特定の動きベクトルを推定する方法。
  10. 前記線の向きが、前記第1動きベクトルと一致する、請求項9に記載の、特定の動きベクトルを推定する方法。
  11. 前記方法は、第1中間動きベクトルフィールドの前記第1動きベクトルフィールドへのアップコンバージョンするステップを含み、前記第1動きベクトルフィールドが、前記第1中間動きベクトルフィールドより高い解像度を有し、また前記方法は、第2中間動きベクトルフィールドの前記第2動きベクトルフィールドへのアップコンバージョンするステップを含み、前記第2動きベクトルフィールドが、前記第2中間動きベクトルフィールドより更に高い解像度を有する、請求項1に記載の、特定の動きベクトルを推定する方法。
  12. 特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置において位置される、特定の画素に関する特定の動きベクトルを、前記第1画像に関して推定される第1動きベクトルフィールドに基づくとともに、前記第2画像に関して推定される第2動きベクトルフィールドに基づき推定する動き推定ユニットであって、前記動き推定ユニットが、
    −前記特定の画素の前記特定の空間的位置に基づき、前記第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを生成する群生成手段と、
    −前記一群のベクトルに順序統計的演算を実行することによって前記特定の動きベクトルを確定する確定手段と、
    を有する動き推定ユニット。
  13. −ビデオ画像の系列に対応する信号を受信する受信手段と、
    −前記ビデオ画像の第1画像に関する第1動きベクトルフィールド及び、前記ビデオ画像の第2画像に関する第2動きベクトルフィールドを推定する動き推定手段と、
    −特定の空間的位置を有し、前記ビデオ画像の前記第1画像及び前記ビデオ画像の前記第2画像の間における時間的位置において位置される、特定の画素に関する特定の動きベクトルを推定する動き推定ユニットであって、
    −前記特定の画素の前記特定の空間的位置に基づき、前記第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを生成する群生成手段と、
    −前記一群のベクトルに順序統計的演算を実行することによって前記特定の動きベクトルを確定する確定手段と、
    を有する前記動き推定ユニットと、
    −前記ビデオの系列及び前記特定の動きベクトルに基づき出力画像の系列を計算する画像処理ユニットと、
    を有する画像処理機器。
  14. 前記出力画像を表示する表示装置を更に備える、請求項13に記載の画像処理機器。
  15. テレビである、請求項14に記載の画像処理機器。
  16. 特定の空間的位置を有し、ビデオ画像の系列の第1画像及び第2画像の間における時間的位置において位置される、特定の画素に関する特定の動きベクトルを、前記第1画像に関して推定される第1動きベクトルフィールドに基づくとともに、前記第2画像に関して推定される第2動きベクトルフィールドに基づき推定する命令を有する、計算機構成によってロードされるべき計算機プログラムであって、前記計算機構成が、処理手段及びメモリを備え、前記計算機プログラムが、ロードされた後に
    −前記特定の画素の前記特定の空間的位置に基づき、前記第1動きベクトルフィールド及び第2動きベクトルフィールドから複数の動きベクトルを選択することによって一群の動きベクトルを生成するステップと、
    −前記一群のベクトルに順序統計的演算を実行することによって前記特定の動きベクトルを確定するステップと、
    を実行する能力を前記処理手段に提供する計算機プログラム。
JP2006526751A 2003-09-17 2004-08-31 動きベクトルフィールド再タイミング Pending JP2007506333A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP03103425 2003-09-17
PCT/IB2004/051619 WO2005027525A1 (en) 2003-09-17 2004-08-31 Motion vector field re-timing

Publications (1)

Publication Number Publication Date
JP2007506333A true JP2007506333A (ja) 2007-03-15

Family

ID=34306954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006526751A Pending JP2007506333A (ja) 2003-09-17 2004-08-31 動きベクトルフィールド再タイミング

Country Status (6)

Country Link
US (1) US20070092111A1 (ja)
EP (1) EP1665806A1 (ja)
JP (1) JP2007506333A (ja)
KR (1) KR20060083978A (ja)
CN (1) CN1853416B (ja)
WO (1) WO2005027525A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056629A (ja) * 2008-08-26 2010-03-11 Sony Corp フレーム補間装置及びフレーム補間方法
WO2011043433A1 (ja) * 2009-10-08 2011-04-14 日本ビクター株式会社 フレームレート変換装置及び方法
JP2011083036A (ja) * 2011-01-12 2011-04-21 Victor Co Of Japan Ltd 補間画素データ生成装置及び方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
US7346109B2 (en) * 2003-12-23 2008-03-18 Genesis Microchip Inc. Motion vector computation for video sequences
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
US7480334B2 (en) * 2003-12-23 2009-01-20 Genesis Microchip Inc. Temporal motion vector filtering
JP5087548B2 (ja) * 2005-10-24 2012-12-05 トライデント マイクロシステムズ インコーポレイテッド 動きベクトル場リタイマー
EP1958451B1 (en) * 2005-11-30 2014-03-19 Entropic Communications, Inc. Motion vector field correction
WO2007119183A2 (en) 2006-04-19 2007-10-25 Nxp B.V. Method and system for creating an interpolated image
EP2063636B1 (en) * 2006-09-15 2012-12-12 Panasonic Corporation Video processing device and video processing method
US8149911B1 (en) * 2007-02-16 2012-04-03 Maxim Integrated Products, Inc. Method and/or apparatus for multiple pass digital image stabilization
US8923400B1 (en) 2007-02-16 2014-12-30 Geo Semiconductor Inc Method and/or apparatus for multiple pass digital image stabilization
DE102007015002A1 (de) 2007-03-28 2008-10-02 Micronas Gmbh Iteratives Verfahren zur Interpolation von Bildinformationswerten
US20090094173A1 (en) * 2007-10-05 2009-04-09 Adaptive Logic Control, Llc Intelligent Power Unit, and Applications Thereof
DE102007062996A1 (de) * 2007-12-21 2009-06-25 Robert Bosch Gmbh Werkzeugmaschinenvorrichtung
WO2010091934A1 (en) 2009-02-12 2010-08-19 Zoran (France) Video sequence analysis for robust motion estimation
WO2010091937A1 (en) * 2009-02-12 2010-08-19 Zoran (France) Temporal video interpolation method with 2-frame occlusion handling
EP2224740A1 (en) 2009-02-27 2010-09-01 Nxp B.V. Detecting occlusion
EP2224738A1 (en) 2009-02-27 2010-09-01 Nxp B.V. Identifying occlusions
US8254439B2 (en) * 2009-05-08 2012-08-28 Mediatek Inc. Apparatus and methods for motion vector correction
DE102009026981A1 (de) 2009-06-16 2010-12-30 Trident Microsystems (Far East) Ltd. Ermittlung eines Vektorfeldes für ein Zwischenbild
TR200909120A2 (tr) 2009-12-04 2011-06-21 Vestel Elektroni̇k San. Ve Ti̇c. A.Ş. Hareket vektör alani yeni̇den zamanlandirma yöntemi̇@
GB201113527D0 (en) * 2011-08-04 2011-09-21 Imagination Tech Ltd External vectors in a motion estimation system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69029999T2 (de) * 1990-07-20 1997-08-14 Philips Electronics Nv Vorrichtung zur Verarbeitung von Bewegungsvektoren
ATE162037T1 (de) * 1991-05-24 1998-01-15 British Broadcasting Corp Videobildverarbeitung
DE69602818T2 (de) * 1995-03-14 1999-12-16 Koninklijke Philips Electronics N.V., Eindhoven Bewegungskompensierte interpolation
TR199700058A2 (xx) * 1997-01-29 1998-08-21 Onural Levent Kurallara dayalı hareketli nesne bölütlemesi.
US6008865A (en) * 1997-02-14 1999-12-28 Eastman Kodak Company Segmentation-based method for motion-compensated frame interpolation
EP1048170A1 (en) * 1998-08-21 2000-11-02 Koninklijke Philips Electronics N.V. Problem area location in an image signal
KR100840133B1 (ko) * 2000-05-18 2008-06-23 코닌클리케 필립스 일렉트로닉스 엔.브이. Mc 업 컨버젼에서 헤일로를 감소시키는 움직임 추정기
ES2283376T3 (es) * 2001-01-16 2007-11-01 Koninklijke Philips Electronics N.V. Reduccion de los efectos de tipo halo en una interpolacion compensada en movimiento.
JP2005517251A (ja) * 2002-02-05 2005-06-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ ピクセル群の動きベクトルを推定する方法及びユニット

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010056629A (ja) * 2008-08-26 2010-03-11 Sony Corp フレーム補間装置及びフレーム補間方法
JP4670918B2 (ja) * 2008-08-26 2011-04-13 ソニー株式会社 フレーム補間装置及びフレーム補間方法
WO2011043433A1 (ja) * 2009-10-08 2011-04-14 日本ビクター株式会社 フレームレート変換装置及び方法
JP2011082846A (ja) * 2009-10-08 2011-04-21 Victor Co Of Japan Ltd フレームレート変換装置及び方法
US8319889B2 (en) 2009-10-08 2012-11-27 JVC Kenwood Corporation Frame rate conversion apparatus and method
JP2011083036A (ja) * 2011-01-12 2011-04-21 Victor Co Of Japan Ltd 補間画素データ生成装置及び方法

Also Published As

Publication number Publication date
EP1665806A1 (en) 2006-06-07
WO2005027525A1 (en) 2005-03-24
KR20060083978A (ko) 2006-07-21
CN1853416A (zh) 2006-10-25
US20070092111A1 (en) 2007-04-26
CN1853416B (zh) 2010-06-16

Similar Documents

Publication Publication Date Title
US7536031B2 (en) Temporal interpolation of a pixel on basis of occlusion detection
JP2007506333A (ja) 動きベクトルフィールド再タイミング
US7519230B2 (en) Background motion vector detection
US7949205B2 (en) Image processing unit with fall-back
US20050226462A1 (en) Unit for and method of estimating a motion vector
KR100976718B1 (ko) 필드 레이트 업변환을 위한 방법 및 장치
JP2009533887A (ja) 動きベクトル場修正装置及び方法
US20050163355A1 (en) Method and unit for estimating a motion vector of a group of pixels
US8102915B2 (en) Motion vector fields refinement to track small fast moving objects
JP2007527139A (ja) 動き補償画像信号の補間
JP3832924B2 (ja) 画像信号処理方法、画像信号処理装置及びコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070817

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20080312

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100924

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101102