JP2010511932A - 画像内のオブジェクトの位置推定 - Google Patents
画像内のオブジェクトの位置推定 Download PDFInfo
- Publication number
- JP2010511932A JP2010511932A JP2009539356A JP2009539356A JP2010511932A JP 2010511932 A JP2010511932 A JP 2010511932A JP 2009539356 A JP2009539356 A JP 2009539356A JP 2009539356 A JP2009539356 A JP 2009539356A JP 2010511932 A JP2010511932 A JP 2010511932A
- Authority
- JP
- Japan
- Prior art keywords
- particle
- particular image
- assumptions
- particles
- metric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30221—Sports video; Sports image
- G06T2207/30224—Ball; Puck
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Radar Systems Or Details Thereof (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
実施態様は、オブジェクトの捕捉のために、パーティクルに基づくフレームワークにおいて、一連のディジタル画像における特定の画像に関連する計量面を形成するステップを含む方法を提供する。計量面に基づいて、特定の画像内のオブジェクトの位置についての複数の仮定が形成される。オブジェクトの位置は、複数の仮定の各確率に基づいて推定される。
Description
(関連出願とのクロスリファレンス)
本願は、以下の3つの出願の利益を主張するものである。
(1)「乱雑な背景およびオブジェクトの捕捉(Cluttered Backgrounds and Object Tracking)」と題された2006年12月1日付で出願された米国仮出願第60/872,145号(代理人整理番号PU060244)
(2)「オブジェクトの捕捉のためのモデル化(Modeling for Object Tracking)」と題された2006年12月1日付で出願された米国仮出願第60/872,146号(代理人整理番号PU060245)」
(3)「オブジェクトの捕捉(Object Tracking)」と題された2007年1月19日付で出願された米国仮出願第60/885,780号(代理人整理番号PU070030)
優先権主張を行うこれらの3つの出願の全ての開示内容全体を、あらゆる目的のため、本出願に盛り込んだものとする。
本願は、以下の3つの出願の利益を主張するものである。
(1)「乱雑な背景およびオブジェクトの捕捉(Cluttered Backgrounds and Object Tracking)」と題された2006年12月1日付で出願された米国仮出願第60/872,145号(代理人整理番号PU060244)
(2)「オブジェクトの捕捉のためのモデル化(Modeling for Object Tracking)」と題された2006年12月1日付で出願された米国仮出願第60/872,146号(代理人整理番号PU060245)」
(3)「オブジェクトの捕捉(Object Tracking)」と題された2007年1月19日付で出願された米国仮出願第60/885,780号(代理人整理番号PU070030)
優先権主張を行うこれらの3つの出願の全ての開示内容全体を、あらゆる目的のため、本出願に盛り込んだものとする。
本願の開示内容の少なくとも1つの実施態様は、動的状態推定に関する。
動的システムとは、システムの状態が時間の経過と共に変化するシステムを指す。この状態は、システムを特徴付ける任意に選ばれた変数のセット(集合)である場合があるが、この状態は、興味の変数(variables of interest)を含むことが多い。例えば、動的システムは、ビデオを特徴付けるように構成され、状態がビデオのフレームにおけるオブジェクトの位置として選ばれる場合がある。例えば、ビデオがテニスの試合を表すとき、状態がボールの位置として選ばれる場合がある。ボールの位置は時間の経過と共に変化するため、このシステムは動的である。ビデオの新たなフレームにおけるシステムの状態、すなわち、ボールの位置を推定することに興味が寄せられる。
一般的な態様によれば、オブジェクトの捕捉のために、パーティクルに基づくフレームワークにおいて、計量面が形成される。計量面は、一連のディジタル画像における特定の画像に関連する。計量面に基づいて、特定の画像内のオブジェクトの位置についての複数の仮定が形成される。オブジェクトの位置は、複数の仮定の各確率に基づいて推定される。
1つ以上の実施態様の詳細を添付図面および以下の説明に示す。1つの具体的な方式で説明されている場合であっても、各実施態様が様々な方式で構成される、または、実施されることは明らかである。例えば、実施態様は、方法として実施されてもよいし、処理のセットを実行するように構成された装置として実施されてもよいし、処理のセットを実行するための命令を記憶する装置として実施されてもよいし、信号において実施されてもよい。他の態様および特徴は、以下の詳細な説明を添付図面および請求の範囲と共に考慮することによって明らかになるであろう。
動的状態推定方法を1つ以上の実施の形態で提供する。動的状態を推定する方法を1つ以上の実施の形態で提供する。動的状態推定が使用されるアプリケーションの例として、フレーム間のビデオ内の特徴点の動きを予測する場合が挙げられる。ビデオの例は、圧縮されたビデオであり、この圧縮は、例えば、MPEG−2形式で行われるものである。圧縮されたビデオにおいては、フレームのサブセットのみで、通常、各フレームに関わる画像についての完全な情報を含む。完全な情報を含むこのようなフレームは、MPEG−2形式でIフレームと呼ばれる。大抵のフレームは、そのフレームと、近傍Iフレームのような1つ以上の近傍フレームとの間の差を示す情報しか提供しない。MPEG−2形式において、このようなフレームは、PフレームおよびBフレームと呼ばれる。データ圧縮を保持した状態でビデオにおける特徴点の進行を予測するために十分な情報を含むことは困難である。
ビデオにおける特徴の例は、スポーツ競技におけるボールである。例としては、テニス・ボール、サッカー・ボール、およびバスケット・ボールが挙げられる。この方法が使用されるアプリケーションの例として、マルチフレーム・ビデオにおける各フレーム間のボールの位置を予測する場合が挙げられる。ボールは、約30画素しか占有しないものなど、比較的小さなオブジェクトである。特徴点の別の例として、スポーツ・イベントにおけるプレイヤーや審判が挙げられる。
ビデオにおけるフレーム間のオブジェクトの動きを捕捉する際の困難な点は、1つ以上のフレームにおけるオブジェクトの遮蔽である。遮蔽として、前面側の特徴点の後ろにオブジェクトが隠れている場合がある。これは、「実遮蔽(real occlusion)」と呼ばれる。例えば、テニスの試合においては、テニス・ボールがプレイヤーの背後を通る場合がある。このような遮蔽は、オブジェクトが隠されている、ブロックされている、または、覆われているなど、様々な場合を指す。別の例として、遮蔽がオブジェクトの位置の判定を困難とするか、不可能とするような背景の形態である場合が挙げられる。これは、「実質遮蔽(virtual occulusion)」と呼ばれる。例えば、テニス・ボールは、このテニス・ボールと概ね同じ大きさと色のオブジェクトを含む群衆など、乱雑な背景の前を通過して、他のオブジェクトからのボールの選択が困難となるか、不可能となることがある。別の例として、ボールがこのボールと同じ色のフィールドの前を通過して、ボールの位置を判定するのが不可能となるか、困難となることがある。乱雑状態を含む遮蔽により、パーティクル・フィルタにおける各パーティクルの正確な尤度推定値(likelihood estimation)を形成することが困難となる。乱雑状態を含む遮蔽により、オブジェクト捕捉に曖昧さが生じることが多い。
これらの問題は、オブジェクトが小さい場合や、オブジェクトが高速に動いている場合にはより深刻となることが多い。なぜならば、例えば、ビデオにおける連続するピクチャ(例えば、フレーム)内の小さなオブジェクトの各位置が互いに重なっていないことが多いからである。各位置が重ならない場合、オブジェクト自体が重なっておらず、2つの連続したピクチャの間の時間間隔内でオブジェクトがこのオブジェクトの幅だけ少なくとも動いたことを意味する。重なりが存在しないことにより、次のピクチャ内でオブジェクトを見つけたり、オブジェクトが見つかったことについて高い信頼を置いたりすることがより困難になる。
オブジェクトの捕捉における曖昧さは、小さなオブジェクトに限定されない。例えば、乱雑な背景には、オブジェクトに似た特徴点が含まれる場合がある。この場合、オブジェクトのサイズに係らず、捕捉において曖昧さが生ずる。
オブジェクトが遮蔽されているかどうかの判定が困難な場合もある。例えば、オブジェクトの遮蔽を判定する1つの公知の方法は、正常値/外れ値率である。小さなオブジェクトおよび/または乱雑な背景が存在すると、正常値/外れ値率の判定が困難なことがある。
これらの困難に対処する一実施態様は、パーティクルに基づくフレームワークにおいて計量面を形成することによるものである。これらの困難に対処する別の実施態様は、パーティクルに基づくフレームワーク内の動き推定値を用い、評価することによるものである。これらの困難に対処する別の実施態様は、尤度推定において複数の仮定を用いることによるものである。
パーティクルに基づくフレームワークにおいて、モンテ・カルロ(Monte Carlo)・シミュレーションは、通常、多数のパーティクルに渡って実行される。これらのパーティクルは、例えば、フレーム内のオブジェクトの想定される複数の異なる位置を表すことがある。モンテ・カルロ・シミュレーションに従って判定される尤度に基づいて、特定のパーティクルを選択することができる。パーティクル・フィルタは、例示的なパーティクルに基づくフレームワークである。パーティクル・フィルタにおいては、多数のパーティクルが生成され、それぞれが想定される状態を表し、画像内のオブジェクトの想定される各位置に対応する。尤度は、重みとも呼ばれ、パーティクル・フィルタにおける各パーティクルに関連する。パーティクル・フィルタにおいては、低い尤度、または、低い重みを有するパーティクルが通常、1つ以上のリサンプリング・ステップにおいて除去される。パーティクル・フィルタの結果を表す状態は、例えば、各パーティクルの加重平均である。
図1を参照すると、一実施態様において、システム100は、状態推定器110を含み、この状態推定器110は、例えば、コンピュータ上で実施される。状態推定器110は、パーティクル・アルゴリズム・モジュール120、ローカル・モード・モジュール130、さらに、ナンバー・アダプタ・モジュール140を含む。パーティクル・アルゴリズム・モジュール120は、動的システムの各状態を推定するための、例えば、パーティクル・フィルタ(PF)などのパーティクルに基づくアルゴリズムを実行する。ローカル・モジュール130は、例えば、PFのパーティクルに対して平均値シフト分析を実行することなどによって、ローカル・モード探索機構を適用する。ナンバー・アダプタ・モジュール140は、例えば、PFのパーティクルにカルバック-ライブラー距離(KLD)サンプリング処理を適用することなどにより、パーティクルに基づくアルゴリズムにおいて用いられるパーティクルの数を変更する。一実施態様においては、パーティクル・フィルタは、パーティクルが存在する状態空間内のサイズに依存して適応的にサンプリングを行うことができる。例えば、全てのパーティクルが状態空間の小さな部分に存在する場合には、少数のパーティクルがサンプリングされる。状態空間が大きい場合、または、状態の不確実性が高い場合には、多数のパーティクルがサンプリングされる。例えば、モジュール120〜140は、別個に実施されてもよいし、単一のアルゴリズムに統合されてもよい。
状態推定器110は、入力として、初期状態150とデータ入力160の双方にアクセスし、出力として、推定された状態170を提供する。初期状態150は、例えば、初期状態検出器、または、手動処理によって判定される。より具体的な例としては、ビデオのフレームなど、状態が一連のディジタル画像における画像内のオブジェクトの位置となるシステムを考慮することができる。このようなシステムにおいては、初期オブジェクトの位置は、例えば、エッジ検出およびテンプレート比較を用いた自動化されたオブジェクト検出処理によって特定することができ、あるいは、ビデオを視聴しているユーザによって手動で特定することができる。データ入力160は、例えば、一連のビデオ・ピクチャである。推定された状態170は、例えば、特定のビデオ・ピクチャにおけるボールの位置の推定値である。
図2において、図1の状態推定器110を実施する例示的な装置190が示されている。装置190は、初期状態150およびデータ入力160を受信し、出力として、推定された状態170を提供する処理デバイス180を含む。処理デバイス180は、記憶デバイス185にアクセスし、記憶デバイス185は、一連のディジタル画像における特定の画像に関連するデータを記憶する。
推定された状態170は、様々な目的で使用することができる。さらなる説明として、幾つかのアプリケーションを図3および図4を用いて説明する。
図3を参照すると、一実施態様において、システム200は、送信/記憶デバイス220に結合された符号化器210を含む。符号化器210および送信/記憶デバイス220は、例えば、コンピュータまたは通信符号化器上で実施される。符号化器210は、図1のシステム100の状態推定器110によって提供される推定された状態170にアクセスし、状態推定器110によって用いられるデータ入力160にアクセスする。符号化器210は、様々な符号化アルゴリズムのうちの1つ以上に従ってデータ入力160を符号化し、符号化されたデータ出力230を送信/記憶デバイス220に提供する。
さらに、符号化器210は、データ入力160の相異なる部分を相異なるように符号化するために推定された状態170を使用する。例えば、状態がビデオにおけるオブジェクトの位置を表す場合、符号化器210は、第1の符号化アルゴリズムを用いて推定された位置に対応するビデオの部分を符号化し、第2の符号化アルゴリズムを用いて推定された位置に対応しないビデオの別の部分を符号化する。第1のアルゴリズムは、例えば、第2のアルゴリズムと比較して符号化冗長性(coding redundancy)を有し、オブジェクトの推定された位置(そして望ましくは、オブジェクト自体)が、ビデオの他の部分よりも、より詳細に、より高い解像度で再現されることが期待される。
従って、例えば、一般的に低い解像度での送信であっても、捕捉されるオブジェクトに対しては、高い解像度が得られるため、例えば、ユーザがゴルフの試合においてゴルフ・ボールを見ることがより容易になる。このような実施態様の1つでは、ユーザは、低帯域幅(低いデータ転送レート)のリンクを介してモバイル・デバイス上でゴルフの試合を視聴することができる。モバイル・デバイスの例としては、携帯電話機または携帯情報端末機(PDA)が挙げられる。低いデータ転送レートでゴルフの試合のビデオを符号化し、ゴルフ・ボールの符号化には、画像の他の部分に対して追加のビットを使用することにより、低いデータ転送レートを維持することができる。
送信/記憶デバイス220には、1つ以上の記憶デバイスまたは送信デバイスが含まれる。従って、送信/記憶デバイス220は、符号化されたデータ230にアクセスし、データ230を送信するか、データ230を記憶する。
図4を参照すると、一実施態様において、システム300は、ローカル記憶デバイス315とディスプレイ320に結合された処理デバイス310を含む。処理デバイス310は、図1のシステム100の状態推定器110によって提供された推定された状態170にアクセスし、状態推定器110によって用いられるデータ入力160にアクセスする。処理デバイス310は、推定された状態170を用い、データ入力160をエンハンスし、エンハンスされたデータ出力330を提供する。処理デバイス310は、推定されたデータ、データ入力、およびこれらの要素を含むデータをローカル記憶デバイス315に記憶させてもよく、このようなローカル記憶デバイス315からデータを取得してもよい。ディスプレイ320は、エンハンスされたデータ出力330にアクセスし、エンハンスされたデータをこのディスプレイ320上に表示する。
図5を参照すると、ダイアグラム400は、動的システムの状態のための確率分布関数410を含む。ダイアグラム400は、状態推定器110の実施態様によって実行される様々な関数を絵表示する。ダイアグラム400は、レベルA、B、C、およびDの各々において1つ以上の関数を表す。
レベルAは、PFによる4つのパーティクルA1、A2、A3、およびA4の生成を描いている。便宜的に、垂直方向の別個の破線は、4つのパーティクルA1、A2、A3、およびA4の各々の上の確率分布関数410の位置を示している。
レベルBは、平均値シフト分析に基づくローカル・モード探索アルゴリズムによって4つのパーティクルA1〜A4を対応するパーティクルB1〜B4にシフトすることを描いている。便宜的に、垂直方向の実線は、4つのパーティクルB1、B2、B3、およびB4の各々の上の確率分布関数410の位置を示している。パーティクルA1〜A4の各々のシフトは、対応する矢印MS1〜MS4によって図示され、これは、パーティクルA1〜A4によって示される各位置からパーティクルB1〜B4によって示される各位置へのパーティクルの動きをそれぞれ示している。
レベルCは、重み付けされたパーティクルC2〜C4を描いており、これらのパーティクルC2〜C4は、それぞれ、パーティクルB2〜B4と同じ位置を有する。パーティクルC2〜C4は、可変のサイズを有し、PFにおけるパーティクルB2〜B4のために判定された重みを示す。さらに、レベルCは、KLDサンプリング処理などのサンプリング処理に従って、パーティクルの数の減少を反映し、ここで、パーティクルB1は、破棄されている。
レベルDは、リサンプリング処理の間に生成される3つの新たなパーティクルを描いている。レベルDにおいて生成されるパーティクルの数は、矢印R(Rはリサンプリングを表す)によって示される、レベルCにおけるパーティクルの数と同じである。
次に、図6を参照すると、一連のディジタル画像における画像内のオブジェクトの位置を判定する方法の高レベル処理フロー600が示されている。オブジェクトの軌跡は、前の各フレームからの位置情報に基づいて推定することができる(ステップ605)。当業者にとって、軌跡推定は公知である。パーティクル・フィルタを実行してもよい(ステップ610)。パーティクル・フィルタの様々な実施態様を以下に説明する。パーティクル・フィルタの出力によって予測されるオブジェクトの位置に対し、遮蔽がチェックされる(ステップ615)。遮蔽をチェックする各方法の実施態様を以下に説明する。遮蔽が見つかった場合(ステップ620)、軌跡投影および補間を使用して位置が判定される(ステップ625)。例として、図16を参照して位置判定の実施態様を後に説明する。遮蔽が見つからない場合、パーティクル・フィルタ出力がパーティクル位置の特定に使用される(ステップ630)。遮蔽が見つからない場合、テンプレートに対し、ドリフトのチェックが行われる(ステップ635)。ドリフトとは、テンプレートの変更を指し、これは、例えば、オブジェクトがさらに遠ざかったり、近づいたり、オブジェクトの色が変化している場合に発生する。閾値を超えるドリフトが見つかった場合(ステップ635)、オブジェクトのテンプレートが更新されない(ステップ640)。これは、例えば、大きなドリフト値が部分的な遮蔽を示すことがあるため、有用である。部分的な遮蔽に基づいてテンプレートが更新されると好ましくないテンプレートが使用されることになる。そうでない場合、ドリフトが閾値を超えない場合には、テンプレートを更新することができる(ステップ645)。小さな変化が発生する場合(ドリフト値が小さい場合)、変化がオブジェクトに対する完全な変化であり、変化が、例えば、遮蔽によるものでないことについて、通常、より大きな信頼を置くことができる、または確信が持てる。
次に、図7を参照し、パーティクル・フィルタを実施する処理500を説明する。この処理500は、前の状態から、パーティクルの初期のセットおよび累積重み係数にアクセスする処理(ステップ510)を含む。パーティクルの重みのセットから累積重み係数を生成することができ、通常、高速な処理が可能となる。なお、最初の処理500では、前の状態が初期状態となり、パーティクルおよび重み(累積重み係数)の初期のセットが生成される必要がある。初期状態は、例えば、(図1の)初期状態150として提供されてもよい。
図7を再び参照すると、ループ制御変数「it」が初期化され(ステップ515)、現在の状態を判定する前に、ループ520が繰り返し実行される。ループ520はループ制御変数「it」を使用し、「iterate」の回数実行する。ループ520内では、ループ525でパーティクルの初期のセットにおける各パーティクルが別個に取り扱われる。一実施態様においては、テニス・ボールを捕捉するためにテニスの試合のビデオに対してPFが適用され、新しいフレームの各々に対し、ループ520が所定回数(ループの繰り返し変数「iterate」の値)実行される。ループ520の各繰り返しは、パーティクルの位置精度を向上させるものであると期待され、テニス・ボールの位置が各フレーム毎に推定される際、推定は、良好なパーティクルに基づいて行われるものと考えられる。
ループ525は、累積重み係数に基づいてパーティクルを選択する処理(ステップ530)を含む。これは、公知であるように、最も大きい重みの存在するパーティクルの位置を選択する方法である。なお、多くのパーティクルが同じ位置に存在することがあり、この場合、通常、各位置に対して一度ループ525を実行することのみが必要となる。次に、ループ525は、選択されたパーティクルのための状態空間における新たな位置を予測することによってパーティクルを更新する処理(ステップ535)を含む。予測には、PFの動的モデルを使用する。このステップを以下、より詳細に説明する。
動的モデルは、フレーム間のオブジェクトの状態の変化を特徴付ける。例えば、オブジェクトの運動学を反映した動きモデル、または、動き推定を用いることができる。一実施態様においては、固定されたノイズ分散を用いた固定された定速度モデルを過去のフレームにおける各オブジェクト位置に適合させる。
ループ525は、次に、PFの測定モデルを用いて更新されたパーティクルの重みを決定する処理(ステップ540)を含む。公知であるように、重みの決定は、観察された/測定されたデータ(例えば、現在のフレームにおけるビデオ・データ)を分析することに関わる。テニスの試合の実施態様を続けると、パーティクルによって示された位置で現在のフレームからのデータがテニス・ボールの最後の位置からのデータと比較される。この比較は、例えば、カラー・ヒストグラムを分析することやエッジ検出を実行することに関わる。パーティクルのために決定された重みは、比較結果に基づいている。処理540は、パーティクル位置のための累積重み係数を決定する処理を含む。
ループ525は、次に、処理をするパーティクルがさらにあるかどうかを判定する処理(ステップ542)を含む。処理をするパーティクルがさらにある場合、ループ525が繰り返され、処理500がステップ530の処理に飛ぶ。初期の(または「古い(old)」)パーティクルのセットにおけるパーティクル毎にループ525を実行すると、更新したパーティクルの完全なセットが生成される。
次に、ループ520は、リサンプリング・アルゴリズムを用いて「新たな」パーティクルのセットおよび新たな累積重み係数を生成する処理(ステップ545)を含む。リサンプリング・アルゴリズムは、パーティクルの重みに基づいており、より大きな重みを有するパーティクルに焦点を当てるものである。リサンプリング・アルゴリズムは、各々が同一の個々の重みを有するパーティクルのセットを生成するが、特定の位置では、通常、そこに多くのパーティクルが位置する。従って、パーティクルの各位置は、通常、相異なる累積重み係数を有する。
リサンプリングは、通常、各PFに共通な退行の問題(degeneracy problem)を低減するのに役に立つ。多項、残差、層別、および系統的リサンプリングなどの幾つかのリサンプリング方法が存在する。一実施態様では、残差リサンプリングを使用する。なぜならば、残差リサンプリングは、パーティクルの順番に左右されないからである。
ループ520は、ループ制御変数「it」を増分し(ステップ550)、「it」と繰り返し変数「iterate」を比較する(ステップ555)ことによって続けられる。ループ520を介した別の繰り返しが必要である場合、新たなパーティクル・セットおよびその累積重み係数が利用可能とされる(ステップ560)。
ループ520を「iterate」の回数繰り返した後、パーティクル・セットは、「良好な」パーティクル・セットであることが期待され、現在の状態が判定される(ステップ565)。公知であるように、新たなパーティクル・セットにおけるパーティクルを平均化することによって、新たな状態が決定される。
図8を参照して、パーティクル・フィルタを含む処理フローの別の実施態様を説明する。全体的な処理フローは、図7を参照して既に説明した処理フローと類似しており、図7と図8に共通の要素は、ここでは詳細には説明しない。処理800は、前の状態からパーティクルの初期セットと累積重み係数にアクセスする処理(ステップ805)を含む。ループ制御変数「it」が初期化され(ステップ810)、現在の状態を判定する前にループが繰り返し実行される。ループにおいて、パーティクルが累積重み係数に従って選択される。次に、処理は、選択されたパーティクルのための状態空間における新たな位置を予測することによってパーティクルを更新する(ステップ820)。予測には、PFの動的モデルを使用する。
次に、パーティクルのローカル・モードを、SSD(差分の二乗和)に基づく相関面などの相関面を用いて求める(ステップ825)。SSDのローカル最小値が特定され、パーティクルの位置がSSDの特定されたローカル最小値に変更される。他の実施態様では、適切な面を使用して、面のローカル最大値を特定し、パーティクルの位置を特定されたローカル最大値に変更する。次に、動いたパーティクルの重みが測定モデルから決定される(ステップ830)。例として、以下に説明するように、相関面および複数の仮定を使用して、重みを算出することができる。処理をするパーティクルがさらにある場合(ステップ835)、ループは、パーティクルを選択する処理に戻る。全てのパーティクルが処理されている場合には、新たな重みに基づいて各パーティクルがリサンプリングされ、新たなパーティクル群が生成される(ステップ840)。ループ制御変数「it」が増分される(ステップ845)。「it」が繰り返し閾値よりも小さい場合(ステップ850)、処理が古いパーティクル群に切り替わり(ステップ870)、処理が繰り返される。
最後の繰り返しが終了すると、現在の状態を取得する前に、さらなるステップが実行される。前のフレームにおけるオブジェクトのための遮蔽インジケータがチェックされる(ステップ855)。遮蔽インジケータが前のフレームにおける遮蔽を示す場合、パーティクルのサブセットが現在の状態の選択のために考慮される(ステップ860)。パーティクルのサブセットは、最も高い重みを有するパーティクルによって選択される。一実施の形態においては、パーティクルのサブセットは、最も高い重みを有するパーティクルである。1つ以上のパーティクルが同一の、最も高い重みを有する場合には、最も高い重みを有するこれらのパーティクルの全てがサブセットに含まれる。パーティクルの状態は、検出状態とみなすことができる。パーティクルのサブセットの選択が行われるのは、パーティクルの重みが低いほど遮蔽がパーティクルの信頼性にネガティブに影響するからである。遮蔽インジケータが前のフレームに遮蔽が存在しないことを示す場合、新たなパーティクル群のアベレージ(average)を使用して現在の状態を決定することができる(ステップ865)。この場合、状態は捕捉状態である。アベレージをパーティクルの重みに従って重み付けすることができることが理解できよう。さらに、アベレージではなく、他の統計的な尺度(例えば、ミーン(mean))を用いて現在の状態を判定してもよいことが理解できよう。
図9を参照して、動的モデル(図8の820)の実施態様900を説明する。動的モデルにおいて、前のフレームからの動き情報を用いることができる。前のフレームからの動き情報を用いることによって、パーティクルは、オブジェクトの実際の位置に近くなりやすくなり、効率、精度の双方が向上する。動的モデルにおいては、代替的に、ランダム・ウォーク(random walk)を用いてパーティクルを生成することができる。
動的モデルは、小さなオブジェクトの捕捉に状態空間モデルを用いることができる。一連のディジタル画像における画像のための、小さなオブジェクトの捕捉のための状態空間モデルは、時間tにおいて、以下のように定式化することができる。
Xt+1=f(Xt,μt)
Zt=g(Xt,ζt)
ここで、X1は、オブジェクト状態ベクトルを表し、Z1は、観察ベクトルを表し、fおよびgは、2つのベクトル値の関数(動的モデルおよび観察モデルのそれぞれ)を表し、μtおよびζtは、処理または動的ノイズ、さらに、観察ノイズのそれぞれを表す。動き推定においては、オブジェクト状態ベクトルは、X=(x,y)として定義され、ここで、(x,y)は、オブジェクト・ウインドウの中心の座標である。推定された動きは、好ましくは、前のフレームのデータから取得され、オプティック・フロー式から推定することができる。時間tにおける画像内のオブジェクトの推定された動きをVtとすることができる。動的モデルは、以下のように表すことができる。
Xt+1=Xt+Vt+μt
予測ノイズμ1の分散は、動き推定のエラー測定値からなど、動きデータから推定することができる。オプティック・フロー式からの動き残差を用いることができる。代替的には、予測ノイズの分散は、動き補償の残差などの強度に基づく基準とすることができるが、好ましくは、動きデータに基づく分散は、強度データ(intensity data)に基づく分散である。
Xt+1=f(Xt,μt)
Zt=g(Xt,ζt)
ここで、X1は、オブジェクト状態ベクトルを表し、Z1は、観察ベクトルを表し、fおよびgは、2つのベクトル値の関数(動的モデルおよび観察モデルのそれぞれ)を表し、μtおよびζtは、処理または動的ノイズ、さらに、観察ノイズのそれぞれを表す。動き推定においては、オブジェクト状態ベクトルは、X=(x,y)として定義され、ここで、(x,y)は、オブジェクト・ウインドウの中心の座標である。推定された動きは、好ましくは、前のフレームのデータから取得され、オプティック・フロー式から推定することができる。時間tにおける画像内のオブジェクトの推定された動きをVtとすることができる。動的モデルは、以下のように表すことができる。
Xt+1=Xt+Vt+μt
予測ノイズμ1の分散は、動き推定のエラー測定値からなど、動きデータから推定することができる。オプティック・フロー式からの動き残差を用いることができる。代替的には、予測ノイズの分散は、動き補償の残差などの強度に基づく基準とすることができるが、好ましくは、動きデータに基づく分散は、強度データ(intensity data)に基づく分散である。
ブロック905のステップに示されているように、パーティクル毎に、記憶された遮蔽インジケータが読み出される。遮蔽インジケータは、前のフレームにおいてオブジェクトについて判定された遮蔽の有無を示す。インジケータを読み出し(ステップ910)、オブジェクトが遮蔽されていたことを示している場合には、動的モデルにおいて動き推定が用いられない(ステップ915)。遮蔽が動き推定の精度を低下させることが理解できよう。パーティクルに対する予測ノイズ分散の値は、最大値に設定される(ステップ920)。これに対し、遮蔽インジケータを読み出し、前のフレームに遮蔽が存在しないことを示している場合には、処理は、パーティクルの生成に動き推定を使用する(ステップ925)。予測ノイズ分散方法は、動きデータからなどから推定される(ステップ930)。
次に、図10を参照し、サンプリングする前の、パーティクル・フィルタ内部の動的モデルにおける各パーティクルに対して実行される処理フロー1000の実施態様を示す。最初に、メモリ内の遮蔽インジケータがチェックされる(ステップ1005)。遮蔽インジケータは、前のフレーム内のオブジェクトの遮蔽を示すことがある。前のフレームにおいてオブジェクトの遮蔽が見つかった場合(ステップ1010)、動き推定が動的モデルに使用されず(ステップ1030)、パーティクルの予測ノイズ分散が最大値に設定される(ステップ1035)。記憶された遮蔽インジケータが前のフレーム内のオブジェクトの遮蔽を示さない場合には、動き推定が実行される(ステップ1015)。
動き推定は、オプティック・フロー式における過去のフレーム内のオブジェクトの各位置の使用に基づくようにすることができる。オプティック・フロー式は、当業者には公知である。動き推定の後、失敗検出(ステップ1020)が動き推定から生ずるパーティクル位置で実行される。様々な計量指標を失敗検出に使用することができる。一実施態様においては、テンプレートにおいて反映されるオブジェクト画像と動き推定から導出されるパーティクル位置を中心とする周囲の画像パッチとの間の絶対強度差のアベレージ(平均値)が算出される。平均値が選択された閾値を超えている場合、動き推定が失敗したとみなされ(ステップ1025)、そのパーティクルに対し、動き推定結果が使用されないとされる(ステップ1030)。パーティクルに対する予測ノイズ分散は、最大値に設定される(ステップ1035)。動き推定が失敗していないとみなされると、そのパーティクルに対する予測値として動き推定結果が保存される(ステップ1040)。そこで、予測ノイズ分散を推定してもよい(ステップ1045)。例えば、オプティック・フロー式を使用して動き残差値を提供し、この動き残差値を予測ノイズ分散として用いることができる。
次に、図11を参照し、測定モデルを用いてパーティクルの重みを算出する実施態様について説明する。方法1100は、パーティクル毎に実行される。方法1100は、ブロック1105のステップによって示されるような、計量面の算出を開始する。計量面として、相関面を用いることができる。計量面を用いてテンプレート、またはターゲット・モデルと、現在の候補パーティクルとの間の差を測定することができる。一実施態様においては、計量面を以下のように生成することができる。
テンプレートと候補パーティクルとの間の差の計量は、相関面などの計量面とすることができる。一実施態様においては差分の二乗和(SSD: sum−of−squared differences)面が用いられ、これは以下の式を有する。
ここで、Wはオブジェクト・ウインドウを表す、Neibは、オブジェクト中心Xtの周りの小近傍(small neighborhood)である。Tは、オブジェクト・テンプレートであり、Iは、現在のフレームにおける画像である。乱雑な背景での小さなオブジェクトにおいては、このSSD面は、尤度の正確な推定値を表す。別の例示的な相関面は、以下のように表される。
相関面のサイズを変更することができる。分散の逆数として判定することができる動き推定の品質に依存して、相関面のサイズを変更することができる。一般的に、動き推定の品質の質が高いほど、相関面を小さくすることができる。
計量面に基づいて、パーティクルの動きについての複数の仮定が生成される(ステップ1110)。候補となる各仮定は、相関面のローカル最小値またはローカル最大値に関連付けられる。例えば、SSD相関面からJ個の候補がサポート領域Neibにおいて特定された場合、J+1個の仮定が以下のように定義される。
ここでcj=Tは、j番目の候補が完全一致に関連していることを意味し、そうでなければ、cj=Cとなる。仮定H0は、候補のいずれも完全一致に関連していないことを意味している。この実施態様においては、乱雑状態は、均一に近傍Neilに分散されていると仮定され、そうでない場合、完全一致に基づく測定はガウス(Gaussian)分布である。
これらの仮定を用いて、各パーティクルに関連する尤度は、以下のように表すことができる。
ここで、CNは、規格化係数であり、q0は、仮定H0の前の 確率であり、qjは、仮定Hjの確率であり、j=1,・・・,Jである。従って、SSDを用いた尤度測定の精度の向上が複数の仮定を用いてと乱雑状態を考慮することによって行われる。
さらに、応答分布分散推定(ステップ1115)が行われる。
パーティクルが遮蔽されているかどうかの判定を行うことができる。差分絶対値和(SAD)計量法など、強度に基づく評価に基づいてパーティクル遮蔽の判定を行うことができる。このような評価は、当業者には公知である。SADに基づいて、遮蔽されている尤度が高いものに関して判定が行われる。遮蔽の強度に基づく評価は比較的演算量が小さいものであるが、乱雑な背景では精度が高くないことがある。高い閾値を設定することによって、強度に基づく評価を用いて特定の各パーティクルが遮蔽されていると判定し(ステップ1125)、それぞれ、重みを最小値に設定することができる(ステップ1130)。このような場合、遮蔽が発生したことに高い信頼を置ける。例えば、閾値は、乱雑状態のない現実の遮蔽の場合が特定されるが、遮蔽の他の場合は特定されないように選択される。
強度に基づく評価が遮蔽を示さない場合、確率的なパーティクル遮蔽の判定を行うことができる(ステップ1135)。確率的なパーティクル遮蔽の検出は、作成された複数の仮定、さらに、応答分布分散推定に基づいて行うことができる。以下に説明するように、SSD表面を近似させるために分布が生成され、この分布に基づいて、共分散マトリックスの固有値を使用して、遮蔽が判定される(または、判定されない)。
応答分布は、完全一致位置上の確率分布を近似させるように定義される。換言すれば、パーティクル位置が完全一致位置であるという確率Dは、以下のようになる。
D(Xt)=exp(−ρ・r(Xt))
ρは、規格化係数である。規格化係数は、0.95の最大値など、選択された最大値の応答を確保するように選定される。測定値Ztに関連する共分散マトリックスRtは、以下のような応答分布から構成される。
ここで、(xp、yp)は、各候補のウインドウ中心であり、
は、共分散規格化係数である。固有値Rtの逆数は、候補と関連付けられる信頼度計量値として使用することができる。一実施態様においては、Rtの最大固有値が閾値と比べられる。最大の固有値が閾値を超える場合には、遮蔽が検出される。遮蔽の検出(ステップ1140)に応答して、パーティクルに対して最小の利用可能な重みが与えられる(ステップ1130)。これは、通常、零でない重みである。遮蔽が検出されない場合には、尤度が算出される。
D(Xt)=exp(−ρ・r(Xt))
ρは、規格化係数である。規格化係数は、0.95の最大値など、選択された最大値の応答を確保するように選定される。測定値Ztに関連する共分散マトリックスRtは、以下のような応答分布から構成される。
一実施態様においては、遮蔽が検出された場合には、重みまたは尤度を最小値に設定するのではなく、パーティクル尤度が強度および動きに基づいてはいるが、軌跡は考慮しないで生成される。また、遮蔽が検出されない場合には、例えば、パーティクルの尤度が強度に基づいて生成される。
一実施態様においては、少なくとも部分的には、パーティクルによって示される位置の近傍の画像の少なくとも一部を考慮して、パーティクルに重みが割り当てられる。例えば、所与のパーティクルに対し、オブジェクト・テンプレートからの5×5の画素のブロックなどのパッチがパーティクルによって示される位置、さらに、他の領域と比較される。この比較は、特に、大きなオブジェクトについては、差分絶対値和(SAD)マトリックスまたはヒストグラムに基づく。従って、オブジェクト・テンプレートは、パーティクルによって示される位置の近傍の画像と比較される。オフ位置(off−position)比較により、十分に異なるものであるという結果が得られれば、パーティクルに割り当てられる重みはより高いものとなる。一方、パーティクルによって示される領域が他の領域により似ている場合には、パーティクルの重みは、これに応じて小さくなる。比較に基づいてSSDなどの相関面が生成され、オフ位置領域をモデル化する。
パーティクルが、遮蔽されていないという判定結果が出た場合、軌跡尤度が推定される(ステップ1145)。パーティクルの重みの推定のために、重み付けされた判定を用いることができる(ステップ1150)。
重み付けされた判定は、強度尤度(例えば、テンプレート一致)、動き尤度(例えば、過去のオブジェクトの位置のリニア外挿)、さらに、軌跡尤度のうちの1つ以上を含む。これらの係数は、パーティクル・フィルタにおいて各パーティクルの尤度または重みを判定するために用いられる。一実施態様においては、カメラ動きが軌跡の平滑度に影響を与えることがなく、軌跡の尤度に影響を与えないと仮定される。一実施態様においては、パーティクル尤度は、以下のように定義される。
ここで、
である。SSD面に基づく強度測定値は、
である。
動き尤度は、
によって与えられ、軌跡尤度は、
によって与えられる。これらの3つの値は独立していると仮定される。当業者にとって、強度尤度
の算出は公知である。
動き尤度は、
動き尤度は、パーティクルの位置の変化(速度)と最近の各フレームに渡ったオブジェクトの位置における平均変化との間の差に基づいて算出される。
(ΔXt,Δyt)は、(xt−1,yt−1)に対するパーティクルの位置の変更であり、
は、選択した最近の各フレームに渡った平均オブジェクト速度であり、即ち、以下のようになる。
従って、動き尤度は、動的モデルによって予測された位置およびパーティクル位置との間の距離dmot(例えば、ユークリッド(Euclidian)距離)に基づいて、以下のように算出することができる。
一実施態様においては、軌跡平滑度尤度は、ビデオの最近の各フレーム内のオブジェクトの各位置の一連の位置に基づいて算出される軌跡に対するパーティクルの近さから推定することができる。軌跡関数は、y=f(x)と表すことができ、そのパラメトリック形式は以下のように表すことができる。
ここで、aiは、多項式係数、mは、多項式関数の次数(例えば、m=2)を表す。軌跡関数を算出する際、この式を変更することができる。第1の変更は、オブジェクトの位置が特定の過去のフレームにおける遮蔽された状態に対応すると判定された場合に、オブジェクトの位置を考慮しない、または、割り引いて考えることである。第2に、重み付け係数(forgotten係数とも呼ばれる。)に関わる。軌跡に対するパーティクルの近さの重み付けをするために算出される。オブジェクトが遮蔽されるフレームが多いほど、推定される軌跡の信頼性が低下し、従って、forgotten係数が大きくなる。
「forgotten係数」は、単純に、信頼度である。ユーザは、様々な考慮事項に基づいて値をforgotten係数に割り当てることができる。このような考慮事項には、例えば、オブジェクトが前のピクチャ内で遮蔽されているかどうか、オブジェクトが遮蔽されている連続する前のピクチャの数、または、遮蔽されていないデータの信頼性などが含まれる。各ピクチャが異なるforgotten係数を有していてもよい。
例示的な実施態様においては、軌跡平滑度尤度は、以下のように与えられる。
ここで、近さ値は、dtrj=|y−f(x)|であり、λfは、手動で選択されたforgotten率であり、0<λf<1(例えば、λf=0.9)である。また、t_oclは、オブジェクトが遮蔽される最近のフレームの数である。
一実施態様においては、オブジェクトが先行するフレームにおいて遮蔽されているという判定が行われた場合、パーティクルの尤度が強度尤度および軌跡尤度に基づいて判定されるが、動き尤度は考慮されない。オブジェクトが先行するフレームにおいて遮蔽されていないという判定が行われた場合、パーティクルの尤度が強度尤度および動き尤度に基づいて判定されるが、軌跡尤度は考慮されない。これは有益であるが、その理由は、オブジェクトの位置が前のフレームにおいて既知であるとき、通常、軌跡の制約を提供することには比較的利点が少ないからである。さらに、軌跡の制約を組み込むことは、時間的マルコフ連鎖の仮定に反することがある。即ち、軌跡の制約の使用により、後続する状態が、直前のフレームではないフレームの状態に依存することになる。オブジェクトが遮蔽されている、または、動き推定が閾値の下であるという判定がなされた場合、通常、パーティクル尤度判定において動き尤度を含めることに利点がない。この実施態様においては、パーティクル尤度は、以下のように表すことができる。
ここで、オブジェクトが遮蔽されている場合、Ot=0であり、オブジェクトが遮蔽されていない場合、Ot=1である。
図12を参照すると、ビデオのフレームにおいてオブジェクトの軌跡をオブジェクトの位置に適合させる例が示されている。要素1205、要素1206、要素1207は、ビデオの3つのフレームにおける小さなオブジェクトの位置を表している。要素1205、要素1206、要素1207は、ゾーン1208の中に位置し、遮蔽されていない。要素1230および1231は、要素1205、要素1206、および要素1207によって表されるフレームの後の、ビデオの2つのフレームにおける小さなオブジェクトの各位置を表す。要素1230および1231は、ゾーン1232内に位置し、遮蔽されていると判定されており、判定された各位置についての不確実性が高い。したがって、図12において、t_ocl=2である。実際の軌跡1210が図示され、これは、予測された軌跡1220に投影される。
次に、図13を参照すると、テンプレートの実施態様の処理フローが示されている。図13の処理フローの開始時点で、パーティクル・フィルタなどにより、オブジェクトの新たな状態が推定されている。新たな推定された状態は、例えば、新たなフレームにおけるオブジェクトの推定された位置に対応する。図13の処理フロー1300を用いて次に続くフレームの状態を推定する際に既存のテンプレートを再利用するかどうかを判定することができる。ステップ1305によって示すように、遮蔽検出は、現在のフレーム内のオブジェクトの新たな推定された位置で実行される。遮蔽が検出される場合(ステップ1310)、遮蔽インジケータがメモリにセットされる(ステップ1330)。例えば、後続するフレームのためのパーティクル・フィルタにおいてこのインジケーションを用いることができる。遮蔽が検出されない場合、処理フローは、ドリフトの検出に進む(ステップ1315)。一実施態様においては、ドリフトは、新たなフレームにおけるオブジェクトの画像と初期のテンプレートとの間の動きの残差の形態である。ドリフトが閾値を超える場合(ステップ1320)、テンプレートは更新されない(ステップ1335)。ドリフトが閾値を超えない場合、現在のフレームからのオブジェクト・ウインドウ画像を用いて、テンプレートが更新される(ステップ1325)。さらに、オブジェクトの動きパラメータを更新してもよい。
次に図14を参照すると、オブジェクトのテンプレートを更新し、位置推定値の精度を向上させる、処理1300に対して別の実施態様のフロー図が示されている。処理1400において、現在のオブジェクトの状態の判定後、判定されたオブジェクト位置および現在のフレームに対する遮蔽検出が実行される(ステップ1405)。遮蔽が検出される場合(1410)、推定されたオブジェクト位置が修正される。このような修正は有用である。その理由は、例えば、判定された位置が正確であるという信頼性が遮蔽により低下するからである。従って、精度が向上した位置推定値が有用となる場合がある。一例においては、遮蔽の判定は、乱雑状態の存在に基づいており、判定されたオブジェクトの位置は、実際は、乱雑状態の一部の位置である。
修正は、軌跡の平滑度に関連する情報を用いて実施することができる。オブジェクト位置は、前のフレームにおける位置データからの情報を用いて判定された軌跡上に投影される(ステップ1415)。例えば、等速を用いた直線投影を採用することができる。位置精度を向上させてもよい(ステップ1420)。
図15を参照すると、オブジェクト位置を軌跡上に投影させ、位置精度を向上させる処理が描かれている。軌跡1505が示されている。位置1510は、前のフレームにおけるオブジェクトの位置を表す。データ・ポイント1515は、時間jでの前のフレーム内の位置Xjを表す。データ・ポイント1520は、時間iでの前のフレームの位置Xを表す。データ・ポイント1510、1515、および1520は、遮蔽されていないオブジェクトの位置、即ち、比較的高品質のデータを表す。データ・ポイント1525、1530、1535、1540は、前のフレーム内のオブジェクトの各位置を表すが、遮蔽の影響を受けている。従って、これらのデータ・ポイントは、軌跡の計算において、無視してもよいし、低い重みを与えてもよい。軌跡1505は、これらのデータ・ポイントの適合化に基づいて既に生成されたものであり、特定のデータ・ポイントの遮蔽が重み付けされている。
現在、即ち、時点curでのフレーム内のオブジェクトの初期算出は、以下の式を用いて、直線および等速を用いて行うことができる。
これは、初期の推定された現在のフレーム位置1545(リニア位置推定値とも呼ばれる)を取得するために、直線投影1550(リニア外挿とも呼ばれる)によって表される。初期の推定された現在のフレーム位置は、次に、
として算出された軌跡(投影ポイントとも呼ばれる)上に投影される。これは、
に最も近い軌跡上のポイントである。投影には、以下の式を用いることができる。
ここで、λfは、forgoten率であり、0<λf<1(例えば、λf=0.9)である。また、t_oclは、オブジェクトが最後に見えていたときからの、オブジェクトが遮蔽されたフレームの回数である。一実施態様においては、投影は、
と
との間で補間された軌跡上のポイントである。従って投影は、
と
との間のライン上になる。このような実施態様においては、投影は、以下のように表すことができる。
図15において、位置1530、1535で表されるように、オブジェクトは、最近の2つのフレーム上で遮蔽されており、t_ocl=2である。この式の適用により、一般的に、オブジェクト位置は、軌跡と直線投影との間で補間された位置に移動される。t_oclが高くなると、軌跡がより不確かなものとなり、位置は直線投影により近いものとなる。図15に示す例では、補間された位置1540が判定される。位置1540は、遮蔽されたゾーン1545内にあるため、遮蔽されている。
再び図14を参照して、遮蔽のチェックの結果、遮蔽がないことがわかった場合の処理フローについて説明する。オブジェクト・テンプレートのドリフトが決定される(ステップ1425)。テンプレートのドリフトは、現在のテンプレートと初期のテンプレートとの双方に対して動き推定を適用することによって検出される。各結果が比較される。動き推定の適用後、2つのテンプレートの間の差が閾値を超えている場合(ステップ1430)、ドリフトが発生している。この場合、前のテンプレートは更新されず(ステップ1445)、新たなテンプレートが取得される。差が閾値を超えていない場合、テンプレートが更新される(ステップ1435)。
処理フローは、さらに、メモリ内の遮蔽インジケータを更新する処理(ステップ1440)を含む。そして、前のフレームのための遮蔽インジケータは、次のフレームでのオブジェクト位置を推定する際、パーティクル・フィルタにおいてチェックされる。
次に、図16を参照すると、方法1600は、オブジェクトを捕捉するためのパーティクルに基づくフレームワークにおける計量面を形成する処理(ステップ1605)を含む。計量面は、一連のディジタル画像における特定の画素に関連する。計量面に基づく特定の画像内のオブジェクトの位置の複数の仮定が形成される(ステップ1610)。オブジェクトの位置は、複数の仮定の各確率に基づいて推定される(ステップ1615)
図17を参照すると、方法1700は、一連のディジタル画像における特定の画像内のオブジェクトの動き推定値を評価する処理(ステップ1705)を含む。動き推定は、一連のディジタル画像における以前の画像に基づいている。評価結果に基づいて、オブジェクトのために、少なくとも1つの位置推定値が選択される(ステップ1710)。位置推定値は、オブジェクトを捕捉するためのパーティクルに基づくフレームワークの一部である。
次に、図18を参照すると、方法1800は、一連のディジタル画像内の各画像の間でオブジェクトを捕捉するために用いられるパーティクルに基づくフレームワークにおいて、パーティクルを選択する処理(ステップ1805)を含み、パーティクルは、位置を有する。方法1800は、1つ以上のパーティクルがオブジェクトに一致する度合いを示す面にアクセスする処理(ステップ1810)を含む。さらに、方法1800は、この面上の位置を決定する処理(ステップ1815)を含む。この位置は、選択したパーティクルに関連し、選択されたパーティクルがオブジェクトに一致する度合いを示す。方法1800は、面のローカル最小値またはローカル最大値を決定された位置に関連付ける処理(ステップ1820)を含む。さらに、方法1800は、選択されたパーティクルの位置を判定されたローカル最小値またはローカル最大値に対応するように移動させる処理(ステップ1825)を含む。
次に、図19を参照すると、方法1900は、一連のディジタル画像におけるオブジェクトのためのオブジェクト・テンプレートを形成する処理(ステップ1905)を含む。方法1900は、さらに、一連のディジタル画像における特定の画像内のオブジェクトの位置の推定値を形成する処理(ステップ1910)を含む。推定値は、パーティクルに基づくフレームワークを用いて形成される。オブジェクト・テンプレートは、推定された位置での特定の画像部分と比較される(ステップ1915)。比較結果に依存してオブジェクト・テンプレートを更新するかどうかが判定される(ステップ1920)。
次に、図20を参照すると、方法2000は、一連のディジタル画像における各画像間でオブジェクトを捕捉するためのパーティクルに基づくフレームワークにおいて、遮蔽を検出するために、強度に基づいて評価を実行する処理(ステップ2005)を含む。一実施態様においては、強度に基づく評価は、データの関連付けに基づいて行うことができる。遮蔽が検出されない場合(ステップ2010)、確率的な評価が実行され、遮蔽が検出される(ステップ2015)。一実施態様においては、確率的な評価は、相関面に基づく上述した方法を含む。オプションとして、遮蔽の検出処理の結果のインジケータが記憶される(ステップ2020)。
次に図21を参照すると、方法2100は、一連のディジタル画像における各画像間でオブジェクトを捕捉するために、利用可能なパーティクルのサブセットを選択する処理(ステップ2105)を含む。一実施態様においては、図21に示すように、最も高い尤度を有するパーティクルが選択される。選択されたパーティクルのサブセットに基づいて状態が推定される(ステップ2110)。
次に図22を参照すると、方法2200は、一連のディジタル画像における特定のフレーム内のオブジェクトの推定された位置が遮蔽されていると判定する処理(ステップ2205)を含む。オブジェクトの軌跡が推定される(2210)。推定された位置は、推定された軌跡に基づいて変更される(ステップ2215)。
次に図23を参照すると、方法2300は、オブジェクトの軌跡を判定する処理(ステップ2310)を含む。例えば、オブジェクトは、一連のディジタル画像における特定の画像内にあってもよいし、軌跡は、一連のディジタル画像における1つ以上の以前の画像内のオブジェクトの1つ以上の以前の位置に基づくものであってもよい。方法2300は、パーティクルから軌跡までの距離に基づいてパーティクルの重みを決定する処理(ステップ2320)を含む。方法2300は、判定されたパーティクルの重みに基づいてオブジェクト位置を決定する処理(ステップ2330)を含む。位置は、例えば、パーティクルに基づくフレームワークを用いて決定することができる。
各実施態様は、例えば、オブジェクトの位置推定値を生成してもよい。このような推定値は、例えば、オブジェクトを含むピクチャを符号化する際に使用することができる。符号化は、例えば、MPEG−1、MPEG−2、MPEG−2、MPEG−4、H.264、または他の符号化技術を使用することができる。推定値、または、符号化データは、例えば、信号、または、プロセッサにより読み取り可能な媒体上に提供することができる。各実施態様は、非オブジェクト捕捉アプリケーションまたは非ビデオ・アプリケーションに適応させることもできる。例えば、状態は、オブジェクトの位置でない特徴を表していてもよく、オブジェクトに関するものでさえなくてもよい。
本明細書中に記載される各実施の態様は、例えば、方法や処理、装置、またはソフトウエア・プログラムにおいて実施することができる。単一の実施の形態で記載されている(例えば、方法としてのみ記載されている)場合であっても、そこで記載された特徴の実施を他の形態で実施することもできる(例えば、装置またはプログラム)。装置は、例えば、適切なハードウエア、ソフトウエア、および、ファームウエアにおいて実施することができる。方法は、例えば、プロセッサなどの装置において実施することができ、ここでのプロセッサは、例えば、コンピュータ、マイクロプロセッサ、集積回路、または、プログラム可能な論理デバイスを含む一般的な処理デバイスである。処理デバイスは、さらに、例えば、コンピュータ、携帯電話、携帯(個人)情報端末(PDA)やエンドユーザ間の情報通信を容易にする他のデバイスなどの通信デバイスを含む。
本明細書中で説明した各実施態様の様々な処理および特徴は、様々な機器またはアプリケーション、特に、例えば、符号化および復号に関わる機器またはアプリケーションにおいて実施することができる。機器の例には、ビデオ符号化器、ビデオ復号器、ビデオ・コーデック、ウエブ・サーバ、セットトップ・ボックス、ラップトップ、パーソナル・コンピュータ、携帯電話、携帯情報端末(PDA)、および他の通信デバイスが含まれる。機器は、モバイルなものでもよく、移動車両に設置されるものでさえもよいことは明らかであろう。
さらに、各方法は、プロセッサによって実行される各命令によって実施されるものでもよく、このような命令は、例えば、プロセッサによって読み出し可能な媒体に記憶することができる。例えば、この読み出し可能な媒体として、集積回路、ソフトウエア・キャリア、または、例えば、ハードディスク、コンパクト・ディスク、ランダム・アクセス・メモリ(RAM:)、読み出し専用メモリ(ROM)、などの他の記憶デバイスが挙げられる。各命令は、プロセッサによって読み取り可能な媒体上に現実に実施されるアプリケーション・プログラムを形成することができる。各命令は、例えば、オペレーティング・システムに存在してもよいし、別個のアプリケーションに存在してもよいし、または、これらの2つの組み合わせに存在してもよい。従って、プロセッサは、処理を実施するように構成された装置、さらに、例えば、処理を実施するための各命令を有するコンピュータによって読み取り可能な媒体を含む装置の双方によって特徴付けることができる。
当業者であれば明らかであろうが、各実施態様は、例えば、記憶される、または、送信される情報を搬送するようにフォーマットされた信号を生成することもある。この情報は、例えば、方法を実行する命令、または、記載した各実施態様の1つによって生成されたデータを含む。このような信号は、例えば、電磁波(例えば、スペクトラムの無線周波数部分を使用したもの)、または、ベースバンド信号としてフォーマットされることがある。フォーマッティングには、例えば、データ・ストリームの符号化、さらに、符号化されたデータ・ストリームを有するキャリアの変調を含む。信号が搬送するこの情報は、例えば、アナログまたはディジタルの情報である。この信号は、公知な様々な異なる有線または無線リンクを介して送信することができる。
幾つかの実施態様について説明したが、様々な改変が可能であることが理解できるであろう。例えば、他の実施態様を生み出すために、異なる実施態様の要素を組み合わせること、補完すること、変更すること、または、除去することが可能である。さらに、当業者であれば、開示されている構造および処理を他のものに置き換えることにより、開示された実施態様と少なくとも概ね同一の結果を達成するために、少なくとも同一の機能を、少なくとも同一の方法で実施することが可能である。従って、これらの実施の態様、さらに、本願によって企図される他の実施の態様は、後続する請求の範囲に包含されるものである。
Claims (17)
- オブジェクトの捕捉のためにパーティクルに基づくフレームワークにおいて計量面を形成するステップであって、該計量面が一連のディジタル画像における特定の画像に関連する、該ステップと、
前記計量面に基づいて、前記特定の画像内の前記オブジェクトの位置についての複数の仮定を形成するステップと、
前記複数の仮定の各確率に基づいて前記オブジェクトの位置を推定するステップと、
を含む、方法。 - 前記計量面に基づいて前記特定の画像における乱雑状態の存在を判定するステップをさらに含む、請求項1に記載の方法。
- 乱雑状態が存在する場合、前記特定の画像内の遮蔽が前記計量面の応答分布によって検出される、請求項2に記載の方法。
- 動き推定が前記遮蔽の検出に依存して実行される、請求項3に記載の方法。
- 予測ノイズ分散が前記遮蔽の検出に依存する、請求項4に記載の方法。
- 前記計量面が差分の二乗和(SSD)面である、請求項1に記載の方法。
- 動き推定においてオプティック・フロー式が使用される、請求項1に記載の方法。
- 前記オブジェクトが約30個の画素よりも小さいサイズを有する、請求項1に記載の方法。
- 前記パーティクルに基づくフレームワークがパーティクル・フィルタを含む、請求項1に記載の方法。
- 前記オブジェクトの位置を推定するステップが、前記複数の仮定の各可能性に基づいて前記パーティクル・フィルタにおける重みを決定するステップを含む、請求項9に記載の方法。
- 前記仮定の数が状態空間における不確実性のレベルに基づいて選択される、請求項1に記載の方法。
- 前記不確実性のレベルがカルバック-ライブラー距離(KLD)サンプリングを使用して決定される、請求項11に記載の方法。
- 前記オブジェクトの推定された位置を含む前記特定の画像のオブジェクト部分を特定するステップと、
前記オブジェクト部分から分けられた前記特定の画像の非オブジェクト部分を特定するステップと、
前記オブジェクト部分が前記非オブジェクト部分と比べてより大きな符号化冗長性で符号化されるように、前記オブジェクト部分と前記非オブジェクト部分を符号化するステップと、
をさらに含む、請求項1に記載の方法。 - 一連のディジタル画像における特定の画像に関連するデータを記憶する記憶デバイスと、
オブジェクトの捕捉のためにパーティクルに基づくフレームワークにおいて前記特定の画像に関連する計量面を形成し、該計量面に基づいて、前記特定の画像内の前記オブジェクトの位置についての複数の仮定を形成し、前記複数の仮定の各確率に基づいて前記オブジェクトの位置を推定するプロセッサと、
を備える、装置。 - 前記記憶デバイスおよび前記プロセッサを備える符号化器をさらに含む、請求項14に記載の装置。
- 複数の命令が記憶されたプロセッサにより読み取り可能な媒体であって、
前記命令が、
オブジェクトの捕捉のために、パーティクルに基づくフレームワークにおいて、一連のディジタル画像における特定の画像に関連する計量面を形成する処理と、
前記計量面に基づいて、前記特定の画像内の前記オブジェクトの位置についての複数の仮定を形成する処理と、
前記複数の仮定の各確率に基づいて前記オブジェクトの位置を推定する処理と、
を実行するためのものである、前記媒体。 - 一連のディジタル画像における特定の画像に関連するデータを記憶する手段と、
オブジェクトの捕捉のために、パーティクルに基づくフレームワークにおいて前記特定の画像に関連する計量面を形成する手段と、
前記計量面に基づいて、前記特定の画像内の前記オブジェクトの位置についての複数の仮定を形成する手段と、
前記複数の仮定の各確率に基づいて前記オブジェクトの位置を推定する手段と、
を含む装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US87214506P | 2006-12-01 | 2006-12-01 | |
US87214606P | 2006-12-01 | 2006-12-01 | |
US88578007P | 2007-01-19 | 2007-01-19 | |
PCT/US2007/024691 WO2008069998A2 (en) | 2006-12-01 | 2007-11-30 | Estimating a location of an object in an image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010511932A true JP2010511932A (ja) | 2010-04-15 |
Family
ID=39492817
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009539356A Withdrawn JP2010511932A (ja) | 2006-12-01 | 2007-11-30 | 画像内のオブジェクトの位置推定 |
JP2009539354A Withdrawn JP2010511931A (ja) | 2006-12-01 | 2007-11-30 | 画像内のオブジェクトの位置推定 |
JP2009539360A Withdrawn JP2010511933A (ja) | 2006-12-01 | 2007-11-30 | 画像内のオブジェクトの位置推定 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009539354A Withdrawn JP2010511931A (ja) | 2006-12-01 | 2007-11-30 | 画像内のオブジェクトの位置推定 |
JP2009539360A Withdrawn JP2010511933A (ja) | 2006-12-01 | 2007-11-30 | 画像内のオブジェクトの位置推定 |
Country Status (6)
Country | Link |
---|---|
US (3) | US20100067803A1 (ja) |
EP (3) | EP2087470A2 (ja) |
JP (3) | JP2010511932A (ja) |
CN (1) | CN101681517A (ja) |
BR (3) | BRPI0719555A2 (ja) |
WO (3) | WO2008069998A2 (ja) |
Families Citing this family (58)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009067170A1 (en) * | 2007-11-16 | 2009-05-28 | Thomson Licensing | Estimating an object location in video |
TWI351001B (en) * | 2007-11-21 | 2011-10-21 | Ind Tech Res Inst | Method and apparatus for adaptive object detection |
US8611591B2 (en) * | 2007-12-21 | 2013-12-17 | 21 Ct, Inc. | System and method for visually tracking with occlusions |
JP5043756B2 (ja) * | 2008-06-09 | 2012-10-10 | 本田技研工業株式会社 | 状態推定装置および状態推定プログラム |
GB2469074A (en) * | 2009-03-31 | 2010-10-06 | Sony Corp | Object tracking with polynomial position adjustment |
US9240053B2 (en) | 2010-03-15 | 2016-01-19 | Bae Systems Plc | Target tracking |
GB201004232D0 (en) | 2010-03-15 | 2010-04-28 | Bae Systems Plc | Target tracking |
US8672837B2 (en) | 2010-06-24 | 2014-03-18 | Hansen Medical, Inc. | Methods and devices for controlling a shapeable medical device |
JP4893855B1 (ja) * | 2010-12-21 | 2012-03-07 | オムロン株式会社 | 画像認証装置、画像処理システム、画像認証装置制御プログラム、コンピュータ読み取り可能な記録媒体、および画像認証方法 |
US8553943B2 (en) | 2011-06-14 | 2013-10-08 | Qualcomm Incorporated | Content-adaptive systems, methods and apparatus for determining optical flow |
JP5498454B2 (ja) * | 2011-09-15 | 2014-05-21 | 株式会社東芝 | 追跡装置、追跡方法およびプログラム |
US9373040B2 (en) * | 2011-11-01 | 2016-06-21 | Google Inc. | Image matching using motion manifolds |
US8977003B1 (en) * | 2012-07-17 | 2015-03-10 | Google Inc. | Detecting objects in a sequence of images |
US8953843B1 (en) | 2012-07-17 | 2015-02-10 | Google Inc. | Selecting objects in a sequence of images |
US9057600B2 (en) | 2013-03-13 | 2015-06-16 | Hansen Medical, Inc. | Reducing incremental measurement sensor error |
US9629595B2 (en) * | 2013-03-15 | 2017-04-25 | Hansen Medical, Inc. | Systems and methods for localizing, tracking and/or controlling medical instruments |
US9271663B2 (en) | 2013-03-15 | 2016-03-01 | Hansen Medical, Inc. | Flexible instrument localization from both remote and elongation sensors |
WO2014149946A1 (en) * | 2013-03-15 | 2014-09-25 | Luminex Corporation | Real-time tracking and correlation of microspheres |
US9014851B2 (en) | 2013-03-15 | 2015-04-21 | Hansen Medical, Inc. | Systems and methods for tracking robotically controlled medical instruments |
US11020016B2 (en) | 2013-05-30 | 2021-06-01 | Auris Health, Inc. | System and method for displaying anatomy and devices on a movable display |
CN103345258B (zh) * | 2013-06-16 | 2016-05-18 | 西安科技大学 | 一种足球机器人目标追踪方法及系统 |
JP6261266B2 (ja) * | 2013-10-02 | 2018-01-17 | 東芝アルパイン・オートモティブテクノロジー株式会社 | 移動体検知装置 |
US9684830B2 (en) * | 2014-11-14 | 2017-06-20 | Intel Corporation | Automatic target selection for multi-target object tracking |
US9600901B2 (en) * | 2014-12-22 | 2017-03-21 | International Business Machines Corporation | Video tracker having digital signal processor |
PL411602A1 (pl) * | 2015-03-17 | 2016-09-26 | Politechnika Poznańska | System do estymacji ruchu na obrazie wideo i sposób estymacji ruchu na obrazie wideo |
CN104778272B (zh) * | 2015-04-24 | 2018-03-02 | 西安交通大学 | 一种基于区域挖掘和空间编码的图像位置估计方法 |
US9483839B1 (en) * | 2015-05-06 | 2016-11-01 | The Boeing Company | Occlusion-robust visual object fingerprinting using fusion of multiple sub-region signatures |
US9767378B2 (en) | 2015-08-31 | 2017-09-19 | Sony Corporation | Method and system to adaptively track objects |
JP6824967B2 (ja) | 2015-09-18 | 2021-02-03 | オーリス ヘルス インコーポレイテッド | 管状網のナビゲーション |
US10143526B2 (en) | 2015-11-30 | 2018-12-04 | Auris Health, Inc. | Robot-assisted driving systems and methods |
US10198818B2 (en) | 2016-10-12 | 2019-02-05 | Intel Corporation | Complexity reduction of human interacted object recognition |
US10244926B2 (en) | 2016-12-28 | 2019-04-02 | Auris Health, Inc. | Detecting endolumenal buckling of flexible instruments |
US11490782B2 (en) | 2017-03-31 | 2022-11-08 | Auris Health, Inc. | Robotic systems for navigation of luminal networks that compensate for physiological noise |
DE102017108107A1 (de) * | 2017-04-13 | 2018-10-18 | Volkswagen Aktiengesellschaft | Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs |
JP6757701B2 (ja) * | 2017-05-29 | 2020-09-23 | Kddi株式会社 | 任意の追跡器を割り当てたパーティクルを用いる物体追跡プログラム、装置及び方法 |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
AU2018292281B2 (en) | 2017-06-28 | 2023-03-30 | Auris Health, Inc. | Electromagnetic distortion detection |
CN116725667A (zh) | 2017-06-28 | 2023-09-12 | 奥瑞斯健康公司 | 提供定位信息的系统和在解剖结构内定位器械的方法 |
CN107481262B (zh) * | 2017-07-19 | 2020-02-28 | 中国科学院自动化研究所 | 基于多任务相关粒子滤波的视觉跟踪方法、装置 |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
WO2019118767A1 (en) | 2017-12-14 | 2019-06-20 | Auris Health, Inc. | System and method for estimating instrument location |
EP3684283A4 (en) | 2017-12-18 | 2021-07-14 | Auris Health, Inc. | METHODS AND SYSTEMS FOR MONITORING AND NAVIGATION OF INSTRUMENTS IN LUMINAL NETWORKS |
KR102500422B1 (ko) | 2018-03-28 | 2023-02-20 | 아우리스 헬스, 인코포레이티드 | 기구의 추정된 위치를 디스플레이하기 위한 시스템 및 방법 |
US10524866B2 (en) | 2018-03-28 | 2020-01-07 | Auris Health, Inc. | Systems and methods for registration of location sensors |
CN114601559B (zh) | 2018-05-30 | 2024-05-14 | 奥瑞斯健康公司 | 用于基于定位传感器的分支预测的系统和介质 |
KR102567087B1 (ko) | 2018-05-31 | 2023-08-17 | 아우리스 헬스, 인코포레이티드 | 생리학적 잡음을 검출하는 내강 네트워크의 내비게이션을 위한 로봇 시스템 및 방법 |
US10898286B2 (en) | 2018-05-31 | 2021-01-26 | Auris Health, Inc. | Path-based navigation of tubular networks |
CN110831538B (zh) | 2018-05-31 | 2023-01-24 | 奥瑞斯健康公司 | 基于图像的气道分析和映射 |
CN112804959A (zh) | 2018-09-28 | 2021-05-14 | 奥瑞斯健康公司 | 用于伴随内窥镜和经皮医学规程的机器人系统和方法 |
US11010622B2 (en) * | 2018-11-02 | 2021-05-18 | Toyota Research Institute, Inc. | Infrastructure-free NLoS obstacle detection for autonomous cars |
JP2022546421A (ja) | 2019-08-30 | 2022-11-04 | オーリス ヘルス インコーポレイテッド | 位置センサの重みベースの位置合わせのためのシステム及び方法 |
US11147633B2 (en) | 2019-08-30 | 2021-10-19 | Auris Health, Inc. | Instrument image reliability systems and methods |
CN114641252B (zh) | 2019-09-03 | 2023-09-01 | 奥瑞斯健康公司 | 电磁畸变检测和补偿 |
EP4084721A4 (en) | 2019-12-31 | 2024-01-03 | Auris Health, Inc. | IDENTIFICATION OF AN ANATOMIC FEATURE AND AIMING |
US11660147B2 (en) | 2019-12-31 | 2023-05-30 | Auris Health, Inc. | Alignment techniques for percutaneous access |
EP4084722A4 (en) | 2019-12-31 | 2024-01-10 | Auris Health, Inc. | ALIGNMENT INTERFACES FOR PERCUTANE ACCESS |
CN113076123A (zh) * | 2021-04-19 | 2021-07-06 | 智领高新科技发展(北京)有限公司 | 一种用于目标跟踪的自适应模板更新系统及方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6096165A (ja) * | 1983-10-27 | 1985-05-29 | Mitsubishi Electric Corp | 補機駆動型始動電動機 |
GB2183878B (en) * | 1985-10-11 | 1989-09-20 | Matsushita Electric Works Ltd | Abnormality supervising system |
US4868871A (en) * | 1987-08-13 | 1989-09-19 | Texas Instruments Incorporated | Nonparametric imaging tracker |
US6081605A (en) * | 1993-03-08 | 2000-06-27 | The United States Of America As Represented By The Secretary Of The Navy | Clutter rejection through edge integration |
US6226388B1 (en) * | 1999-01-05 | 2001-05-01 | Sharp Labs Of America, Inc. | Method and apparatus for object tracking for automatic controls in video devices |
US6621929B1 (en) * | 1999-06-22 | 2003-09-16 | Siemens Corporate Research, Inc. | Method for matching images using spatially-varying illumination change models |
US6535114B1 (en) * | 2000-03-22 | 2003-03-18 | Toyota Jidosha Kabushiki Kaisha | Method and apparatus for environment recognition |
US7113185B2 (en) * | 2002-11-14 | 2006-09-26 | Microsoft Corporation | System and method for automatically learning flexible sprites in video layers |
CN100573548C (zh) * | 2004-04-15 | 2009-12-23 | 格斯图尔泰克股份有限公司 | 跟踪双手运动的方法和设备 |
US7894647B2 (en) * | 2004-06-21 | 2011-02-22 | Siemens Medical Solutions Usa, Inc. | System and method for 3D contour tracking of anatomical structures |
JP2006260527A (ja) * | 2005-02-16 | 2006-09-28 | Toshiba Corp | 画像マッチング方法およびこれを用いた画像補間方法 |
US20060245618A1 (en) * | 2005-04-29 | 2006-11-02 | Honeywell International Inc. | Motion detection in a video stream |
US10555775B2 (en) * | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
US8135185B2 (en) * | 2006-10-20 | 2012-03-13 | Stereotaxis, Inc. | Location and display of occluded portions of vessels on 3-D angiographic images |
-
2007
- 2007-11-30 JP JP2009539356A patent/JP2010511932A/ja not_active Withdrawn
- 2007-11-30 BR BRPI0719555-9A patent/BRPI0719555A2/pt not_active Application Discontinuation
- 2007-11-30 US US12/312,744 patent/US20100067803A1/en not_active Abandoned
- 2007-11-30 BR BRPI0719033-6A2A patent/BRPI0719033A2/pt not_active Application Discontinuation
- 2007-11-30 EP EP07862421A patent/EP2087470A2/en not_active Withdrawn
- 2007-11-30 CN CN200780043400A patent/CN101681517A/zh active Pending
- 2007-11-30 US US12/312,743 patent/US20100067802A1/en not_active Abandoned
- 2007-11-30 EP EP07862396A patent/EP2087468A2/en not_active Withdrawn
- 2007-11-30 WO PCT/US2007/024691 patent/WO2008069998A2/en active Application Filing
- 2007-11-30 WO PCT/US2007/024686 patent/WO2008069995A2/en active Application Filing
- 2007-11-30 JP JP2009539354A patent/JP2010511931A/ja not_active Withdrawn
- 2007-11-30 US US12/312,737 patent/US20100054536A1/en not_active Abandoned
- 2007-11-30 BR BRPI0718950-8A patent/BRPI0718950A2/pt not_active Application Discontinuation
- 2007-11-30 JP JP2009539360A patent/JP2010511933A/ja not_active Withdrawn
- 2007-11-30 EP EP07862401A patent/EP2087469A2/en not_active Withdrawn
- 2007-11-30 WO PCT/US2007/024713 patent/WO2008070012A2/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US20100067802A1 (en) | 2010-03-18 |
EP2087470A2 (en) | 2009-08-12 |
BRPI0719555A2 (pt) | 2013-12-10 |
CN101681517A (zh) | 2010-03-24 |
BRPI0718950A2 (pt) | 2013-12-17 |
US20100067803A1 (en) | 2010-03-18 |
EP2087468A2 (en) | 2009-08-12 |
JP2010511931A (ja) | 2010-04-15 |
WO2008070012A3 (en) | 2009-10-22 |
US20100054536A1 (en) | 2010-03-04 |
WO2008069998A3 (en) | 2009-10-29 |
EP2087469A2 (en) | 2009-08-12 |
WO2008069995A3 (en) | 2009-10-22 |
WO2008069998A2 (en) | 2008-06-12 |
JP2010511933A (ja) | 2010-04-15 |
WO2008069995A2 (en) | 2008-06-12 |
BRPI0719033A2 (pt) | 2013-11-05 |
WO2008070012A2 (en) | 2008-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010511932A (ja) | 画像内のオブジェクトの位置推定 | |
US8229174B2 (en) | Technique for estimating motion and occlusion | |
JP4849464B2 (ja) | フレームシーケンス中のオブジェクトを追跡するコンピュータ化された方法 | |
US8315436B2 (en) | Robust camera pan vector estimation using iterative center of mass | |
JP2010505184A (ja) | 動的な状態推定 | |
US9911191B2 (en) | State estimation apparatus, state estimation method, and integrated circuit with calculation of likelihood data and estimation of posterior probability distribution data | |
CN111462185A (zh) | 跟踪器辅助的图像捕获 | |
US20140126818A1 (en) | Method of occlusion-based background motion estimation | |
CN108876820A (zh) | 一种基于均值漂移的遮挡条件下移动目标追踪方法 | |
KR102080694B1 (ko) | 곡면 모델링을 통한 깊이 영상 부호화에서 움직임 추정 방법 및 장치와 비일시적 컴퓨터 판독가능 기록매체 | |
CN101557516A (zh) | 视频质量评估方法及装置 | |
KR101309519B1 (ko) | 객체 추적 장치 및 방법 | |
CN101647043A (zh) | 估计图象中物体的位置 | |
CN109166138B (zh) | 基于高阶累积量的目标跟踪方法、装置及存储介质 | |
WO2010070128A1 (en) | Method for multi-resolution motion estimation | |
JP4879257B2 (ja) | 移動対象追跡装置、移動対象追跡方法及び移動対象追跡プログラム | |
CN107067411A (zh) | 一种结合密集特征的Mean‑shift跟踪方法 | |
JP2006350618A (ja) | 動画像処理装置 | |
Tissainayagam et al. | Performance measures for assessing contour trackers | |
Radmehr et al. | PCA-based hierarchical clustering approach for motion vector estimation in H. 265/HEVC video error concealment | |
Zhai et al. | Image quality metric with an integrated bottom-up and top-down HVS approach | |
Wittebrood et al. | Real-time recursive motion segmentation of video data | |
JP2007180691A (ja) | ノイズ量測定装置 | |
JP2011055245A (ja) | 動きベクトル推定方法とこの方法を用いた画像処理装置、画像処理方法及び画像処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20110201 |