JP2006285358A - Edge-tracking method and computer program thereof - Google Patents
Edge-tracking method and computer program thereof Download PDFInfo
- Publication number
- JP2006285358A JP2006285358A JP2005100997A JP2005100997A JP2006285358A JP 2006285358 A JP2006285358 A JP 2006285358A JP 2005100997 A JP2005100997 A JP 2005100997A JP 2005100997 A JP2005100997 A JP 2005100997A JP 2006285358 A JP2006285358 A JP 2006285358A
- Authority
- JP
- Japan
- Prior art keywords
- edge
- projected
- model
- edges
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明はモーションキャプチャシステムに関し、特に、高フレームレートに適する、一連の画像中の対象物のエッジをトラッキングすることに関する。 The present invention relates to motion capture systems, and more particularly to tracking the edges of objects in a series of images suitable for high frame rates.
マーカなしで人体のモーションキャプチャをするという考えは、なんら付加的な構成を必要とせずに、画像シーケンスのみの操作によって人の動きをキャプチャしようというものである。このようなシステムのためのハードウェアは、コンピュータに加えて、1台又は2台以上のカメラのみからなり、このため手ごろな価格で容易に設定できる。 The idea of capturing motion of a human body without a marker is to capture human motion by operating only an image sequence without requiring any additional configuration. The hardware for such a system consists of only one or more cameras in addition to a computer, and can therefore be easily set at a reasonable price.
しかしながら、ヒューマノイドロボットの能動型の頭部にこれを適用するためには、いくつかの制限に対処しなければならない。比較的短距離に配置された2台のカメラという限定に加えて、能動型の頭部は潜在的に動く可能性があり、このため前景のセグメント化にオプティカル・フローまたは類似のアルゴリズムが利用できないことを念頭に置く必要がある。最大の問題は、少なくとも30Hz、最適な結果を達成するためには好ましくは60Hzまたはそれ以上のフレームレートでリアルタイムに計算を行なわなければならないことである。 However, in order to apply this to the active head of a humanoid robot, some limitations must be addressed. In addition to the limitation of two cameras located at relatively short distances, the active head can potentially move, so no optical flow or similar algorithms are available for foreground segmentation. You need to keep that in mind. The biggest problem is that the calculation must be done in real time at a frame rate of at least 30 Hz, preferably 60 Hz or higher to achieve optimal results.
モーションキャプチャの問題の一般的な定義は、入力画像の各々について、又は画像のタプルについて、基となる関節で連結された3Dの人体モデルの正確な形状を見出すこと、というものである。主な問題は、人体モデルの自由度(Degree Of Freedom:DOF)の数が増えるにつれて、探索空間が指数関数的に増大することである。人間の体の現実的なモデルは少なくとも25DOFを有する。DOFがこれほど高いと、探索空間の次元が非常に高くなる。
従って、この発明の目的の1つは、人間の体等の動く対象物を、一連の画像でトラッキングすることを可能にする高フレームレートに適した方法を提供することである。 Accordingly, one of the objects of the present invention is to provide a method suitable for high frame rates that allows a moving object such as a human body to be tracked in a series of images.
この発明の一局面に従えば、対象物の一連の画像中においてエッジをトラッキングする方法は、対象物の形状を記述するモデルを準備するステップと、対象物のモデルのエッジを画像の画像平面に投影するステップと、画像平面上に投影されたエッジの各々の周囲の予め定められた区域内で画像のエッジ画素の組を探索するステップと、投影されたエッジの各々のエッジ画素の組について線分を当てはめるステップと、投影されたエッジの各々について、線分を規定する所定のパラメータの組でその線分を表すステップと、線分を用いて対象物のモデルを更新するステップとを含む。 According to one aspect of the present invention, a method for tracking edges in a series of images of an object comprises: preparing a model that describes the shape of the object; and aligning the edges of the model of the object to an image plane of the image. Projecting, searching for a set of edge pixels of the image within a predetermined area around each of the projected edges on the image plane, and a line for each set of edge pixels of the projected edge Applying a segment, for each projected edge, representing the segment with a set of predetermined parameters defining the segment, and updating the object model with the segment.
上述の方法によれば、計算量が実質的に減じられ、一連の画像中での対象物の画像トラッキングを高フレームレートで行なうことができる。 According to the above-described method, the amount of calculation is substantially reduced, and image tracking of an object in a series of images can be performed at a high frame rate.
好ましくは、探索するステップは、投影されたエッジの各々について探索点の組を決定するステップと、投影されたエッジの各々の探索点の各々について、投影されたエッジの両側において、投影されたエッジと交差する方向の予め定められた距離内に存在する、画像の高コントラスト点を探索するステップとを含む。 Preferably, the searching step includes determining a set of search points for each projected edge, and projecting edges on each side of the projected edge for each search point for each projected edge. Searching for a high-contrast point in the image that is within a predetermined distance in a direction intersecting with.
より好ましくは、投影されたエッジと交差する方向は、投影されたエッジと直交する方向である。 More preferably, the direction intersecting the projected edge is a direction orthogonal to the projected edge.
さらに好ましくは、決定するステップが、投影されたエッジの各々について、一定の距離をあけて探索点の組を決定するステップを含む。 More preferably, the determining step includes the step of determining a set of search points at a fixed distance for each projected edge.
上述のモデルは、モデルのとり得る複数個の形状とそれぞれに関連する確率とで記述されてもよい。更新するステップは、モデルの形状の確率分布関数のうち、選択されたもののパーティクルにノイズを加えることにより、モデルの形状の新たな組を予測するステップと、モデルの形状の新たな組の各々のエッジの組と、エッジ画素の組との間で所定の誤差尺度を計算するステップと、形状の新たな組の各形状に、計算するステップで計算された関連の誤差尺度に従って重みを割当てるステップと、それぞれの重みで重み付けされた新たな形状の総和を計算することによって、新たなモデルを計算するステップとを含む。 The above model may be described by a plurality of shapes that the model can take and the probabilities associated with each. The updating step includes the step of predicting a new set of model shapes by adding noise to the selected particles of the model shape probability distribution function, and each of the new set of model shapes. Calculating a predetermined error measure between the set of edges and the set of edge pixels, and assigning a weight to each shape of the new set of shapes according to the associated error measure calculated in the calculating step; Calculating a new model by calculating the sum of the new shapes weighted by the respective weights.
この発明の別の局面は、コンピュータ上で実行されると、上述の方法のいずれかの全てのステップをコンピュータに実行させるコンピュータプログラムに関するものである。 Another aspect of the invention relates to a computer program that, when executed on a computer, causes the computer to execute all the steps of any of the methods described above.
1.はじめに
この実施例では、ベイズのフレームワークによるパーティクルフィルタリングを用いて現在の形状の確率分布を計算する。濃縮アルゴリズムとしても知られるパーティクルフィルタリングは、非特許文献4で紹介されているように、一般に輪郭トラッキングのために(非特許文献1、5、6)、特に非特許文献2及び7において示されるように人体のモーションキャプチャのために、適用可能な頑健な技術であることがわかっている。
1. 1. Introduction In this embodiment, the current shape probability distribution is calculated using particle filtering by the Bayesian framework. Particle filtering, also known as a concentration algorithm, is generally used for contour tracking (Non-Patent Documents 1, 5, 6), especially as shown in Non-Patent
視覚的トラッキングにおいて、パーティクルフィルタは以下のように動作する。xtをt番目のフレームの状態ベクトルとし、ytを観測ベクトルとし、Yt={y1…yt}をytの履歴とする。状態の推定は、確率密度分布(pdf)p(xt|Yt)を推定することとして定式化される。パーティクルフィルタでは、p(xt|Yt)は以下で示すディスクリートなサンプルのいくつかの組として表される。 In visual tracking, the particle filter operates as follows. The x t is the state vector of the t-th frame, and the observation vector y t, the Y t = {y 1 ... y t} and the history of y t. The state estimation is formulated as estimating the probability density distribution (pdf) p (x t | Y t ). In a particle filter, p (x t | Y t ) is represented as several sets of discrete samples:
パーティクルフィルタでは、各サンプルは推定ステップと観測ステップとで更新される。推定するステップでは、サンプルst−1 ζが、重みπt−1 (i)に比例する確率に従って、以下の組から選択される。 In the particle filter, each sample is updated at the estimation step and the observation step. In the estimating step, the sample s t-1 ζ is selected from the following set according to the probability proportional to the weight π t-1 (i) .
パーティクルフィルタでは、探索空間が大きくなるとより多くのパーティクルを必要とする。この問題に対処する1つの戦略は、被験者の動きの範囲を、例えば被験者が歩いていると仮定することによって限定し、それによって形状空間の大きさを減じることである。一般に、このようなアプローチはいずれも、結果として得られるトラッカの一般性を大いに限定する。このため、このアプローチは好ましくない。別の方策は、分解、すなわち階層的な探索を行なうことによって形状空間の大きさと探索空間のサイズとの線形関係を仮定することである。このような方法の短所は、ある種の動き、例えば体軸周りの回転等では、体の全ての部分を同時に観察することによって得られるような重要な情報が失われることである。 Particle filters require more particles as the search space becomes larger. One strategy to address this problem is to limit the range of movement of the subject, for example by assuming that the subject is walking, thereby reducing the size of the shape space. In general, any such approach greatly limits the generality of the resulting tracker. For this reason, this approach is not preferred. Another strategy is to assume a linear relationship between the size of the shape space and the size of the search space by performing a decomposition, ie a hierarchical search. The disadvantage of such a method is that certain movements, such as rotation around the body axis, lose important information that can be obtained by observing all parts of the body simultaneously.
パーティクルの数を減じる一般的かつ有効な方法は、非特許文献2、3で提示されたシミュレーテッドアニーリングの考え方である。しかし、最終的に得られたシステムは部屋の角の固定位置で3台のカメラを用いるものであり、1GHzのクロック信号で動作する最先端のプロセッサでも1フレームを処理するのに平均で15秒を要する[非特許文献3]。
A general and effective method for reducing the number of particles is the concept of simulated annealing presented in
この実施例は高度に最適化された尤度関数を備えた人体のモーションキャプチャシステムに関するものであり、これは従来の人体のモーションキャプチャシステムのいずれに対しても2倍から3倍の速度を達成する。この実施例は高速キャプチャリングに寄与するパーティクルフィルタによるエッジ検出に基づくものである。このアプローチは上述の戦略等、他の最適化のいずれに対しても独立して適用可能である。 This embodiment relates to a human motion capture system with a highly optimized likelihood function, which achieves two to three times the speed of any conventional human motion capture system. To do. This embodiment is based on edge detection by a particle filter that contributes to high-speed capturing. This approach can be applied independently to any other optimization, such as the strategy described above.
さらに、この実施例で採用されるアルゴリズムは直線エッジでモデル化され得るいかなる種類の対象物にも利用可能であり、またわずかな修正を加えれば楕円等の他の基本要素を組入れることもできる。このアプローチの唯一の制限は、これが60Hz(またはそれ以上)の高フレームレートに依存することである。しかし、以下で示すように、リアルタイムの人体のモーションキャプチャではいずれにせよ高フレームレートが必要とされるので、これは問題にならない。 Furthermore, the algorithm employed in this embodiment can be used for any type of object that can be modeled with straight edges, and other basic elements such as ellipses can be incorporated with minor modifications. The only limitation of this approach is that it depends on a high frame rate of 60 Hz (or higher). However, as shown below, this is not a problem because real-time human motion capture requires high frame rates anyway.
2.基本アルゴリズム
人体モデルの形状sの投影エッジと現在の入力画像zとが与えられると、人体のモーションキャプチャシステムのエッジの手がかりのための尤度関数p(z|s)は、投影されたエッジの組を与える形状が適切な形状である尤度、すなわちエッジ画像に最も合致する尤度を計算する。ここで人体モデルの形状のエッジを「投影する」とは、エッジを予め定められた画像平面に投影し、画像平面上の投影されたエッジの画像の座標を計算することを意味する。
2. Basic Algorithm Given the projected edge of the human body model shape s and the current input image z, the likelihood function p (z | s) for the cue of the human motion capture system edge is given by The likelihood that the shape giving the set is an appropriate shape, that is, the likelihood that best matches the edge image is calculated. Here, “projecting” the edge of the shape of the human body model means that the edge is projected onto a predetermined image plane, and the coordinates of the image of the projected edge on the image plane are calculated.
図1を参照して、基本的な技法は、投影されたエッジ20の全体にわたり、一定の距離Δをあけて探索点を決定し、それぞれの探索点から、投影されたエッジ20に直交する(両側の)方向で、固定された探索距離δ内の高コントラスト特徴点30を探索すること、すなわちカメラ画像中でエッジ画素を見出すことである[非特許文献4]。この目的のために、カメラ画像は通常、階調の勾配を用いたエッジ検出器により前処理され、画像エッジ22が生成される。
Referring to FIG. 1, the basic technique is to determine a search point at a fixed distance Δ over the entire projected
尤度は、二乗誤差合計(Sum of Squared Difference:SSD)に基づいて計算される。表記の便宜上、全てのエッジはM=L/Δ個の範囲に分けられて1つの連続したスプライン内に含まれるものとする。ただし、Lは現在の画像中の投影されたエッジの全ての長さの合計を表す。m番目の点についてエッジとしての特徴が見出された距離をdmとし、μは、エッジとしての特徴を見出すことができない場合に適用される一定の最大誤差を表す。従って、尤度関数は以下の式で与えられる。 The likelihood is calculated based on a sum of squared errors (SSD). For convenience of description, all edges are divided into M = L / Δ ranges and included in one continuous spline. Where L represents the sum of all the lengths of the projected edges in the current image. a distance characteristic of an edge has been found and d m for m-th point, mu denotes a constant maximum error to be applied when it is not possible to find a characteristic of the edge. Therefore, the likelihood function is given by the following equation.
キャニーのエッジ検出器(Canny Edge Detector)等の高レベルエッジ検出器は、一般に、1画素幅の線を生成するので、ある特定の画素がエッジの一部であるかどうかのテストを複雑にするか、又は不適当にする。ドイチャーは非特許文献2で、階調の勾配を用いたエッジ検出マスクを用い、この結果をしきい値処理してスプリアスエッジを除去し、これに続いてガウス平滑化マスクを適用して画素マップを作成することを提案しており、このマップでは各画素値はそのエッジにどの程度近接しているかに関連づけられている。こうすることによって、画素があるエッジの一部であるか否かのテストと、そのエッジへの近接度の計算とが1回の動作で解決できる。最大値を見出すためとループ管理のために必要とされるさらに3つの動作を考慮すると、基本的動作の数は以下の式で表される。
High level edge detectors, such as Canny Edge Detector, typically generate a one pixel wide line, complicating the test of whether a particular pixel is part of an edge. Or inappropriate. Deutscher is a
この実施の形態の戦略は、処理ステップをもう一歩進めて、対象エッジの幾何学的な表現を抽出することである。このために、この実施の形態では、オン−ザ−フライで(すぐさま)のエッジ検出という基本的な考え方を用いる。これは、人体モデルによって与えられる情報をエッジ検出アルゴリズムに組込むというものである。主な違いは、この実施の形態ではパーティクルの各々に対してアルゴリズムを行なうのではなく、これを画像の前処理に用いることである。その後このアルゴリズムは、人体モデルの投影されたエッジに対応する点の各組に当てはまる線分(回帰直線)を求めることで拡張される。
少なくとも30Hz、好ましくは60Hzまたはそれ以上の高フレームレートで画像が獲得されると仮定すれば、このアプローチはかなり高速であるばかりか、オン−ザ−フライのエッジ検出より良好な結果を達成する。一見したところ、これは驚くべきことであるように思われる。というのも、理論的には、オン−ザ−フライのエッジ検出は、エッジを検出するために人体モデルの予測された形状を用いて観測を行なうために、予測を用いることによる最強の情報基盤を有するからである。しかし、欠点は、比較的大きな動きの予測ではエッジの同定誤りにつながるおそれがあることである。フレームレートがこの発明の新たなアプローチに十分なほど高くなければ、このアプローチはうまくいかない。一般的な低フレームレートの効果はセクション4で論じる。 Assuming that images are acquired at a high frame rate of at least 30 Hz, preferably 60 Hz or higher, this approach is not only significantly faster, but also achieves better results than on-the-fly edge detection. At first glance, this seems surprising. Theoretically, on-the-fly edge detection is the strongest information infrastructure by using predictions to make observations using the predicted shape of the human model to detect edges. It is because it has. However, the drawback is that relatively large motion predictions can lead to edge identification errors. If the frame rate is not high enough for the new approach of this invention, this approach will not work. General low frame rate effects are discussed in Section 4.
3.1 直線の当てはめ
人体モデルをエッジ検出に組込む主な利点は以下の2つである。
3.1 Line fitting The main advantages of incorporating a human body model into edge detection are the following two.
・階調の勾配を、予測されるエッジと垂直に計算できる。 -The gradient of the tone can be calculated perpendicular to the predicted edge.
・検出されたエッジ画素と投影されたエッジとのマッピングが得られる。 A mapping between the detected edge pixels and the projected edges is obtained.
検出された画素と投影されたエッジとのマッピングが、人体モデルの投影されたエッジの各々についてわかっているので、アルゴリズムで特定された画素の組に対して回帰直線を見出すことができる。この組に対して最小二乗という意味で最適回帰直線を求めた後、この組の全ての画素について反復処理し、計算された直線までのそれらの距離を予め規定されたしきい値と比較することによって、アウトライアー(異常値)をフィルタリングによって除去する。最終的な結果はこのフィルタリングされた画素の組に対する回帰曲線を求めることで計算される。 Since the mapping of detected pixels to projected edges is known for each projected edge of the human body model, a regression line can be found for the set of pixels specified by the algorithm. After obtaining an optimal regression line in the sense of least squares for this set, iterate over all pixels in this set and compare their distance to the calculated line with a predefined threshold The outlier (abnormal value) is removed by filtering. The final result is calculated by determining a regression curve for this filtered set of pixels.
この実施の形態では、画像の階調の勾配は予測されるエッジと垂直な方向で計算される。しかしながら、この方向は、必ずしも予測された方向と垂直でなくてもよい。高コントラストの特徴点の探索は、予測されたエッジと交差する方向に行なえばよい。 In this embodiment, the gradient of the image gradation is calculated in a direction perpendicular to the predicted edge. However, this direction is not necessarily perpendicular to the predicted direction. The search for feature points with high contrast may be performed in a direction intersecting with the predicted edge.
3.2 誤差尺度
直線の対の組が得られた後、尤度の計算のために誤差尺度を定義することになる。理論的には、2Dで2つの直線間の距離を定義できるのは、2直線が平行の場合のみである。しかし、図2で示すように、線Eと線分/AB40又は42(ここで「/」は線分を表すものとし、本来文字ABの上に表記すべきものである。)との尺度を以下のように定義できる。基本的アルゴリズムによって計算される誤差尺度は、ディスクリートな点での観測値に基づいて計算された、直線Eと線分/AB40又は42との平均距離である。この平均距離は、図2に例示されるように、総面積を長さ/A’B’で除したものに等しい。従って、誤差尺度は以下のように計算される。
3.2 Error measure After a set of straight line pairs is obtained, an error measure will be defined for the likelihood calculation. Theoretically, the distance between two straight lines can be defined in 2D only when the two straight lines are parallel. However, as shown in FIG. 2, the scale of the line E and the line segment /
図3は誤った形状に誤差尺度を適用した例を示す。点A1とB1との間、及び点A2とB2との間の白の点は、検出されたエッジ画素を特定し、線60及び62は回帰直線を示し、線50及び52は人体モデルから投影されたエッジを示す。入力画像はガウスカーネルによる3×3平滑フィルタで平滑化されている。
FIG. 3 shows an example in which an error measure is applied to an incorrect shape. White points between points A 1 and B 1 and between points A 2 and B 2 identify detected edge pixels, lines 60 and 62 represent regression lines, and
上述のエッジ検出は、ブロッブ(かたまり状の画像)のエッジ検出に拡張可能である。ブロッブモデルを楕円または円で表す場合、探索点は楕円線上の一定距離Δだけ離れた点として決定され、各探索点において、投影された楕円線の両側のある距離δ内で画像エッジが探索される。その後、検出された画像エッジ点に楕円を当てはめることができる。この場合、誤差は楕円の重心間の距離によって測定できる。 The edge detection described above can be extended to the edge detection of a blob (a clump-like image). When the blob model is represented by an ellipse or circle, the search point is determined as a point separated by a certain distance Δ on the elliptic line, and at each search point, the image edge is searched within a distance δ on both sides of the projected elliptic line. The Thereafter, an ellipse can be applied to the detected image edge points. In this case, the error can be measured by the distance between the centroids of the ellipse.
3.3 有効性
前処理ステップが成功し、エッジが正確に抽出されれば、本形態の新たな誤差尺度はより正確なので、より有効なアルゴリズムが得られる。エッジを成功裏に抽出するためには、以下の2つの条件が満たされなければならない。
3.3 Effectiveness If the preprocessing step is successful and the edges are extracted correctly, the new error measure of the present embodiment is more accurate, so a more effective algorithm is obtained. In order to successfully extract an edge, the following two conditions must be satisfied:
・画像中のエッジはほぼ直線でなければならない。 • The edges in the image must be almost straight.
・フレームレートは十分高くなければならない。 • The frame rate must be high enough.
通常の着衣を仮定すれば、第一の条件が満たされることは、発明者らのテストで示された。この仮定は適切なものである。なぜなら、基本アルゴリズムでさえ、あまりにゆったりとした着衣ではトラッカの性能が悪くなるからである。テストでは、30Hzのフレームレートで十分であり、これで現実的な速度の動きがキャプチャされる。フレームレートの問題は、セクション4で詳細に検討する。この実施の形態で採用される新たなアルゴリズムがより効果的である理由は以下のように説明できる。 Assuming normal clothing, the inventors' tests have shown that the first condition is met. This assumption is appropriate. This is because even the basic algorithm degrades the tracker's performance if the clothes are too loose. For testing, a frame rate of 30 Hz is sufficient, and this captures realistic speed movements. Frame rate issues are discussed in detail in Section 4. The reason why the new algorithm adopted in this embodiment is more effective can be explained as follows.
・直線を抽出するのでノイズが抑制される。 ・ Since straight lines are extracted, noise is suppressed.
・直線に基づいて誤差尺度を計算するので、完璧でないエッジであっても正確な尤度が計算される。 Since the error measure is calculated based on the straight line, an accurate likelihood is calculated even for a non-perfect edge.
・フレームレートに比例する速度のみを許すことで、誤ったエッジの検出が避けられる。 • By detecting only the speed proportional to the frame rate, false edge detection can be avoided.
これらの考察は、実際に正しいことが検証された。テストでは、この実施の形態で採用された新たなアルゴリズムの性能が基本アルゴリズムより劣ることは決してなく、実際のところは、多くの場合より良好な結果を達成した。 These considerations were verified to be correct in practice. In testing, the performance of the new algorithm employed in this embodiment was never inferior to that of the basic algorithm, and in fact achieved better results in many cases.
3.4 効率性
このセクションでは、基本アルゴリズムの効率を新たなアルゴリズムのそれと理論上で比較する。この考察は、セクション6で提示するテスト結果で検証する。最大解像度は、Δ=1を選択することで達成される。以下の考察では、δ=15を選択する。投影された全エッジの長さの合計は、ここで提示された画像シーケンスではL≒1500(画素)である。
3.4 Efficiency This section theoretically compares the efficiency of the basic algorithm with that of the new algorithm. This consideration is verified by the test results presented in Section 6. Maximum resolution is achieved by selecting Δ = 1. In the following discussion, δ = 15 is selected. The sum of the lengths of all projected edges is L≈1500 (pixels) in the image sequence presented here.
基本アルゴリズムでは、セクション2で概要を述べた計算を、フレームレートfで各フレームの各パーティクルについて行なわなければならない。これは、N個のパーティクルではNfT(1500)=1.8・105Nf回の演算を、毎秒行なうことを意味する。計算に要する作業については、画像の前処理は考慮していない。なぜなら、画像処理は新たなアルゴリズムでも同様に行なわなければならないからである。新たに必要となったエッジ抽出の作業は、セクション6の結果で検証されるように、無視できるものである。新たなアルゴリズムでは、各パーティクルに対し、式(5)を評価する必要がある。パーティクル1個当たりの演算数は約30であり、そのほとんどが浮動小数点演算である。総計算作業量は
T’≒ 90 (7)
個の基本演算に相当するものであり、これは毎秒60Nfの作業量を意味する。基本アルゴリズムで必要とされる基本演算数と比較すると、検討された例ではこれはT(1500)/T’=2・103倍の高速化を意味する。しかし、システム全体では、実際の高速化はこれを下回る。なぜなら、この最適化された実現例では、人体モデルの運動と結果として得られる2Dの輪郭との計算もまた、各パーティクルに対して行なう必要があり、これがボトルネックとなるからである。尤度関数の計算とシステムとの高速化の実際については、セクション6で示す。
In the basic algorithm, the calculations outlined in
This corresponds to a basic operation, which means a work amount of 60 Nf per second. Compared to the number of basic operations required by the basic algorithm, this means a speed increase of T (1500) / T ′ = 2 · 10 3 times in the studied example. However, the actual speedup is below this for the entire system. This is because in this optimized implementation, the calculation of the motion of the human body model and the resulting 2D contour must also be performed on each particle, which becomes a bottleneck. The calculation of the likelihood function and the actual speeding up of the system are shown in section 6.
4.低フレームレートの影響
入力画像シーケンスのフレームレートが低いと、どのようなマーカ無しの人体のモーションキャプチャシステムにとっても不利となる。以下では、同じ動きを第1のフレームレートf1と、f2<f1である第2のフレームレートf2でキャプチャし、この結果、画像シーケンスV1及びV2がそれぞれ得られたと仮定する。この場合、V2での連続画像の関節部の各々での角度変化は、V1と比べてf1/f2倍だけ大きい。総探索空間はDOFの数dによって指数関数的に増大するので、探索空間のサイズs(V1)とs(V2)との関係は以下で与えられる。
4). Effect of low frame rate The low frame rate of the input image sequence is disadvantageous for any markerless human motion capture system. In the following, it is assumed that the same motion is captured at a first frame rate f 1 and a second frame rate f 2 where f 2 <f 1 , resulting in image sequences V 1 and V 2 , respectively. . In this case, the angle change at each of the joint portions of the continuous image at V 2 is larger by f 1 / f 2 times than V 1 . Since the total search space increases exponentially with the number of DOFs d, the relationship between the search space size s (V 1 ) and s (V 2 ) is given by:
高フレームレートのもう1つの大きな利点は、誤ったエッジを検出する危険性が当然のことながら低くなることである。一般に、コンピュータビジョンでは、より小さい探索空間は同時に2つの長所を持つ。すなわち、より高い「効率」と、より高い「頑健性」とである。例えば、立体視の場合にエピポーラジオメトリが相関処理をかなり高速化するだけでなく、誤った対応の確率を減じるのと同様、人体のモーションキャプチャシステムでも、高フレームレートの結果として得られる、より小さい探索空間は、誤った形状の確率を減じるとともに、より頑健なシステムを結果としてもたらす。 Another major advantage of high frame rate is that the risk of detecting false edges is naturally reduced. In general, in computer vision, a smaller search space has two advantages at the same time. That is, higher “efficiency” and higher “robustness”. For example, epipolar geometry not only significantly speeds up the correlation process in the case of stereoscopic viewing, but also reduces the probability of false correspondences, as well as the smaller results that result from high frame rates in human motion capture systems. The search space reduces the probability of incorrect shapes and results in a more robust system.
人体のモーションキャプチャシステムのエッジの手がかりに関する良い目安は、連続した画像間での、体部品の主軸に対し直交する方向の距離が、この体部品の幅の半分以下である、というものである。そうでないと、形状を誤る確率が比較的高くなる。なぜなら、体部品の2個のエッジのうち1個がすでに、間違ったエッジと対応付けられやすくなっているからである。この実施の形態で用いられる最適化されたアルゴリズムでは、2倍から3倍の高速化が達成されるが、エッジは予測とは「独立に」抽出され、そのため、この条件が満たされることが厳格に求められる。結論として、フレームレートが高ければ、より効率的で、より精度が高く、より頑健なシステムが得られると言え、その差は単に線形の倍率f1/f2だけでは説明できない。 A good guideline for edge cues in the human body motion capture system is that the distance between successive images in a direction perpendicular to the principal axis of the body part is less than half the width of the body part. Otherwise, the probability of incorrect shape is relatively high. This is because one of the two edges of the body part is already easily associated with the wrong edge. The optimized algorithm used in this embodiment achieves a speed increase of 2 to 3 times, but the edges are extracted “independently” from the prediction, so that this condition is strictly met. Is required. In conclusion, a higher frame rate will result in a more efficient, more accurate and more robust system, the difference cannot be explained simply by the linear scale factor f 1 / f 2 .
5.実現例
5.1 構造
図4はこの発明の一実施の形態に従った人体のモーションキャプチャ(Human Motion Capture:HMC)システム124を示す。図4を参照して、HMCシステム124は、ロボットの頭部に比較的短い距離をおいて装着された2台のカメラからの2つの画像120及び122を受け、最も確からしい人体モデルのパラメータ126を出力する。2台のカメラを使うこと、すなわち画像対のシーケンスを処理することで、リアルな3Dの動きを抽出することが可能である。
5. Implementation 5.1 Structure FIG. 4 shows a human motion capture (HMC)
図4を参照して、HMCシステム124は、画像120及び122を平滑化するとともにノイズを除去するための一対の3×3ガウス平滑化モジュール140と、エッジ(図3に示すエッジに当てはまる線のA及びBの対)及び肌の色の重心を抽出し、着衣の色のマップと深度計算マップとを計算するための一対の前処理モジュール142と、前処理モジュール142によって抽出され計算された情報に基づく動力学的モデルを用いて、前回の確率密度関数のパーティクルにノイズを加えることにより、新たな人体モデルの形状を予測するための新形状組予測モジュール144と、形状を、前処理モジュール142から出力された情報と比較することにより、右と左のカメラにつきそれぞれ予測された形状siの各々について、確率密度関数{(si,πi)}を計算する、一対の尤度計算モジュール146とを含む。
Referring to FIG. 4, the
HMCシステム124はさらに、尤度計算モジュール146によって計算された確率密度関数{(si,πi)}を記憶するためのPD(確率密度)記憶部148と、人体モデルの平均形状
The
図5は前処理モジュール142の詳細を示す。図5を参照して、前処理モジュール142は、形状siの各々について、カメラ画像120及び122内において、人体モデルから投影されたエッジから距離δ以内でエッジ画素を見出し、これらのエッジ画素に当てはまる線分を求め、この線分の2つの端点に関する情報を出力するためのエッジ抽出モジュール160と、各画像内で、予め定められた肌の色を持つブロッブの座標の重心を抽出するための肌色重心抽出モジュール162と、動きをキャプチャしようとするユーザの着衣の色のマップを計算するための着衣色マップ計算モジュール164と、2つの画像120及び122に基づいて、画像の深度マップを計算するための深度マップ計算モジュール168とを含む。これらのモジュール160、162、164及び168の出力は全て、新形状組予測モジュール144に与えられる。
FIG. 5 shows details of the
図6は図5に示すエッジ抽出モジュール160を実現するコンピュータプログラムの制御構造を示す。図6を参照して、ステップ180で、人体モデルの平均形状から投影された全てのエッジについて、ステップ182〜190が繰返される。これらのステップが全てのエッジについて繰返されたあと、制御はこのルーチンから出る。
FIG. 6 shows a control structure of a computer program for realizing the
ステップ182で、処理すべき投影エッジの全体にわたり、一定の距離Δをあけて探索点が決定される。ステップ184で、ステップ186が全ての探索点について繰返される。ステップ186では、探索点を起点とし、投影されたエッジに直交する方向(の両方)の一定の探索距離δ内で、高コントラスト特徴点を探索する。この動作により、カメラ画像中のエッジ画素が見出されることとなる。
In
ステップ186が全ての探索点について繰返されると、制御はステップ188に進む。ステップ188では、ステップ186で見出されたエッジ点に当てはまる線分(回帰直線)を求める。ステップ190で、この線分の2つの代表点A及びB(図3を参照)が決定される。
When
5.2 動作
この実施例のHMCシステム124は以下のように動作する。図4を参照して、2つの画像120及び122が与えられると、ガウス平滑化モジュール140が各画像を平滑化し、ノイズを除去する。このように処理された画像は前処理モジュール142に与えられる。
5.2 Operation The
前処理モジュール142では、図5を参照して、先のフレームサイクルで得られた、人人体モデルの平均形状
In the
同様に、肌色重心抽出モジュール162は画像中で肌の色を持つブロッブの重心を出力し、着衣色マップ計算モジュール164は予め定められた着衣の色で画素のマップを計算し、深度マップ計算モジュール168は両方のカメラの画像から、深度マップを計算する。これらのモジュールの出力は全て、新形状組予測モジュール144に与えられる。
Similarly, the skin color
新形状組予測モジュール144は、PD記憶部148に記憶された最後の確率密度関数{(si,πi)}のパーティクルにノイズを加えることにより、動力学的モデルを用いて新たな人体モデル形状の組を予測する。この新たな人体モデル形状の組は尤度計算モジュール146に与えられる。
The new shape set prediction module 144 adds a noise to the particles of the last probability density function {(s i , π i )} stored in the
予測された形状の各々について、尤度計算モジュール146は前処理モジュール142から出力された情報と、対象となるモデル形状から投影された画像とを比較し、エッジ、肌の色重心、着衣色マップ、及び深度マップの誤差に基づいて確率を計算し、その後これらの確率を乗ずることにより、対象となるモデル形状の全体の確率を計算し、形状siの各々について、確率密度関数{(si,πi)}を出力する。
For each predicted shape, the
PD記憶部148はこの確率密度変数を記憶する。
The
平均形状計算モジュール150は、平均形状
The average
6.結果
本発明者らは、この実施例の新たなアルゴリズムの効率を、基本アルゴリズムを利用したシステム及びオン−ザ−フライのエッジ検出に基づくアルゴリズムと比較した。結果を表1に示す。
6). Results The inventors compared the efficiency of the new algorithm of this example with a system utilizing a basic algorithm and an algorithm based on on-the-fly edge detection. The results are shown in Table 1.
60Hzでキャプチャされたビデオシーケンスのテストでは、この実施の形態で利用されたアルゴリズムは基本アルゴリズムを利用したシステム及びオン−ザ−フライのエッジ検出に基づくアプローチに比べ、さらに良好な結果を達成した。すなわち、この実施の形態で計算された尤度はより適切であると思われた。これを理論で証明するのは困難である。しかし、結果として得られた、計算された平均形状を投影したものを含むビデオ画像は、この有効性を明らかに示している。処理された8個のフレームのシーケンスを図7に示す。 In testing video sequences captured at 60 Hz, the algorithm used in this embodiment achieved even better results than the system based on the basic algorithm and an approach based on on-the-fly edge detection. That is, the likelihood calculated in this embodiment appeared to be more appropriate. It is difficult to prove this by theory. However, the resulting video image containing a projection of the calculated average shape clearly shows this effectiveness. The sequence of 8 frames processed is shown in FIG.
図7は60Hzでキャプチャされた8枚の画像のシーケンスを例示する。左から右へ、1列目が画像1−4、2列目が画像5−8である。人体モデルの計算された平均形状の投影されたエッジが白のエッジで表示されている。30Hzでキャプチャされたビデオシーケンスも、このシステムがこのような低フレームレートでも動作することを示した。 FIG. 7 illustrates a sequence of 8 images captured at 60 Hz. From left to right, the first column is image 1-4, and the second column is image 5-8. The projected edge of the calculated average shape of the human body model is displayed as a white edge. Video sequences captured at 30 Hz have also shown that the system works at such a low frame rate.
7.結論
この明細書で、発明者らは、パーティクルフィルタを用いた、エッジトラキングのための、高度に最適化された尤度関数を備えた人体のモーションキャプチャシステムを提示した。用いられたアルゴリズムを詳細に説明し、効率と有効性とを検討し、通常のアプローチと理論的に比較し、結果を実際に検証した。この実施の形態で用いられるアルゴリズムの唯一の付加的な条件である、少なくとも30Hz、好ましくは60Hz以上という高いカメラフレームレートは、制限というよりはむしろ、いかなるリアルタイムの人間モーションキャプチャシステムでも、理にかなった選択というべきであろう。
7). CONCLUSION In this document, the inventors have presented a human motion capture system with a highly optimized likelihood function for edge tracking using a particle filter. The algorithm used was described in detail, the efficiency and effectiveness were examined, theoretically compared with the usual approach, and the results were actually verified. The only additional requirement of the algorithm used in this embodiment, a high camera frame rate of at least 30 Hz, preferably 60 Hz or more, makes sense for any real-time human motion capture system rather than a limitation. It should be called selection.
セクション6で示したように、この実施の形態で用いられるアルゴリズムでは、尤度関数を通常のアプローチに比べ2000倍も速く、オン−ザ−フライのエッジ検出に基づくアプローチに比べ3000倍も速く計算する。ここで、システム全体の有効な高速化は通常のアプローチに比べ約130倍であると述べた。この実施の形態で利用した尤度関数では、さらなる高速化のためのボトルネックは人体モデルとなる。 As shown in Section 6, the algorithm used in this embodiment computes the likelihood function 2000 times faster than the normal approach and 3000 times faster than the approach based on on-the-fly edge detection. To do. Here, it is stated that the effective speed-up of the entire system is about 130 times that of the normal approach. In the likelihood function used in this embodiment, the bottleneck for further speeding up is a human body model.
本発明者らが知る限りでは、この実施の形態で用いたアルゴリズムによってはじめて、マーカ無しでリアルタイムの人体のモーションキャプチャが実現可能なものとなった。このアルゴリズムは、ヒューマノイドロボットの能動型の頭部に適用するための人体のモーションキャプチャシステムに重要な役割を果たすであろう。 As far as the present inventors know, only by the algorithm used in this embodiment, real-time human body motion capture can be realized without markers. This algorithm will play an important role in the human body motion capture system for application to the active head of humanoid robot.
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味および範囲内でのすべての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim in the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are intended. Including.
50及び52 投影されたエッジ
60及び62 回帰直線
120及び122 画像
124 HMCシステム
126 人体モデルパラメータ
140 ガウス平滑化モジュール
142 前処理モジュール
144 新形状組予測モジュール
146 尤度計算モジュール
148 PD記憶部
150 平均形状計算モジュール
152 平均形状記憶部
160 エッジ抽出モジュール
162 肌色重心抽出モジュール
164 着衣色マップ計算モジュール
168 深度マップ計算モジュール
50 and 52 Projected
Claims (6)
前記対象物の形状を記述するモデルを準備するステップと、
前記対象物のモデルのエッジを前記画像の画像平面に投影するステップと、
前記画像平面上に投影されたエッジの各々の周囲の予め定められた区域内で前記画像のエッジ画素の組を探索するステップと、
前記投影されたエッジの各々のエッジ画素の組について線分を当てはめるステップと、
前記投影されたエッジの各々について、前記線分を規定する所定のパラメータの組でその線分を表すステップと、
前記線分を用いて対象物のモデルを更新するステップとを含む、エッジトラッキング方法。 A method of tracking edges in a series of images of an object,
Preparing a model describing the shape of the object;
Projecting an edge of the model of the object onto an image plane of the image;
Searching for a set of edge pixels of the image in a predetermined area around each of the edges projected onto the image plane;
Fitting a line segment for each set of edge pixels of the projected edge;
For each projected edge, representing the line segment with a set of predetermined parameters defining the line segment;
Updating an object model using the line segment.
前記投影されたエッジの各々について探索点の組を決定するステップと、
前記投影されたエッジの各々の前記探索点の各々について、投影されたエッジの両側において、前記投影されたエッジと交差する方向の予め定められた距離内に存在する、画像の高コントラスト点を探索するステップとを含む、請求項1に記載の方法。 The searching step comprises:
Determining a set of search points for each of the projected edges;
For each of the search points for each of the projected edges, search for a high contrast point in the image that is within a predetermined distance in a direction intersecting the projected edge on both sides of the projected edge. The method of claim 1 comprising the steps of:
前記投影されたエッジの各々について、一定の距離をあけて前記探索点の組を決定するステップを含む、請求項2または請求項3に記載の方法。 Said determining step comprises:
4. A method according to claim 2 or claim 3, comprising determining the set of search points for each of the projected edges at a certain distance.
前記モデルの形状の確率分布関数のうち選択されたもののパーティクルにノイズを加えることにより、前記モデルの形状の新たな組を予測するステップと、
前記モデルの形状の新たな組の各々のエッジの組と、前記エッジ画素の組との間で所定の誤差尺度を計算するステップと、
形状の前記新たな組の各形状に、前記計算するステップで計算された関連の誤差尺度に従って重みを割当てるステップと、
それぞれの重みで重み付けされた新たな形状の総和を計算することによって、新たなモデルを計算するステップとを含む、請求項1〜請求項4のいずれかに記載の方法。 The model is described by a plurality of shapes that can be taken by the model and the probabilities associated with each of the shapes, and the updating step includes adding noise to particles of a selected probability distribution function of the model shape. Predicting a new set of model shapes;
Calculating a predetermined error measure between each edge set of the new set of shape of the model and the set of edge pixels;
Assigning a weight to each shape of the new set of shapes according to the associated error measure calculated in the calculating step;
Calculating a new model by calculating a sum of new shapes weighted with respective weights.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005100997A JP4836065B2 (en) | 2005-03-31 | 2005-03-31 | Edge tracking method and computer program therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005100997A JP4836065B2 (en) | 2005-03-31 | 2005-03-31 | Edge tracking method and computer program therefor |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2006285358A true JP2006285358A (en) | 2006-10-19 |
JP2006285358A5 JP2006285358A5 (en) | 2008-04-17 |
JP4836065B2 JP4836065B2 (en) | 2011-12-14 |
Family
ID=37407260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005100997A Expired - Fee Related JP4836065B2 (en) | 2005-03-31 | 2005-03-31 | Edge tracking method and computer program therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4836065B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009034709A1 (en) | 2007-09-11 | 2009-03-19 | Panasonic Corporation | Image processing device and image processing method |
WO2009113231A1 (en) * | 2008-03-14 | 2009-09-17 | 株式会社ソニー・コンピュータエンタテインメント | Image processing device and image processing method |
WO2015104969A1 (en) * | 2014-01-09 | 2015-07-16 | ソニー株式会社 | Video signal processing device, video signal processing method, and camera device |
JP2015212861A (en) * | 2014-05-01 | 2015-11-26 | 日本電信電話株式会社 | Multiple joint object tracking device, multiple joint object tracking method, and program |
CN110073410A (en) * | 2016-12-15 | 2019-07-30 | Trw有限公司 | The method for tracking the object in scene |
CN115442521A (en) * | 2022-08-08 | 2022-12-06 | 杭州华橙软件技术有限公司 | Image pickup control method, related device, camera and storage medium |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005973A (en) * | 1999-04-20 | 2001-01-12 | Atr Media Integration & Communications Res Lab | Method and device for estimating three-dimensional posture of person by color image |
JP2001266159A (en) * | 2000-03-17 | 2001-09-28 | Toshiba Corp | Method and device for generating object domain information, and method and device for generating approximate polygon |
JP2003216951A (en) * | 2001-12-03 | 2003-07-31 | Microsoft Corp | Method and system for automatic detection and tracking of multiple individuals using multiple cues |
-
2005
- 2005-03-31 JP JP2005100997A patent/JP4836065B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001005973A (en) * | 1999-04-20 | 2001-01-12 | Atr Media Integration & Communications Res Lab | Method and device for estimating three-dimensional posture of person by color image |
JP2001266159A (en) * | 2000-03-17 | 2001-09-28 | Toshiba Corp | Method and device for generating object domain information, and method and device for generating approximate polygon |
JP2003216951A (en) * | 2001-12-03 | 2003-07-31 | Microsoft Corp | Method and system for automatic detection and tracking of multiple individuals using multiple cues |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009034709A1 (en) | 2007-09-11 | 2009-03-19 | Panasonic Corporation | Image processing device and image processing method |
WO2009113231A1 (en) * | 2008-03-14 | 2009-09-17 | 株式会社ソニー・コンピュータエンタテインメント | Image processing device and image processing method |
JPWO2009113231A1 (en) * | 2008-03-14 | 2011-07-21 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
JP4756660B2 (en) * | 2008-03-14 | 2011-08-24 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
US8331619B2 (en) | 2008-03-14 | 2012-12-11 | Sony Computer Entertainment Inc. | Image processing apparatus and image processing method |
US10469729B2 (en) | 2014-01-09 | 2019-11-05 | Sony Corporation | Video signal processing device, video signal processing method, and camera device |
JPWO2015104969A1 (en) * | 2014-01-09 | 2017-03-23 | ソニー株式会社 | Video signal processing apparatus, video signal processing method, and camera apparatus |
WO2015104969A1 (en) * | 2014-01-09 | 2015-07-16 | ソニー株式会社 | Video signal processing device, video signal processing method, and camera device |
US10778881B2 (en) | 2014-01-09 | 2020-09-15 | Sony Corporation | Video signal processing device, video signal processing method, and camera device |
JP2015212861A (en) * | 2014-05-01 | 2015-11-26 | 日本電信電話株式会社 | Multiple joint object tracking device, multiple joint object tracking method, and program |
CN110073410A (en) * | 2016-12-15 | 2019-07-30 | Trw有限公司 | The method for tracking the object in scene |
CN110073410B (en) * | 2016-12-15 | 2023-06-30 | Trw有限公司 | Method for tracking objects in a scene |
CN115442521A (en) * | 2022-08-08 | 2022-12-06 | 杭州华橙软件技术有限公司 | Image pickup control method, related device, camera and storage medium |
CN115442521B (en) * | 2022-08-08 | 2023-10-27 | 杭州华橙软件技术有限公司 | Image pickup control method and related device, camera and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4836065B2 (en) | 2011-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8340400B2 (en) | Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features | |
EP2858008B1 (en) | Target detecting method and system | |
EP2548174B1 (en) | Method and apparatus for trajectory estimation, and method for segmentation | |
EP3016071B1 (en) | Estimating device and estimation method | |
US8711206B2 (en) | Mobile camera localization using depth maps | |
KR101532864B1 (en) | Planar mapping and tracking for mobile devices | |
CN109934847B (en) | Method and device for estimating posture of weak texture three-dimensional object | |
US9672634B2 (en) | System and a method for tracking objects | |
US9191650B2 (en) | Video object localization method using multiple cameras | |
WO2013090864A1 (en) | Learning image processing tasks from scene reconstructions | |
KR20150144726A (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
JP2008176504A (en) | Object detector and method therefor | |
JP2014235743A (en) | Method and equipment for determining position of hand on the basis of depth image | |
JP2018113021A (en) | Information processing apparatus and method for controlling the same, and program | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
KR102295183B1 (en) | object tracking method for CCTV video by use of CCTV projection model | |
JP4836065B2 (en) | Edge tracking method and computer program therefor | |
Agouris et al. | Automated spatiotemporal change detection in digital aerial imagery | |
CN105931231A (en) | Stereo matching method based on full-connection random field combination energy minimization | |
CN114399532A (en) | Camera position and posture determining method and device | |
Weissenfeld et al. | Robust rigid head motion estimation based on differential evolution | |
Cheung et al. | Optimization-based automatic parameter tuning for stereo vision | |
JP2007257489A (en) | Image processor and image processing method | |
CN115752489B (en) | Positioning method and device of movable equipment and electronic equipment | |
CN118314162B (en) | Dynamic visual SLAM method and device for time sequence sparse reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080228 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110708 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110830 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110920 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |