JP2010134649A - 情報処理装置、その処理方法及びプログラム - Google Patents
情報処理装置、その処理方法及びプログラム Download PDFInfo
- Publication number
- JP2010134649A JP2010134649A JP2008308996A JP2008308996A JP2010134649A JP 2010134649 A JP2010134649 A JP 2010134649A JP 2008308996 A JP2008308996 A JP 2008308996A JP 2008308996 A JP2008308996 A JP 2008308996A JP 2010134649 A JP2010134649 A JP 2010134649A
- Authority
- JP
- Japan
- Prior art keywords
- image
- line segment
- orientation
- information
- calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
位置姿勢算出処理時における3次元情報を用いた計算負荷を減らすとともに、位置合わせの精度や安定性の低下を抑制させるようにした情報処理装置、その処理方法及びプログラムを提供する。
【解決手段】
撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置であって、物体を構成する複数の線分を含む3次元情報を保持し、撮像装置により撮像された物体の画像を取得し、当該取得された画像から線分を表す画像特徴を検出し、当該検出された線分と、保持された線分との対応に基づいて位置姿勢算出処理を実施し撮像装置の位置及び姿勢の情報を算出し、画像特徴の検出結果と、位置及び姿勢の算出過程で得られる情報との少なくともいずれかに基づいて、保持する線分各々についてそれ以降の位置姿勢算出処理に利用するか否かを判定する。
【選択図】 図1
Description
(1).前フレームでのカメラの位置及び姿勢及び予め校正済みのカメラの固有パラメータに基づいて、前述の3次元モデルデータ(線分モデル)を画像上に投影する。
(2).投影された各線分を、画像上で一定間隔となるように分割し、分割点を設定する。そして、各分割点について、分割点を通過し向きが投影された線分の法線方向である線分(探索ライン)上でエッジ探索し、探索ライン上における輝度値の勾配が極大であり且つ分割点に最も近い点を対応エッジとして検出する。
(3).各分割点毎に検出された対応エッジと、投影される線分との間の画像上での距離の総和が最小となるようなカメラの位置及び姿勢の補正値を算出し、その補正値に基づいてカメラの位置及び姿勢を算出する。
(4).(3)の処理を収束するまで繰り返し最適化計算を行なう。
加藤, M. Billinghurst, 浅野, 橘, "マーカー追跡に基づく拡張現実感システムとそのキャリブレーション", 日本バーチャルリアリティ学会論文誌, vol.4, no.4, pp.607-617, 1999. T. Drummond and R. Cipolla, "Real-time visual tracking of complex structures," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.24, no.7, pp.932-946, 2002. A. I. Comport, E. Marchand, and F. Chaumette, "A real-time tracker for markerless augmented reality," Proc. The 2nd IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR03), pp.36-45, 2003. L. Vacchetti, V. Lepetit, and P. Fua, "Combining edge and texture information for real-time accurate 3D camera tracking," Proc. The 3rd IEEE/ACM International Symposium on Mixed and Augmented Reality (ISMAR04), pp.48-57, 2004. C. J. Taylor and D. J. Kriegman, "Structure from motion from line segments in multiple images," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.17, no.11, pp.1021-1032, 1995. J. Canny, "A computational approach to edge detection," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.8, no.6, pp.679-698, 1986. R. Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV camera and lenses," IEEE Journal of Robotics and Automation, vol.3, no.4, pp.323-344, 1987. H. Wuest, F. Vial, and D. Stricker, "Adaptive line tracking with multiple hypotheses for augmented reality," Proc. The Fourth Int'l Symp. on Mixed and Augmented Reality (ISMAR05), pp.62-69, 2005.
図1は、本発明の一実施の形態に係わる情報処理装置が組み込まれたビデオシースルー型のHMDの概要の一例を示す図である。なお、本実施形態においては、情報処理装置1をAR(拡張現実感:Augmented Reality)の位置合わせに用いる場合を例に挙げて説明するが、情報処理装置1は、勿論、これ以外の用途に使用されてもよい。
ステップS1010では、情報処理装置1は、初期化処理を行なう。初期化処理では、基準座標系における撮像装置100の位置及び姿勢を予測した予測値の設定、モデルデータ検証フラグ、利用可否フラグ、蓄積データのリセットを行なう。
ステップS1015では、位置姿勢計測の終了判定を行なう。利用者により、マウスやキーボードなどの入力手段を介して終了の指示が入力された場合には、ステップS1015でYESとなり、この処理を終了する。それ以外の場合には、ステップS1015でNOとなり、ステップS1020の処理に進む。
ステップS1020では、情報処理装置1は、画像取得部110において、撮像装置100が撮像した画像を装置内(情報処理装置1内)に取り込む。
ステップS1030では、情報処理装置1は、画像特徴検出部120において、ステップS1020で入力された画像上でエッジの検出を行なう。この処理の開始に際しては、各線分ごとのフレームデータNE1、ND1を0にセットする。なお、エッジ検出処理の詳細については、後述する。
ステップS1040では、情報処理装置1は、位置姿勢算出部140において、撮像装置100の位置及び姿勢を算出する。上述した通り、この算出は、ステップS1040で検出された画像上のエッジと、モデルデータ記憶部130に記憶された3次元モデルデータとに基づいて行なわれる。なお、位置姿勢算出処理の詳細については、後述する。
ステップS1050では、情報処理装置1は、モデルデータ検証部150において、検証モードであるか否かの判定を行なう。この判定は、モデルデータ検証フラグFMDの値に基づいて行なわれる。ここで、モデルデータの検証を行なう場合(FMD=TRUE)には、ステップS1060の処理に進み、検証を行なわない場合には、ステップS1015の処理に戻る。
ステップS1060では、情報処理装置1は、モデルデータ検証処理を開始する。この処理では、まず、モデルデータ記憶部130に格納されている3次元モデルデータを構成する各線分についての蓄積データNES及びNDSを更新する。具体的には、ステップS1030において更新された各線分についてのフレームデータNE1、ND1をそれぞれNES、NDSに加える。
ステップS1070では、情報処理装置1は、蓄積データ数NSを1増やす(蓄積データカウント++)。
ステップS1080では、情報処理装置1は、蓄積データ数NSが予め設定された蓄積データ数Nmaxと等しいか否かの判定を行なう。等しければ、ステップS1090の処理に進み、等しくなければ、ステップS1015の処理に戻り、ステップS1020の処理で次の画像、すなわち、次フレームの画像を取得する。
ステップS1090では、情報処理装置1は、モデルデータ検証部150において、3次元モデルデータを構成する線分各々について位置姿勢算出に利用するか否かの検証を行なう。なお、この処理についての詳細は、後述するが、各線分ごとの蓄積データNES、NDSに基づいてモデルデータ記憶部130に格納されたモデルデータを検証する。この処理が終わると、ステップS1015の処理に戻る。
まず、情報処理装置1は、ステップS1110においてモデル投影を行なう。ここで、モデル投影とは、撮像装置100の位置及び姿勢の予測値に基づいて、観察対象物体の3次元モデルデータを画像上に投影することである。より具体的には、3次元モデルデータを構成する各線分を画像上に投影したときの、画像上での直線の方程式を求める。直線の方程式は、線分の両端を画像上に投影し、画像上での両端の座標を結んだ直線の方程式となる。撮像装置100の位置及び姿勢の予測値には、図4に示すステップS1010の初期化直後であれば、その初期化によって得られる撮像装置100の位置及び姿勢を用いる。初期化直後でなければ、前フレームで算出された撮像装置100の位置及び姿勢を用いる。モデル投影を行なうためには、撮像装置100の位置及び姿勢とともに、焦点距離や主点位置などのカメラの固有パラメータが既知である必要がある。前述したように、本実施形態においては、カメラの固有パラメータは、予め計測されて分かっているものとする。また、線分が位置姿勢算出に利用できるか否かの利用可否フラグFuがFALSEの線分についてはモデル投影及びエッジ検出を行なわない。
次に、情報処理装置1は、ステップS1120において、ステップS1110で算出された直線の方程式を利用して投影された線分が画像上で等間隔に分割されるような分割点を設定する。この分割点は、3次元モデルデータを構成する線分全てに設定される。
次に、情報処理装置1は、ステップS1140において、分割点DPjが隠蔽されているか否かの判定を行なう。隠蔽とは、分割点DPjが3次元モデルの他の面に隠れている状態を指す。例えば、図7に破線で示される線分上の分割点DPjは、可視ではなく、隠蔽されていることになる。分割点DPjが可視か否かの判定は、例えば、非特許文献8に示されるように、グラフィクスハードウェアを利用して3次元モデルを描画した後、当該分割点を描画し、グラフィクスハードウェアにデプスバッファが更新されたか否かを確認することで行なえる。この結果、分割点DPjが隠蔽されている場合には、ステップS1160の処理に進み、そうでない場合には、該当する線分のフレームデータNE1の値に1を加えた後、ステップS1150の処理に進む。
ステップS1150では、情報処理装置1は、分割点DPjに対応するエッジを検出する。図8は、本実施形態に係わるエッジ検出方法の概要の一例を示す図である。図8に示すように、各分割点において、投影された線分の法線方向に平行で且つ分割点を通過する線分(以下、探索ライン)上においてエッジを1次元探索する。エッジは、探索ライン上において濃度勾配が極値をとる位置に存在する。濃度勾配の極値の絶対値に閾値を設け、極値の絶対値の小さいエッジは検出されないようにする。本実施形態では、探索ライン上でエッジが複数存在する場合には、最も分割点に近いエッジを対応点とし、その画像座標と分割点の3次元座標とを保持する。なお、本実施形態では最も分割点に近いエッジを対応点としているが、これに限られず、探索ライン上で濃度勾配の極値の絶対値が最も大きいエッジを対応点としてもよい。ステップS1150でエッジが検出された場合には、該当する線分のフレームデータND1の値に1を加える。
ステップS1160では、情報処理装置1は、jを1増分し、ステップS1170に進む。全ての分割点DPjについて処理が終了した場合には、ステップS1170でYESとなり、エッジ検出処理を終了する。終了していない場合には、ステップS1170でNOとなり、ステップS1140の処理に戻る。
ステップS1210では、情報処理装置1は、「検出されるべき総エッジ数NES」と、「実際に検出された総エッジ数NDS」とに基づいてモデルデータの検証を行なう。具体的には、NESに対するNDSの割合REDを算出する。
ステップS1220では、情報処理装置1は、ステップS1210で算出された割合REDと、閾値TEDとを比較する。比較の結果、REDが閾値TEDを越えていれば、ステップS1230でNOとなり、この処理は終了する。一方、REDが閾値TED未満となれば、ステップS1230でYESとなり、ステップS1240の処理に進む。
ステップS1240では、情報処理装置1は、線分の検出率が低いとして、該当する線分の利用可否フラグFuをFALSEに設定する。これにより、以後、位置姿勢算出処理にその線分を用いないようにする。例えば、図3に示すモデルデータにおいて、照明条件などによってL14に対応するエッジが検出されない場合には、L14のフラグFuがFALSEに設定され、位置姿勢算出処理に利用されないようになる。
ステップS1250では、情報処理装置1は、モデルデータ検証フラグFMDをFALSEにセットし、蓄積データDSを全て0にリセットし、この処理を終了する。
上述した実施形態1では、「検出されるべきエッジ数」に対する「実際に検出されたエッジ数」の割合を算出し、その割合に基づいて各線分を位置姿勢算出に使用するか否かの判定を行なっていた。これに対して、実施形態2では、位置姿勢算出を行なう際の誤差に基づいて、各線分を位置姿勢算出に使用するか否かの判定を行なう場合について説明する。なお、実施形態2における構成は、実施形態1を説明した図1及び図2と同様となるため、その説明については省略し、ここでは相違点について重点的に説明する。
ステップS2010では、情報処理装置1は、初期化処理を行なう。初期化処理では、基準座標系における撮像装置100の位置及び姿勢の予測値の設定、モデルデータ検証フラグ、利用可否フラグ、蓄積データのリセットを行なう。なお、撮像装置100の位置及び姿勢の予測値の設定やモデルデータ検証フラグ、利用可否フラグのリセットについては、ステップS1010と同一の処理となるためその説明は省略する。実施形態2においては、「蓄積データ数NS」、「検出されるべき総エッジ数NES」、「位置姿勢算出において実効的な情報として利用されたエッジ数NCS」を全て0にし、蓄積データDSをリセットする。
ステップS2015では、位置姿勢計測の終了判定を行なう。利用者により、マウスやキーボードなどの入力手段を介して終了の指示が入力された場合には、ステップS2015でYESとなり、この処理を終了する。それ以外の場合には、ステップS2015でNOとなり、ステップS2020の処理に進む。
ステップS2020では、情報処理装置1は、画像取得部110において、撮像装置100が撮像した画像を装置内(情報処理装置1内)に取り込む。
ステップS2030では、情報処理装置1は、画像特徴検出部120において、ステップS2020で入力された画像上でエッジの検出を行なう。この処理の開始に際しては、各線分ごとのフレームデータNE1、NC1を0にセットする。なお、エッジ検出処理は、実施形態1の図5と同様の処理となるため、その詳細な説明については省略する。実施形態1との相違点としては、実施形態1では、フレームデータであるNE1、ND1を更新していたのに対し、ステップS2030ではNE1のみを更新する点である。
ステップS2040では、情報処理装置1は、位置姿勢算出部140において、撮像装置100の位置及び姿勢を算出する。なお、位置姿勢算出処理は、実施形態1と同様の処理となるため、その詳細な説明については省略する。実施形態1との相違点としては、ステップS2030では、ステップS1030で説明した位置姿勢算出処理が終了した後、その算出過程で得られる重み行列W(数9参照)に基づいてフレームデータNC1を更新する。重み行列Wは、各分割点に対応する重みによって定義されており、この重みは、誤差d−rの値が小さいほど大きい。そこで、重みが一定値未満のエッジは、誤検出又は誤対応であるとみなし、重みが一定値以上のエッジの情報が実効的に利用されたとして、該当する分割点が属する線分のフレームデータNC1の値に1を加える。
ステップS2050では、情報処理装置1は、モデルデータ検証部150において、検証モードであるか否かの判定を行なう。この判定は、モデルデータ検証フラグFMDの値に基づいて行なわれる。モデルデータの検証を行なう場合(FMD=TRUE)には、ステップS2060の処理に進み、検証を行なわない場合には、ステップS2015の処理に戻る。
ステップS2060では、情報処理装置1は、モデルデータ検証処理を開始する。この処理では、まず、モデルデータ記憶部130に格納されている3次元モデルデータを構成する各線分について、蓄積データNES及びNCSを更新する。すなわち、ステップS2030、ステップS2040の処理において更新された各線分についてのフレームデータNE1、NC1をそれぞれNES、NCSに加える。
ステップS2070では、情報処理装置1は、蓄積データ数NSを1増やす(蓄積データカウント++)。
ステップS2080では、情報処理装置1は、蓄積データ数NSが予め設定された蓄積データ数Nmaxと等しいか否かの判定を行なう。等しければ、ステップS2090の処理に進み、等しくなければ、ステップS2015の処理に戻り、ステップS2020の処理で次の画像、すなわち、次フレームの画像を取得する。
ステップS2090では、情報処理装置1は、モデルデータ検証部150において、3次元モデルデータを構成する線分各々について位置姿勢算出に利用するか否かの検証を行なう。なお、この処理についての詳細は、後述するが、実施形態2においては、各線分ごとの蓄積データNES、NCSに基づいてモデルデータ記憶部130に格納されたモデルデータを検証する。この処理が終わると、ステップS2015の処理に戻る。
ステップS2110では、情報処理装置1は、「検出されるべき総エッジ数NES」と、「位置姿勢算出において実効的な情報として利用されたエッジ数NCS」とに基づいてモデルデータの検証を行なう。具体的には、NESに対するNCSの割合RECを算出する。
ステップS2120では、情報処理装置1は、ステップS2110で算出された割合RECと、閾値TECとを比較する。比較の結果、RECが閾値TECを越えていれば、ステップS2130でNOとなり、この処理は終了する。一方、RECが閾値TEC未満となれば、ステップS2130でYESとなり、ステップS2140の処理に進む。
ステップS2140では、情報処理装置1は、誤検出又は誤対応の可能性が高いとして、該当する線分の利用可否フラグFuをFALSEに設定する。これにより、以後、位置姿勢算出処理にその線分を用いないようにする。
ステップS2150では、情報処理装置1は、モデルデータ検証フラグFMDをFALSEにセットし、蓄積データDSを全て0にリセットし、この処理を終了する。
上述した実施形態1及び2では、本発明の一実施の形態に係わる情報処理装置1をARの位置合わせに適用した場合について説明した。これに対して、実施形態3においては、画像による線分データの計測に適用し、エッジを利用した位置合わせに適した線分データの計測を行なう場合を例に挙げて説明する。
ステップS3010では、情報処理装置3は、画像記憶部320において、線分の3次元モデルの算出に必要となる画像を保存する。非特許文献5では、「線分の3次元モデルを復元するのに3枚の画像における6つの対応が必要である」と述べられているため、ステップS3010では最低3枚以上の画像を保存する。画像の保存は、例えば、利用者が撮像装置300を自由に移動させながら、キーボードやマウスなどの入力手段により画像保存命令を入力することにより行なう。画像保存命令が入力されると、命令を入力した時点において、画像取得部310から入力される画像が画像記憶部320に保存される。なお、ここでは画像の保存を利用者の入力によって行なっているが、画面の変化に基づいて、自動的に画像を保存するようにしてもよい。
ステップS3020では、情報処理装置3は、ステップS3010において保存された画像上からラインを検出する。ラインの検出は、利用者の指示に基づいて行なわれる。具体的には、利用者が画像上でラインの始点と終点を指定することにより手動で行なう。なお、ラインの検出法は、これに限られず、画像上のラインを検出できるのであればよい。例えば、非特許文献7に示す方法によりエッジ検出を実施した後、ハフ変換によって画像上のラインを検出してもよい。
ステップS3030では、情報処理装置3は、ステップS3020において検出されたラインの画像間での対応付けを行なう。この対応付けは、利用者の指示に基づいて行なわれる。すなわち、利用者が手動で行なう。なお、ラインの対応付け方法は、これに限られず、例えば、ライン周辺の画素の情報を利用して、類似したラインを自動的に対応付けるようにしてもよい。
ステップS3040では、情報処理装置3は、モデルデータ算出部330において、ステップS3030で対応付けられたラインの情報に基づいて線分(ライン)の3次元モデルの算出を行なう。そして、算出した線分の3次元モデルと、画像上での端点の位置とから端点の3次元位置を算出し、図3に示す様式で線分の3次元モデルとしてモデルデータ記憶部340に格納する。なお、線分の3次元モデルとは、3次元空間における直線の方向ベクトルと通過位置とにより表されるものとする。線分の3次元モデルの算出は、例えば、非特許文献5に開示されている方法により行なう。線分の3次元モデルの算出方法は、これに限られず、画像間のラインの対応から算出する方法であればよい。
(1).各画像を撮像したときの撮像装置の姿勢についてランダムに初期値を与える。
(2).画像上でのラインの方程式、3次元空間中でのラインの方向ベクトル、撮像装置の姿勢が満たす制約条件をもとに、ラインの方向ベクトルを算出する。
(3).画像上でのラインの方程式、ラインの通過位置、撮像装置の位置が満たす制約条件をもとに、ラインの通過位置及び撮像装置の位置を算出する。
(4).(1)、(2)、(3)で得られた未知パラメータを最適化する。
(5).(4)で得られた未知パラメータを精度評価し、精度が悪ければ(1)に戻る。精度がよければ終了する。
ステップS3050では、情報処理装置3は、モデルデータ検証部350において、ステップS3040で算出された線分の3次元モデルの検証を行なう。具体的には、画像取得部310から入力される画像とモデルデータ記憶部340に格納された3次元モデルとに基づいて、実施形態1又は実施形態2で説明した方法でモデルデータを構成する各線分を評価する。そして、検出されるべき回数に対して実際の検出回数が少ない線分や、実効的な情報として使われる回数の少ない線分をモデルデータから削除する。これにより、モデルデータ記憶部340に格納された3次元モデルを更新する。
ステップS3060では、情報処理装置3は、ステップS3040の3次元モデル算出結果、ステップS3050のモデル検証結果を、例えば、表示するなどして利用者に提示する。これにより、利用者は、その3次元モデル算出結果やモデル検証結果を受け入れるか否かを判定する。利用者が結果を受け入れる場合には、その旨が情報処理装置3に入力され、ステップS3060でYESとなり、この処理は終了する。受け入れない場合には、その旨が情報処理装置3に入力され、ステップS3060でNOとなり、ステップS3010の処理に戻る。
上述した説明では、実施形態1及び2を用いて、各線分を位置姿勢算出に使用するか否かの判定について2パターン説明した。これら2パターンの処理は、必ずしも別々に実施する必要はなく、2つの判定方法を併用して実施してもよい。すなわち、本発明は、少なくともいずれかの判定処理を用いて実施できる。
上述した説明では、利用者の入力をトリガーとしてモデルデータの検証を行なっていた。しかし、モデルデータの検証を利用者の入力をトリガーとして行なうのではなく、自動的に行なってもよい。
上述した説明では、線分を位置姿勢算出に利用するか否かは、情報処理装置側で閾値Tに基づいて自動的に判定を行なっていたが、利用者が判定するようにしてもよい。
上述した説明では、3次元モデルデータを構成する線分各々について、位置姿勢算出に利用するか否かの判定を行なっていたが、この判定は、必ずしも線分という単位に限られない。
上述した説明では、検証を行なうか否かを示すフラグ(モデルデータ検証フラグ)の設定により、線分の3次元モデルの検証を明示的に行なっていた。しかし、検証を明示的に行なうのではなく、位置姿勢算出を行ないつつモデル検証を常に行なうようにしてもよい。
上述した説明では、画像上に投影された線分を等分割し、分割点を通り且つ投影線分に垂直な探索ライン上において、対応するエッジを検出する場合を例に挙げて説明した。しかし、エッジの検出方法は、これに限られず、画像上に投影された線分を基準にして対応するエッジを検出する方法であればよい。
10 観察対象物体
20 仮想物体
30 ビデオシースルー型HMD
100、101 撮像装置
110、310 画像取得部
120 画像特徴検出部
130、340 モデルデータ記憶部
140 位置姿勢算出部
150、350 モデルデータ検証部
320 画像記憶部
330 モデルデータ算出部
Claims (9)
- 撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置であって、
前記物体を構成する複数の線分を含む3次元情報を保持する保持手段と、
前記撮像装置により撮像された前記物体の画像を取得する取得手段と、
前記取得手段により取得された画像から線分を表す画像特徴を検出する検出手段と、
前記検出手段により検出された線分と、前記保持手段により保持された線分との対応に基づいて位置姿勢算出処理を実施し前記撮像装置の位置及び姿勢の情報を算出する算出手段と、
前記検出手段による画像特徴の検出結果と、前記算出手段による位置及び姿勢の算出過程で得られる情報との少なくともいずれかに基づいて、前記保持手段が保持する線分各々についてそれ以降の前記位置姿勢算出処理に利用するか否かを判定する判定手段と
を具備することを特徴とする情報処理装置。 - 前記検出手段は、
前記取得手段により取得された複数の画像から前記線分を表す画像特徴を検出し、
前記判定手段は、
前記検出手段により複数の画像から検出された画像特徴の検出結果と、前記算出手段による位置及び姿勢の算出過程で得られる情報との少なくともいずれかに基づいて前記判定を行なう
ことを特徴とする請求項1記載の情報処理装置。 - 前記検出手段は、
前記保持手段により保持された線分各々に対応する線分を表す画像特徴を前記画像から検出し、
前記判定手段は、
前記検出手段による前記線分各々についての前記画像からの線分の検出率に基づいて前記判定を行なう
ことを特徴とする請求項2記載の情報処理装置。 - 前記検出手段は、
前記保持手段により保持された線分各々に所定の間隔で分割点を設け、該分割点に対応する対応点を探索することにより前記対応する線分を表す画像特徴を前記画像から検出し、
前記判定手段は、
前記検出手段による前記線分各々についての前記対応点の検出率に基づいて前記判定を行なう
ことを特徴とする請求項1又は2記載の情報処理装置。 - 前記判定手段は、
前記検出率が所定の閾値よりも小さい場合に、前記保持手段により保持された該当する線分をそれ以降の前記位置姿勢算出処理に利用しないと判定する
ことを特徴とする請求項3又は4記載の情報処理装置。 - 前記判定手段は、
前記算出手段による前記検出手段により検出された前記線分を表す画像特徴と、前記保持手段により保持された線分との対応により生じる位置のずれを示す誤差の大きさに基づいて前記判定を行なう
ことを特徴とする請求項1記載の情報処理装置。 - 前記判定手段による判定の結果をユーザに提示する提示手段と、
前記提示手段により提示された判定結果をもとにユーザが承認するか否かを入力する入力手段と
を更に具備することを特徴とする請求項1記載の情報処理装置。 - 撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置の処理方法であって、
前記撮像装置により撮像された前記物体の画像を取得する取得工程と、
前記取得工程で取得された画像から線分を表す画像特徴を検出する検出工程と、
前記検出工程で検出された線分と、保持手段により保持された前記物体を構成する3次元情報の複数の線分との対応に基づいて位置姿勢算出処理を実施し前記撮像装置の位置及び姿勢の情報を算出する算出工程と、
前記検出工程での画像特徴の検出結果と、前記算出工程での位置及び姿勢の算出過程で得られる情報との少なくともいずれかに基づいて、前記保持手段が保持する線分各々についてそれ以降の前記位置姿勢算出処理に利用するか否かを判定する判定工程と
を含むことを特徴とする情報処理装置の処理方法。 - 撮像装置により撮像される物体に対する該撮像装置の位置及び姿勢の情報を算出する情報処理装置に内蔵されたコンピュータを、
前記物体を構成する複数の線分を含む3次元情報を保持する保持手段、
前記撮像装置により撮像された前記物体の画像を取得する取得手段、
前記取得手段により取得された画像から線分を表す画像特徴を検出する検出手段、
前記検出手段により検出された線分と、前記保持手段により保持された線分との対応に基づいて位置姿勢算出処理を実施し前記撮像装置の位置及び姿勢の情報を算出する算出手段、
前記検出手段による画像特徴の検出結果と、前記算出手段による位置及び姿勢の算出過程で得られる情報との少なくともいずれかに基づいて、前記保持手段が保持する線分各々についてそれ以降の前記位置姿勢算出処理に利用するか否かを判定する判定手段
として機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008308996A JP2010134649A (ja) | 2008-12-03 | 2008-12-03 | 情報処理装置、その処理方法及びプログラム |
US12/627,279 US8483424B2 (en) | 2008-12-03 | 2009-11-30 | Information processing apparatus, processing method thereof, and computer-readable storage medium |
US13/873,534 US8995710B2 (en) | 2008-12-03 | 2013-04-30 | Information processing apparatus, processing method thereof, and computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008308996A JP2010134649A (ja) | 2008-12-03 | 2008-12-03 | 情報処理装置、その処理方法及びプログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013218672A Division JP5693691B2 (ja) | 2013-10-21 | 2013-10-21 | 情報処理装置、その処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010134649A true JP2010134649A (ja) | 2010-06-17 |
JP2010134649A5 JP2010134649A5 (ja) | 2012-01-26 |
Family
ID=42231131
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008308996A Pending JP2010134649A (ja) | 2008-12-03 | 2008-12-03 | 情報処理装置、その処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US8483424B2 (ja) |
JP (1) | JP2010134649A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012023593A1 (en) * | 2010-08-20 | 2012-02-23 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium |
JP2013024773A (ja) * | 2011-07-22 | 2013-02-04 | Canon Inc | 3次元計測方法 |
JP2016504611A (ja) * | 2012-11-02 | 2016-02-12 | クアルコム,インコーポレイテッド | 地図作成と自己位置推定とのための複数のセンサの使用 |
US9269002B2 (en) | 2011-04-08 | 2016-02-23 | Sony Corporation | Image processing apparatus, display control method and program |
JP2017108401A (ja) * | 2010-11-04 | 2017-06-15 | ディジマーク コーポレイション | スマートフォンベースの方法及びシステム |
JP2017518699A (ja) * | 2014-05-21 | 2017-07-06 | アルカテル−ルーセント | 促進的画像処理 |
JP2019070898A (ja) * | 2017-10-06 | 2019-05-09 | 富士通株式会社 | 推定プログラム、推定装置、及び推定方法 |
JP2019159470A (ja) * | 2018-03-08 | 2019-09-19 | 富士通株式会社 | 推定装置、推定方法、及び推定プログラム |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4574473B2 (ja) | 2005-07-11 | 2010-11-04 | キヤノン株式会社 | 情報処理装置および方法 |
JP5388932B2 (ja) * | 2009-04-30 | 2014-01-15 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
JP5290864B2 (ja) * | 2009-05-18 | 2013-09-18 | キヤノン株式会社 | 位置姿勢推定装置及び方法 |
JP5567908B2 (ja) * | 2009-06-24 | 2014-08-06 | キヤノン株式会社 | 3次元計測装置、その計測方法及びプログラム |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5297403B2 (ja) | 2010-02-26 | 2013-09-25 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体 |
JP5746477B2 (ja) | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | モデル生成装置、3次元計測装置、それらの制御方法及びプログラム |
JP5612916B2 (ja) | 2010-06-18 | 2014-10-22 | キヤノン株式会社 | 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム |
US20130094742A1 (en) * | 2010-07-14 | 2013-04-18 | Thomas Feilkas | Method and system for determining an imaging direction and calibration of an imaging apparatus |
JP5624394B2 (ja) | 2010-07-16 | 2014-11-12 | キヤノン株式会社 | 位置姿勢計測装置、その計測処理方法及びプログラム |
KR101397712B1 (ko) * | 2010-07-27 | 2014-06-27 | 주식회사 팬택 | 증강 현실 객체 인식 가이드 제공 장치 및 방법 |
JP5496008B2 (ja) | 2010-08-06 | 2014-05-21 | キヤノン株式会社 | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
JP5839929B2 (ja) * | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP6004809B2 (ja) | 2012-03-13 | 2016-10-12 | キヤノン株式会社 | 位置姿勢推定装置、情報処理装置、情報処理方法 |
CN103587479A (zh) * | 2012-08-14 | 2014-02-19 | 辉达公司 | 一种用于倒车的裸眼三维视频系统和包括该系统的车辆 |
US9025823B2 (en) * | 2013-03-12 | 2015-05-05 | Qualcomm Incorporated | Tracking texture rich objects using rank order filtering |
US20140270362A1 (en) * | 2013-03-15 | 2014-09-18 | Qualcomm Incorporated | Fast edge-based object relocalization and detection using contextual filtering |
JP5796726B2 (ja) * | 2013-03-29 | 2015-10-21 | コニカミノルタ株式会社 | ジョブ情報表示装置 |
US9098934B2 (en) * | 2013-06-27 | 2015-08-04 | Hcl Technologies Limited | Augmented reality system with correlation among multiple markers |
US9729864B2 (en) * | 2013-09-30 | 2017-08-08 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
US9630105B2 (en) | 2013-09-30 | 2017-04-25 | Sony Interactive Entertainment Inc. | Camera based safety mechanisms for users of head mounted displays |
JP6253368B2 (ja) | 2013-11-25 | 2017-12-27 | キヤノン株式会社 | 三次元形状計測装置およびその制御方法 |
DE102014105011B4 (de) * | 2014-04-08 | 2020-02-20 | Clipland Gmbh | System zur Visualisierung des Sichtfeldes einer optischen Vorrichtung |
CN104683614B (zh) * | 2015-03-24 | 2016-03-02 | 西南交通大学 | 基于m估计的记忆成比例仿射投影自适应回声消除方法 |
US10685490B2 (en) * | 2016-03-10 | 2020-06-16 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
KR102649197B1 (ko) * | 2016-07-29 | 2024-03-20 | 삼성전자주식회사 | 그래픽 객체를 표시하기 위한 전자 장치 및 컴퓨터 판독 가능한 기록 매체 |
US11080892B2 (en) * | 2019-10-07 | 2021-08-03 | The Boeing Company | Computer-implemented methods and system for localizing an object |
JP7262655B2 (ja) * | 2020-02-13 | 2023-04-21 | 三菱電機株式会社 | 寸法作成装置、寸法作成方法及びプログラム |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10162147A (ja) * | 1996-07-09 | 1998-06-19 | General Electric Co <Ge> | 被検体内のカメラ開口の位置と向きを決定する装置 |
JP2002008012A (ja) * | 2000-06-26 | 2002-01-11 | National Institute Of Advanced Industrial & Technology | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
JP2005069757A (ja) * | 2003-08-21 | 2005-03-17 | National Institute Of Advanced Industrial & Technology | 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム |
JP2008286756A (ja) * | 2007-05-21 | 2008-11-27 | Canon Inc | 位置姿勢計測装置及びその制御方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
JP3796449B2 (ja) * | 2002-01-31 | 2006-07-12 | キヤノン株式会社 | 位置姿勢決定方法および装置並びにコンピュータプログラム |
EP1349114A3 (en) * | 2002-03-19 | 2011-06-15 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
US7676079B2 (en) * | 2003-09-30 | 2010-03-09 | Canon Kabushiki Kaisha | Index identification method and apparatus |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP4914019B2 (ja) * | 2005-04-06 | 2012-04-11 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP4914039B2 (ja) * | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
JP5063023B2 (ja) * | 2006-03-31 | 2012-10-31 | キヤノン株式会社 | 位置姿勢補正装置、位置姿勢補正方法 |
JP4789745B2 (ja) * | 2006-08-11 | 2011-10-12 | キヤノン株式会社 | 画像処理装置および方法 |
JP5111210B2 (ja) * | 2008-04-09 | 2013-01-09 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
-
2008
- 2008-12-03 JP JP2008308996A patent/JP2010134649A/ja active Pending
-
2009
- 2009-11-30 US US12/627,279 patent/US8483424B2/en active Active
-
2013
- 2013-04-30 US US13/873,534 patent/US8995710B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10162147A (ja) * | 1996-07-09 | 1998-06-19 | General Electric Co <Ge> | 被検体内のカメラ開口の位置と向きを決定する装置 |
JP2002008012A (ja) * | 2000-06-26 | 2002-01-11 | National Institute Of Advanced Industrial & Technology | 対象物体の位置・姿勢算出方法及び観測カメラの位置・姿勢算出方法 |
JP2005069757A (ja) * | 2003-08-21 | 2005-03-17 | National Institute Of Advanced Industrial & Technology | 中心窩広視野画像を利用したカメラ位置姿勢推定方法及びシステム |
JP2008286756A (ja) * | 2007-05-21 | 2008-11-27 | Canon Inc | 位置姿勢計測装置及びその制御方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9208395B2 (en) | 2010-08-20 | 2015-12-08 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium |
JP2012042396A (ja) * | 2010-08-20 | 2012-03-01 | Canon Inc | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム |
WO2012023593A1 (en) * | 2010-08-20 | 2012-02-23 | Canon Kabushiki Kaisha | Position and orientation measurement apparatus, position and orientation measurement method, and storage medium |
JP2017108401A (ja) * | 2010-11-04 | 2017-06-15 | ディジマーク コーポレイション | スマートフォンベースの方法及びシステム |
US9269002B2 (en) | 2011-04-08 | 2016-02-23 | Sony Corporation | Image processing apparatus, display control method and program |
US10395429B2 (en) | 2011-04-08 | 2019-08-27 | Sony Corporation | Image processing apparatus and display control method |
US10930083B2 (en) | 2011-04-08 | 2021-02-23 | Sony Corporation | Image processing apparatus and display control method |
JP2013024773A (ja) * | 2011-07-22 | 2013-02-04 | Canon Inc | 3次元計測方法 |
JP2016504611A (ja) * | 2012-11-02 | 2016-02-12 | クアルコム,インコーポレイテッド | 地図作成と自己位置推定とのための複数のセンサの使用 |
US9953618B2 (en) | 2012-11-02 | 2018-04-24 | Qualcomm Incorporated | Using a plurality of sensors for mapping and localization |
JP2017518699A (ja) * | 2014-05-21 | 2017-07-06 | アルカテル−ルーセント | 促進的画像処理 |
JP2019070898A (ja) * | 2017-10-06 | 2019-05-09 | 富士通株式会社 | 推定プログラム、推定装置、及び推定方法 |
JP2019159470A (ja) * | 2018-03-08 | 2019-09-19 | 富士通株式会社 | 推定装置、推定方法、及び推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
US8995710B2 (en) | 2015-03-31 |
US8483424B2 (en) | 2013-07-09 |
US20100142826A1 (en) | 2010-06-10 |
US20130236062A1 (en) | 2013-09-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010134649A (ja) | 情報処理装置、その処理方法及びプログラム | |
JP5111210B2 (ja) | 画像処理装置、画像処理方法 | |
JP4898464B2 (ja) | 情報処理装置および方法 | |
JP6464934B2 (ja) | カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム | |
JP4976756B2 (ja) | 情報処理方法および装置 | |
JP5058686B2 (ja) | 情報処理方法及び情報処理装置 | |
JP5388932B2 (ja) | 情報処理装置およびその制御方法 | |
JP4789745B2 (ja) | 画像処理装置および方法 | |
US7671875B2 (en) | Information processing method and apparatus | |
JP4926817B2 (ja) | 指標配置情報計測装置および方法 | |
JP5693691B2 (ja) | 情報処理装置、その処理方法及びプログラム | |
US7911503B2 (en) | Information processing apparatus and information processing method | |
JP5196825B2 (ja) | 画像処理装置、画像処理方法 | |
WO2006082825A1 (ja) | 指標配置計測方法、位置姿勢推定方法、指標配置計測装置、位置姿勢推定装置 | |
JP2008134161A (ja) | 位置姿勢計測方法、位置姿勢計測装置 | |
JP6762913B2 (ja) | 情報処理装置、情報処理方法 | |
JP2017129567A (ja) | 情報処理装置、情報処理方法、プログラム | |
JP2017187861A (ja) | 情報処理装置およびその制御方法 | |
KR102546346B1 (ko) | 전방위 카메라의 캘리브레이션을 위한 장치 및 방법 | |
JP5726024B2 (ja) | 情報処理方法および装置 | |
JP6109213B2 (ja) | 情報処理装置および方法、プログラム | |
JP2006064585A (ja) | 画像処理方法、画像処理装置 | |
JP7029501B2 (ja) | 情報処理装置、情報処理方法 | |
WO2017125983A1 (en) | Information processing apparatus, information processing method, and program for estimating position and orientation of a camera | |
Gava et al. | A Unifying Structure from Motion Framework for Central Projection Cameras |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111205 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130722 |