JP4532856B2 - 位置姿勢計測方法及び装置 - Google Patents
位置姿勢計測方法及び装置 Download PDFInfo
- Publication number
- JP4532856B2 JP4532856B2 JP2003193633A JP2003193633A JP4532856B2 JP 4532856 B2 JP4532856 B2 JP 4532856B2 JP 2003193633 A JP2003193633 A JP 2003193633A JP 2003193633 A JP2003193633 A JP 2003193633A JP 4532856 B2 JP4532856 B2 JP 4532856B2
- Authority
- JP
- Japan
- Prior art keywords
- orientation
- index
- image
- measurement
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Description
【発明の属する技術分野】
本発明は、現実空間を撮像する撮像部と姿勢変化量を計測する姿勢変化計測部を備える撮像装置の位置姿勢を計測する位置姿勢計測技術に関するものである。
【0002】
【従来の技術】
現実空間を撮像するカメラなどの撮像部(以下適宜カメラと言い換える)の位置姿勢計測は、例えば現実空間と仮想空間とを融合表示する複合現実感システムにおいて必要となる。
【0003】
特許文献1乃至4において従来の技術として開示されるように、このようなカメラの位置姿勢を求める方法として、当該カメラの撮像画像を用いずに、例えば磁気センサ等の位置姿勢センサによってカメラの位置姿勢を計測する方法がある(以下、方法1と呼ぶ)。
【0004】
特許文献1乃至3記載の発明は、方法1の方法では十分な精度が得られないという課題に着目した発明である。そして、方法1に加えて、現実空間に配置した位置が既知のマーカ、または現実空間中の位置が既知の特徴点(以下、マーカと特徴点を合わせて指標という)を用いて、カメラの位置姿勢を測定する位置姿勢センサの計測誤差を補正する方法が開示されている。特許文献1乃至3で開示される方法は、個々に計算原理や手段、工程が異なるものの、カメラの位置姿勢を測定するための6自由度の位置姿勢センサから得られる情報と、現実空間に配置した位置が既知の点の情報及びこれらの点をカメラで捉えた情報とを基にして、カメラの位置姿勢を求めるという点で共通である。そこで、これらの方法をまとめて、以降では方法2と呼ぶ。
【0005】
また、別の方法として、非特許文献1乃至3などに開示されるように、現実空間(シーン)に存在する指標をカメラで撮像して得られる情報のみから、このカメラの位置姿勢を求める方法が数多く実施されている。カメラ以外にセンサを用いないこの方法を、以降では方法3とよぶ。
【0006】
方法3は、画像処理のみによってカメラの位置姿勢を測定する方法であるため、高速な頭部の動きによってフレーム間での指標の位置が大きく変化するような場合には追跡に失敗してしまう問題がある。
【0007】
この問題に対処する方法として、非特許文献4では、カメラ以外のセンサを組み合わせて利用する方法が提案されている。この方法は、現在のフレームで検出した指標の座標とジャイロセンサから得た角速度から、次フレームにおける指標の座標を予測することにより、画像中の指標の検出精度を向上させる方法である。さらに、この方法を発展させて、非特許文献5では、指標の座標予測方法に、画像情報から得られる情報を追加する改良が加えられた方法が提案されている。カメラ以外のセンサを用いて指標の座標を予測するこれらの方法を、以降では方法4と呼ぶ。
【0008】
これ以外の方法として、同時に、ジャイロセンサなどの慣性センサを利用する方法の別の方法として、拡張カルマンフィルタを用いる方法が提案されている。これは、方法4のように、次画像フレームにおける指標の予測計算のために慣性センサを単純に利用する方法ではない。これは、カメラ位置姿勢の推定計算(予測計算)を行う拡張カルマンフィルタに対して、慣性センサ計測情報を直接的に入力値として組み込む試みである。同時に、指標の画像座標値も拡張カルマンフィルタへの入力となる。
【0009】
すなわち、慣性センサの計測値と画像から検出する指標の位置を情報の入力源とし、拡張カルマンフィルタにこれらの情報を直接的に適用し、カメラの現在の位置姿勢を予測的に推定する方法である(慣性センサや画像から得られる指標の位置は、現在のカメラの位置姿勢を基準とすると過去に得られた情報であるため、現在の位置姿勢の推定は予測的に求められることとなる)。この方法は、正確に一定間隔で連続した時間にて、途切れなく連続して得られるセンサの計測情報と画像から検出した指標の情報とを用いて、連続したカメラの動きを予測することによって、カメラの位置姿勢を推定する方法である。この方法として、非特許文献6では、6個の加速度センサを組み合わせることで3軸の並進加速度と3軸の回転角加速度を得て、それを拡張カルマンフィルタへの入力として用いることでカメラの位置と姿勢を推定する方法が提案されている。また、非特許文献7及び8においても、ジャイロセンサと拡張カルマンフィルタを用いる手法が提案されている。ジャイロセンサと拡張カルマンフィルタを用いるこれらの方法を方法5と呼ぶ。
以上のように、大きく分けて、方法1から方法5までの方法が従来の技術として存在する。
【0010】
【特許文献1】
特開平11−084307号公報
【特許文献2】
特開2000−041173号公報
【特許文献3】
特願2000−364230号(特開2002−228442号公報)
【特許文献4】
特開2002−230586号公報
【0011】
【非特許文献1】
W. A. Hoff and K. Nguyen, "Computer vision-based registration techniques for augmented reality", Proc. SPIE, vol.2904, pp. 538-548, Nov. 1996
【非特許文献2】
U. Neumann and Y. Cho, " A self-tracking augmented reality system", Proc. VRST '96, pp.109-115, July 1996.
【非特許文献3】
暦本 純一、「2次元マトリックスコードを利用した拡張現実感システムの構成手法」、インタラクティブシステムとソフトウェアIV、近代科学社、pp.199-208, Dec. 1996.
【非特許文献4】
S. You, U. Neumann, and R. Azuma,"Hybrid inertial and vision tracking for augmented reality registration", Proc. IEEE Virtual Reality '99, pp.260-267, Mar. 1999.
【非特許文献5】
藤井, 神原, 岩佐, 竹村、「拡張現実感のためのジャイロセンサを併用したステレオカメラによる位置合わせ」 信学技報, PRMU99-192, Jan. 2000.
【非特許文献6】
横小路, 菅原, 吉川、「頭部装着型ディスプレイのための視覚と加速度を用いた位置追跡法」,日本バーチャルリアリティ学会第2回大会論文集, pp.121-124, Sep. 1997.
【非特許文献7】
L. Chai, K. Nguyen, B. Hoff, and T. Vincent,"An adaptive estimator for registration in augmented reality", ibid, pp.23-32, Oct. 1999.
【非特許文献8】
S. You and U. Neumann, "Fusion of vision and gyro tracking for robust augmented reality registration", Proc. IEEE Virtual Reality 2001, pp.71-78, Mar. 2001.
【0012】
【発明が解決しようとする課題】
方法1は、方法2ですでに問題視されているように、一般に6自由度センサのみを利用する方法では、得られる位置姿勢の精度が十分ではないという問題がある。また、6自由度センサは一般に、カメラに固定して用いるセンサ部分の他に、このセンサ部分で検出するための信号を出力するための、現実空間(カメラを除く)に固定された別の装置を必要とする。例えば、磁気式の6自由度センサの場合、測定対象に取り付けられたセンサで計測するための磁場を発生する装置が、光学式センサの場合には、受光装置あるいは、発光装置がこの別の装置に相当する。そして、この別の装置が必要であることは、センサの計測範囲がある限られた範囲に拘束されることを意味する。また、設置場所の関係上、別の装置の設置自体が困難であったり、設置可能であっても取り付けが面倒であるといった問題点もある。さらには、センサ自体が一般に高価格であるという問題点もある。
【0013】
方法2は、方法1の問題点のうち、計測精度が十分でない点に鑑みて考案された方法であり、計測精度が低いという問題点に対しては解決している。しかし、6自由度センサを利用する以上、計測範囲の問題、設置の問題、価格の問題は解決されない。
【0014】
方法3は、6自由度センサを用いない方法であるため、原理的に計測範囲の問題も存在せず、設置やコストの問題もない。また、現実空間内で位置が既知である指標が、十分な数カメラにて観察できているならば、位置姿勢の計測精度も十分である。しかし、一旦、指標がカメラから観察できない状態になると、カメラの位置姿勢を全く求めることができなくなってしまう。そのため、カメラが動きうるあらゆる位置とあらゆる姿勢にて、常に、必要十分な情報量の指標が見えていなければならないこととなる。すなわち、非常に多くの指標を現実空間内に配置しておく、あるいは、指標の3次元位置を何らかの方法で入力しておかなければならないという問題がある。
【0015】
さらには、画像から指標を検出する際に、指標の検出安定性に問題がある場合がある。これを詳しく説明すると、指標の検出を安定化するためには、個々の指標について、単体でその指標を識別、特定することが可能となるよう、面的に広がりをもつ大きな指標を用い、かつ、カメラで得られる画像中にてその指標が十分に大きな面積を占めるような条件になるようにしなければならない。しかし、そのような大きな指標を、現実空間に常に設置できるとは限らない。そのため、大きな指標を用いる代わりに、単体ではどの指標か識別できないような例えば点状の小さな指標を用いざるを得ない状況が生じる。この場合、例えば急激なカメラの動きがあった場合、指標の検出に失敗する可能性が高くなる。
【0016】
方法4は、方法3の指標の検出の安定性の問題に鑑みて考案された方法である。しかし、この方法では、画像からの指標検出に先立って、指標位置を予測するためだけにジャイロセンサを用いており、指標の検出の安定性を増す以外に関しては、方法3と同じ問題を持っている。なお、方法3においては、ジャイロセンサにより得られる情報は、カメラの位置姿勢の推定計算には利用されておらず、位置姿勢の推定計算に関しては方法3と同様である。ジャイロセンサのような慣性センサは、現実空間内に設置しなければならない装置はないため、方法1および方法2のもつ計測範囲の問題と設置の問題はない。また、一般に低価格であるため、方法1および方法2の価格の問題も解決する方法である。
【0017】
方法5は、以上の方法1から方法4までの方法とは異なり、正確に一定間隔の連続した時間にて、途切れなく連続してカメラの位置姿勢を推定する方法である。方法5では、一定間隔で連続した情報を取得する必要があり、また、一定間隔で推定計算を連続的に行う必要がある。しかし、得られる位置姿勢を複合現実感システムに応用するような場合を考慮すると、仮想空間の描画という必要時間の不確かな処理が工程内に含まれるため、描画が終わる時点でのカメラの位置姿勢が、拡張カルマンフィルタによる計算を行う時点では予測できず、必ずしも有効に機能しない。その上、同じ理由で推定計算を正確な一定間隔で行うこと自体困難である場合がある。そのため、複合現実感システムにはそもそも方法5を適用することが困難であったり、適用しても計算結果が正しく求められなくなるなどの問題がある。
【0018】
また、拡張カルマンフィルタの設計と利用局面に合わせたパラメータの調整が繊細であり、良好な動作を実現するための設定を行うことが難しいという問題がある。良好な設定が行えなかった場合、ある一時刻の情報のみを用いる方法1から方法3までの方法では起こりえない問題として、位置姿勢計測結果が時間軸方向でふらつく(ある一時刻で切り出してみると、その時点での画像中の指標位置が合っていない状態になりえるといった位置姿勢の精度が悪い結果を生む)現象が発生しうる。なお、方法4は、ジャイロセンサの計測結果を指標の検出領域の推定という限定した形態で利用するため、このような方法5の問題は発生せず、基本的に方法1から方法3と同様である。
本発明は上述の問題点に鑑みてなされたものであり、位置姿勢計測において、簡便な構成により精度の高い計測結果を得ることができるようにすることを目的とする。
【0019】
【課題を解決するための手段】
本発明の目的を達成するために、例えば本発明の、現実空間画像を連続して撮像する撮像装置の位置姿勢を計測する位置姿勢計測方法は、撮像装置に設けられた角速度センサにより順次計測される角速度に基づいて、前回の位置姿勢計測時から現処理対象の現実空間画像を撮像した時までの撮像装置の姿勢の変化量を計測する姿勢変化計測工程と、撮像装置が撮像した現処理対象の現実空間画像中に含まれる指標の画像中の座標を求める第1の画像座標計算工程と、記憶手段に記憶された、前回の位置姿勢計測時に計測された撮像装置の位置姿勢と、姿勢変化計測工程で得られる姿勢の変化量とに基づいて、現処理対象の現実空間画像を撮像した時の撮像装置の位置姿勢を推定する位置姿勢推定工程と、当位置姿勢推定工程で得た位置姿勢における、撮像装置の撮像画面中における指標の座標を求める第2の画像座標計算工程と、第1の画像座標計算工程で求めた指標の座標と、第2の画像座標計算工程で求めた指標の座標とから得られる情報量に応じた修正方法により、位置姿勢推定工程で推定した位置姿勢を修正する位置姿勢修正工程と、修正された位置姿勢を計測結果として記憶手段に記憶する記憶制御工程とを有することを特徴とする。
【0020】
また、本発明の、現実空間画像を連続して撮像する撮像装置の位置姿勢を計測する位置姿勢計測装置は、撮像装置に設けられた角速度センサにより順次計測される角速度に基づいて、前回の位置姿勢計測時から現処理対象の現実空間画像を撮像した時までの撮像装置の姿勢の変化量を計測する姿勢変化計測手段と、撮像装置が撮像した現処理対象の現実空間画像中に含まれる指標の画像中の座標を求める第1の画像座標計算手段と、記憶手段に記憶された、前回の位置姿勢計測時に計測された撮像装置の位置姿勢と、姿勢変化計測手段で得られる姿勢の変化量とに基づいて、現処理対象の現実空間画像を撮像した時の撮像装置の位置姿勢を推定する位置姿勢推定手段と、当位置姿勢推定手段で得た位置姿勢における、撮像装置の撮像画面中における指標の座標を求める第2の画像座標計算手段と、第1の画像座標計算手段で求めた指標の座標と、第2の画像座標計算手段で求めた指標の座標とから得られる情報量に応じた修正方法により、位置姿勢推定手段で推定した位置姿勢を修正する位置姿勢修正手段と、修正された位置姿勢を計測結果として記憶手段に記憶する記憶制御手段とを有することを特徴とする。
【0022】
また、上述の目的は、本発明の位置姿勢計測方法をコンピュータ装置に実現させるためのコンピュータプログラム及び、このコンピュータプログラムを記録したコンピュータ装置読み取り可能な記録媒体によっても達成される。
【0023】
【発明の実施の形態】
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1に本実施形態における位置姿勢測定装置100を頭部装着型装置(HMD=Head Mounted Display)101に適用した場合の機能構成を示す。HMD101は、カメラ102と角速度センサ103と表示器104を有し、現実空間内を移動可能である。カメラ102は現実空間を撮像し、撮像した画像を表す信号を撮像画像取得部105へ出力する。角速度センサ103は、振動ジャイロなどの原理に基づいて、HMDの動きの角速度を計測する。表示器104は、画像を表示することのできる表示器であり、通常は右目用、左目用の2つの表示器から構成される。
【0024】
なお、本実施形態においては、カメラ102、角速度センサ103及び表示器104の3つがその位置を固定されてなるHMD101を用いているが、カメラ102と角速度センサ103とが固定された位置関係を有して現実空間内を移動可能でありさえすれば、必ずしも表示器104は他の2つに対して固定されていなくてもよいし、HMD101内に内蔵されていなくてもよい。
【0025】
105は、撮像画像取得部であり、カメラ102から送られてきた信号を受け、画像データを生成する。得られる画像データは、106の特徴点検出部に送られると共に、後述の撮像画像描画部111へと送られる。特徴点検出部106は、入力された画像データに含まれる、現実空間中の指標(予め配置したマーカでも良いし、建造物や特徴的な地形等の特徴点でも良い)を検出する機能を有する。このとき、画像における指標の位置(画像中の2次元座標)も検出される。
【0026】
位置姿勢更新処理部107は、角速度センサ103からの角速度信号と、例えば装置内のクロック信号を利用した計時処理によって得られる経過時間から、姿勢の変化量を計算し、この変化量を位置姿勢バッファ110に保持されている過去の値または位置姿勢の最初期値108に単純に積算することによって、位置姿勢(を表す情報)を更新する。カメラ位置姿勢推定演算部109は、位置姿勢更新処理部107にて得られたカメラの位置姿勢に基づいて、現実空間内にある指標の3次元位置を画像面へと投影し、得られる画像上での指標の投影点と、特徴点検出部106にて得られている指標の画像面上での検出位置とに基づいて、カメラの位置姿勢を推定する。この推定処理に関しては詳しく後述する。
【0027】
カメラ位置姿勢推定演算部109で得られたカメラの位置姿勢は、位置姿勢バッファ110に保持されると共に、仮想空間融合描画部112に渡される。位置姿勢バッファ110は、カメラ位置姿勢推定演算部109にて求めたカメラの位置姿勢を保持しておくバッファであり、保持された位置姿勢は上述のように位置姿勢更新部107で利用される。
【0028】
撮像画像の描画部111と仮想空間融合描画部112は、本実施形態に係る位置姿勢測定装置100の出力するカメラ位置姿勢を利用する装置の一例であり、位置姿勢の測定とは無関係な構成要素である。
【0029】
撮像画像の描画部111は、特徴点検出部106と同様に、画像取得部105にて得られた画像データを受け取り、現実空間の撮像結果そのものであるこの画像データを、表示器104への表示用のバッファ(図示せず)に描画する。
【0030】
仮想空間融合描画部112は、撮像画像描画部111にて描画したバッファと同じ表示バッファに対して仮想空間(仮想物体画像)を上書き描画することによって、仮想空間の融合描画を行う。より具体的には、カメラ102で撮影した現実空間(現実空間画像)と、予め定められた仮想空間モデルをカメラ位置姿勢推定演算部109で求めたカメラの位置姿勢に基づいて描画することによって生成した仮想空間(仮想物体画像)とを合成する。
【0031】
仮想空間融合描画部112は、表示バッファの内容をHMD101に内蔵されている表示器104へ送信する。これにより表示器104では融合描画結果が表示される。
【0032】
このような構成を有する位置姿勢計測装置100は、HMD101のカメラ102からの映像信号及び、角速度センサ103からの検出信号を受信可能であれば、HMD101が移動する範囲とは無関係に任意の場所に設置可能であり、6自由度センサを用いる際に必要な別の装置とは大きく異なる。
【0033】
図2は、図1で示した本実施形態におけるHMD101を利用する環境を示す模式図である。この図にあるように、HMD101には、カメラ102が内蔵され、角速度センサ103が固定され、また表示器104が内蔵されている。このHMD101は現実空間内で自由に移動することが可能であり、観察対象となる現実空間には、指標としてのマーカ204が配置されている。なお、上述したように、指標は現実空間内での3次元位置が既知な点であり、かつ、指標を撮影した画像から特徴点検出部106にて検出可能な特徴量をもつ。
【0034】
検出可能な特徴量を与えるには、例えばマーカ204の形状や色、その面積等を、撮影した画像から特徴点検出部106において検出可能であるように定めることによって実現することができる。
【0035】
引き続いて、上記構成を備える位置姿勢計測装置100が行う処理について、図3と図4に示したフローチャートを参照して説明する。図3と図4は、本実施形態におけるメインの処理のフローチャートである。なお、これらの二つの図は、紙面の都合で二つに分割しているだけであり、フローチャート結合子により接続している通り、ひとつのフローチャートである。
【0036】
ステップS301にて、まず、カメラの初期位置姿勢を設定する。カメラの初期位置姿勢とは、以降のステップで利用するカメラの位置姿勢の初期値のことであり、本実施形態を実行する時点でのカメラのおおよその位置姿勢を表すものである。この初期位置姿勢は、処理開始時におけるカメラの正確な位置姿勢を表している必要はなく、おおよその位置と姿勢を表現していればよい。
【0037】
ステップS301で用いることの可能な初期位置姿勢としては、例えば、起動時点でのカメラの位置姿勢が大きく変化しないという仮定の基に、予め定数値として保存してある値を用いることができる。ここでは、初期値108に格納してある定数値であるカメラの位置姿勢初期値を、カメラの位置姿勢として設定するものとする。
【0038】
また、定数値を用いる代わりに、位置姿勢の測定対象であるカメラ(カメラ102)で撮像した画像を用いて、その画像特徴を利用して推定したカメラの位置姿勢を用いることが可能である。この場合、カメラの位置姿勢の6自由度を推定することが可能となるマーカ(初期位置姿勢設定用マーカ)を、図2のマーカ204とは別に用意し、それを近傍に配置しておく。そして、初期位置姿勢設定用マーカが撮像されるようにカメラを設定した状態にて処理を開始し、ステップS301にて、カメラで撮像された初期位置姿勢設定用マーカからカメラの位置姿勢を推定し、初期位置姿勢として利用する。
【0039】
次に、ステップS302とステップS304を並列に実行する。ステップS302は、後述するステップS303と連なって連続的に実行されるステップであり、ステップS304はこのステップのみで連続的に実行されるステップである。ステップS302とS303の説明の前に、これらのステップで行う処理の説明のため、まずは、ステップS304を説明する。
【0040】
ステップS304では、カメラ102からの映像を撮像画像取得部105にて取得する処理を実行する。カメラ102は、連続した時間にて連続したフレームの画像を撮像しつづけており、この取得工程では、この連続したフレームにおけるある一時刻の画像の1枚分の信号を取得する。ある一時刻の画像がすべて取得できたタイミングで、後述するステップS303で利用する画像の取得が終了したことを表すトリガーを発生する。また、取得された画像データは、ステップS305への処理にて利用される。このステップS304は、1画面分の画像を取得する処理が終了すると、すぐさま次のフレームの取得を行うために、再びステップS304に処理が渡される。すなわち、ステップS304は連続的にカメラからの画像データを取得しつづけ、1枚分の画像データが取得できたタイミングで、トリガーを発生するステップである。
【0041】
ステップS304にて、1枚分の画像データの取得が終了すると、引き続きステップS305が実行され、ステップS305では、得られた画像を基にして特徴点検出部107により、その画像から204に示すマーカの検出を行う。後の説明のため、得られた画像上でのマーカの検出点の位置をVi(i=1,2,...)と表現しておく。
【0042】
ステップS302では、角速度センサ103を用いて角速度の計測を行う。次に、ステップS303にて、ステップS302で計測した角速度を、経過時間を基に積算する。ステップS303の処理終了後、直ちにステップS302の処理が行われ、角速度の計測が再び行われる。ここで、経過時間とはステップS303にて積算処理を行う間隔であり、ステップS302の計測とステップS303の計算時間との両方を加味した微小な時間のことである。この2つのステップは、微小な時間を均等に刻むクロックに同期して動作させることができ、そのクロックの間隔を経過時間として利用することができる。このようなクロックは、コンピュータ機器の動作用に通常用いられるクロック発生器が出力するクロックを用いて生成することが可能である。
【0043】
ステップS302及びS303は繰り返し実行され、ステップS302で計測された角速度は、随時ステップS303にて積算される。ただし、ステップS303は、単純に積算しつづけるだけではなく、ステップS304が1枚の画像取得後に発生するトリガーを入力として、そのトリガーを受けた時点での積算結果をステップS306に渡し、積算値を0にリセットする。
【0044】
ステップS306では、ステップS303からデータが受け渡されるタイミング、すなわち、ステップS303がステップS304のトリガーを入力として積算値を出力するタイミングにて、その時点で保存されているカメラの位置姿勢を基にして、ステップS303で得られた角速度の積算値を足し合わせることにより、新たなカメラ位置姿勢を計算する。ここで、本フローチャートが動作を開始してステップS306を初めて実行する際に用いられるカメラの位置姿勢は、ステップS301にて設定されたカメラの位置姿勢の初期値である。後述するように、以降のステップを経た後、再びこのステップS306が実行されるが、その段階では、後述するステップにより計算されたカメラの位置姿勢を用いることとなる。
【0045】
ステップS307では、ステップS306にて得られたカメラの位置姿勢を利用して、その位置姿勢で撮影されるシーン(現実空間)中に配置されているマーカ204の3次元位置をカメラの撮像面上での2次元位置、すなわち、カメラにて得られる画像面上での2次元位置に投影計算する。この投影計算は、マーカ204の座標値、すなわち、シーン内に配置されている世界座標系でのマーカの座標値を、カメラ座標系、すなわち、カメラの位置を原点としカメラの姿勢に応じて軸の向きが変化する三次元座標系の座標値へと変換するビューイング変換を行う工程と、カメラ座標系の座標値を画像面へと透視投影変換する工程の2つの工程により計算することができる。以下にその方法の詳細を示す。
【0046】
まず、カメラの位置を表す3次元ベクトルをtConW、姿勢を表す3x3回転変換行列をRConWとすると、カメラ座標系上の点Xc=[xcyczc]を世界座標系(図1)上の点Xw=[xwywzw]に変換する変換式は、
【0047】
【0048】
と表せる。ここで、姿勢の計測値を、回転軸ベクトル[rx ry rz](rx 2+ry 2+rz 2=1)と回転角raによって表現すると、
【0049】
として計算することができる。
【0050】
ビューイング変換とは、この式(1)で表された座標変換の逆変換に相当する変換である。すなわち、世界座標系上の点Xw=[xwywzw]から、カメラ座標系Xc=[xcyczc]への変換は、
【0051】
【0052】
と表される。
ここで、以降の工程の説明のため、新たに
【0053】
【0054】
とし、MconW -1の回転成分をR、平行移動成分をtとおく。これにより、
Xc=RXw+t‥‥ (4)
と表すことができる。補足として、このR,tは、カメラの位置姿勢の計測値そのものではない(逆変換の回転成分と平行移動成分である)。この式(4)のXwとして、マーカの位置を用いることにより、マーカの世界座標系上での座標値からカメラ座標系の座標値を計算することができる。
【0055】
次に、カメラ座標系上の点を画像面へと透視投影変換する。投影される画像面上の2次元点の座標をU=[uxuy]tとすると、次式により計算することができる。
【0056】
【0057】
ここで、fx,fyはカメラのx軸方向とy軸方向それぞれの焦点距離である。カメラの焦点距離は物理的には1つの値を持つが、ここではx軸方向とy軸方向のアスペクト比を同時に表現するため、2つの値をもって焦点距離として表している。また、焦点距離はカメラ固有の値であり予め求められているものとする。
【0058】
この透視投影変換式(5)を、
(uxuy)=P(xcyczc)‥‥ (6)
U=P(Xc)
と表現すると、世界座標系上にある点が画面上に変換される式は、式(4)と式(6)から、
U=P(RXw+t)‥‥ (7)
と表すことができる。
【0059】
すなわち、ステップS307で行うマーカの3次元位置の画像面への投影計算とは、世界座標系上でのマーカの点の座標値をXwとし、式(7)を用いて画像面の位置Uを計算する工程である。
【0060】
次に、ステップS308にて、ステップS307で得られた画像面上でのマーカの投影位置と、ステップS305にて得られている、画像中のマーカ位置とを比較し、画像面上での距離が十分に近いマーカ対を同じマーカであると同定する。
【0061】
ステップS309では、ステップS308にて同定できたマーカが、ステップS306で求めたカメラの位置姿勢を6自由度全てについて修正可能な情報量を有するかの判定の一例として、同定されたマーカが3点(3対)以上あるかどうかを判定する。3点以上ある場合にはステップS311へと進み、2点以下の場合にはステップS310へと進む処理を行う。すなわち、ステップS310ではさらに、同定されたマーカがあるかどうかを判定し、ある場合にはステップS313へと進み、ない場合にはステップS314へと進む処理を行う。
【0062】
次に、ステップS311およびS312での処理を説明する。ステップS311とS312では、3点以上の同定されたマーカを利用したカメラ位置姿勢の推定(初期値の修正)を行う。式(4)の回転成分Rは、式(2)で示したように回転軸と回転角で表すことができ、さらに回転角を回転軸の長さで((ωx,ωy,ωz)=(rarx,rary,rarz))と表現することにより3値で表現できる。そこで、回転成分Rと平行移動成分tを合わせた6自由度のパラメータをベクトルS=[ωx ωy ωz tx ty tz]tとおく。これにより、3次元空間内での回転と平行移動による座標変換であるビューイング変換式(4)をXc=T(S,Xw)と表現するとすると、投影変換まで含めた変換式(7)は、
Ui=N〜(T(S,Xi))=F((S,Xi))‥‥ (8)
と表現できる。
【0063】
一方、画像上で検出した指標の位置に関しては、3次元位置姿勢センサの計測値を基にして得られたビューイング変換の6自由度パラメータSと真のカメラの位置姿勢から得られるであろうビューイング変換の6自由度パラメータの差をΔSと表現すると(すなわち、真のビューイング変換の6自由度パラメータはS+ΔSとなる)、
Vi=N〜(T(S+ΔS,Xi))=F((S+ΔS,Xi))‥‥ (9)
という式が成り立つ。
【0064】
もしも、ステップS306で得られているカメラの位置姿勢が真値を表現していれば、ΔSは0でありUiとViは同じ点となるが、ステップS306で得られているカメラの位置姿勢は真値ではないため、UiとViは同じ点にはならない。カメラの位置姿勢を求めるということは、UiとViとの間の誤差を基にして、ΔSもしくはS+ΔSを推定するということである。言い換えれば、この2点の距離、すなわち画像面上での誤差ベクトル、
ΔUi=Ui−Vi‥‥ (10)
の長さの二乗誤差
【0065】
が、最小になるΔSもしくはS+ΔSを求めることができればよい。
【0066】
これは、ニュートン法などの繰り返し演算を用いて、求めることができる。以下では、ニュートン法を用いた場合を例に説明する。まず、式(8)の右辺をtx,ty,tz,ωx,ωy,ωzで偏微分した関数を求める。式(8)をtx,ty,tz,ωx,ωy,ωzという6変数で偏微分した解を各要素に持つヤコビ行列は、
【0067】
【0068】
である。ここで、j要素数のベクトルaからk要素数のベクトルbへのヤコビ行列は、j×k要素数の行列となりこれをJbaと表示している。
uxとuyとをなんらかの変数pで偏微分すると、式(5)及び式(6)から、
【0069】
となることから、式(12)の行列の右側3列の各要素は、
【0070】
としてカメラ座標系上での指標の位置と焦点距離により求めることができる。
【0071】
また同様に、式(12)の行列の左側3列の各要素は、
である。ここで、
【0072】
はその詳細は述べないが世界座標系上での指標の位置と回転軸回転角により求めることができるので、式(14)すなわち式(12)の行列の左側3列の要素は、世界座標系上での指標の位置と回転軸回転角により求めることができる。
【0073】
さらに、式(12)から、
【0074】
という式が成り立つ。これは、Sの微小な変化量に対して、そのときのSの値を基にして得られるJusを用いて、Uの微小な変化量を計算することができることを意味している。このことから、実際の誤差量ΔUとΔSとは、ΔSが小さいときには、
【0075】
【0076】
という関係となる。ここで、この補正計算に用いる点(指標)は、n点(n≧3)あることを考える。式(16)は、それぞれの点にて成り立つことから、n点のベクトルをさらに垂直に並べたベクトルを用いて、
【0077】
【0078】
という式が成り立つ。式(17)中の[ΔU1 ΔU2 … ΔUn]と[Jus1 Jus2 … Jusn]をそれぞれ
【0079】
【0080】
とおくと、すべての点にて同じ重みで誤差最小となるΔSは、Φの一般化逆行列(疑似逆行列)を用いて、
【0081】
として求めることができる。
【0082】
これは、ニュートン法でSを求める問題において、Sがある状態にあるときに、次のSを求める計算過程に相当する。言い換えると、ニュートン法の繰り返し最適化過程のある一過程の計算として適用できる。すなわち、ある初期値S0があるときに、不変量である指標の世界座標系上での位置x1,x2,…,xnと、誤差ベクトル[ΔU1 ΔU2 … ΔUn]とを基にして式(19)を用いてΔSを求めることができる。
【0083】
この結果を用いて、S1=S0+ΔSとし、[ΔU1 ΔU2 … ΔUn]を計算し直し、再び式(19)を用いてΔSを求める。さらにこの結果を用いて、S2=S1+ΔSとし、再び同じ計算を行うという処理を[ΔU1 ΔU2 … ΔUn]が0に近づくまで、あるいはk回繰り返したときにとSk-1とSkの差がほとんどなくなるまで繰り返す。この繰り返し処理により、画像面上での指標の投影位置と検出位置の誤差が最小になるカメラのビューイング変換の6自由度パラメータをSkとして求めることができる。
【0084】
ステップS311では、この繰り返し演算に必要となる初期値として、ステップS306にて得られているカメラの位置姿勢を設定する処理を行う。この値を基にして上述の繰り返し演算を行う処理が、ステップS312である。
【0085】
ここで、式(11)の誤差errが最小になるようにSを求める方法は、なんらかの繰り返し演算を用いればよいだけであり、必ずしもニュートン法を用いる必要はない。例えば、Levenberg-Marquardt法(LM法)や、シンプレックス法などが利用できることが知られている。
【0086】
以上でステップS311、およびS312によるカメラの位置姿勢推定方法について述べた。次に、ステップS309にてNoと判定され、ステップS310にてYesと判定された場合、すなわち、利用できるマーカが1点もしくは2点しかない場合に進むステップS313について説明する。この場合、利用できるマーカ点数が少ないため、カメラの位置姿勢という6自由度すべてが最適になるようにカメラの位置姿勢を推定することはできない。
【0087】
そこで、カメラの姿勢の3自由度(座標軸周りの回転方向の自由度)、もしくは、カメラの位置の3自由度(座標軸に平行な並進方向の自由度)のいずれかのみを補正する処理を行う。利用できるマーカが1点しかない場合に関しては、その点が完全に一致するように、姿勢もしくは位置を補正する方法を用いる。もしも、利用できるマーカが2点ある場合には、2点ともが完全に一致する補正量の平均的な補正量を用いて、補正を行う。
【0088】
次に、ステップS310にてNoと判定された場合に進むステップS314について説明する。ステップS314では、マーカを利用したカメラ位置姿勢の推定や補正を行うことができないため、ステップS306にて得られているカメラの位置姿勢をそのまま現在のカメラ位置姿勢であると見做す。
【0089】
ステップS312、ステップS313、またはステップS314のいずれの工程を経る場合であっても、これらの工程からは、図4のステップS401へと処理が続く。ステップS401では、ステップS304にて撮像画像取得部105により得られている画像を、撮像画像の描画部111を用いて描画する。次に、ステップS402では、ステップS312、S313、S314のいずれかの方法により得られているカメラの位置姿勢を用いて、仮想空間の融合描画部112により仮想空間(仮想物体の画像)を撮像画像描画結果の上に上書き描画する。この結果、現実空間と仮想空間の融合描画結果が得られる。
【0090】
ステップS403では、得られた融合描画結果を表示部104に表示する。これにより、HMD101を通して、観察者は現実空間と仮想空間の融合画像を観察することができる。この後、ステップS404にて、全処理を終了するかどうかを判定する。
【0091】
もしも、処理を終了する場合には、ステップS302とS303の処理と、ステップS304の処理を終了させ、全工程を終了する。終了しない場合、すなわち、継続してカメラの位置姿勢を求め続け、融合画像の表示を行う場合には、ステップS306へと進む。ステップS306では、上述した通り、その処理を行う時点で得られているカメラの位置姿勢を基にした処理を行うため、ステップS312、S313、S314のいずれかの方法により得られたカメラの位置姿勢が利用される。
【0092】
【他の実施形態】
上述の実施形態においては、本発明による位置姿勢計測装置をHMDに設けたカメラの位置姿勢検出に適用した場合のみを説明したが、本発明による位置姿勢計測装置は、他の任意の撮像装置の位置姿勢計測に適用可能である。
【0093】
また、上述の実施形態においては、検出対象となる撮像装置の姿勢を検出する角速度センサを用いた場合のみを説明したが、前回求めた位置姿勢から現時点での位置姿勢を推定可能な情報が得られれば、角速度センサに限らず6自由度センサ以外の任意のセンサからの信号を利用しうる。
【0094】
上述の実施形態においては、1つの機器から構成される位置姿勢計測装置についてのみ説明したが、同等の機能を複数の機器から構成されるシステムによって実現しても良い。
【0095】
尚、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図3、図4に示すフローチャートに対応したプログラム)を、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。
【0096】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
【0097】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
【0098】
プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。
【0099】
有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。
【0100】
つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。
【0101】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0102】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0103】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0104】
【発明の効果】
以上の説明により、本発明によれば、6自由度センサを用いる必要がないため、6自由度センサの計測範囲の問題、設置の問題、価格の問題を解決することができる。また、カメラの姿勢変化量を計測するため、カメラで得られる画像のみから位置姿勢を推定する方法のもつ指標の検出の不安定を引き起こすことがない。さらに、カメラの姿勢変化量の計測結果を、指標の検出位置の予測だけに留まらず、カメラの位置姿勢の計測にも直接利用することができる。加えて、拡張カルマンフィルタを用いる方法のように、正確な一定間隔での位置姿勢の予測計算を行う必要無く、カメラの位置姿勢を計測することが可能となる。
【図面の簡単な説明】
【図1】 本発明の一実施形態に係る位置姿勢計測装置とHMDを有するシステムの機能構成を示すブロック図である。
【図2】 図1のシステムの使用状態を説明する模式図である。
【図3】 本発明の一実施形態に係る位置姿勢計測装置が行う位置計測処理を説明するフローチャートである。
【図4】 本発明の一実施形態に係る位置姿勢計測装置が行う位置計測処理を説明するフローチャートである。
Claims (10)
- 現実空間画像を連続して撮像する撮像装置の位置姿勢を計測する位置姿勢計測方法であって、
前記撮像装置に設けられた角速度センサにより順次計測される角速度に基づいて、前回の位置姿勢計測時から現処理対象の現実空間画像を撮像した時までの前記撮像装置の姿勢の変化量を計測する姿勢変化計測工程と、
前記撮像装置が撮像した前記現処理対象の現実空間画像中に含まれる指標の画像中の座標を求める第1の画像座標計算工程と、
記憶手段に記憶された、前記前回の位置姿勢計測時に計測された前記撮像装置の位置姿勢と、前記姿勢変化計測工程で得られる姿勢の変化量とに基づいて、現処理対象の現実空間画像を撮像した時の前記撮像装置の位置姿勢を推定する位置姿勢推定工程と、
当該位置姿勢推定工程で得た位置姿勢における、前記撮像装置の撮像画面中における指標の座標を求める第2の画像座標計算工程と、
前記第1の画像座標計算工程で求めた指標の座標と、前記第2の画像座標計算工程で求めた指標の座標とから得られる情報量に応じた修正方法により、前記位置姿勢推定工程で推定した位置姿勢を修正する位置姿勢修正工程と、
前記修正された位置姿勢を計測結果として前記記憶手段に記憶する記憶制御工程と
を有することを特徴とする位置姿勢計測方法。 - 前記位置姿勢が座標軸周りの回転方向の3自由度と、前記座標軸に平行な並進方向の3自由度の計6自由度を有し、
前記位置姿勢修正工程が、前記情報量が前記位置姿勢の6自由度のどの程度を修正するに足りるかに応じて、前記修正方法を決定することを特徴とする請求項1記載の位置姿勢計測方法。 - 前記情報量が、前記第1の画像座標計算工程で求めた指標と、前記第2の画像座標計算工程で求めた指標とのうち、対応関係にある指標対を同定することによって得られることを特徴とする請求項1又は請求項2に記載の位置姿勢計測方法。
- 前記情報量が、前記同定された指標対の数であることを特徴とする請求項3記載の位置姿勢計測方法。
- 前記修正方法には、前記同定された各指標対間の距離が最小となるように前記位置姿勢推定工程で推定した位置姿勢を修正する方法が含まれることを特徴とする請求項3又は請求項4記載の位置姿勢計測方法。
- 前記修正方法には、前記同定された指標対の少なくとも1つが一致するような補正に基づいて前記位置姿勢推定工程で推定した位置姿勢を修正する方法が含まれることを特徴とする請求項3乃至請求項5のいずれか1項に記載の位置姿勢計測方法。
- 前記修正方法には、前記同定された指標対がない場合、前記位置姿勢推定工程で推定した位置姿勢をそのまま修正後の位置姿勢とする方法が含まれることを特徴とする請求項3乃至請求項6のいずれか1項に記載の位置姿勢計測方法。
- 現実空間画像を連続して撮像する撮像装置の位置姿勢を計測する位置姿勢計測装置であって、
前記撮像装置に設けられた角速度センサにより順次計測される角速度に基づいて、前回の位置姿勢計測時から現処理対象の現実空間画像を撮像した時までの前記撮像装置の姿勢の変化量を計測する姿勢変化計測手段と、
前記撮像装置が撮像した前記現処理対象の現実空間画像中に含まれる指標の画像中の座標を求める第1の画像座標計算手段と、
記憶手段に記憶された、前記前回の位置姿勢計測時に計測された前記撮像装置の位置姿勢と、前記姿勢変化計測手段で得られる姿勢の変化量とに基づいて、現処理対象の現実空間画像を撮像した時の前記撮像装置の位置姿勢を推定する位置姿勢推定手段と、
当該位置姿勢推定手段で得た位置姿勢における、前記撮像装置の撮像画面中における指標の座標を求める第2の画像座標計算手段と、
前記第1の画像座標計算手段で求めた指標の座標と、前記第2の画像座標計算手段で求めた指標の座標とから得られる情報量に応じた修正方法により、前記位置姿勢推定手段で推定した位置姿勢を修正する位置姿勢修正手段と、
前記修正された位置姿勢を計測結果として前記記憶手段に記憶する記憶制御手段と
を有することを特徴とする位置姿勢計測装置。 - 請求項1乃至請求項7のいずれか1項に記載の位置姿勢計測方法における各工程をコンピュータ装置に実行させるためのプログラム。
- 請求項9記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193633A JP4532856B2 (ja) | 2003-07-08 | 2003-07-08 | 位置姿勢計測方法及び装置 |
EP04254058A EP1501051A3 (en) | 2003-07-08 | 2004-07-07 | Position and orientation detection method and apparatus |
CNB2004100626666A CN100417197C (zh) | 2003-07-08 | 2004-07-08 | 位置姿势测量方法及装置 |
US10/885,664 US7613356B2 (en) | 2003-07-08 | 2004-07-08 | Position and orientation detection method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003193633A JP4532856B2 (ja) | 2003-07-08 | 2003-07-08 | 位置姿勢計測方法及び装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005033319A JP2005033319A (ja) | 2005-02-03 |
JP4532856B2 true JP4532856B2 (ja) | 2010-08-25 |
Family
ID=33487620
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003193633A Expired - Fee Related JP4532856B2 (ja) | 2003-07-08 | 2003-07-08 | 位置姿勢計測方法及び装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US7613356B2 (ja) |
EP (1) | EP1501051A3 (ja) |
JP (1) | JP4532856B2 (ja) |
CN (1) | CN100417197C (ja) |
Families Citing this family (105)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7046214B2 (en) * | 2003-12-17 | 2006-05-16 | Information Decision Technologies, Llc | Method and system for accomplishing a scalable, multi-user, extended range, distributed, augmented reality environment |
US7676079B2 (en) * | 2003-09-30 | 2010-03-09 | Canon Kabushiki Kaisha | Index identification method and apparatus |
JP4593968B2 (ja) * | 2004-05-14 | 2010-12-08 | キヤノン株式会社 | 位置姿勢計測方法および装置 |
DE102004047519B4 (de) * | 2004-09-28 | 2021-08-12 | Leica Microsystems Cms Gmbh | Verfahren zur Überlagerung optischer Informationen bei einem Scan-Mikroskop |
JP5127128B2 (ja) * | 2004-12-21 | 2013-01-23 | 韓國電子通信研究院 | カメラの位置及び姿勢情報補正方法及びその装置 |
JP4859205B2 (ja) | 2005-02-04 | 2012-01-25 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN1855273A (zh) * | 2005-04-06 | 2006-11-01 | 索尼株式会社 | 再现装置、设定改变方法和设定改变装置 |
JP4914019B2 (ja) * | 2005-04-06 | 2012-04-11 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
EP1739622B1 (en) * | 2005-06-28 | 2013-08-14 | Canon Kabushiki Kaisha | Image feature identification with two cameras |
JP4574473B2 (ja) | 2005-07-11 | 2010-11-04 | キヤノン株式会社 | 情報処理装置および方法 |
IL169934A (en) * | 2005-07-27 | 2013-02-28 | Rafael Advanced Defense Sys | Real-time geographic information system and method |
FR2889761A3 (fr) * | 2005-08-09 | 2007-02-16 | Total Immersion | Systeme permettant a un utilisateur de localiser une camera afin de pouvoir inserer, rapidement de maniere ajustee, des images d'elements virtuels dans des images video d'elements reels captees par la camera |
JP5084167B2 (ja) * | 2006-03-31 | 2012-11-28 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP5403861B2 (ja) | 2006-11-06 | 2014-01-29 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5132138B2 (ja) | 2006-11-28 | 2013-01-30 | キヤノン株式会社 | 位置姿勢計測方法、位置姿勢計測装置 |
JP4960754B2 (ja) * | 2007-04-25 | 2012-06-27 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
JP5013961B2 (ja) * | 2007-05-21 | 2012-08-29 | キヤノン株式会社 | 位置姿勢計測装置及びその制御方法 |
CA2717745A1 (en) * | 2008-03-07 | 2009-09-11 | Intelligent Spatial Technologies, Inc. | Mobile device and geographic information system background and summary of the related art |
DE102008023439B4 (de) * | 2008-05-14 | 2011-02-17 | Christian-Albrechts-Universität Zu Kiel | Augmented Reality Fernglas zur Navigationsunterstützung |
JP5195041B2 (ja) * | 2008-05-30 | 2013-05-08 | 富士ゼロックス株式会社 | 指示装置、対象物認識装置およびプログラム |
JP5047090B2 (ja) | 2008-07-31 | 2012-10-10 | キヤノン株式会社 | システム |
US9600067B2 (en) * | 2008-10-27 | 2017-03-21 | Sri International | System and method for generating a mixed reality environment |
KR101199492B1 (ko) | 2008-12-22 | 2012-11-09 | 한국전자통신연구원 | 광역 이동을 고려한 실시간 카메라 트래킹 장치 및 방법 |
US9024972B1 (en) * | 2009-04-01 | 2015-05-05 | Microsoft Technology Licensing, Llc | Augmented reality computing with inertial sensors |
KR101658212B1 (ko) * | 2009-04-29 | 2016-09-21 | 코닌클리케 필립스 엔.브이. | 카메라에 대한 최적의 시야각 위치를 선택하는 방법 |
JP5393318B2 (ja) * | 2009-07-28 | 2014-01-22 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
US20110039573A1 (en) * | 2009-08-13 | 2011-02-17 | Qualcomm Incorporated | Accessing positional information for a mobile station using a data code label |
DE102009037835B4 (de) | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
DE102009058802B4 (de) * | 2009-12-18 | 2018-03-29 | Airbus Operations Gmbh | Anordnung zur kombinierten Darstellung eines realen und eines virtuellen Modells |
EP2354893B1 (en) * | 2009-12-31 | 2018-10-24 | Sony Interactive Entertainment Europe Limited | Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation |
JP5434608B2 (ja) * | 2010-01-08 | 2014-03-05 | トヨタ自動車株式会社 | 測位装置及び測位方法 |
US8855929B2 (en) * | 2010-01-18 | 2014-10-07 | Qualcomm Incorporated | Using object to align and calibrate inertial navigation system |
FR2960082B1 (fr) * | 2010-05-17 | 2012-08-10 | Commissariat Energie Atomique | Procede et systeme pour fusionner des donnees issues de capteurs d'images et de capteurs de mouvement ou de position |
US9229089B2 (en) | 2010-06-10 | 2016-01-05 | Qualcomm Incorporated | Acquisition of navigation assistance information for a mobile station |
US9031809B1 (en) * | 2010-07-14 | 2015-05-12 | Sri International | Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion |
US8625200B2 (en) | 2010-10-21 | 2014-01-07 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more reflective optical surfaces |
US10359545B2 (en) | 2010-10-21 | 2019-07-23 | Lockheed Martin Corporation | Fresnel lens with reduced draft facet visibility |
US9632315B2 (en) | 2010-10-21 | 2017-04-25 | Lockheed Martin Corporation | Head-mounted display apparatus employing one or more fresnel lenses |
US8781794B2 (en) | 2010-10-21 | 2014-07-15 | Lockheed Martin Corporation | Methods and systems for creating free space reflective optical surfaces |
WO2012083042A1 (en) | 2010-12-16 | 2012-06-21 | Lockheed Martin Corporation | Collimating display with pixel lenses |
US9179139B2 (en) * | 2011-01-10 | 2015-11-03 | Kodak Alaris Inc. | Alignment of stereo images pairs for viewing |
US20120176474A1 (en) * | 2011-01-10 | 2012-07-12 | John Norvold Border | Rotational adjustment for stereo viewing |
KR102009711B1 (ko) | 2011-02-07 | 2019-08-12 | 뉴우바란스아스레틱스인코포레이팃드 | 운동 동작 모니터링 시스템 및 그 방법 |
US10363453B2 (en) | 2011-02-07 | 2019-07-30 | New Balance Athletics, Inc. | Systems and methods for monitoring athletic and physiological performance |
JP5734700B2 (ja) * | 2011-02-24 | 2015-06-17 | 京セラ株式会社 | 携帯情報機器および仮想情報表示プログラム |
JP5724543B2 (ja) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | 端末装置、オブジェクト制御方法及びプログラム |
US8686851B2 (en) | 2011-06-08 | 2014-04-01 | General Electric Company | System and method for rapid location of an alarm condition |
US9437005B2 (en) | 2011-07-08 | 2016-09-06 | Canon Kabushiki Kaisha | Information processing apparatus and information processing method |
WO2013021458A1 (ja) * | 2011-08-09 | 2013-02-14 | パイオニア株式会社 | 複合現実感装置 |
US10209771B2 (en) * | 2016-09-30 | 2019-02-19 | Sony Interactive Entertainment Inc. | Predictive RF beamforming for head mounted display |
US10585472B2 (en) | 2011-08-12 | 2020-03-10 | Sony Interactive Entertainment Inc. | Wireless head mounted display with differential rendering and sound localization |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
US9529426B2 (en) * | 2012-02-08 | 2016-12-27 | Microsoft Technology Licensing, Llc | Head pose tracking using a depth camera |
JP5863034B2 (ja) * | 2012-02-17 | 2016-02-16 | Kddi株式会社 | 情報端末装置 |
JP2012145598A (ja) * | 2012-05-07 | 2012-08-02 | Canon Inc | 情報処理方法及び情報処理装置 |
US9123135B2 (en) * | 2012-06-14 | 2015-09-01 | Qualcomm Incorporated | Adaptive switching between vision aided INS and vision only pose |
CN102840825B (zh) * | 2012-08-21 | 2015-01-07 | 华北电力大学 | 一种质点定位系统及方法 |
US20140067869A1 (en) | 2012-08-30 | 2014-03-06 | Atheer, Inc. | Method and apparatus for content association and history tracking in virtual and augmented reality |
US9210384B2 (en) | 2012-09-20 | 2015-12-08 | NAE Systems Information and Electronic Systems Integration Inc. | System and method for real time registration of images |
JP5465299B2 (ja) * | 2012-09-21 | 2014-04-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
WO2014048475A1 (en) * | 2012-09-27 | 2014-04-03 | Metaio Gmbh | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image |
US10444845B2 (en) | 2012-12-21 | 2019-10-15 | Qualcomm Incorporated | Display of separate computer vision based pose and inertial sensor based pose |
US10341611B2 (en) | 2013-04-30 | 2019-07-02 | Inuitive Ltd. | System and method for video conferencing |
DE102013106345A1 (de) * | 2013-06-18 | 2014-12-18 | Ergoneers Gmbh | Objekterfassungssystem und Untersuchungsanordnung für Sehstörungen |
KR20150026201A (ko) * | 2013-09-02 | 2015-03-11 | 엘지전자 주식회사 | 디지털 디바이스 및 제어 방법 |
KR101817452B1 (ko) | 2013-09-24 | 2018-01-11 | 메타이오 게엠베하 | 모바일 디바이스 상에 실제 환경의 뷰에서 관심 지점을 나타내기 위한 방법 및 그것을 위한 모바일 디바이스 |
EP2869023B1 (en) | 2013-10-30 | 2018-06-13 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method and corresponding computer program |
JP2015115848A (ja) * | 2013-12-13 | 2015-06-22 | セイコーエプソン株式会社 | 頭部装着型表示装置および頭部装着型表示装置の制御方法 |
US9303999B2 (en) * | 2013-12-30 | 2016-04-05 | Google Technology Holdings LLC | Methods and systems for determining estimation of motion of a device |
JP6346445B2 (ja) | 2014-01-10 | 2018-06-20 | キヤノン株式会社 | 処理装置、処理装置の制御方法、およびプログラム |
KR20150101612A (ko) * | 2014-02-27 | 2015-09-04 | 엘지전자 주식회사 | 폐쇄형 시야(Closed-view)를 제공하는 헤드 마운티드 디스플레이 및 그 제어 방법 |
JP6338421B2 (ja) | 2014-03-31 | 2018-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法、把持システムおよびプログラム |
US9953243B2 (en) * | 2014-04-25 | 2018-04-24 | Google Llc | Electronic device localization based on imagery |
JP6372149B2 (ja) * | 2014-04-28 | 2018-08-15 | 富士通株式会社 | 表示制御装置、表示制御方法および表示制御プログラム |
DE102014009699B4 (de) * | 2014-06-26 | 2022-05-19 | Audi Ag | Verfahren zum Betreiben einer Anzeigeeinrichtung und System mit einer Anzeigeeinrichtung |
WO2016061447A1 (en) | 2014-10-17 | 2016-04-21 | Lockheed Martin Corporation | Head-wearable ultra-wide field of view display device |
CN104333675B (zh) * | 2014-10-20 | 2017-09-05 | 长春理工大学 | 一种基于球面投影的全景电子稳像方法 |
ES2543038B2 (es) * | 2014-12-23 | 2015-11-26 | Universidad De Cantabria | Método y sistema de localización espacial mediante marcadores luminosos para cualquier ambiente |
WO2016141054A1 (en) | 2015-03-02 | 2016-09-09 | Lockheed Martin Corporation | Wearable display system |
JP6552256B2 (ja) * | 2015-04-30 | 2019-07-31 | キヤノン株式会社 | 画像処理装置及び画像処理装置の制御方法 |
JP6464934B2 (ja) * | 2015-06-11 | 2019-02-06 | 富士通株式会社 | カメラ姿勢推定装置、カメラ姿勢推定方法およびカメラ姿勢推定プログラム |
JP6464938B2 (ja) * | 2015-06-16 | 2019-02-06 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
US10073531B2 (en) * | 2015-10-07 | 2018-09-11 | Google Llc | Electronic device pose identification based on imagery and non-image sensor data |
US10754156B2 (en) | 2015-10-20 | 2020-08-25 | Lockheed Martin Corporation | Multiple-eye, single-display, ultrawide-field-of-view optical see-through augmented reality system |
KR102462799B1 (ko) * | 2015-11-05 | 2022-11-03 | 삼성전자주식회사 | 자세 추정 방법 및 자세 추정 장치 |
CN106899796A (zh) * | 2015-12-18 | 2017-06-27 | 富泰华工业(深圳)有限公司 | 拍照系统及方法 |
WO2017115271A1 (en) * | 2015-12-30 | 2017-07-06 | Cimagine Media Ltd. | Method of plane tracking |
CN105719299A (zh) * | 2016-01-22 | 2016-06-29 | 吉林大学 | 分离的计算机视觉位置及方向与惯性传感器位置及方向的显示 |
GB201603207D0 (en) | 2016-02-24 | 2016-04-06 | Cooper Technologies Co | Electronic device configuration |
US9995936B1 (en) | 2016-04-29 | 2018-06-12 | Lockheed Martin Corporation | Augmented reality systems having a virtual image overlaying an infrared portion of a live scene |
CN106203257B (zh) * | 2016-06-27 | 2019-12-06 | 深圳市新国都支付技术有限公司 | 一种可识别标识的方法和系统 |
US10445925B2 (en) * | 2016-09-30 | 2019-10-15 | Sony Interactive Entertainment Inc. | Using a portable device and a head-mounted display to view a shared virtual reality space |
IL302483B2 (en) * | 2016-11-16 | 2024-06-01 | Magic Leap Inc | A mixed reality system with reduced use of force |
EP3410353A1 (en) | 2017-06-01 | 2018-12-05 | eyecandylab Corp. | Method for estimating a timestamp in a video stream and method of augmenting a video stream with information |
US20190007672A1 (en) | 2017-06-30 | 2019-01-03 | Bobby Gene Burrough | Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections |
CN111295663B (zh) * | 2017-11-06 | 2024-08-13 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
JP7172030B2 (ja) * | 2017-12-06 | 2022-11-16 | 富士フイルムビジネスイノベーション株式会社 | 表示装置及びプログラム |
CN109032348B (zh) * | 2018-06-26 | 2021-09-14 | 亮风台(上海)信息科技有限公司 | 基于增强现实的智能制造方法与设备 |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
CN109506617B (zh) * | 2018-12-28 | 2021-08-10 | 歌尔科技有限公司 | 传感器数据处理方法、存储介质、电子设备 |
JP7356697B2 (ja) * | 2019-06-11 | 2023-10-05 | 国立大学法人静岡大学 | 画像観察システム |
EP4102326A4 (en) * | 2020-02-07 | 2023-08-02 | Panasonic Intellectual Property Management Co., Ltd. | POSITIONING SYSTEM |
US11435185B2 (en) * | 2020-02-21 | 2022-09-06 | Microsoft Technology Licensing, Llc | Systems and methods for deep learning-based pedestrian dead reckoning for exteroceptive sensor-enabled devices |
FR3115120A1 (fr) * | 2020-10-08 | 2022-04-15 | Renault | Dispositif de réalité augmentée |
US11082679B1 (en) | 2021-01-12 | 2021-08-03 | Iamchillpill Llc. | Synchronizing secondary audiovisual content based on frame transitions in streaming content |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10255081A (ja) * | 1997-03-10 | 1998-09-25 | Canon Inc | 画像処理方法及び画像処理装置 |
JPH10255069A (ja) * | 1997-03-10 | 1998-09-25 | Canon Inc | 画像処理システム |
EP0901105A1 (en) * | 1997-08-05 | 1999-03-10 | Canon Kabushiki Kaisha | Image processing apparatus |
JPH1184307A (ja) | 1997-09-01 | 1999-03-26 | M R Syst Kenkyusho:Kk | 頭部装着型の光学装置 |
JP3976900B2 (ja) * | 1998-07-23 | 2007-09-19 | キヤノン株式会社 | 視点位置姿勢の決定方法及びカメラ装置 |
JP2000121364A (ja) | 1998-10-15 | 2000-04-28 | Japan Aviation Electronics Industry Ltd | 方位計 |
JP3372926B2 (ja) | 1999-03-26 | 2003-02-04 | キヤノン株式会社 | ヘッドマウントディスプレイ装置およびヘッドマウントディスプレイシステム |
JP3521066B2 (ja) | 1999-06-11 | 2004-04-19 | 日本電気株式会社 | ビデオオンデマンドシステム及びそのためのカット切替後フレーム間符号化ピクチャ削除方法 |
JP3467017B2 (ja) * | 2000-11-30 | 2003-11-17 | キヤノン株式会社 | 位置姿勢の決定方法及び装置並びに記憶媒体 |
JP3398796B2 (ja) * | 2001-01-31 | 2003-04-21 | 飛島建設株式会社 | 複合現実感を利用した3次元測量支援用画像システム |
JP2002258944A (ja) | 2001-03-05 | 2002-09-13 | Yaskawa Electric Corp | 移動台車の遠隔操作装置および移動台車の操舵入力装置 |
US6765569B2 (en) * | 2001-03-07 | 2004-07-20 | University Of Southern California | Augmented-reality tool employing scene-feature autocalibration during camera motion |
JP4492909B2 (ja) | 2001-06-14 | 2010-06-30 | 独立行政法人鉄道建設・運輸施設整備支援機構 | 水平コントロールボーリング工法及びその装置 |
US20030012410A1 (en) * | 2001-07-10 | 2003-01-16 | Nassir Navab | Tracking and pose estimation for augmented reality using real features |
JP2003143381A (ja) * | 2001-08-22 | 2003-05-16 | Canon Inc | 画像処理装置 |
JP3805231B2 (ja) * | 2001-10-26 | 2006-08-02 | キヤノン株式会社 | 画像表示装置及びその方法並びに記憶媒体 |
US7200270B2 (en) * | 2001-12-13 | 2007-04-03 | Kabushiki Kaisha Toshiba | Pattern recognition apparatus and method using distributed model representation of partial images |
JP3796449B2 (ja) * | 2002-01-31 | 2006-07-12 | キヤノン株式会社 | 位置姿勢決定方法および装置並びにコンピュータプログラム |
EP1349114A3 (en) * | 2002-03-19 | 2011-06-15 | Canon Kabushiki Kaisha | Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus |
JP2004151085A (ja) * | 2002-09-27 | 2004-05-27 | Canon Inc | 情報処理方法及び情報処理装置 |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
-
2003
- 2003-07-08 JP JP2003193633A patent/JP4532856B2/ja not_active Expired - Fee Related
-
2004
- 2004-07-07 EP EP04254058A patent/EP1501051A3/en not_active Withdrawn
- 2004-07-08 CN CNB2004100626666A patent/CN100417197C/zh not_active Expired - Fee Related
- 2004-07-08 US US10/885,664 patent/US7613356B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US7613356B2 (en) | 2009-11-03 |
EP1501051A3 (en) | 2008-06-18 |
CN100417197C (zh) | 2008-09-03 |
EP1501051A2 (en) | 2005-01-26 |
CN1578414A (zh) | 2005-02-09 |
US20050008256A1 (en) | 2005-01-13 |
JP2005033319A (ja) | 2005-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4532856B2 (ja) | 位置姿勢計測方法及び装置 | |
CN108765498B (zh) | 单目视觉跟踪方法、装置及存储介质 | |
EP3467585B1 (en) | Head-mounted display tracking system | |
CN110047104B (zh) | 对象检测和跟踪方法、头戴式显示装置和存储介质 | |
CN109146965B (zh) | 信息处理装置、计算机可读介质和头戴式显示装置 | |
WO2018142496A1 (ja) | 三次元計測装置 | |
US10504243B2 (en) | Calibration system for a head-mounted display tracking system | |
JP2018511098A (ja) | 複合現実システム | |
CN108700946A (zh) | 用于并行测距和建图的故障检测和恢复的系统和方法 | |
JP2017224984A (ja) | プログラム、装置、キャリブレーション方法 | |
JP2018207252A (ja) | 画像処理システム、画像処理システムの制御方法、及び、プログラム | |
JP2005038321A (ja) | ヘッドマウントディスプレイ装置 | |
JP6859447B2 (ja) | 情報処理システムおよび対象物情報取得方法 | |
CN116295327A (zh) | 定位方法、装置、电子设备和计算机可读存储介质 | |
WO2021215196A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
EP4445362A1 (en) | Augmented reality using a split architecture | |
JP7288792B2 (ja) | 情報処理装置およびデバイス情報導出方法 | |
JP6641525B2 (ja) | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム | |
WO2023157499A1 (ja) | 情報処理装置およびデバイス位置推定方法 | |
WO2023157498A1 (ja) | 情報処理装置、デバイス速度推定方法およびデバイス位置推定方法 | |
WO2023157338A1 (ja) | 情報処理装置およびデバイス位置推定方法 | |
JP4027294B2 (ja) | 移動体検出装置、移動体検出方法及び移動体検出プログラム | |
JP2024106855A (ja) | 情報処理装置およびデバイス位置取得方法 | |
Gat et al. | Fusing image data with location and orientation sensor data streams for consumer video applications | |
CN117994281A (zh) | 一种位姿跟踪方法和交互系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070629 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070820 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071019 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20071105 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20080222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100512 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100611 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4532856 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130618 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |