[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP3486613B2 - 画像処理装置およびその方法並びにプログラム、記憶媒体 - Google Patents

画像処理装置およびその方法並びにプログラム、記憶媒体

Info

Publication number
JP3486613B2
JP3486613B2 JP2001062224A JP2001062224A JP3486613B2 JP 3486613 B2 JP3486613 B2 JP 3486613B2 JP 2001062224 A JP2001062224 A JP 2001062224A JP 2001062224 A JP2001062224 A JP 2001062224A JP 3486613 B2 JP3486613 B2 JP 3486613B2
Authority
JP
Japan
Prior art keywords
image
posture
index
correction
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001062224A
Other languages
English (en)
Other versions
JP2002259992A (ja
Inventor
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001062224A priority Critical patent/JP3486613B2/ja
Priority to PCT/JP2001/002547 priority patent/WO2002071330A1/ja
Priority to EP01917530A priority patent/EP1376464B1/en
Priority to DE60144296T priority patent/DE60144296D1/de
Publication of JP2002259992A publication Critical patent/JP2002259992A/ja
Priority to US10/644,829 priority patent/US7193636B2/en
Application granted granted Critical
Publication of JP3486613B2 publication Critical patent/JP3486613B2/ja
Priority to US11/625,483 priority patent/US7587295B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、撮像画像から計測
対象の姿勢を求める技術に関するものである。
【0002】
【従来の技術】近年、複合現実感(以下、「MR」(M
ixed Reality)と称す)に関する研究が盛
んに行われている。
【0003】MRには、ビデオカメラなどの撮影装置で
撮影された現実空間の映像に仮想空間(たとえばコンピ
ュータグラフィックス(以下、CGと称す)により描画
された仮想物体や文字情報など)の映像を重畳表示する
ビデオシースルー方式と、ユーザが頭部に装着したHM
D(Head−Mounted Display)に現
実空間の像を光学的に透過させつつ、その表示画面に仮
想空間の映像を重畳表示する光学シースルー方式があ
る。
【0004】MRの応用としては、患者の体内の様子を
透視しているかのように医師に提示する医療補助の用途
や、工場において製品の組み立て手順を実物に重ねて表
示する作業補助の用途など、今までのVRとは質的に全
く異なった新たな分野が期待されている。
【0005】これらの応用に対して共通に要求されるの
は、現実空間と仮想空間の間の位置合わせをいかにして
行うかという技術であり、従来から多くの取り組みが行
われてきた。
【0006】ビデオシースルー方式のMRにおける位置
合わせの問題は、撮影装置の視点の位置姿勢を正確に求
める問題に帰結される。また光学シースルー方式のMR
における位置合わせの問題は、同様にユーザの視点の位
置姿勢を求める問題といえる。
【0007】従来のMRシステム(特に屋内におけるM
Rシステム)では、これらの問題を解決する方法とし
て、磁気センサや超音波センサなどの位置姿勢センサを
利用して、これらの視点の位置姿勢を導出することが一
般的に行われている。
【0008】一方、従来の屋外におけるMRシステムで
は、これらの視点の姿勢の導出にジャイロセンサ(厳密
には、3軸方向の角速度を計測するための複数のジャイ
ロセンサと、3軸方向の加速度を計測するための複数の
加速度センサの組み合わせによって構成される3軸姿勢
センサであるが、本明細では便宜上これをジャイロセン
サと呼ぶこととする)が利用されている。
【0009】
【発明が解決しようとする課題】しかし、ジャイロセン
サを用いて視点の姿勢を求める場合、高精度なジャイロ
センサを用いた場合であっても、ジャイロセンサにはド
リフト誤差があるため、時間経過に伴って徐々に方位方
向の計測値に誤差が生じてしまう。また、ジャイロセン
サは姿勢計測のみしか行えないため、視点の位置の変化
に追従することが出来ない。つまり、時間経過や視点の
位置の変化に伴って現実空間と仮想空間との間に位置ず
れが生じてしまう。
【0010】本発明は以上の問題に鑑みてなされたもの
であり、視点の姿勢または位置姿勢の計測を行うことを
目的とし、特に、時間経過に伴って生じる方位方向成分
の誤差補正を行うことを目的とする。
【0011】
【課題を解決するための手段】本発明の目的を達成する
ために、例えば本発明の画像処理装置は以下の構成を備
える。
【0012】すなわち、計測対象との間の位置関係が固
定されている撮像装置と、前記撮像装置の撮像視点の姿
勢を計測する姿勢センサと、前記計測対象の姿勢および
/または位置を、前記姿勢センサの出力に基づいて算出
するための算出情報を記憶する記憶手段と、前記計測値
と前記記憶手段が記憶する前記算出情報を用いて撮像画
像中における指標の予測位置を求め、前記計測値から導
出される前記撮像装置のロール方向の回転角に基づいた
回転処理を当該撮影画像中における当該予測位置の周辺
領域に施した画像を作成し、ターゲット画像として出力
するターゲット画像設定手段と、前記指標のテンプレー
ト画像と前記ターゲット画像との間でテンプレートマッ
チング処理を行うことにより、前記ターゲット画像中に
おける前記指標の位置を検出する検出手段と、前記検出
手段が検出した前記指標の検出位置に基づいて、前記記
憶手段に記憶されている前記算出情報を更新する更新手
段と、前記計測値と前記更新手段によって更新された前
記算出情報に基づいて、前記計測対象の姿勢および/ま
たは位置を算出する算出手段とを備えることを特徴とす
【0013】本発明の目的を達成するために、例えば本
発明の画像処理装置は以下の構成を備える。 すなわち、
撮像装置によって撮像された撮像画像中における指標の
位置の検出を、当該指標のテンプレート画像を用いたテ
ンプレートマッチングによって行う画像処理装置であっ
て、 前記撮像装置の撮像視点の姿勢を計測する姿勢セン
サと、 前記姿勢センサが計測した前記姿勢の計測値を利
用して前記撮像画像中における前記指標の予測位置を求
め、前記撮像画像中における当該予測位置の周辺領域に
前記計測値のうちのロール方向の回転角に基づいた回転
処理を施した画像を作成しターゲット画像として出力す
るターゲット画像作成手段と、 前記テンプレート画像と
前記ターゲット画像の間においてテンプレートマッチン
グ処理を行うことにより、前記撮影画像中における前記
指標の位置を検出する検出手段と を備えることを特徴と
する。 本発明の目的を達成するために、例えば本発明の
画像処理方法は以下の構成を備える。 すなわち、計測対
象との間の位置関係が固定されている撮像装置によって
撮像画像を撮像する撮像工程と、 前記撮像装置の撮像視
点の姿勢を計測する姿勢計測工程と、 前記計測対象の姿
勢および/または位置を、前記姿勢計測工程で計測した
計測値に基づいて算出するための算出情報を記憶する記
憶工程と、 前記計測値と前記記憶工程で記憶する前記算
出情報を用いて撮像画像中における指標の予測位置を求
め、前記計測値から導出される前記撮像装置のロール方
向の回転角に基づいた回転処理を当該撮影画像中におけ
る当該予測位置の周辺領域に施した画像を作成し、ター
ゲット画像として出力するターゲット画像設定工程と、
前記指標のテンプレート画像と前記ターゲット画像との
間でテンプレートマッチング処理を行うことにより、前
記ターゲット画像中における前記指標の位置を 検出する
検出工程と、 前記検出工程で検出した前記指標の検出位
置に基づいて、前記記憶工程で記憶されている前記算出
情報を更新する更新工程と、 前記計測値と前記更新工程
で更新された前記算出情報に基づいて、前記計測対象の
姿勢および/または位置を算出する算出工程と を備える
ことを特徴とする。 本発明の目的を達成するために、例
えば本発明の画像処理方法は以下の構成を備える。 すな
わち、撮像装置によって撮像された撮像画像中における
指標の位置の検出を、当該指標のテンプレート画像を用
いたテンプレートマッチングによって行う画像処理方法
であって、 前記撮像装置の撮像視点の姿勢を計測する姿
勢センサが計測した前記姿勢の計測値を利用して前記撮
像画像中における前記指標の予測位置を求め、前記撮像
画像中における当該予測位置の周辺領域に前記計測値の
うちのロール方向の回転角に基づいた回転処理を施した
画像を作成しターゲット画像として出力するターゲット
画像作成工程と、 前記テンプレート画像と前記ターゲッ
ト画像の間においてテンプレートマッチング処理を行う
ことにより、前記撮影画像中における前記指標の位置を
検出する検出工程と を備えることを特徴とする。
【0014】
【発明の実施の形態】以下添付図面を参照して、本発明
を好適な実施形態に従って詳細に説明する。
【0015】[第1の実施形態]本実施形態では、姿勢
センサによるカメラ視点の姿勢計測誤差を補正すること
で、位置ずれのないMR空間の提示を実現する画像処理
装置について説明する。
【0016】姿勢センサを備えたHMDの姿勢に応じ
て、現実物体の画像に仮想物体の画像を重畳描画する従
来の画像処理装置の構成を図2に示す。
【0017】同図のHMD200はビデオシースルー方
式のものであって、画像を表示するディスプレイ201
と、このHMD200を装着した観察者の視点位置から
現実空間を撮像するカメラ202(観察者視点カメラ)
を備え、またカメラ202の視点の姿勢を計測する姿勢
センサ203(例えばここではジャイロセンサ)を備え
ている。又、画像処理装置210は、姿勢センサ203
からセンサ出力を入力するセンサ入力モジュール21
1、カメラ202から現実物体の撮影画像を入力する画
像入力モジュール213、センサ入力モジュール211
から入力したカメラ202の視点の姿勢と他の方法によ
り得たカメラ202の視点位置に基づいてカメラ202
の視点の位置姿勢を表わす情報(例えば4×4のモデル
ビュー行列M)を生成する視点位置姿勢演算モジュー
ル212、視点位置姿勢演算モジュール212により演
算された視点の位置姿勢を表わす情報に基づいて現実物
体の画像に仮想物体の画像を重畳描画した画像を生成す
る画像生成モジュール214から構成されており、ディ
スプレイ201に提示画像を提供する。この場合、時間
経過に伴って、センサ出力の誤差の蓄積に応じて生じる
位置ずれを含んだ画像がディスプレイ201に表示され
る。
【0018】なお、本実施形態においては、視点位置は
固定値として予め視点位置姿勢演算モジュール212に
保持されているものとする。一般に、観察するMR空間
中の観察対象物体(現実物体、仮想物体)までの距離が
視点位置の実際の移動量に対して相対的に大きい場合に
は、視点位置に多少の誤差があっても画像上での位置ず
れに大幅な影響を与えないという性質がある。特に屋外
におけるMRシステムのように観察対象物体が遠方に存
在する場合で、かつ、観察者が一箇所に立ち止まってい
るような用途においては、このように視点の位置を固定
値とすることが有効である。もちろん、カメラ202の
視点位置を計測する他の位置センサ(例えばGPS等)
をHMD200にさらに装着し、その出力を視点位置と
して入力してもよい。
【0019】尚、本実施形態では、上記の理由から、視
点位置の誤差が相対値として十分に小さいものであり、
視点位置の誤差に起因する画像上での位置ずれは十分無
視できるほどのものであると仮定する。
【0020】次に、HMD200を繋いだ本実施形態に
おける画像処理装置の構成を図3に示す。図2と同じ部
分には同じ番号を付けており、又、図2と同じ部分につ
いては説明は省略する。
【0021】図3に示した画像処理装置310は、図2
に示した画像処理装置210に補正値演算モジュール2
15を付加し、さらに、視点位置姿勢演算モジュール2
12を視点位置姿勢演算モジュール312に変更した装
置の構成となっている。この補正値演算モジュール21
5は、画像入力モジュール213から入力した撮影画像
とセンサ入力モジュール211から入力した視点の姿勢
に基づいて、後述する補正値演算処理によって補正値
(補正行列ΔM)を算出し、視点位置姿勢演算モジュ
ール312へと出力する。視点位置姿勢演算モジュール
312は、センサ入力モジュール211から入力したカ
メラ202の視点の姿勢と他の方法により得たカメラ2
02の視点位置と補正値演算モジュール215から入力
した補正値に基づいて、後述する姿勢補正処理を実行し
て、センサ出力に基づいて算出した位置姿勢情報(モデ
ルビュー行列M)を補正して、補正後の視点位置姿勢
情報(補正後のモデルビュー行列M$)を生成する。
【0022】次に、補正値演算モジュール215におけ
る補正値演算処理の基本的原理について説明する。
【0023】補正値演算処理は、基本的には、画像上に
撮像されるランドマーク(例えばビルの角や家の屋根な
ど、その投影像の画像特徴を位置合わせの指標して利用
可能な現実物体(の一部分))を用いて、センサ出力に
基づいて予測した画像上におけるランドマークの観測予
測位置と、画像処理によって実際に検出される当該ラン
ドマークの画像上における観測位置に基づいて行われ
る。したがって、画像上から如何に正確かつ安定的にラ
ンドマークの観測位置を検出するかが、補正値演算処理
の最大のポイントとなる。
【0024】本実施形態では、ランドマークのテンプレ
ート画像を用いたテンプレートマッチングによってラン
ドマークの検出を行う。
【0025】一般に、テンプレートマッチングによって
画像中から画像特徴を抽出する場合には、画像面上にお
ける画像特徴の回転が問題となる。この画像特徴の回転
は、カメラや撮影対象物体がカメラ座標系におけるロー
ル方向に回転することで生じる。例えば、図14(a)
に示したテンプレート画像Tを用いて、図14(b)に
示した撮影画像I上からランドマークLを検出する場
合、画像特徴の回転を考慮しない探索処理を行った場合
には安定的にランドマークを検出することが出来ない。
一方、図14(c)に示すように、画像特徴の回転を考
慮した形でテンプレート画像Tに回転(図の例では45
°毎の回転)を加えたテンプレート画像T’を複数用意
し、各々のテンプレート画像毎に探索処理を行うこと
で、画像特徴の回転に対処したランドマークの検出を行
うことができる。しかし、計算量はテンプレートの数に
比例して増加するため、非常に計算負荷の高い処理とな
ってしまう。
【0026】本実施形態においては、姿勢センサ203
によって、カメラ202の視点の姿勢が計測されてい
る。この計測値のうちの方位方向の値については前述の
とおり時間経過に伴う誤差の蓄積が存在するが、方位方
向以外の2軸(すなわち、ロール方向とピッチ方向)に
ついては比較的正確な値が取得されている。したがっ
て、図14(d)に示したように、姿勢センサ203に
よって計測されるカメラ202のロール方向の回転角に
基づいて撮影画像Iに回転を加えた変換画像I’を生成
し、この画像I’上においてテンプレート画像Tによる
探索処理を行うことで、画像特徴の回転に依存しないラ
ンドマークの検出が可能となる。
【0027】さらに、本実施形態においては、他の2軸
の姿勢についても姿勢センサ203による計測値が得ら
れており、かつ、前フレームまでの処理において姿勢補
正値演算モジュール215にて前フレームにおける姿勢
補正値が得られている。したがって、図14(e)に示
したように、それらの値に基づいて撮影画像I上におけ
るランドマークの大まかな位置pを予測し、その予測位
置の近傍領域(同図におけるターゲット画像抽出領域)
に対してのみ上記の回転処理を行うことで、ランドマー
クの探索処理を行う対象であるターゲット画像Rを作成
し(図14(f))、探索範囲を限定することができ
る。
【0028】従って、テンプレートマッチングによるラ
ンドマークの検出を高速かつ安定的に行うことが可能と
なる。
【0029】次に、補正値演算モジュール215の具体
的な構成を図4に示す。
【0030】補正値演算モジュール215は、後述する
画像Iに基づいてテンプレート画像を生成するテンプ
レート画像生成モジュール403と、時刻tにおける画
像I とカメラ202の姿勢(roll)とに基づい
てターゲット画像を生成するターゲット画像生成モジュ
ール404、ターゲット画像とテンプレート画像とを用
いて類似度を算出し、ランドマークの位置を検出する対
応探索モジュール402、そして検出されたランドマー
クの位置に従って、これまでの補正値を最新の補正値
(後述する補正行列ΔM)に更新しこれを出力する補
正値更新モジュール401により構成されている。
【0031】次に、本実施形態で用いる各変数について
説明する。
【0032】・i番目(i=1,2,3,,,)のラン
ドマークをL ・ランドマークLの世界座標における位置(既知)を
=(X,Y,Z,1) ・カメラの既定の位置を(X,Y,Z) ・テンプレート画像生成の際に用いるカメラの既定の姿
勢を(roll,pitch,yaw) ・カメラの既定の位置姿勢におけるモデルビュー行列
(世界座標系からカメラ座標系への変換行列)をM ・カメラの焦点距離(既知)をf ・カメラの射影変換行列(カメラ座標系から画像座標系
への変換行列)(既知)をS ・カメラの既定の位置姿勢における撮影画像をI ・ランドマークLの画像I上における撮影位置をp
=(x ,y ,h ・ランドマークLを検索するためのテンプレート画像
をT ・テンプレート画像のサイズ(既定)をN×N ・テンプレート画像の座標の範囲をxs,xe,y
,ye(但し、xs=ys=−N/2の小数
部を切り捨てた値。xe=ye=xs+N−1) ・時刻tにおいて撮影された画像をI ・時刻tにおけるセンサによる姿勢計測値を(roll
,pitch,yaw) ・姿勢計測値(roll,pitch,yaw
から算出したモデルビュー行列(世界座標系からカメラ
座標系への変換行列)をM ・画像I上におけるランドマークLの撮像予測位置
をp =(x ,y ,h ・画像I上で実際に検出されるランドマークLの撮
像位置をp$ =(x$ ,y$ ) ・画像IからランドマークLを検出するための探索
処理を行う対象となるターゲット画像をR ・ランドマークのx方向の探索範囲(既定)を±m ・ランドマークのy方向の探索範囲(既定)を±n ・ターゲット画像のサイズをN’×N”(但し、N’=
N+2m,N”=N+2n) ・ターゲット画像の座標の範囲をxs,xe,ys
,ye(但し、xs=xs−m,xe=xe
+m,ys=ys−n,ye=ye+n) ・ターゲット画像上R におけるランドマークL
検出座標を(j ,k ) ・各ランドマークの検出座標(j ,k )の代表
値を(j,k) ・時刻tにおいて算出されるカメラの姿勢の補正更新値
Δroll,Δpitch,Δyaw ・時刻tにおいて算出されるカメラの位置の補正更新値
Δx,Δy,Δz ・時刻tにおいて算出されるモデルビュー行列Mを補
正するための補正行列をΔM ・これまでの処理で既に算出されている(時刻t−1で
算出されている)補正行列をΔMt−1 ・補正行列ΔMt−1を補正行列ΔMに更新するため
の補正更新行列ΔM’ ・Mを補正行列ΔMによって補正した補正後のモデ
ルビュー行列をM$ ・Mを補正行列ΔMt−1によって補正した補正後の
モデルビュー行列をM’ 以上の設定に基づいて、本実施形態における姿勢計測誤
差の補正処理について処理の流れに従って以下説明す
る。
【0033】<テンプレート画像の作成>まず、現実空
間を撮影するカメラを既定の位置姿勢に設定し画像I
を撮影する。図1に画像Iの例を示す。同図における
〜Lがランドマークであり、T〜Tで示した
枠の部分がそれぞれのランドマークに対応するテンプレ
ート画像として抽出される領域である。
【0034】次にモデルビュー行列Mを算出する。カ
メラの位置と姿勢からモデルビュー行列を算出する算出
方法は公知の方法であるので、ここでの説明は省略す
る。
【0035】また、撮影された画像中のランドマーク毎
(図1ではL〜L)にp を以下の式にて算出す
る。
【0036】p =SM そして次に各ランドマーク毎にテンプレート画像T
(図1ではT〜Tで示された部分の画像)を後述
の方法により作成する。
【0037】rollが0のときは、画像Iから
(x ,y )を中心としたN×Nのサイズの矩形
領域を抽出し、これをテンプレート画像Tとすればよ
い。テンプレート画像Tにおいては画像の中心を座標
(0,0)と表わすこととすると、この処理は以下のよ
うに記述することができる。
【0038】T(j,k)=I(x +j,y
+k) 但し、j=xs〜xe,k=ys〜ye
【0039】一方、rollが0でないときは、(x
,y )を中心として、N×Nの矩形領域を−r
ollだけ回転させた矩形領域を抽出する。すなわ
ち、j=xs〜xe,k=ys〜yeの各画素
について、 T(j,k)=I(x +jcos(−roll
)−ksin(−roll),y +jsin
(−roll)+kcos(−roll))となる
ようなテンプレート画像Tを作成する。
【0040】<各時刻におけるモデルビュー行列M
算出>時刻tにおけるセンサ出力(姿勢(roll
pitch,yaw))と、カメラの既定の位置
(X,Y,Z)に基づいて、モデルビュー行列M
を算出する。カメラの位置と姿勢からモデルビュー行
列を算出する算出方法は公知の方法であるので、ここで
の説明は省略する。
【0041】<補正値演算処理:モデルビュー行列M
を補正する補正行列ΔMの算出>モデルビュー行列M
を補正する補正行列ΔMの算出方法について説明す
る。
【0042】まずこれまでの処理で既に算出されている
補正行列ΔMt−1を用いてモデルビュー行列Mを補
正し、M’を求める。尚、この処理が最初の場合(t
=0の場合)、補正行列ΔMt−1は単位行列とする。
【0043】M’=ΔMt−1 次に各ランドマーク毎にp を以下の式に従って算出
する。
【0044】p =SM’ 尚、この方法は公知の方法であるため、詳細な説明は省
略する。また、各ランドマークの座標を求めた結果、そ
の座標が画像Iの座標の範囲外であるランドマーク
は、以後の処理対象から除外する。
【0045】次に、各ランドマーク毎にターゲット画像
を作成する。具体的には、画像Iから同画像に
おけるローカル座標である(x 、y )を中心と
したN’×N”の矩形領域を−rollだけ回転させ
た矩形を抽出する。すなわち、j=xs〜xe,k
=ys〜yeの各画素について、以下の変換を行
う。
【0046】R (j,k)=I(x +jco
s(−roll)−ksin(−roll),y
+jsin(−roll)+kcos(−roll
)) 次に各ランドマーク毎に、ターゲット画像R とテン
プレート画像Tのマッチングを行い、ターゲット画像
上におけるランドマークの位置(j ,k )を求
める。求める方法の具体的な処理について以下説明す
る。
【0047】まずターゲット画像R 上の座標(j,
k)を中心としたN×Nの矩形領域とテンプレート画像
との類似度e(j,k)を算出する。類似度の算出
は例えば相互相関やSSD(Sum of Square
d Difference)などによって行うが、公知
のいずれのテンプレートマッチング手法を用いてもよ
い。この類似度e(j,k)を全てのj及びk(ただ
し、j=−m〜m,k=−n〜n)について算出し、類
似度e(j,k)を最大にするj及びkを(j ,k
)とする。
【0048】そして、各ランドマークで求めた
(j ,k )から、代表値(j,k )を算出
する。代表値の算出は、例えば、各ランドマーク毎に求
めた(j ,k )の平均値やメディアン値を求め
ることで行う。なお、各ランドマーク毎に求めた(j
,k )のうち、その検出の際の類似度e
(j ,k )が所定の閾値よりも大きいランドマ
ークのみを代表値の算出に用いることで、信頼性の低い
検出結果を除外することができる。この場合、類似度e
(j ,k )が前記閾値以上となるランドマーク
の個数が所定数以下の場合には、時刻tにおける補正値
演算処理を打ち切ってもよい。
【0049】そして次に、ランドマークの検出結果に基
づいて、補正行列ΔMの更新を行う。
【0050】まず、カメラの姿勢の補正更新値Δrol
l,Δpitch,Δyawを以下のようにして求め
る。
【0051】Δroll =0 Δpitch=arctan(k/f) Δyaw =arctan(j/f) 又、カメラの位置は固定と仮定しているので、位置の補
正更新値Δx,Δy,Δzは全て0となる。
【0052】次に、以上の姿勢Δroll,Δpitc
h,Δyaw、及び位置Δx,Δy,Δzによって定め
られるモデルビュー行列として、補正更新行列ΔM’
を算出する。カメラの位置と姿勢からモデルビュー行列
を算出する算出方法は公知の方法であるので、ここでの
説明は省略する。
【0053】そして、これまでに得られた補正行列ΔM
t−1と補正更新行列ΔM’から、更新後の補正行列
ΔMを以下の式に従って算出する。
【0054】ΔM=ΔM’ΔMt−1 <位置姿勢補正処理:補正後のモデルビュー行列M$
の算出>時刻tにおける補正後のモデルビュー行列M$
は、以下の式に従って求めることができる。
【0055】M$=ΔM そして補正後のモデルビュー行列M$を用いてCGを
描画、表示することで、ジャイロセンサを用いても時間
経過に伴った方位方向の位置ずれを軽減することができ
る。
【0056】以上、説明した本実施形態における補正処
理のフローチャートを図5乃至7に示し、以下説明す
る。
【0057】図5は上述の補正処理のメインの処理のフ
ローチャートである。
【0058】まずテンプレート画像を作成する(ステッ
プS501)。テンプレート画像を作成する具体的な処
理のフローチャートを図6に示す。
【0059】まず、既定の位置姿勢に固定されたカメラ
から画像Iを入力する(ステップS601)。次にこ
のときのカメラの位置姿勢に基づいてモデルビュー行列
を算出する(ステップS602)。次に全てのiに
ついて(言い換えれば全てのランドマークについて)p
を求める(ステップS603,S604)。次にテ
ンプレート画像を作成する。作成する方法は上述の通り
であって、各ランドマークについて上述した範囲内の全
てのj、kに対して画素値を求め、テンプレート画像T
の座標(j,k)に格納する(ステップS606乃至
S608)。
【0060】以上の図6に示した処理に従ってテンプレ
ート画像を生成すると、図5に戻って、画像Iの撮影
を行う(ステップS502)。又、このときのセンサ出
力の取得も行う(ステップS503)。尚ステップS5
02,S503の処理の順序はこれに限定されるもので
はなく、その順序が逆でも良いし、同期を取って、同時
に行っても良い。
【0061】次にセンサ出力に基づいてモデルビュー行
列Mの算出を行う(ステップS504)。そして補正
行列ΔMの算出を行う(ステップS505)。補正行
列ΔMの算出における具体的な処理のフローチャート
を図7に示し、以下説明する。
【0062】まず、補正行列ΔMt−1でモデルビュー
行列Mを補正し、モデルビュー行列M’を求める
(ステップS701)。そして次に全てのiについて、
言い換えれば全てのランドマークについてp を算出
する(ステップS702,S703)。尚、算出したp
が画像Iの範囲外に存在する場合には後述の処理
の対象外とする。
【0063】次に各ランドマーク毎にターゲット画像R
を算出する(ステップS704乃至S706)。そ
してターゲット画像R とテンプレート画像Tのマ
ッチングを行い、各j、kごとに類似度e(j,k)を
算出する(ステップS707,S708)。そして類似
度e(j,k)が最大となる(j,k)を(j ,k
)とする(ステップS709)。以上のステップS
707からステップS709までの処理を全てのi、言
い換えると全てのランドマークに対して求める(ステッ
プS710)。
【0064】そして求めた(j ,k )の平均値
を計算し、(j,k)を算出する(ステップS71
1)。また、カメラの位置姿勢の補正値を求め(ステッ
プS712)、補正更新行列ΔM’を求め(ステップ
S713)、最終的に補正行列ΔMを求める(ステッ
プS714)。
【0065】以上の図7に示した処理に従って補正行列
ΔMを算出すると、図5に戻って、算出した補正行列
ΔMを用いてモデルビュー行列Mを補正する(ステ
ップS506)。
【0066】そして補正後のモデルビュー行列M$
用いてCGを描画、表示する(ステップS507)。
【0067】以上の説明により、本実施形態の画像処理
装置及びその方法によって、姿勢センサによるカメラ視
点の姿勢計測誤差を補正して位置ずれのないMRを実現
することができる。
【0068】[第2の実施形態]第1の実施形態では、
補正処理を単一ループ(描画ループ)の中で行ってい
る。この場合、画像処理の計算負荷が原因となって描画
のフレームレートを充分得ることができない。あるい
は、描画のフレームレートを確保するために画像処理を
簡単なもの(計算量の少ないもの)にすると、補正の充
分な精度を得ることができない。
【0069】そこで本実施形態では描画ループと補正演
算ループとを分離し、独立の更新周期(例えば描画ルー
プを60Hzで、補正演算ループを1ループ/秒)で動
作させる。又、本実施形態の処理を実行する装置とし
て、第1の実施形態で用いた画像処理装置を用いる。
【0070】<描画ループ>基本的には図5、6に示し
たフローチャートに従った処理を実行するが、ステップ
S505において、後述の補正演算ループより送信され
る最新の補正行列ΔMを得てこれをΔMとする処理
を行う。
【0071】<補正演算ループ>図8に補正演算ループ
の処理のフローチャートを示す。まず、描画ループから
時刻sにおける画像Iと、そのときのモデルビュー行
列Mを入力する(ステップS801)。そして第1の
実施形態で説明したステップS505における処理と同
様にして補正行列ΔMを算出する(ステップS80
2)。そして算出した補正行列ΔMを描画ループに送
信する(ステップS803)。そして以上の処理を終了
許可があるまで実行する(ステップS804)。
【0072】本実施形態では描画ループと補正演算ルー
プを分け、一つの画像処理装置(例えば)の中で実行し
ていたが、これに限定されるものではなく、夫々のルー
プの処理を夫々個々のコンピュータで実行しても良い。
そして、夫々のコンピュータ間で通信可能な状態にして
おき、夫々のコンピュータ間で夫々の処理結果を送受信
可能にする。このようにすることで、一つのコンピュー
タが受け持つ処理数は少なくなるので、より迅速な処理
が可能となる。
【0073】[第3の実施形態]第2の実施形態ではモ
デルビュー行列の補正の処理において、得られた補正行
列ΔMとセンサによるモデルビュー行列Mとの単純
な積の演算により、補正後のモデルビュー行列M$
求めているが、補正行列の更新は描画の周期と比べて間
隔が空いているので、補正行列が必ずしも現在のフレー
ム(時刻t)に適切な補正情報を表しているとは言えな
い。
【0074】そこで本実施形態では、第2の実施形態に
おけるステップS505において、補正演算ループから
得られる過去の補正行列を用いて、時刻tに適した補正
行列ΔMを算出する。
【0075】まず、時刻sにおいて得られる補正行列Δ
を展開して、カメラ姿勢の方位方向の補正値Δya
及びピッチ方向の補正値Δpitchを算出す
る。モデルビュー行列から個々の回転成分を求める方法
は公知であるので、ここでの説明は省略する。時刻s−
1においても同様な処理をおこない、時刻tにおけるカ
メラ姿勢の補正値であるΔyaw及びΔpitch
を以下のようにして求める。
【0076】Δyaw=Δyaw+(Δyaw
Δyaws−1)×Δst/ΔsΔpitch=Δp
itch+(Δpitch−Δpitchs−1
×Δst/Δs ここで、Δstは時刻sから時刻tまでの経過時間、Δ
sは時刻s−1から時刻sまでの経過時間を表わすもの
とする。
【0077】そして得られた補正値Δyaw及びΔp
itchを用いて、補正行列ΔM を求める。その結
果、本実施形態における補正行列の算出方法を適用する
ことによって、現在のフレーム(時刻t)に適切な補正
行列を算出することができる。
【0078】尚、本実施形態では上記の式に示したよう
に1次の線形予測によって補正値の外挿を行っている
が、補正値の予測方法はこれに限るものではなく、2次
の線形予測や他の予測方法を用いることも可能である。
【0079】[第4の実施形態]本実施形態では、第1
の実施形態よりもより正確に補正を行う方法を示す。
【0080】まず、本実施形態で用いる各変数のうち、
上述の実施形態と異なるものについて説明する。
【0081】・時刻tにおけるセンサ出力に基づいたモ
デルビュー行列の回転成分 R ・カメラの既定の位置に基づいたモデルビュー行列の平
行移動成分 T ・画像I上におけるランドマークLの検出位置 p
=(x$ ,y$ ) ・ランドマークLの「画像I上への投影点」のカメ
ラ座標系における位置pc ・ランドマークLから求められる、モデルビュー行列
の補正更新行列(方位方向の回転成分) ΔR ・ランドマークLから求められる、yaw方向の補正
更新値 Δyaw ・全てのランドマークから求められるyaw方向の補正
更新値 Δyaw ・モデルビュー行列の補正行列(方位方向の回転成分)
ΔR ・これまでの処理で既に算出されている補正行列ΔR
t−1(はじめのループでは単位行列) ・補正行列ΔRt−1によって補正されたモデルビュー
行列の回転成分 R’ ・補正行列ΔRt−1によって補正されたモデルビュー
行列 M’ ・補正行列ΔRt−1を補正行列ΔRに更新する為の
補正更新行列(方位方向の回転成分) ΔR’ 以上の設定に基づいて、本実施形態における補正方法に
ついて同方法の処理のフローチャートを示す図9,10
を用いて説明する。
【0082】図9は本実施形態におけるメインの処理の
フローチャートである。ステップS901からステップ
S903までの処理は第1の実施形態におけるステップ
S501からステップS503までの処理と同じである
ため、説明を省略する。
【0083】次に、モデルビュー行列の回転成分R
と、平行移動成分Tとを算出する(ステップS90
4)。具体的には回転成分Rは、センサ出力(センサ
から得たカメラの姿勢)(roll,pitch
yaw)に基づいて公知の方法で求める。一方、平行
移動成分Tは、カメラの視点位置に基づいて公知の方
法で求める。
【0084】そして次に補正行列ΔRを求める(ステ
ップS905)。補正行列ΔRを求める具体的な処理
のフローチャートを図10に示し、以下説明する。
【0085】まず、これまでの処理で既に算出されてい
る補正行列ΔRt−1で行列Rを以下のようにして補
正し、行列R’を求める。
【0086】R’=RΔRt−1 次に、求めた行列R’を用いて行列M’を以下のよ
うにして求める(ステップS1001)。
【0087】M’=R’ ステップS1002からステップS1010までの処理
はそれぞれステップS702からステップS710まで
の処理と同じであるために、ここでの説明は省略する。
【0088】次に、求まった(j ,k )を用い
て画像I上の各ランドマークの位置p$ =(x$
,y$ )を算出する(ステップS1012)。
算出は以下の式によって行う。
【0089】x$ =x +j cos(−ro
ll)−k sin(−roll) y$ =y +j sin(−roll)+k
cos(−roll) そして次に各ランドマークの「画像I上への投影点」
のカメラ座標系における位置pc を算出する(ステ
ップS1013)。
【0090】 pc =(x$ 、y$ 、−f、1) このとき、aをスケーリングパラメータとすると、pc
・a=R’ΔR が成立する。この
式を解くことで、Δyaw を算出する。その方法を
以下に示す。だたし、以下で、Inv(M)は行列Mの
逆行列を示す。
【0091】P$ =(X$ ,Y$ ,Z$
,1)=Inv(R’)pc P’=(X’,Y’,Z’,1)=T とおくと、P$ =ΔRP’/aとなるの
で、 X$ ={cos(Δyaw )X’−sin
(Δyaw )Z’}/a Z$ ={sin(Δyaw )X’+cos
(Δyaw )Z’}/a となり、これを解くことで、 Δyaw =arctan{(Z$ ・X’−X
・Z’)/(X$ ・X’+Z$
Z’)} となる(ステップS1014)。このステップS101
4の処理をすべてのi、すなわち、すべてのランドマー
クに対して求める(ステップS1015)。そして求め
たすべてのΔyaw の平均値Δyawを求める
(ステップS1016)。
【0092】そして、求めた補正更新値Δyawを用
いて補正更新行列ΔR’を求める(ステップS101
7)。座標系を任意の角度(ここではΔyaw)で方
位方向に回転させるモデルビュー行列を算出する方法は
公知であるので、説明は省略する。この補正更新行列Δ
R’を用いて、求めるべき補正行列ΔRを以下のよ
うにして求める(ステップS1018)。
【0093】ΔR=ΔRt−1ΔR’ 以上の図10に示した処理に従って補正行列ΔRを算
出すると、図9に戻って、算出した補正行列ΔRを用
いてモデルビュー行列M$を算出する(ステップS9
06)。算出は以下の式に従って行う。
【0094】M$=RΔR そして第1の実施形態と同様に、算出したモデルビュー
行列を用いてCGを描画、表示する(ステップS90
7)。
【0095】[第5の実施形態]第1乃至4の実施形態
では、視点の位置を既知とし、姿勢(方向、角度)のみ
の補正を行った。前述したように、観察対象物体までの
距離が視点位置の移動量に対して相対的に大きい場合に
は視点位置を固定値とすること有効であるが、その仮定
が成り立たない場合には視点の移動に伴う位置ずれが生
じてしまう。よって本実施形態では視点位置の補正を行
う方法を示す。ただし本実施形態ではカメラ座標系にお
けるZ軸方向(奥行き方向、撮像面に垂直な方向)の移
動量ΔTzは常に0であるものと仮定する。また、回転
成分については、センサにより正しい値が得られている
と仮定する。なお、この仮定が成り立つ場合には、最低
1点のランドマークの検出により位置の補正を行うこと
ができる。ここで本実施形態における設定を以下に示
す。
【0096】・時刻tにおけるセンサ出力に基づいたモ
デルビュー行列の回転成分 R ・時刻tにおけるカメラの既定の位置に基づいたモデル
ビュー行列の平行移動 成分 T・モデルビュー行列の補正行列(世界座標系
における平行移動成分) ΔT ・ランドマークLから求められるモデルビュー行列の
補正行列(世界座標系における平行移動成分) ΔT
・これまでの処理で既に算出されている補正行列 ΔT
t−1(開始ループでは単位行列) ・補正行列ΔTt−1によって補正されたモデルビュー
行列の平行移動成分T’ ・補正行列ΔTt−1によって補正されたモデルビュー
行列 M’ ・モデルビュー行列の補正更新行列(カメラ座標系にお
ける平行移動成分)ΔTc ・ランドマークLから求められる、x軸方向(カメラ
座標系)の補正更新値ΔTx ・ランドマークLから求められる、y軸方向(カメラ
座標系)の補正更新値ΔTy ・全てのランドマークから求められる、x軸方向(カメ
ラ座標系)の補正更新値 ΔTx ・全てのランドマークから求められる、y軸方向(カメ
ラ座標系)の補正更新値 ΔTy 以上の設定に基づいて本実施形態における補正方法につ
いて同方法の処理のフローチャートを示す図11,12
を用いて説明する。
【0097】図11は本実施形態におけるメインの処理
のフローチャートである。ステップS1101からステ
ップS1104までの処理は、第4の実施形態における
ステップS901からステップS904における各処理
と同じなので、ここでは説明は省略する。
【0098】次に、補正行列ΔTを求める(ステップ
S1105)。補正行列ΔTを求める具体的な処理の
フローチャートを図12に示し、以下説明する。
【0099】まず、これまでの処理で既に算出されてい
る補正行列ΔTt−1で行列Tを補正し、行列T’
と行列M’を以下のようにして求める(ステップS1
201)。
【0100】T’=ΔTt−1 M’=RT’ 次のステップS1202からステップS1211までの
各処理は、第4の実施形態におけるステップS1002
からステップS1012までの各処理を同じであるため
に、ここのでは説明は省略する。
【0101】次にステップS1212では、ランドマー
クLに関する補正更新値ΔTx 、ΔTy を算
出する。
【0102】 ΔTx =f・Zc (x$ −x ) ΔTy =f・Zc (y$ −y ) ここでZc はカメラ座標系におけるランドマークの
z座標で、M’の第3成分がその値となる。
【0103】以上の補正更新値ΔTx 、ΔTy
をすべてのi,つまり、すべてのランドマークに対して
求め(ステップS1213)、次に求めたすべての補正
更新値ΔTx 、ΔTy の平均値ΔTx、ΔT
を求める(ステップS1214)。そして、求めた
補正更新値の平均値ΔTx、ΔTyを用いて、x方
向にΔTx、y方向にΔTyの平行移動を座標系に
施す補正更新行列ΔTcを算出する(ステップS12
15)。座標系に任意の平行移動を施す座標変換行列を
算出する方法は公知であるので、説明は省略する。そし
て補正行列ΔT を以下のようにして求める(ステップ
S1216)。
【0104】 ΔT=Inv(R)ΔTcΔTt−1 以上の図12に示した処理に従って補正行列ΔTを算
出すると、図11に戻って、算出した補正行列ΔT
用いてモデルビュー行列M$を算出する(ステップS
1106)。算出は以下の式に従って行う。
【0105】M$=RΔT そして第1の実施形態と同様に、算出したモデルビュー
行列を用いてCGを描画し、表示する(ステップS11
07)。
【0106】[第6の実施形態]第5の実施形態ではΔ
Tzが常に0と仮定していた為に、視線方向に対して前
後に視点位置が移動した場合に正確な位置合わせを行う
ことができなかった。本実施形態では、常に2点以上の
ランドマークを観察することで、ΔTzが0でない場合
にも対応する。
【0107】本実施形態における補正処理のフローチャ
ートは基本的には第5の実施形態で示した図11,12
と同じであるが、ステップS1214、S1215にお
ける処理の内容が異なる。以下、本実施形態における補
正処理でステップS1214、S1215における各処
理について説明する。
【0108】x、y、z軸方向におけるカメラ座標系の
補正更新値をΔTx、ΔTy、ΔTzとおくと、
ランドマークの撮像予測位置p と検出位置p$
の間には、各ランドマーク毎に以下の式が成り立つ。
【0109】ΔTx+x$ ・f・ΔTz=f・
Zc (x$ −x ) ΔTy+y$ ・f・ΔTz=f・Zc (y
−y ) よって、複数のランドマークに対して以下の連立方程式
をたて、これを解くことで、未知の補正更新値ΔT
、ΔTy、ΔTzを算出する(ステップS12
14)。
【0110】
【数1】
【0111】そして算出したΔTx、ΔTy、ΔT
を用いて、補正更新行列ΔTc を公知の方法で求
める(ステップS1215)。そしてステップS121
6では求めた更新行列ΔTcを用いて第5の実施形態
と同様にして補正行列ΔTを求める。
【0112】[第7の実施形態]第1乃至6の実施形態
では回転か平行移動のいずれかのみの補正しかできなか
った。本実施形態ではその両方の補正を行う。基本的な
方法としては、回転の補正を行った後に、平行移動の補
正を行う。しかしこれに限定されるものではなく、その
逆の順序で補正しても良いし、回転の補正の後に平行移
動の補正(もしくはその逆の順序でも良い)を一定回数
繰り返しても良いし、予め設定しておいた閾値よりも誤
差が小さくなるまで、或いは補正による誤差の変動が閾
値よりも小さくなるまで、繰り返し行っても良い。
【0113】ここで本実施形態で以下用いる設定につい
て示す。
【0114】・ 処理の中間段階に得られた補正行列に
よって補正されたモデルビュー行列の回転成分 R” ・ 処理の中間段階に得られた補正行列によって補正さ
れたモデルビュー行列M” 以上の設定に基づいて、本実施形態における補正処理に
ついて説明する。
【0115】図13に本実施形態におけるメインの処理
のフローチャートを示す。同図に示したフローチャート
は、第4の実施形態の図9に示したフローチャートに補
正行列ΔTを算出する処理(ステップS1306)を
追加したフローチャートとなっており、また、補正行列
ΔRを算出する処理(ステップS1305)における
処理も異なる。以下では、本実施形態における補正行列
ΔTを算出する処理(ステップS1306)、補正行
列ΔRを算出する処理(ステップS1305)につい
て説明する。又その他の部分については説明は省略す
る。
【0116】ステップS1305における補正行列ΔR
を算出する具体的な処理のフローチャートは基本的に
は第4の実施形態の図10とほぼ同一であるが、本実施
形態では、ステップS1001において、行列R’
びM’の算出に加え行列T’の算出を行う。
【0117】R’=RΔRt−1 T’=ΔTt−1 M’=R’T’ そして、以降の処理(例えばS1014)において、図
10における固定値T の代わりとして、導出したT’
を使用する。
【0118】一方、ステップS1306における補正行
列ΔTを補正する具体的な処理のフローチャートは基
本的には第5の実施形態の図12とほぼ同一であるが、
本実施形態では、ステップS1201において、ステッ
プS1305で求めた補正行列ΔRを用いて行列R
を補正し、行列R”とM”を以下の式に従って求め
る。
【0119】R”=RΔR M”=R”T’ 又、本実施形態における処理は図12のフローチャート
において、ステップS1212でΔTx 、ΔTy
を以下のようにして求める。
【0120】 ΔTx =f・Zc (x$ −x ) ΔTy =f・Zc (y$ −y ) ここでZc はカメラ座標系におけるランドマークの
z座標で、M”の第3成分がその値となる。
【0121】又、本実施形態における処理は図12のフ
ローチャートにおいて、ステップS1216で補正行列
ΔTを算出するが、以下の式に従って算出する。
【0122】 ΔT=Inv(R”)ΔTcR”ΔTt−1 そして以上の補正行列ΔTが終了すると、図13に示
したフローチャートに戻り、ステップS1307におい
てモデルビュー行列M$を以下のようにして算出す
る。
【0123】M$=RΔRΔT また、上述の補正行列ΔR、ΔTを求める処理(ス
テップS1305,S1306)を上述の通り所定回数
繰り返しても良い。
【0124】[第8の実施形態]第1乃至7の実施形態
では世界座標系におけるランドマークの位置を既知とし
たが、それ以外の方法取ることもできる。すなわち、初
期位置姿勢における画像I上でランドマークの位置を
直接指定してもよいし、初期位置姿勢における画像I
上から顕著な(追跡の容易な)画像特徴(例えばエッジ
部分やテクスチャ性の強い部分)を持つ特徴点を抽出
し、この位置をランドマークの位置としてもよい。
【0125】ここで、手入力あるいは画像処理によって
画像座標(x ,y )に撮像されている画像特徴
を指定あるいは検出し、ランドマークLとして用いる
場合を考える。このランドマークのカメラ座標をPc
=(x ,y ,f,1)と仮定すると、世界座
標は、初期位置姿勢におけるモデルビュー行列Mの逆
行列を用いて,P=Inv(M)Pc と定義す
ることができ、第1乃至3の実施形態で述べた手法をそ
のまま適応することができる。
【0126】ただし、ランドマーク位置の奥行き方向の
情報は得ることが出来ないので,ランドマーク位置の奥
行き情報を用いた補正(第5の実施形態以降で述べた位
置の補正)を行うことは出来ない。
【0127】[変形例1]上記実施形態においては、M
Rシステムにおけるカメラの視点の姿勢(又は位置姿
勢)の計測を行ったが、本発明の適応範囲はこれに留ま
るものではなく、カメラの視点の姿勢(又は位置姿勢)
を計測するいずれの用途に用いることも可能であること
はいうまでもない。
【0128】[変形例2]上記実施形態においては、ビ
デオシースルー方式のMRシステムにおける視点の姿勢
(又は位置姿勢)の計測を行ったが、光学シースルー方
式のMRシステムであっても、本発明の画像処理装置に
よる姿勢(又は位置姿勢)計測を行うことができる。こ
の場合、HMDに姿勢センサを装着するとともに、計測
対象であるところの観察者の視点位置との相対的な姿勢
(又は位置姿勢)関係が既知であるような位置に固定さ
れるように、HMDにカメラを装着する。そして、上記
実施形態と同様な手法によってカメラの姿勢(又は位置
姿勢)を算出し、さらにその値を変換することで、観察
者視点の姿勢(又は位置姿勢)を算出する。また、本発
明の適応範囲は計測対象物体に限定されるものではな
く、いずれの計測対象物体であっても、同様にカメラ及
び姿勢センサを装着することで、その姿勢(又は位置姿
勢)を計測することができる。
【0129】[変形例3]上記実施形態においては、テ
ンプレート画像生成モジュール430において、既定の
位置姿勢で撮影した画像Iに基づいてテンプレート画
像を生成したが、テンプレート画像は必ずしも画像I
に基づいて生成しなくてもよく、予め保存されているテ
ンプレート画像を用いても良いし、例えば動的なテンプ
レートの更新手法といった周知のいずれの方法によって
得られたテンプレート画像を用いてもよい。
【0130】[変形例4]上記実施形態においては、タ
ーゲット画像生成モジュール404において、ランドマ
ークの予測位置の近傍領域のみをターゲット画像として
抽出したが、テンプレートマッチングの対象画像(すな
わちターゲット画像)は、必ずしもランドマークの予測
位置の近傍領域を抽出したものでなくても良い。例え
ば、図14(d)のように入力画像全体に回転処理を加
えた画像I’を各ランドマークに共通のターゲット画像
として設定し、画像I’内において各々のランドマーク
の予測位置を求めその近傍において対応探索を行っても
良いし、画像I’の領域全体に対して対応探索を行って
も良い。
【0131】[変形例5]上記実施形態においては、姿
勢又は位置姿勢の計測を目的として、その手段としてテ
ンプレートマッチングによるランドマーク検出を用いた
が、本発明の画像処理装置におけるランドマーク検出手
法は、テンプレートマッチングによって画像中からラン
ドマークの位置を検出する用途であれば、姿勢又は位置
姿勢の計測に限定されることなく適応することができ
る。
【0132】[他の実施形態]本発明の目的は、前述し
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
【0133】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
【0134】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明した(図5乃至図13のうち
少なくとも一つに示したフローチャート)に対応するプ
ログラムコードが格納されることになる。
【0135】
【発明の効果】以上の説明により、本発明によって、姿
勢センサによるカメラ視点の計測誤差の補正、特に時間
経過に伴って生じる方位方向の蓄積誤差の補正を行うこ
とができ、位置ずれのないMRを実現することができ
る。
【図面の簡単な説明】
【図1】初期画像Iを示す図である。
【図2】従来の画像処理装置の構成を示す図である。
【図3】本発明の第1の実施形態における画像処理装置
の構成を示す図である。
【図4】視点位置姿勢補正値演算モジュール215の具
体的な構成を示す図である。
【図5】本発明の第1の実施形態におけるメインの処理
のフローチャートである。
【図6】テンプレート画像を作成する際の具体的な処理
のフローチャートである。
【図7】補正行列ΔMの算出における具体的な処理の
フローチャートである。
【図8】本発明の第2の実施形態における補正演算ルー
プの処理のフローチャートである。
【図9】本発明の第4の実施形態におけるメインの処理
のフローチャートである。
【図10】補正行列ΔRを求める具体的な処理のフロ
ーチャートである。
【図11】本発明の第5の実施形態におけるメインの処
理のフローチャートである。
【図12】補正行列ΔTを求める具体的な処理のフロ
ーチャートである。
【図13】本発明の第7の実施形態におけるメインの処
理のフローチャートである。
【図14】本発明におけるテンプレートマッチングの基
本原理を説明する図である。
フロントページの続き (56)参考文献 特開2000−97637(JP,A) 特開2000−275013(JP,A) マーカー追跡に基づく拡張現実感シス テムとそのキャリブレーション,日本バ ーチャルリアリティ学会論文誌,日本, 1999年,Vol.4 No.4,pp. 607−616 画像と加速度計を用いたHMD上での 映像の正確な重ね合わせ,日本バーチャ ルリアリティ学会論文誌,日本,1999 年,Vol.4 No.4,pp.589 −598 カメラと3次元センサの組合せによる 現実空間と仮想空間の位置合わせ手法, 日本バーチャルリアリティ学会論文誌, 日本,1999年,Vol.4 No.1, pp.295−302 PRU95−169 3D−CG指向型ロ ボットビジョン,電子情報通信学会技術 研究報告,日本,1995年12月21日,Vo l.95 No.445,pp.17−24 PRU99−195 参照画像の適応的選 択による自由視点からの仮想物体像生成 と実世界像との融合,電子情報通信学会 技術研究報告,日本,2000年 1月20 日,Vol.99 No.574,pp.25 −32 (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G01B 11/00 G06T 1/00 G06T 17/40

Claims (16)

    (57)【特許請求の範囲】
  1. 【請求項1】 計測対象との間の位置関係が固定されて
    いる撮像装置と、 前記撮像装置の撮像視点の姿勢を計測する姿勢センサ
    と、 前記計測対象の姿勢および/または位置を、前記姿勢セ
    ンサの出力に基づいて算出するための算出情報を記憶す
    る記憶手段と、前記計測値と前記記憶手段が記憶する前記算出情報を用
    いて撮像画像中における指標の予測位置を求め、前記計
    測値から導出される前記撮像装置のロール方向の回転角
    に基づいた回転処理を当該撮影画像中における当該予測
    位置の周辺領域に施した画像を作成し、ターゲット画像
    として出力するターゲット画像設定手段と、 前記指標のテンプレート画像と前記ターゲット画像との
    間でテンプレートマッチング処理を行うことにより、前
    記ターゲット画像中における前記指標の位置を検出する
    検出手段と、 前記検出手段が検出した前記指標の検出位置に基づい
    て、前記記憶手段に記憶されている前記算出情報を更新
    する更新手段と、 前記計測値と前記更新手段によって更新された前記算出
    情報に基づいて、前記計測対象の姿勢および/または位
    置を算出する算出手段とを備えることを特徴とする画像
    処理装置。
  2. 【請求項2】 前記算出情報は前記姿勢センサが計測す
    る姿勢の計測値の誤差を補正するための補正情報であっ
    て、 前記算出手段は、前記計測値と前記補正情報に基づいて
    前記計測対象の姿勢を算出することを特徴とする請求項
    1に記載の画像処理装置。
  3. 【請求項3】 前記算出情報は、前記姿勢センサが計測
    する姿勢の計測値の誤差を補正するための補正情報と、
    前記撮像装置の撮像視点の位置情報であって、 前記算出手段は、前記計測値と前記補正情報と前記位置
    情報に基づいて前記計測対象の位置姿勢を算出すること
    を特徴とする請求項1又は2に記載の画像処理装置。
  4. 【請求項4】 前記更新手段は、前記検出手段において
    1点のみの指標が検出された場合においても、前記撮像
    装置のカメラ座標系における奥行き方向を除く2方向の
    位置情報を更新することを特徴とする請求項に記載の
    画像処理装置。
  5. 【請求項5】 前記補正情報は、前記姿勢センサが計測
    する姿勢の計測値のうちの方位方向の誤差を補正するた
    めの情報であることを特徴とする請求項2または3に記
    載の画像処理装置。
  6. 【請求項6】 前記更新手段は、前記撮像画像中におけ
    る前記指標の検出位置に基づいて前記算出情報を更新す
    ることを特徴とする請求項1乃至のいずれか1項に記
    載の画像処理装置。
  7. 【請求項7】 前記更新手段は、前記検出手段において
    複数の指標が検出された場合に、各々の指標毎に得られ
    る前記算出情報の更新値の代表値に基づいて前記算出情
    報を更新することを特徴とする請求項に記載の画像処
    理装置。
  8. 【請求項8】 前記更新手段は、前記ターゲット画像中
    における前記指標の予測位置と前記検出位置のずれに基
    づいて前記算出情報を更新することを特徴とする請求項
    に記載の画像処理装置。
  9. 【請求項9】 前記更新手段は、前記検出手段において
    複数の指標が検出された場合に、各々の指標毎に得られ
    る前記ずれの代表値に基づいて前記算出情報を更新する
    ことを特徴とする請求項に記載の画像処理装置。
  10. 【請求項10】 前記計測対象は前記撮像装置の撮像視
    点であり、 前記算出手段が算出した前記撮像装置の姿勢または位置
    姿勢に基づいて、前記撮像画像に仮想空間の像を重畳描
    画して表示する表示手段をさらに有す ることを特徴とす
    る請求項1に記載の画像処理装置。
  11. 【請求項11】 前記計測対象は観察者の視点であっ
    て、 前記観察者が観察する表示画面に現実空間の像を光学的
    に透過させつつ、前記算出手段が算出した当該観察者の
    姿勢または位置姿勢に基づいて描画した仮想空間の像を
    当該表示画面に表示する表示手段をさらに有することを
    特徴とする請求項1に記載の画像処理装置。
  12. 【請求項12】 撮像装置によって撮像された撮像画像
    中における指標の位置の検出を、当該指標のテンプレー
    ト画像を用いたテンプレートマッチングによって行う画
    像処理装置であって、 前記撮像装置の撮像視点の姿勢を計測する姿勢センサ
    と、 前記姿勢センサが計測した前記姿勢の計測値を利用して
    前記撮像画像中における前記指標の予測位置を求め、前
    記撮像画像中における当該予測位置の周辺領域に前記計
    測値のうちのロール方向の回転角に基づいた回転処理を
    施した画像を作成しターゲット画像として出力するター
    ゲット画像作成手段と、 前記テンプレート画像と前記ターゲット画像の間におい
    てテンプレートマッチング処理を行うことにより、前記
    撮影画像中における前記指標の位置を検出する検出手段
    とを備えることを特徴とする画像処理装置。
  13. 【請求項13】 計測対象との間の位置関係が固定され
    ている撮像装置によって撮像画像を撮像する撮像工程
    と、 前記撮像装置の撮像視点の姿勢を計測する姿勢計測工程
    と、 前記計測対象の姿勢および/または位置を、前記姿勢計
    測工程で計測した計測値に基づいて算出するための算出
    情報を記憶する記憶工程と、前記計測値と前記記憶工程で記憶する前記算出情報を用
    いて撮像画像中における指標の予測位置を求め、前記計
    測値から導出される前記撮像装置のロール方向の回転角
    に基づいた回転処理を当該撮影画像中における当該予測
    位置の周辺領域に施した画像を作成し、ターゲット画像
    として出力するターゲット画像設定工程と、 前記指標のテンプレート画像と前記ターゲット画像との
    テンプレートマッチング処理を行うことにより、前
    記ターゲット画像中における前記指標の位置を検出する
    検出工程と、 前記検出工程で検出した前記指標の検出位置に基づい
    て、前記記憶工程で記憶されている前記算出情報を更新
    する更新工程と、 前記計測値と前記更新工程で更新された前記算出情報に
    基づいて、前記計測対象の姿勢および/または位置を算
    出する算出工程とを備えることを特徴とする画像処理方
    法。
  14. 【請求項14】 撮像装置によって撮像された撮像画像
    中における指標の位 置の検出を、当該指標のテンプレー
    ト画像を用いたテンプレートマッチングによって行う画
    像処理方法であって、 前記撮像装置の撮像視点の姿勢を計測する姿勢センサが
    計測した前記姿勢の計測値を利用して前記撮像画像中に
    おける前記指標の予測位置を求め、前記撮像画像中にお
    ける当該予測位置の周辺領域に前記計測値のうちのロー
    ル方向の回転角に基づいた回転処理を施した画像を作成
    しターゲット画像として出力するターゲット画像作成工
    程と、 前記テンプレート画像と前記ターゲット画像の間におい
    てテンプレートマッチング処理を行うことにより、前記
    撮影画像中における前記指標の位置を検出する検出工程
    を備えることを特徴とする画像処理方法。
  15. 【請求項15】 コンピュータに請求項13又は14
    記載の画像処理方法を実行させるためのプログラム。
  16. 【請求項16】 請求項15に記載のプログラムを格納
    するコンピュータ読み取り可能な記憶媒体。
JP2001062224A 2001-03-06 2001-03-06 画像処理装置およびその方法並びにプログラム、記憶媒体 Expired - Fee Related JP3486613B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2001062224A JP3486613B2 (ja) 2001-03-06 2001-03-06 画像処理装置およびその方法並びにプログラム、記憶媒体
PCT/JP2001/002547 WO2002071330A1 (fr) 2001-03-06 2001-03-28 Dispositif de traitement d'images, procede afferent, codes de programmes et support de stockage
EP01917530A EP1376464B1 (en) 2001-03-06 2001-03-28 Image processing device and method therefor and program codes, storing medium
DE60144296T DE60144296D1 (de) 2001-03-06 2001-03-28 Bildverarbeitungseinrichtung und verfahren dafür und programmcodes, speichermedium
US10/644,829 US7193636B2 (en) 2001-03-06 2003-08-21 Image processing device and method therefor and program codes, storing medium
US11/625,483 US7587295B2 (en) 2001-03-06 2007-01-22 Image processing device and method therefor and program codes, storing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001062224A JP3486613B2 (ja) 2001-03-06 2001-03-06 画像処理装置およびその方法並びにプログラム、記憶媒体

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2003102141A Division JP4743818B2 (ja) 2003-04-04 2003-04-04 画像処理装置、画像処理方法、コンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2002259992A JP2002259992A (ja) 2002-09-13
JP3486613B2 true JP3486613B2 (ja) 2004-01-13

Family

ID=18921392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001062224A Expired - Fee Related JP3486613B2 (ja) 2001-03-06 2001-03-06 画像処理装置およびその方法並びにプログラム、記憶媒体

Country Status (5)

Country Link
US (2) US7193636B2 (ja)
EP (1) EP1376464B1 (ja)
JP (1) JP3486613B2 (ja)
DE (1) DE60144296D1 (ja)
WO (1) WO2002071330A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505809A (ja) * 2012-11-05 2016-02-25 クアルコム,インコーポレイテッド 適応型スケールおよび/または重力推定

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
EP1398601A3 (en) 2002-09-13 2014-05-07 Canon Kabushiki Kaisha Head up display for navigation purposes in a vehicle
JP4007899B2 (ja) * 2002-11-07 2007-11-14 オリンパス株式会社 運動検出装置
JP4743818B2 (ja) * 2003-04-04 2011-08-10 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
JP4380252B2 (ja) * 2003-07-22 2009-12-09 ソニー株式会社 撮像装置および撮像方法
CN100451544C (zh) * 2004-03-15 2009-01-14 清华大学 一种基于视频图像测量飞行器姿态参数的方法
JP4593968B2 (ja) 2004-05-14 2010-12-08 キヤノン株式会社 位置姿勢計測方法および装置
JP2005326275A (ja) * 2004-05-14 2005-11-24 Canon Inc 情報処理方法および装置
JP4677273B2 (ja) * 2004-06-29 2011-04-27 キヤノン株式会社 情報処理方法および情報処理装置
JP5127128B2 (ja) * 2004-12-21 2013-01-23 韓國電子通信研究院 カメラの位置及び姿勢情報補正方法及びその装置
JP4767578B2 (ja) * 2005-02-14 2011-09-07 株式会社岩根研究所 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP4914019B2 (ja) * 2005-04-06 2012-04-11 キヤノン株式会社 位置姿勢計測方法及び装置
US8795926B2 (en) 2005-08-11 2014-08-05 Intelligent Energy Limited Pump assembly for a fuel cell system
JP4773794B2 (ja) * 2005-10-19 2011-09-14 株式会社岩根研究所 新旧映像座標統合装置
JP2007219082A (ja) * 2006-02-15 2007-08-30 Canon Inc 複合現実感表示システム
JP5318334B2 (ja) * 2006-05-19 2013-10-16 Juki株式会社 対象物の位置検出方法及び装置
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
JP2008256946A (ja) * 2007-04-05 2008-10-23 Tokyo Institute Of Technology 画像表示装置のための酔い防止装置
JP5248806B2 (ja) * 2007-04-25 2013-07-31 キヤノン株式会社 情報処理装置、情報処理方法
CA2713022A1 (en) * 2008-01-29 2009-08-06 Ardica Technologies, Inc. A system for purging non-fuel material from fuel cell anodes
US9034531B2 (en) * 2008-01-29 2015-05-19 Ardica Technologies, Inc. Controller for fuel cell operation
KR101017606B1 (ko) * 2008-12-22 2011-02-28 한국항공우주연구원 단일영상을 이용한 자세각센서 삼차원 오정렬 보정방법
US8741004B2 (en) * 2009-07-23 2014-06-03 Intelligent Energy Limited Cartridge for controlled production of hydrogen
US8808410B2 (en) 2009-07-23 2014-08-19 Intelligent Energy Limited Hydrogen generator and product conditioning method
DE102009049849B4 (de) 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
EP2354893B1 (en) * 2009-12-31 2018-10-24 Sony Interactive Entertainment Europe Limited Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
JP5297403B2 (ja) 2010-02-26 2013-09-25 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測方法、プログラムおよび記憶媒体
US8940458B2 (en) 2010-10-20 2015-01-27 Intelligent Energy Limited Fuel supply for a fuel cell
JP2012128578A (ja) * 2010-12-14 2012-07-05 Ntt Docomo Inc 携帯端末および画像処理方法
CN103959308B (zh) * 2011-08-31 2017-09-19 Metaio有限公司 以参考特征匹配图像特征的方法
US9169976B2 (en) 2011-11-21 2015-10-27 Ardica Technologies, Inc. Method of manufacture of a metal hydride fuel supply
KR101874895B1 (ko) * 2012-01-12 2018-07-06 삼성전자 주식회사 증강 현실 제공 방법 및 이를 지원하는 단말기
JP5863034B2 (ja) * 2012-02-17 2016-02-16 Kddi株式会社 情報端末装置
KR101402082B1 (ko) 2013-01-10 2014-06-19 주식회사 이미지넥스트 자세 센서를 이용한 공차 보정 시스템 및 방법
JP5769755B2 (ja) * 2013-04-24 2015-08-26 キヤノン株式会社 画像処理システム、画像処理装置及び画像処理方法
KR102138520B1 (ko) * 2013-11-11 2020-08-11 엘지전자 주식회사 헤드 마운트 디스플레이 및 제어 방법
JP6260215B2 (ja) * 2013-11-13 2018-01-17 富士通株式会社 特徴点追跡装置、及び、特徴点追跡方法
JP6346445B2 (ja) 2014-01-10 2018-06-20 キヤノン株式会社 処理装置、処理装置の制御方法、およびプログラム
JP6368142B2 (ja) * 2014-05-14 2018-08-01 キヤノン株式会社 情報処理装置、情報処理方法
US9305353B1 (en) 2014-09-23 2016-04-05 Qualcomm Incorporated Landmark based positioning
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
JP6836979B2 (ja) * 2017-09-29 2021-03-03 株式会社Nttドコモ 映像表示システム
US10854012B1 (en) * 2019-05-29 2020-12-01 Dell Products, L.P. Concealing loss of distributed simultaneous localization and mapping (SLAM) data in edge cloud architectures
EP4102326A4 (en) * 2020-02-07 2023-08-02 Panasonic Intellectual Property Management Co., Ltd. POSITIONING SYSTEM
US11520855B2 (en) * 2020-05-15 2022-12-06 International Business Machines Corportation Matrix sketching using analog crossbar architectures

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5531227A (en) * 1994-01-28 1996-07-02 Schneider Medical Technologies, Inc. Imaging device and method
US5765561A (en) * 1994-10-07 1998-06-16 Medical Media Systems Video-based surgical targeting system
US6369952B1 (en) * 1995-07-14 2002-04-09 I-O Display Systems Llc Head-mounted personal visual display apparatus with image generator and holder
JP3350296B2 (ja) * 1995-07-28 2002-11-25 三菱電機株式会社 顔画像処理装置
US6079862A (en) * 1996-02-22 2000-06-27 Matsushita Electric Works, Ltd. Automatic tracking lighting equipment, lighting controller and tracking apparatus
KR100186385B1 (ko) * 1996-04-27 1999-05-01 이종수 영상 인식 장치
JP2000097637A (ja) * 1998-09-24 2000-04-07 Olympus Optical Co Ltd 姿勢位置検出装置
JP2000275013A (ja) 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk 視点位置姿勢の決定方法、コンピュータ装置および記憶媒体
JP3530772B2 (ja) * 1999-06-11 2004-05-24 キヤノン株式会社 複合現実感装置及び複合現実空間画像の生成方法
US6330356B1 (en) * 1999-09-29 2001-12-11 Rockwell Science Center Llc Dynamic visual registration of a 3-D object with a graphical model
JP3846851B2 (ja) * 2001-02-01 2006-11-15 松下電器産業株式会社 画像のマッチング処理方法及びその装置
JP3486613B2 (ja) * 2001-03-06 2004-01-13 キヤノン株式会社 画像処理装置およびその方法並びにプログラム、記憶媒体
JP3805231B2 (ja) * 2001-10-26 2006-08-02 キヤノン株式会社 画像表示装置及びその方法並びに記憶媒体
JP3796449B2 (ja) * 2002-01-31 2006-07-12 キヤノン株式会社 位置姿勢決定方法および装置並びにコンピュータプログラム
EP1349114A3 (en) 2002-03-19 2011-06-15 Canon Kabushiki Kaisha Sensor calibration apparatus, sensor calibration method, program, storage medium, information processing method, and information processing apparatus

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
PRU95−169 3D−CG指向型ロボットビジョン,電子情報通信学会技術研究報告,日本,1995年12月21日,Vol.95 No.445,pp.17−24
PRU99−195 参照画像の適応的選択による自由視点からの仮想物体像生成と実世界像との融合,電子情報通信学会技術研究報告,日本,2000年 1月20日,Vol.99 No.574,pp.25−32
カメラと3次元センサの組合せによる現実空間と仮想空間の位置合わせ手法,日本バーチャルリアリティ学会論文誌,日本,1999年,Vol.4 No.1,pp.295−302
マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,日本,1999年,Vol.4 No.4,pp.607−616
画像と加速度計を用いたHMD上での映像の正確な重ね合わせ,日本バーチャルリアリティ学会論文誌,日本,1999年,Vol.4 No.4,pp.589−598

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016505809A (ja) * 2012-11-05 2016-02-25 クアルコム,インコーポレイテッド 適応型スケールおよび/または重力推定

Also Published As

Publication number Publication date
JP2002259992A (ja) 2002-09-13
EP1376464B1 (en) 2011-03-23
DE60144296D1 (de) 2011-05-05
WO2002071330A1 (fr) 2002-09-12
EP1376464A1 (en) 2004-01-02
US20040090444A1 (en) 2004-05-13
EP1376464A4 (en) 2008-09-17
US20070120872A1 (en) 2007-05-31
US7193636B2 (en) 2007-03-20
US7587295B2 (en) 2009-09-08

Similar Documents

Publication Publication Date Title
JP3486613B2 (ja) 画像処理装置およびその方法並びにプログラム、記憶媒体
JP4743818B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
JP4976756B2 (ja) 情報処理方法および装置
CN106056664B (zh) 一种基于惯性和深度视觉的实时三维场景重构系统及方法
JP4136859B2 (ja) 位置姿勢計測方法
Satoh et al. A hybrid registration method for outdoor augmented reality
EP1596330B1 (en) Estimating position and orientation of markers in digital images
JP4708752B2 (ja) 情報処理方法および装置
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
KR102198851B1 (ko) 물체의 3차원 모델 데이터 생성 방법
CN110533719B (zh) 基于环境视觉特征点识别技术的增强现实定位方法及装置
CN107560603B (zh) 一种无人机倾斜摄影测量系统及测量方法
JP4242529B2 (ja) 関連情報呈示装置及び関連情報呈示方法
WO2022000713A1 (zh) 一种基于航空装配的增强现实自定位方法
JP5726024B2 (ja) 情報処理方法および装置
JP4926598B2 (ja) 情報処理方法、情報処理装置
JP6109213B2 (ja) 情報処理装置および方法、プログラム
US20200211225A1 (en) Systems and methods for calibrating imaging and spatial orientation sensors
JP2004108836A (ja) 撮像装置の方位角計算方法及び装置、撮像装置の姿勢検出装置、撮像装置の傾きセンサ、コンピュータプログラム、並びに三次元モデル構成装置
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP3347087B2 (ja) 2次元動画像からの3次元構造復元方法
TWI814624B (zh) 環景影像的地標識別標註系統及其方法
Song et al. Advancements in Translation Accuracy for Stereo Visual-Inertial Initialization
Toriya et al. A mobile camera localization method using aerial-view images
Parnian et al. A low-cost hybrid SDINS/multi-camera vision system for a hand-held tool positioning

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20031014

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081024

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091024

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101024

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101024

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees