[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP4794708B2 - 3次元位置姿勢センシング装置 - Google Patents

3次元位置姿勢センシング装置 Download PDF

Info

Publication number
JP4794708B2
JP4794708B2 JP02735999A JP2735999A JP4794708B2 JP 4794708 B2 JP4794708 B2 JP 4794708B2 JP 02735999 A JP02735999 A JP 02735999A JP 2735999 A JP2735999 A JP 2735999A JP 4794708 B2 JP4794708 B2 JP 4794708B2
Authority
JP
Japan
Prior art keywords
marker
image
dimensional position
orientation
markers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02735999A
Other languages
English (en)
Other versions
JP2000227309A (ja
Inventor
明生 小坂
明人 斉藤
隆男 柴▲崎▼
武夫 浅野
弘 松崎
幸人 古橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP02735999A priority Critical patent/JP4794708B2/ja
Priority to US09/498,963 priority patent/US6724930B1/en
Publication of JP2000227309A publication Critical patent/JP2000227309A/ja
Application granted granted Critical
Publication of JP4794708B2 publication Critical patent/JP4794708B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、3次元位置姿勢センシング装置に係り、特に、画像撮影装置を利用して対象物の3次元位置姿勢を推定することにより、対象物の3次元位置姿勢をセンシングするようにした3次元位置姿勢センシング装置に関する。
【0002】
【従来の技術】
一般に、相対的な位置が既知な少なくとも3点のランドマークやマーカを画像撮影により認識し、対象物と撮影装置との相対的位置姿勢関係を推定する問題は、n点問題の一部として考えられる(文献1:M.A.Fischler and R.C.Bolles,“Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography,”Communicationsof the ACM,Vol.24,No.6,June 1981,pp.381−395参照)。
【0003】
この場合、ランドマークあるいはマーカの個数が3点のみのときには、解が複数個存在することが知られている。
【0004】
このような問題を解決するために、特殊なマーカを利用する方法としては、特開平7−98208号公報に開示されている方法などを挙げることができる。
【0005】
すなわち、この特開平7−98208号公報に開示されている方法は、大円1個と小円1個の位置関係を利用するものである。
【0006】
また、文献2(W.A.Hoff,T.Lyon,and K.Nguyen,“Computer Vision−Based RegistrationTechniques for Augmented Rea11ty,”Proc.of Intelligent Robots and Computer VisionXV,Vol.2904,in Intelligent Systems and Advanced Manufacturing,SPIE,Boston,Massachusetts,Nov.19−21,pp.538−548,1996.)では、形状が同一の複数のマーカを利用して、カメラ画像から3次元位置姿勢を推定するシステムが開示されている。
【0007】
【発明が解決しようとする課題】
しかるに、上述した特開平7−98208号公報に開示されているテクニックでは、基本的に、大円1個とその付近に定義された小円1個のみからマーカが定義されるため、次のような欠点があった。
【0008】
(1)大円1個と小円1個の画像内での大きさが小さいときには、測定誤差が大きくなる。
【0009】
(2)大円1個と小円1個が遮蔽や画像処理上の限界から認識できなかったときには、位置姿勢が認識できなくなってしまう。
【0010】
また、上述した文献2では、複数のマーカが同一のパターン構造で構成されているときには、マーカ自体を同定することが困難なことが多い。
【0011】
これは、遮蔽などの影響によりマーカ群の一部が認識できないときには、特に問題となる。
【0012】
また、環境が複雑な場合には、単一カラーなどや白色または黒色だけで構成されるような単純なマ一カの場合には、マーカと同様なパターンが、環境内に存在する場合が多く、これらのマーカをマーカでないものから差異を明らかにしながら認識することが困難であった。
【0013】
そこで、本発明では、以上のような点に鑑みてなされたもので、
(1)遮蔽などの影響により、マーカ群の一部が観察されないときでも、対象物の3次元位置姿勢を推定することができるようにするとともに、
(2)従来のn点問題では、解を確定することができなかった3個のマーカからだけでも位置姿勢を推定することができるようにした、
3次元位置姿勢センシング装置を提供することを目的としている。
【0014】
【課題を解決するための手段】
本発明によると、上記課題を解決するために、
(1) 撮像装置により撮像された、測定対象物に対する3次元位置情報が既知であり幾何学的に固有の特徴を有する少なくとも3個のマーカが写っている画像を入力する画像入力手段と、
上記画像上で上記各マーカに対応する領域を抽出する領域抽出手段と、
上記抽出した領域において、上記各マーカの上記幾何学的に固有の特徴を利用して個々のマーカを特定するマーカ特定手段と、
上記特定されたマーカの画像上での大きさの情報を用いて推定された上記撮像装置から上記マーカまでの距離と、上記特定された各マーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算手段と、
を有することを特徴とする3次元位置姿勢センシング装置が提供される。
【0015】
また、本発明によると、上記課題を解決するために、
(2) 撮像装置により撮像された、測定対象物に対する3次元位置情報が既知であり幾何学的に固有の特徴を有する少なくとも4個のマーカが写っている画像を入力する画像入力手段と、
上記画像上で上記各マーカに対応する領域を抽出する領域抽出手段と、
上記抽出した領域において、上記各マーカの上記幾何学的に固有の特徴を利用して個々のマーカを特定するマーカ特定手段と、
上記マーカ特定手段によって特定されたマーカより3つのマーカを選択するマーカ選択手段と、
上記マーカ選択手段によって選択された3つのマーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算するためのパラメータ組を複数算出するパラメータ組算出手段と、
上記マーカ選択手段によって選択されなかったマーカに対して、上記パラメータ組算出手段によって算出されたパラメータ組により算出される投影画像点と、上記選択されなかったマーカの画像内で測定された2次元位置との誤差の和を最小にする1つのパラメータ組を選択するパラメータ組選択手段と、
を有することを特徴とする3次元位置姿勢センシング装置が提供される。
【0016】
また、本発明によると、上記課題を解決するために、
(3) 前記パラメータ組選択手段によって選択された1つのパラメータ組に関して、各マーカの測定対象物に対する3次元位置情報を適用して評価することにより、該パラメータ組を更新するパラメータ更新手段をさらに含むことを特徴とする(2)記載の3次元位置姿勢センシング装置が提供される。
また、本発明によると、上記課題を解決するために、
(4) 前記マーカは円形のマーカであり、
前記位置姿勢演算手段は、前記円形のマーカの画像内での投影像を楕円として近似し、楕円の長軸の長さを利用して、前記撮影装置から前記マーカまでの距離を推定し、その推定された距離を含めて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算することを特徴とする(1)記載の3次元位置姿勢センシング装置が提供される。
【0017】
すなわち、本発明は、具体的には、位置姿勢を推定すべき対象物あるいは対象物付近に、対象物に対する相対的位置関係があらかじめ決定している『幾何学的に固有の特徴を持った固有マーカ(コードマーカ)』を複数配置し、その複数のマーカを画像撮影装置により撮影し、画像内から固有マーカ群を抽出するとともに、そのマーカの幾何学的特徴を抽出かつそのマーカの同定を行い、そのマーカの対象物に対する3次元位置と画像撮影装置により撮影された画像内での2次元位置を利用して、画像撮影装置または他の装置を規定する座標系における対象物の3次元位置姿勢を推定する方式を与えるものである。
【0018】
【発明の実施の形態】
以下図面を参照して本発明の実施の形態について説明する。
【0019】
(第1の実施の形態)
図1乃至図8を参照して第1の実施の形態について説明する。
【0020】
図1は、第1の実施の形態による3次元位置姿勢センシング装置の構成を示すブロック図である。
【0021】
図1に示されているように、3次元位置姿勢を推定すべき対象物1あるいはその付近には、幾何学的に固有の特徴を持った複数の固有マーカ2(以下コードマーカと略す)が配置されている。
【0022】
そして、このコードマーカ2を画像撮影装置3により撮影し、その撮影した画像5がコンピュータ4内に転送される。
【0023】
ここで、画像撮影装置3は、一般的なTVカメラなどあるいはディジタルビデオカメラなどでよく、画像撮影装置3から画像5を受け取るコンピュータ4は、通常のコンピュータであっても特殊な画像処理演算装置であっても構わない。
【0024】
また、画像撮影装置3としてのTVカメラがアナログ信号を出力する場合には、コンピュータ4内には、画像5をディジタル化する装置やユニットが含まれていてもよい。
【0025】
また、画像撮影装置3がディジタルカメラやディジタルビデオカメラなどの場合には、直接コンピュータ4に画像5を転送することにより、コンピュータ4が画像5をディジタル信号として入力することができればよい。
【0026】
このようにして、第1の実施の形態による3次元位置姿勢センシング装置では、コンピュータ4が画像撮影装置3から受け取ったコードマーカ2が撮影された画像5を受け取り、それがディジタル画像の形に変換されるとともに、そのディジタル画像をコンピュータ4で処理することにより、画像5内からコードマーカ2を認識し、そのコードマーカの画像内位置とあらかじめ登録されているコードマーカの3次元位置とを利用することにより、対象物1の画像撮影装置3に対する3次元位置姿勢を推定するものである。
【0027】
なお、本実施の形態では、少なくとも4個のコードマーカが同定できた場合に関して、対象物の位置姿勢を推定する方法に関して解説するものとする。
【0028】
そして、少なくとも3個のコードマーカが同定できた場合に関しては、別の実施の形態で解説するものとする。
【0029】
まず、本実施の形態における画像と座標変換に関する基本的な扱いに関して説明しておく。
【0030】
基本的に、対象物1と画像撮影装置3は固有の座標系を有しており、画像撮影装置3が撮影した画像5は、カメラ画像面として定義される。
【0031】
図2は、この画像撮影装置3と、カメラ画像面と、対象物1が規定するオブジェクト座標系との関係を表したものである。
【0032】
ここで、対象物1が規定するオブジェクト座標系はその原点を0m 、その3次元座標を(xm ,ym ,zm )とする。
【0033】
一方、画像撮影装置3が規定するカメラ座標系は、その原点を0c 、その3次元座標を(xc ,yc ,zc )とする。
【0034】
カメラ画像面はその軸がu軸とv軸により構成され、u軸はカメラ座標系のxc と平行に、v軸はyc 軸に平行に取られ、カメラ座標系を規定するzc 軸が画像撮影装置3の光学系の光軸と一致し、その光軸とカメラ画像面が交わる点(カメラ画像面の中心)が、(u0 ,v0 )で定義される。
【0035】
画像撮影装置3に相対する対象物1の3次元位置姿勢を推定する問題は、カメラ座標系に対するオブジェクト座標系の位置姿勢を推定する問題、言い換えれば、オブジェクト座標系からカメラ座標系への座標変換パラメータ、またはカメラ座標系からオブジェクト座標系への座標変換パラメータを算出する問題に帰着される。
【0036】
これを数学的に記述すると、斉次変換行列cHmまたはmHcを利用して、
【数1】
Figure 0004794708
と書くことができる。
【0037】
ここに、R=(rij),R′=(r′ij)は3×3の回転行列を表し、t=(t,t,t),t′=(t′,t′,t′)は3次元並進べクトルを表す。
【0038】
以下で詳細に説明するマーカ群{M;i=1,2,...,m}は、あらかじめオブジェクト座標系での3次元位置が計測されており、それらを(xi m ,yi m ,zi m )で表現する。
【0039】
また、その画像内位置を(u,v)で記述することとする。
【0040】
すると、画像撮影装置3をピンホールカメラモデルで近似したとき、それらの座標間には、以下の関係が成立する。
【0041】
【数2】
Figure 0004794708
ここに(u,v)は画像内の中心、(αu ,αv )はu方向とv方向の拡大率を表し、画像撮影装置3に関するカメラ内部パラメータであり、カメラキャリブレーションにより推定できる値である。
【0042】
図3は、本実施の形態における幾何学的特徴を持ったコードマーカ2群の一例を表したものである。
【0043】
このコードマーカ2は、円形の形状をしており、その大円内には、小円のパターンがコードとして表されている。
【0044】
この例では、大円の中央部に小円1個があり、そのまわりに4個の小円が配置されている。
【0045】
この5個の小円の白黒(またはカラー)コードにより、各マーカに固有のラベルを付与することができる。
【0046】
例えば、図3の場合には、コード0からコード11までの12個の異なったコードを生成することができる。
【0047】
図4は、本実施の形態における別のコードパターンを表したものである。
【0048】
このパタ一ンの場合には、大円の中に7個の小円を配置することで、各種のコードを生成した場合を表わしている。
【0049】
なお、コードを生成するパターンとしては、これだけには限らす、例えば、図5に示されるような、同心円上にコードを付加したものでも構わない。
【0050】
ここで、基本的に重要なことは、各マーカが幾何学的特徴を有しており、それがマーカにラベルを付加するに足るコードを生成できることである。
【0051】
また、マーカ自体は円形でなくてもよく、例えば、正方形でも正多角形でもよい。
【0052】
図6は、本発明において、コンピュータ4に画像5が入力された後に、対象物1の3次元位置姿勢を推定するまでの処理手順を示すフローチャートである。
【0053】
以下、各ステップについて簡単に説明する。
【0054】
(1)ステップ1:
画像5を受け取ったコンピュータ4は、その画像5の中からコードマーカ2に対応する領域と推定される候補領域を抽出する。
【0055】
(2)ステップ2:
コンピュータ4は、上記ステップ1により抽出された候補領域内を詳細に解祈し、その中からコードマーカ2のコードに対応する幾何学的特徴を抽出し、そのコードが認識された場合には、その領域をマーカ領域として、その画像内位置とコードを登録する。
【0056】
(3)ステップ3:
コンピュータ4は、上記ステップ2で登録された画像から抽出されたコードマーカ2の画像内2次元位置と対象物1に相対する3次元位置とを利用することにより、画像撮影装置3に対応する対象物1の3次元位置姿勢を算出する。
【0057】
以下、本実施の形態の中心となるステップ1,2、3について、より詳細に説明する。
【0058】
ステップ1:
本実施の形態では、画像撮影装置3がカラー画像を生成するものとするとともに、コードマーカ2としては、図3で示されるようなコードマーカ(大円と小円の組み合わせ)からなると仮定する。
【0059】
この際、大円の背景色は、ある規定された色から成り立っており、対象物1内で固有な色であると仮定する。
【0060】
また、小円内のパターンは、白または黒のみのパターンから成り立っていると仮定する。
【0061】
マーカの領域は単色から成立しているので、その単色に敏感な色フィルタをアルゴリズム内に導入するものとする。
【0062】
具体的には、画像面(u,v)で定義される画像点に関して、カラー画像を構成する3フィルタの計測値R(赤)、G(緑)、B(青)から、次の式
【数3】
Figure 0004794708
に対応する3個のべクトルを算出し、マーカが取りうる画像内での色パターンの許容値を、次の式
【数4】
Figure 0004794708
を満たす画像領域を抽出する。
【0063】
ここで、imin,imax,rmin,rmax,gmin,gmaxなどの値は、あらかじめ設定しておくものとする。
【0064】
次に、領域内の穴埋めを行うことによりマーカに対応する領域を決定する。
【0065】
ステップ2:
次に、抽出された領域がマーカの像であるか否かを判定する。
【0066】
基本的に、マーカの形状は円形であるので、その投影像である画像内での領域は、楕円形で近似することが可能である。
【0067】
従つて、本ステップ2では、マーカの領域が楕円で近似することができるか否かを判定する。
【0068】
この方法としては、文献3(K.Rahardja and A.Kosaka“Vision−based bin−picking:Recognition and localization of multiple complex objects using simple visual cues,”Proceedings of 1996 IEEE/RSJ International Conference on Intelligent Robots and Systems,Osaka,Japan,November 1996)で示されている方法により行う。
【0069】
具体的には、
(1)マーカの候補領域と考えられる各領域を含む直方領域を切り出し、マーカ候補領域内を1、領域外を0とラベル化する。
【0070】
この1でラベル化される領域に対して、穴埋め処理を行い、内部に存在するラベル0で表される小領域を除去する。
【0071】
(2)ラベル1で表されるマーカ候補領域の1次モーメントq0 と2次モーメントMを算出する。
【0072】
(3)ラベル1で表されるマーカ候補領域の境界点列の集合をA={q}として、Aの各点に関して、以下の式で表される正規化距離dを算出する。
【0073】
【数5】
Figure 0004794708
(4)dの集合Aに対する平均値μと標準偏差σd を算出する。
【0074】
そして、σd がある閾値よりも小さければ、マー力領域として登録するが、そうでなければマーカ領域として登録しない。
【0075】
このようにして、楕円であると判定された場合には、楕円領域内での3値処理により、楕円領域内で考えられるパターンの抽出を行う。
【0076】
具体的には、図7の(a)に示されているようなマーカ領域に対して、
(1)上記ステップ1で得られた穴埋めされたマーカ領域に対して、メディアンフィルタなどを施してノイズ成分を除去する(図7の(b))。
【0077】
(2)その領域内の濃淡値(明度)の平均値μg と標準偏差σg を算出する。
【0078】
(3)領域内の各画素の濃度値gに対して、ある定められた実数tを利用し、
1)g−μg >tσg ならば、その画素をラベル1
2)g−μg <−tσg ならば、その画素をラベル−1
3)1)でも2)でもなければ、その画素をラベル0
でラベル化する。
【0079】
こうして得られた領域内で、1,−1,0で表される小領域を抽出する(図7の(c))。
【0080】
(4)1または−1でラベル化された小領域で、マーカ領域の中央にもつとも近い小領域を抽出する。
【0081】
この小領域をセンターパターンと命名し、そのセンターパターンと領域の1次モーメントq0 と2次モーメントMを利用し、センターパターンからその他のパターンまでの正規化距離と正規化角度(楕円領域を円領域ヘ変換したときのパターン間角度)を算出する。
【0082】
図7の(d)は、このセンターパターンからその他のパターンまでの正規化距離と正規化角度を算出する様子を表している。
【0083】
これらの正規化距離とパタ−ン間の正規化角度がある一定の幾何学的性質を保っていたときには、このマーカ候補領域は、マーカ領域として認識され、その小領域が作るパターンのコードを読みとることにより、マーカの同定を行うことができる。
【0084】
図7の(d)では、図3のコードパターンのコード2として認識されることになる。
【0085】
このようにして同定されたマーカ領域は、その画像内でのセンターパターンの重心位置が、コードマーカの位置(u,v)(i=1,2,3,...)として登録される。
【0086】
ステップ3:
ステップ2で同定されたマーカの画像内位置(u,v)(i=1,2,3,...)とオブジェクト座標系における3次元マーカ位置(xi m ,yi m ,zi m )が与えられたとき、如何にして式(3)で表される斉次変換行列cHm 上を算出するが、このステップ3の課題である。
【0087】
これは、基本的には、上述した文献1(M.A.Fischler and R.C.Bolles,“Random sample consensus:A paradigm for model fitting with applications to image analysis and automatedcartography,”Communications ofthe ACM,Vol.24,No.6,June 1981,pp.381−395)で示される方法を以下に示すように変更しながら行う。
【0088】
すなわち、この文献1で紹介されている方法では、同定されたマーカ群の中から一直線上にない任意の3個のマーカを選択し、その3個のマーカを利用してカメラ座標系とオブジェクト座標系間の座標変換パラメータ解の候補を算出するようにしている。
【0089】
しかるに、その座標変換パラメータとしては、最大4種類の解が存在することがわかっているので、本発明では、その4種類の各解に対して、選択されなかつたマーカ群を利用して解の検証を行うことにより、解の絞り込みを行うとともに、その解を初期値として、すべてのマーカを利用して解の更新を行うようにしたものである。
【0090】
以下、その方法に関して簡単に説明する。
【0091】
同定されたマーカ群の中から、ある選択基準に従って画像内で一直線上にない3個のマーカを選択する。
【0092】
この選択基準としては、
(1)カメラ画像面で3個のマーカを頂点とする3角形の面積が最大となる3個のマーカを選択する方法
(2)カメラ画像面で3個のマーカを頂点とする3角形の最大内角が最小である3個のマーカを選択する方法
などが考えられる。
【0093】
このようにして得られたマーカをM(i=1,2,3)とする。
【0094】
次に、これら3個のマーカM(そのモデル座標系における3次元位置をPi 、(xi m ,yi m ,zi m )、画像内位置をQi (ui ,vi )とする)に関して、図8に示されるような3個の3角形Δ0c (i,j=1,2,3;iとjは等しくない)を考える。
【0095】
これらの3個の3角形に関して、カメラ画像系の原点0c から各マーカMまでの距離をdとし、マーカM,Mとカメラ座標系原点0c がなす角度θijとする。
【0096】
また、マーカM,M間の距離をRijとする。
【0097】
このとき距離R12,R23,R31と角度θ12,θ23,θ31は既知の値となるが、d,d,dは未知の値となる。
【0098】
逆に言えば、距離d,d,dを算出することができれば、オブジェクト座標系からカメラ座標系への座標変換パラメータを算出することができる。
【0099】
以下この点に関して解説する。
【0100】
(1)距離R12,R23,R31の算出方法
12は点P1 と点P2 間のユークリッド距離として算出される。
【0101】
同様に、R23、R31はそれぞれ、点P2 とP3 、点P3 とP1 間のユークリッド距離として算出される。
【0102】
(2)角度θ12,θ23,θ31の算出方法
マーカM,Mとカメラ座標系の原点0とがなす角度θijは以下のように算出することができる。まず、
【数6】
Figure 0004794708
で与えられる。
【0103】
このようにして、3個の角度をその余弦より算出することができる。
【0104】
(3)距離d(i=1,2,3)の算出
3角形0cM,0cM,0cMに対して第2余弦定理を適用すれば、
【数7】
Figure 0004794708
が導かれる。
【0105】
これらの3つの式において、未知数はd,d,dの3個であり、制約式も3つであるので、理論的には上式を満たす解{(d(k),d(k),d(k)):k=1,2,3,4}が存在する。
【0106】
その解法に関しては、上述した文献1(M.A.Fischler and R.C.Bolles,“Random sample consensus:A paradigm for model fitting with applications to image analysis and automated cartography,”Communications of the ACM,Vol.24,No.6,June 1981,pp.381−395)で詳しく述べられているように、この方程式には最大4個の解が存在することがわかっており、その解が4次方程式の解として数値解祈的に解くことが可能である。
【0107】
(4)解(d,d,d)の検証と最適解の選択
基本的には、最大4個の解の中で1個だけが正しい解を与えるものである。
【0108】
上記の解の中で、どの解が正しいかを検証するのが、このステップである。
【0109】
各解(d,d,d)について、カメラ座標系Cでのマーカ位置(xi c ,yi c ,zi c )を算出する方法について解説する。
【0110】
カメラ座標系原点Cからマーカまでの距離がdであり、その画像内位置が (ui ,vi )であり、
【数8】
Figure 0004794708
が成立し、
【数9】
Figure 0004794708
と書くことができる。
【0111】
いま、オブジェクト座標系でのマーカ位置を(xi m ,yi m ,zi m )とすれば、オブジェクト座標系0からカメラ座標系0への変換は、
【数10】
Figure 0004794708
と書かれる。
【0112】
ここに、Rは回転行列を表し、tは並進ベクトルを表す。
【0113】
いま、両座標系でのマーカ群の重心ベクトルを
【数11】
Figure 0004794708
が成立し、並進べクトルと回転行列を別々の式で算出することができる。
【0114】
i=1,2,3に対して、上記方程式を解く方法としては、quaternion法(四元数法)がある。
【0115】
この方法の詳細は文献3(B.K.P.Horn,“Closed−formsolution of abso1ute orientation using unit quaternions,”Journal of Optical Society of America A,V01.4,No.4,1987,pp.629−642.)に述べられているので、その詳細はここでは省略する。
【0116】
このようにR,tが算出されると、斉次変換行列cHmは式(1),(2)により計算することができる。
【0117】
以上のことを4個の解に対して繰り返すことにより、cHm(1),cHm (2),cHm(3),cHm(4)の4個の解を算出することができる。
【0118】
さて、同定されたコードマーカのうち最初の選択されなかつたコードマーカをM,M,...,Mとする。
【0119】
次に、各斉次変換行列解cHm(k)(k=1,2,3,4)に対して、解として最もふさわしい解を、これらM,M,...,Mを利用して決定する方法を説明する。
【0120】
(1)各解cHm(k)に対する評画関数dist(k)を最小にするkを、以下のステップで算出する。
【0121】
(2)各解cHm(k)(k=1,2,3,4)に関して以下の方法により、dist(k)を算出する。
【0122】
a)dist(k):=0と評価関数を初期化する。
【0123】
b)同定されたが最初の3個に選択されなかったマーカM(j=4,5,...,m)について、そのオブジェクト座標系における3次元位置(xj m ,yj m ,zj m )を、cHm(k)を利用してカメラ画像面に変換する。
【0124】
その投影画像点を(uj ´,vj ´)とする。これは、
【数12】
Figure 0004794708
により算出することができる。
【0125】
続いて、マーカMの実際に画像内で測定された2次元位置(uj ,vj )と投影画像点(uj ´,vj ´)との2乗誤差ej を算出する。
【0126】
この2乗誤差ej は、以下のようにして算出することができる。
【0127】
j =(uj ´−uj )2 +(vj ´−vj 2
そして、dist(k)は、
【数13】
Figure 0004794708
で求められる。
【0128】
(3)以上のようにして求められたdist(k)が最小となる斉次変換行列の解cHm(k)を選択する。
【0129】
要約すると、上記のステップで求められる最適解cHm(k)は、コードマーカM,M,Mから生成される解のうち、他のマーカM,M,...,Mが最も支持する解を選択するものである。
【0130】
(5)解の更新
上記ステップ(4)で選択された解cHm(k)は、コードマーカM,M,Mから推定されたものであり、他のマーカM,M,...,Mに対する測定値を利用したものではない。
【0131】
そこで、本ステップ(5)では、上記ステップ(4)で算出された解cHm (k)を初期推定値cHm(0) として、すべてのコードマーカMi(i=1,2,...,m)により、この解の更新を行う。
【0132】
すなわち、cHmを角度成分(roll(φ)−pitch(φ)−yaw(φ))と並進成分(t,t,t)に展開して、6次元未知変数p=(φ,φ,φ;t,t,t)とし、その初期推定値をp(0) =(φ (0) ,φ (0) ,φ (0) ;t (0) .t (0) ,t (0) )と定義する。
【0133】
具体的には、
【数14】
Figure 0004794708
により定義される。
【0134】
これをオブジェクト座標系でのマーカ3次元位置(xi m ,yi m ,zi m )と、そのカメラ画像面での位置(ui ,vi )の関係を利用しながら、6次元位置姿勢パラメータp=(φ,φ,φ;t,t,t)を更新することを考える。
【0135】
オブジェクト座標系でのマーカ3次元位置(xi m ,yi m ,zi m )と、そのカメラ画像面での位置(ui ,vi )の関係は
【数15】
Figure 0004794708
により与えられる。
【0136】
この式を整理すると、各マーカM(i=1,2,...,m)に関して、
【数16】
Figure 0004794708
なる2次制約式によって表現され、6次元パラメータの初期推定値p(0) =(φ (0) ,φ (0) ,φ (0) ;t (0) .t (0) ,t (0) )を用いて、6次元パラメータp=(φ,φ,φ;t,t,t)を推定する問題となる。
【0137】
この問題はよく知られた非線形方程式問題であり、多くの文献がその解法を紹介しているので、ここではその詳細を述べない。
【0138】
このようにして6次元パラメータは、すべてのマーカの測定値を利用して更新され、オブジェクト座標系からカメラ座標系への座標変換パラメータが算出される。
【0139】
すなわち、対象物1と画像撮影装置3との間の位置関係を算出することができる。
【0140】
以上のような第1の実施の形態によれば、マーカ群の一部が遮蔽されて検出できなかった場合でも、検出されたマーカだけから対象物1と画像撮影装置3との間の3次元位置関係を算出することができる。
【0141】
また、マーカの検出に際しては、マーカ固有のコードを利用することにより、マーカ同定の信頼性が従来技術に比べて格段に向上させることができるので、より安定な位置姿勢計測を実現することができる。
【0142】
(第2の実施の形態)
次に、第2の実施の形態について説明する。
【0143】
上述した第1の実施の形態では、画像撮影装置3としてカラー画像を生成できるものを仮定し、その色情報を利用することにより、マーカ領域を抽出するようにしている。
【0144】
これに対し、本第2の実施の形態では、カラー画像を用いずにモノクロ画像を撮影する画像撮影装置3を利用し、マーカが独自に持つ幾何学的構造を画像内から抽出することにより、マーカ領域を抽出するようにしている。
【0145】
また、本第2の実施の形態では、抽出されたマーカ領域の領域の大きさの情報を利用してカメラ座標系からマーカまでの距離の初期推定値を算出することにより、マーカの数が3個のときでも、安定的に対象物1と画像撮影装置3間の3次元位置姿勢パラメータを算出することができるようにしている。
【0146】
上述した第1の実施の形態のようにカラー画像を利用する方式では、複雑な環境下で照明光が変化する場合には、単一色領域を抽出したり、単純な閾値処理によってマーカに対応する領域を正確に抽出することが困難な場合が多い。
【0147】
本実施の形態で説明する方式では、このような複雑な環境下でもロバストに3次元位置姿勢推定が行えるように、マーカが独自に持つ幾何学的関係を画像内から抽出することを行う。
【0148】
本実施の形態の基本的な構成は図1で示された構成と同様であり、その処理のステップは、図6で示された方法と同様であるが、ステップ1では、画像撮影装置3がカラー画像の代わりにモノクロ画像をコンピュータ4に送出する。
【0149】
また、ステップ2では、カラー画像の代わりにモノクロ画像からマーカ領域が抽出される点が異なる。
【0150】
また、ステップ3においては、マーカ領域からマーカを同定するのに必要となるコードが検出されるとともに、マーカ領域自体の大きさの情報が抽出される点が異なる。
【0151】
さらに、ステップ4においては、マーカ領域の大きさの情報も利用しながら、対象物1と画像撮影装置3との間の3次元位置姿勢パラメータが算出される。
【0152】
以下、その詳細を、ステップ2、3、4について解説する。
【0153】
なお、本実施の形態でも、コードマーカとしては、図3で示されるような円形マーカを想定して解説する。
【0154】
ステップ2:
図9は、第2の実施の形態におけるステップ2での処理の手順を示すフローチャートである。
【0155】
ステップ11では、画像撮影装置3により送出されたモノクロ画像が、コンピュータ4内のメモリ領域に記憶された後、その画像配列I(u,v)に対して、メディアンフィルタなどの平滑化フィルタを適用し、マーカ領域内に存在する微細なテクスチャや画像に含まれるノイズ成分を除去する。
【0156】
続いて、ステップ12では、平滑化された画像について領域分割アルゴリズムを適用し、画像を領域分割する。
【0157】
この領域分割アルゴリズムとしては、上述した文献3(K.Rahardjaand A.Kosaka“Vision−based bin−picking:Recognition and localization of multiple complex objects using simplevisual cues,”Proceedings of 1996 IEEE/RSJ International Conference on Intelligent Robots and Systems,Osaka,Japan,November 1996)に示されているSpedge−and−Medge方法や、文献4(T.Pavlidis and Y.Liow,“Integrating region growing and edge detection,”IEEE Transactions on Pattern Analysis and Machine Intelligence,Vol.12,No.3,pp.225−233,1990)に示されるSplit一and−Merge方法や、Cannyエッジ抽出方法で抽出したエッジ成分を連結して領域分割する方法など、どのような方法でもよい。
【0158】
次に、ステップ13では、このようにして分割される各領域に関して、その領域の幾何学的特徴量を計算する。
【0159】
例えば、その領域kに対して『面槓A(k)』、『大きさL(k)』、『濃度の平均値m(k)』、『濃度の標準偏差s(k)』などを算出する。
【0160】
これらの特徴量が、マーカとして取りうる値として妥当であるか否かを閾値処理により判定する。
【0161】
具体的には、上記各特徴量が、あらかじめ定められた範囲内の値であるか否かを見ればよい。
【0162】
例えば、上記各特徴量が、面積A(k)、大きさL(k)、濃度の平均値m (k)、濃度の標準偏差s(k)の場合には、
【数17】
Figure 0004794708
をすべて満たしているか否かを判定条件とすればよい。
【0163】
ここで、Amin,Amaxなどの値は、対象物1の大きさ、コ一ドマーカ2の大きさ・色、画像撮影装置3と対象物1の距離の上限と下限などを考慮することにより、あらかじめ設定できるものである。
【0164】
このようにして分割された領域の中からマーカに対応すると思われる領域の1次候補が選択される。
【0165】
続いて、ステップ14では、第1次選択で候補とされた領域に関して、その領域がコードマーカ領域として妥当であるか否かを詳細に判定する。
【0166】
この場合、基本的にコードマーカの外形は、図3に示されるように円形であるので、その画像内での投影像は楕円で近似することができる。
【0167】
そこで、第1次選択で候補とされた領域が、楕円であるか否かを詳細に判定する。
【0168】
この判定方法については、第1の実施の形態の場合と同様であるので、ここでは省略する。
【0169】
これでステップ2は終了する。
【0170】
ステップ3:
このステップ3において、第1の実施の形態の場合と原画像がカラー画像ではなく、モノクロ画像であることが異なるが、その処理の方法は第1の実施形態の場合と同様であるので、ここではその解説を省略する。
【0171】
ステップ4:
ステップ3で、コードマーカが同定できた後、ステップ4へ引き継がれる情報は、各コードマーカに対して、オブジェクト座標系におけるコードマーカの3次元位置(xi m ,yi m ,zi m )、カメラ画像面における位置(ui ,vi )、コードマーカの画像内における楕円近似に基づく長軸の長さri である。
【0172】
本ステップでは、コードマーカの画像内における楕円近似の長軸の長さri を利用して、カメラ座標系から各コードマーカまでの距離dの初期推定値を算出し、その初期推定値を有効に利用することで対象物1と画像撮影装置3との間の3次元位置関係を計測する方法を解説する。
【0173】
(1)画像撮影装置3からマーカ2までの距離の初期推定値の算出
以上のようにしてマーカが同定できた場合には、そのマーカ2と画像撮影装置3との間の距離の初期推定値を算出する。
【0174】
以下この方法を説明する。
【0175】
図10に示すように、マーカの中心をPi 、カメラの焦点を0c とするとともに、カメラ像面と0c i の交点をQi とすると、Qi はマーカ像の中心であると判断することができる。
【0176】
また、マーカの3次元モデルを半径Ri の球で近似し、マーカの像を楕円で近似するとき、その画像内の楕円の長軸の長さをri とする。
【0177】
【数18】
Figure 0004794708
ここに、θi はカメラの光軸と0Pi がなす角度であり、zi はPi のカメラ座標系におけるz値である。
【0178】
そして、zi とdi の間には、以下の関係が成立するから、
【数19】
Figure 0004794708
と表現することができる。
【0179】
(2)対象物1と画像撮影装置3間の3次元位置姿勢推定
カメラ座標系0c でのマーカ位置(xi c ,yi c ,zi c )を算出する方法についてまず解説し、続いてオブジェクト座標系とカメラ座標系間の座標変換パラメータの算出について解説する。
【0180】
各マーカとマーカに対して、その3次元的距離をRij、カメラ視点0c (焦点位置)とQ,Qがなす角度をθijとすると、
【数20】
Figure 0004794708
で与えられる。
【0181】
各マーカの基準座標系での3次元位置は確定しているので、マーカ間の距離もあらかじめ確定している。
【0182】
いま、この距離をaijとすれば、三角形の余弦定埋から
【数21】
Figure 0004794708
が成立しなければならない。
【0183】
従って、前ステップで求められたdの推定値とdの誤差分散ならびにcos(θij)の誤差分散を利用することにより、dの初期値を更新することができる。
【0184】
このようにdの初期値を更新する方法としては、
(1)ニュートン法を利用する方法
(2)準ニュートン法を利用する方法
(3)カルマンフィルタを利用する方法
など多くの方法が挙げられる。
【0185】
本実施の形態では(3)のカルマンフィルタを利用して解を算出する方法について述べる。
【0186】
上記で説明されている距離d(i=1,2,...,n)を変数とするべクトルpを定義し、その初期分散行列をS、すなわち
【数22】
Figure 0004794708
で示される繰り返し演算を行うことにより、求めるべきべクトルpを更新することができる。
【0187】
このpはカメラ座標系の原点からマーカ位置までの距離に対応する。
【0188】
この距離が推定できると、第1の実施の形態で説明した方法と同様にして、オブジェクト座標系からカメラ座標系への座標変換パラメータを算出することができる。
【0189】
以上、第2の実施の形態によれば、原画像としてカラー画像を利用する必要がないため、より安価なシステムを構成することができるとともに、最低3個のコードマーカを使用する場合でも、対象物と画像撮影装置間の3次元位置関係を計測することができる。
【0190】
(第3の実施の形態)
次に、第3の実施の形態について説明する。
【0191】
上記第1及び第2の実施の形態においては、原画像からマーカ領域と思われる領域を抽出するのに、原画像と同じサイズの画像を利用するようにしている。
【0192】
しかるに、本発明では、基本的にマーカに対応する領域は、円形や多角形などの単純な形状をしており、その内部背景は均一な色などで構成されていることから、原画像と同じサイズの画像を処理しなくてもマーカ領域と想定される領域を抽出することが可能である。
【0193】
そこで、本実施の形態では、原画像をいったん縮小し、縮小された画像に対して、第1または第2の実施の形態において、マーカ領域を抽出するとともに、縮小画像内で抽出されたマーカの位置を利用して、原画像でのマーカ領域の位置を推定するとともに、原画像サイズでのマーカ領域内で、コードマーカの同定を行うことにより、原画像サイズでのマーカ領域抽出に関わる処理時間を短縮することができる手法を説明するものである。
【0194】
説明の関係上、本実施の形態では、第2の実施の形態で説明した方法に関して、縮小を生成して処理を行う場合について説明する。
【0195】
しかしながら、第1の実施の形態で説明した方法への適用も容易であることは言うまでもない。
【0196】
本実施の形態では、画像の大きさを原画像から1/16に縮小した場合について、説明する。
【0197】
基本的には、図6のステップ1におけるマーカ領域の抽出を縮小画像で行うものである。
【0198】
サブステップ1:
原画像を1/16に縮小する(行方向に1/4、列方向に1/4とする)。
【0199】
いま、原画像の画像配列を(i,j)とし、縮小画像の画像配列を(is,js)とすると、i=4*is+0,i=4*is+1,i=4*is+2,i=4*is+3の各Iに対して、かつj=4*js+0,j=4*js+1,j=4*js+2,j=4*js+3に対するJにおける16画素の平均値を(is,js)の画素値とすることで、縮小画像を作成する。
【0200】
サブステップ2:
サブステップ1で作成された縮小画像に対して、マーカに対応すると予想される領域を抽出する。
【0201】
この抽出方法は、第1の実施の形態または第2の実施の形態で述べられた方法と同様である。
【0202】
サブステップ3:
サブステップ2で抽出された領域の位置座標(is,js)を4倍ずつすることにより、原画像におけるマーカ領域を推定する。
【0203】
以上のような第3の実施の形態で説明した手法をとることにより、原画像の大きさに比べて1/16の大きさの縮小画像を処理することで、マーカと想定される領域を抽出することができるので、全体の処理を高速化することができる。
【0204】
(第4の実施の形態)
次に、第4の実施の形態について説明する。
【0205】
この第4の実施の形態では、コードマーカ以外のランドマーク点を利用して、位置姿勢推定の精度を向上する方法について説明する。
【0206】
これまでに解説した第1乃至第3の実施の形態による方法では、コードマーカと呼ばれるマーカの3次元位置モデルとその画像への投影像の2次元位置との関係のみを利用して、コードマーカが規定する対象物と画像撮影装置間の3次元位置姿勢を推定するようにしている。
【0207】
このような方法は、コードマーカを多数利用することができる場合、または計測精度があまり必要ないときにはよい。
【0208】
しかしながら、高精度の位置姿勢推定が要求される場合には、より多くのマーカ3次元モデル特徴と画像内での観測点の対応関係が必要となる。
【0209】
以下に述べる第4の実施の形態による手法では、コードマーカ以外のモデル特徴を利用し、該モデル特徴と観測された画像特徴の対応関係を増加させることにより、より高精度の位置姿勢推定を実現するものである。
【0210】
以下、このようなモデル特徴のことをランドマークと呼ぶことにし、そのランドマークをどのように画像内から抽出し、かつ抽出されたランドマークを利用して、どのように対象物1の位置姿勢を推定するかについて、幾つかの実施例に基づいて解説する。
【0211】
(実施例1)
まず、実施例1として、コードマーカ位置以外のモデル特徴として、すでに認識された近接するコードマーカの位置を利用してモデル特徴の画像内位置を利用し、コードマーカ以外のモデル特徴の位置を推定するとともに、その推定された位置付近の画像特徴を抽出し、モデル特徴と画像特徴間の対応関係を利用して、対象物の位置姿勢を推定する手法を説明する。
【0212】
いま、オブジェクト座標系で、コードマーカ0,1,...,m−1が位置べクトルp,p,...,pm−1で表され、ランドマークkの位置べクトルpk が、p,p,..,pm−1で線形結合で表されるとすると(b,b,...,bm−1は定数)、
【数23】
Figure 0004794708
その画像内での位置qk =(uk ,vk )は、コードマーカの画像内計測値q0 =(u0 ,v0 “),q1 =(u1 ,v1 ),qm-1 =(um-1 ,vm-1 )を利用して
【数24】
Figure 0004794708
で予測することができる。
【0213】
この予測値を利用し、qk の近傍で最も確からしいランドマーク画像内から抽出することになる。
【0214】
図11は、画像内からランドマークを抽出する一例を示しており、ここでは、この図11にあるような例についてを考える。
【0215】
この例では、コードマーカ0,1,2があらかじめ抽出されていると仮定し、それら3個のコードマーカのちようど重心の位置に円形のランドマークが配置されている場合を考える。
【0216】
すると、画像内で抽出されたコ一ドマーカ0,1,2の画像内位置の重心を取り、その重心付近である適当な大きさのウィンドウを設定し、そのウィンドウ領域内にある円形の領域を閾値法で抽出することにより、ランドマークkの抽出を行うことができる。
【0217】
このようにしてランドマークkに対応する領域が抽出されると、その領域の重心位置が、ランドマークkの位置として登録される。
【0218】
このようにして、コードマーカ群とランドマーク群が抽出され、画像内での位置が算出されると、第1の実施の形態で述べたような位置推定方法で対象物1の位置姿勢を推定することができる。
【0219】
また、別の方法としては、第2の実施の形態で説明したように、まず、最初にコードマーカ群を利用して対象物位置姿勢を推定し、対象物1の初期推定値を算出したのち、第1の実施の形態の解の更新の方法で述べたような方法により、ランドマーク群の画像内位置とオブジェクト座標系における位置を利用することで、対象物1の位置姿勢の推定値を更新することができる。
【0220】
(実施例2)
ここで述べる実施例2の手法では、あらかじめ抽出されたコードマーカを利用して、対象物1の3次元位置姿勢の初期推定値を算出するとともに、その初期推定値を利用して、ランドマークの画像内でのあるべき予測位置の推定値を算出し、その推定位置付近で、ランドマークを探索する。
【0221】
そして、ランドマークが同定できた場合には、そのランドマークのオブジェクト座標系での3次元位置と画像内での2次元位置を利用して、対象物1の3次元位置姿勢の推定値を更新するものである。
【0222】
以下、その方法について説明する。
【0223】
いま、画像内からコードマーカ0,1,...,m−1が同定されたと仮定すると、これらのオブジェク卜座標系での3次元位置座標を画像内で計測された2次元座標を利用して、対象物1の3次元位置姿勢を推定することができる。
【0224】
この方法は、第1あるいは第2の実施の形態で示した方法と同様である。
【0225】
いま、この3次元位置姿勢の初期推定値をcHmとする。
【0226】
また、ランドマークkのオブジェクト座標系における位置を(xk,yk,zk)とすると、ランドマークkの画像内における予測値(uk,vk)は式(3),(4)により算出することができる。
【0227】
この予測値(uk,vk)の周辺で、画像内からランドマークを抽出・同定することができる。
【0228】
このようにして、各ランドマークを抽出・同定できた場合には、実施例2で説明したのと同様にして、対象物1の3次元位置姿勢の推定値を更新することができる。
【0229】
以上、述べたような手法を利用すれば、コードマーカ以外のランドマークを利用して、対象物の3次元位置姿勢を推定することが可能となり、よりロバストで正確な位置姿勢推定を行うことがてきる。
【0230】
また、この手法により、あらかじめ登録しておくべきコードマーカの数を減少させることもできる。
【0231】
(第5の実施の形態)
この第5の実施の形態では、画像撮影装置以外の装置と対象物間の3次元位置姿勢を推定する手法を説明する。
【0232】
これまでに説明してきた第1乃至4の実施の形態は、いずれも、対象物1と画像撮影装置3間の位置関係を計測する例である。
【0233】
しかるに、より実際的な例の場合として、図1に示される画像撮影装置3とコンピュータ4は、あるシステムにおいて、対象物1の位置姿勢を推定する位置センサとして利用される場合がある。
【0234】
この際には、画像撮影装置3とコンピュータ4からなる位置センサを含むシステム内に別の装置があり、その別の装置が規定する座標系をシステムが基準とするシステム座標系と考えることが多い。
【0235】
図12は、第5の実施の形態で想定される構成を表したブロック図である。
【0236】
すなわち、図12に示すように、コードマーカ122が装着された対象物121を撮影する画像撮影装置123が画像データをデータ処理装置であるコンピュータ124に送出し、コンピュータ124はその画像データを解析することにより、対象物121が規定するオブジェクト座標系から画像撮影装置123が規定するカメラ座標系への座標変換パラメータを算出する。
【0237】
一方、コンピュータ124は、画像撮影装置123が規定するカメラ座標系から基準座標系を規定する装置125が規定する基準座標系への座標変換パラメータをあらかじめ格納している。
【0238】
その座標変換パラメータを利用して、コンピュータ124は、オブジェクト座標系から該基準座標系への座標変換パラメータを算出する。
【0239】
いま、基準座標系を規定する装置125に対して、画像撮影装置123がキャリブレーションできていると仮定する。
【0240】
より具体的には、画像撮影装置123が規定するカメラ座標系0cと基準座標系0rの間の関係が斉次変換行列rHc(カメラ座標系から基準座標系への斉次変換行列)で決定されていると仮定する。
【0241】
コンピュータ124が画像からマーカ群を同定し、カメラ座標系での対象物121の3次元位置姿勢を推定したとすると、オブジェクト座標系からカメラ座標系への座標変換パラメータを算出することができ、それはcHmで表すことができる。
【0242】
これら2個の斉次変換行列から、オブジェクト座標系から基準座標系への斉次変換行列を、以下のように算出することができる。
【0243】
【数25】
Figure 0004794708
このことにより、基準座標系における対象物121の3次元位置姿勢を推定することができる。
【0244】
本第5の実施の形態によりわかるように、本発明を別の装置のための位置姿勢センサとして利用することも可能である。
【0245】
(第6の実施の形態)
この第6の実施の形態では、本発明をセンサブローブ(ワイヤレスセンサプローブ)について適用する場合について説明する。
【0246】
近年、3次元オブジェクトの3次元点を計測するために、センサプローブが多く開発されるようになってきている。
【0247】
その手法としては、Flash Pointのような光学的センサを利用する方法、磁気センサを利用する方法などがある。
【0248】
Flash Pointのような発光ダイオードを利用する光学的センサの場合には、高精度で計測できることはあるが、センサプローブと装置間をワイヤで接続する必要があるので、操作性の問題がある。
【0249】
一方、磁気センサの場合には、ワイヤレスでの計測が可能であるが、金属の器具などが周辺にあるとノイズの影響が大であるという問題点がある。
【0250】
本実施の形態は、これらの問題点を解決すべく発明されたワイヤレスでかつ電磁波などの影響を受けないセンサプローブに適用した場合である。
【0251】
具体的には、センサプローブ自体に第1の実施の形態または第2の実施の形態で説明したようなコードマーカを装着することにより、画像撮像装置からセンサプローブまでの位置姿勢を推定し、センサプローブが探針する位置を推定するものである。
【0252】
以下、具体的に、このセンサプローブに適用した場合について解説する。
【0253】
図13は、この第6の実施の形態による構成を表すブロック図である。
【0254】
すなわち、図13に示すように、探針されるべき物体X139をセンサプローブ138で探針する。
【0255】
そのセンサプローブ138には、これまでの実施の形態で説明してきたようなコードマーカ(2,122)が装着されており、そのコードマーカを画像撮影装置133が撮影する。
【0256】
そして、画像撮影装置133で撮影された画像データは、コンピュータ134に送信される。
【0257】
コンピュータ134は、画像撮影装置133から送信される画像データに基づいて画像解析することにより、まず、画像撮影装置133に対するセンサプローブ138の位置姿勢パラメータを計測する。
【0258】
この場合、センサプロープ138が基準とすべき座標系は、コンピュータ134に接続された基準座標系を規定する装置136により規定されており、コンピュータ134はその基準座標系に合致した探針点の3次元位置データ137を該基準座標系を規定する装置136に送出する。
【0259】
図14は、センサプローブ138の例を表したものである。
【0260】
この図14において、センサプローブには、その先端に探針すべき針がついており、その針の先端が、第1または第2の実施の形態で述べられたようなオブジェク座標系の原点として定義される。
【0261】
そして、それを原点としてオブジェクト座標系を規定するXm 軸、Ym 軸、Zm 軸の3軸が定義される。
【0262】
また、このセンサプローブには、第1の実施の形態や第2の実施の形態で解説したような複数のコードマーカが装着されている。
【0263】
そのコードマーカの位置はオブジェクト座標系上であらかじめ確定されていると仮定し、その3次元座標を(xi m ,yi m ,zi m )とする。
【0264】
このとき画像撮影装置133で、このコードマーカが撮影され、その画像がコンピュータ134で解析されることにより、オブジェクト座標系から画像撮影装置133が規定するカメラ座標系への座標変換パラメータを算出することができる。
【0265】
すなわち、オブジェクト座標系から画像撮影装置133が規定するカメラ座標系への斉次変換行列を算出することができる。すなわち、
【数26】
Figure 0004794708
で表現されるcHmを算出することができる。
【0266】
さて、センサプローブ138の針の先端がオブジェクト座標系の原点と一致することから、(xi m ,yi m ,zi m )=(0,0,0)を代入すると、針先端のカメラ座標系における3次元位置を算出することができる。
【0267】
その値は並進ベクトルtそのものの値となる。
【0268】
画像撮影装置133がある基準座標系Rにおいて、キャリブレーションされている場合を考える。
【0269】
すなわち、図13で示されたように、他の装置136の座標系で画像撮影装置133が規定されている場合を考える。
【0270】
この場合には、画像撮影装置133から基準座標系への斉次変換行列rHcがあらかじめ較正されていると考えることができる。
【0271】
従って、基準座標系におけるセンサプローブ138の先端の3次元座標(xi r ,yi r ,zi r )は、
【数27】
Figure 0004794708
で表されることになる。
【0272】
これにより、本センサプローブは基準座標系における探針点の3次元位置を提供することができる。
【0273】
そして、本実施の形態によれば、従来技術では実現できなかったワイヤレスのセンサプローブを実現することができることになる。
【0274】
(第7の実施の形態)
この第7の実施の形態では、ステレオカメラを利用するようにした場合について説明する。
【0275】
これまで説明してきた実施の形態は、画像撮影装置が撮影する画像1枚を使用して対象物と画像撮影装置間の位置関係を計測する場合についてである。
【0276】
本実施の形態では、画像撮影装置が複数あり、それらと対象物間の位置関係を計測する方法について解説する。
【0277】
本方式によれば、検出されるべきコードマーカの数が3個の場合でも、安定的に位置姿勢推定が可能となる。
【0278】
基本的に、本実施の形態では、画像撮影装置間のキャリブレーション(画像撮影装置間の相対的位置が確定していること)があらかじめなされている場合に関してのみ、解説するものとする。
【0279】
また、画像撮影装置としては2台の場合のみを説明するが、2台を越える複数台の画像撮影装置への拡張は容易である。
【0280】
図15は、本実施の形態による方式の概念図を表したブロック図である。
【0281】
すなわち、図15に示すように、あらかじめ相対的位置が確定した複数(但し、この例ではステレオカメラを利用する例として左右の2台)の画像撮影装置203,204からの撮影画像データがデータ処理装置であるコンピュータ205ヘ送出される。
【0282】
コンピュータ205は、あらかじめオブジェクト座標系における位置が確定しているコードマーカ(202)位置を利用することにより、各画像撮影装置203,204と対象物201あるいは一部の画像撮影装置203または204と対象物201との間の3次元位置関係を計測する。
【0283】
本実施の形態においては、複数の画像撮影装置を有するため、複数の画像撮影装置は、全撮影装置は基準とするセンサ基準座標系に基づいてキャリブレーションされていると仮定する。
【0284】
すわなち、各画像撮影装置jに関して、センサ基準座標系で規定される3次元点(xi s ,yi s ,zi s )が画像撮影装置jにおいて、画像位置(ui j ,vi j )で観測されたとすると、すでにキャリブレーションにより確定している斉次変換行列jHsを利用して、
【数28】
Figure 0004794708
と記述することができる。
【0285】
ここに、αM j ,αM j ,u0 j ,v0 j は、画像撮影装置jに関するカメラ内部パラメータであり、カメラキャリブレーションにより確定した値である。
【0286】
もし、オブジェクト座標系で規定される3次元点(xi m ,yi m ,zi m )を考えると、その画像撮影装置jでの位置(ui j ,vi j )は、以下の式により記述できる。
【0287】
【数29】
Figure 0004794708
そこで、本実施の形態で解決すべき問題は、上記の式で表現されているオブジェクト座標系からセンサ基準座標系への座標変換パラメータsHmを如何にして推定するかと言う問題である。
【0288】
図16は、本実施の形態の処理手順を表したフローチャートである。
【0289】
本方式においては、左右画像を左右の画像撮影装置から受け取り、各画像内からコードマーカを同定し、その画像内位置を算出する(ステップS11,S12,S13)。
【0290】
左右画像の両方から同定できたコードマーカに関して、そのコードマーカのセンサ基準座標系での3次元位置を左右画像内位置から算出する。
【0291】
こうしてセンサ基準座標系で算出された3次元位置座標とオブジェクト座標系で規定された3次元位置座標とを利用することにより、オブジェクト座標系からセンサ基準座標系への座標変換パラメータを算出する(ステップS14)。
【0292】
各画像からコードマーカを同定するステップ(S11,S12,S13)までは、第1の実施の形態や第2の実施の形態の場合と同様であるので、ここではステップS14において、左右の画像の両者から同定されたコードマーカの画像内位置座標から、どのようにしてオブジェクト座標系からセンサ基準座標系への座標変換パラメータを算出するかを説明する。
【0293】
いま、左画像から得られたコードマーカiの画像内位置座標を(ui 1 ,vi 1 )、右画像から得られたコードマーカiの画像内位置座標(ui 2 ,vi 2 )とする。
【0294】
このとき、センサ基準座標系での3次元推定値は、以下のようにして算出することができる。
【0295】
【数30】
Figure 0004794708
を定義したのち、(ui 1 ,vi 1 )と(ui 2 ,vi 2 )を正規化し、
【数31】
Figure 0004794708
を算出する。すると、式(100)から、
【数32】
Figure 0004794708
が得られる。ここで
【数33】
Figure 0004794708
とおけば、
【数34】
Figure 0004794708
として得られる。
【0296】
この式により得られた3次元位置姿勢推定値(xi s ,yi s ,zi s )とオブジェクト座標系内での3次元位置(xi m ,yi m ,zi m )は、以下の回転行列Rと並進べクトルtにより関連づけられ、第1の実施の形態または第2の実施の形態で説明したような、quaternion法によりその回転行列Rと並進べクトルtを求めることができる。
【0297】
また、このステレオ法では、検出されるべきコードマーカの数は最低で3個あればよい。
【0298】
これにより、オブジェクト座標系からセンサ基準座標系への座標変換パラメータsHmを算出することが可能となる。ここに
【数35】
Figure 0004794708
が成立する。
【0299】
本実施の形態によれば、互いにキャリブレーションされた複数の画像撮影装置を利用することにより、コードマーカの数が少ない場合でも、安定した位置姿勢センシング機能を実現することができる。
【0300】
本実施の形態は、単一の画像撮影装置を利用したに比べて2倍のコードマーカを利用して位置姿勢を推定することと等価となり、遮蔽などの影響で数少ないマーカしか検出できない場合や、複雑な環境下で、画像撮影装置が撮影する画像内にノイズ成分が多く含まれる場合には、特に有効な方法となる。
【0301】
そして、上述したような第1乃至第7の実施の形態で示した本発明の明細書には、特許請求の範囲に示した請求項1乃至3以外に、以下のような付記1.乃至36.として示すような発明が含まれている。
【0302】
付記1.撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも3個のマーカが写っている画像を入力する画像入力手段と、
上記画像上で上記各マーカに対応する領域を抽出する領域抽出手段と、
上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定するマーカ特定手段と、
上記推定されたマーカの画像上での大きさから、マーカまでの距離を推定する距離推定手段と、
上記推定された各マーカまでの距離と、このマーカの上記画像上での位置と、このマーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算手段と、
を有することを特徴とする3次元位置姿勢センシング装置。
【0303】
付記2.撮像装置により撮像された、測定対象物に対する3次元位置情報が既知のマーカが写っている画像を入力する画像入力手段と、
上記入力された画像を縮小する画像縮小手段と、
上記縮小された画像上で上記各マーカに対応する領域を抽出する領域抽出手段と、
上記抽出された各マーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算手段と、
を有することを特徴とする3次元位置姿勢センシング装置。
【0304】
付記3.上記測定対象物の特徴部分を画像より抽出する特徴部分抽出手段と、上記抽出した特徴部分の画像上の位置より、上記演算された測定対象物の位置姿勢を補正する手段をさらに含むことを特徴とする付記1または付記2記載の3次元位置センシング装置。
【0305】
付記4.画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定する方法であり、
撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも3個のマーカが写っている画像を入力する画像入力工程と、
上記画像上で上記各マーカに対応する領域を抽出する領域抽出工程と、
上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定するマーカ特定工程と、
上記特定された各マーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算工程と、
を有することを特徴とする3次元位置姿勢センシング方法。
【0306】
付記5.画像を解祈して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定する方法であり、
撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも4個のマーカが写つている画像を入力する画像入力工程と、
上記画像上で上記各マーカに対応する領域を抽出する領域抽出工程と、
上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定するマーカ特定工程と、
上記マーカ特定工程によつて特定されたマーカより3つのマーカを選択するマーカ選択工程と、
上記マーカ選択工程によつて選択された3つのマーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算するためのパラメータ組を複数算出するパラメータ組算出工程と、
上記マーカ選択工程によって選択されなかったマーカに対して、上記パラメータ組算出工程によつて算出されたパラメータ組を適用評価することにより、1つのパラメータ組を選択するパラメータ組選択工程と、
を有することを特徴とする3次元位置姿勢センシング方法。
【0307】
付記6.前記パラメータ組選択工程によつて選択された1つのパラメータ組に関して、各マーカの測定対象物に対する3次元位置情報を適用して評価することにより、該パラメータ組を改善するパラメータ改善工程をさらに含むことを特徴とする付記5記載の3次元位置姿勢センシング方法。
【0308】
付記7.画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定する方法であり、
撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも3個のマーカが写っている画像を入力する画像入力工程と、
上記画像上で上記各マーカに対応する領域を抽出する領域抽出工程と、
上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定するマーカ特定工程と、
上記特定されたマーカの両像上での大きさから、マーカまでの距離を推定する距離推定工程と、
上記推定された各マーカまでの距離と、このマーカの上記画像上での位置と、このマーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算工程と、
を有することを特徴とする3次元位置姿勢センシング方法。
【0309】
付記8.画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定する方法であり、
撮像装置により撮像された、測定対象物に対する3次元位置情報が既知のマーカが写っている画像を入力する画像入力工程と、
上記入力された画像を縮小する画像縮小工程と、
上記縮小された画像上で上記各マーカに対応する領域を抽出する領域抽出工程と、
上記抽出された各マーカの上記両像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算工程と、
を有することを特徴とする3次元位置姿勢センシング方法。
【0310】
付記9.上記測定対象物の特徴部分を画像より抽出する特徴部分抽出工程と、上記抽出した特徴部分の画像上の位置より、上記演算された測定対象物の位置姿勢を補正する工程をさらに含むことを特徴とする付記7または付記8記載の3次元位置姿勢センシング方法。
【0311】
付記10.コンピュータによって画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定するための処理プログラムを記録した記録媒体であり、上記処理プログラムはコンピュータに、撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも3個のマーカが写っている画像を人力させ、
上記画像上で上記各マーカに対応する領域を抽出させ、
上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定させ、
上記特定された各マーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算させる、
ことを特徴とする3次元位置姿勢センシング処理プログラムを記録した記録媒体。
【0312】
付記11.コンピュータによって画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定するための処理プログラムを記録した記録媒体であり、
上記処理プログラムはコンピュータに、撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも4個のマーカが写っている両像を入力させ、
上記画像上で上記各マーカに対応する領域を抽出させ、上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定させ、上記特定されたマーカより3つのマーカを選択させ、
上記選択された3つのマーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算するためのパラメータ組を複数算出させ、
上記選択されなかったマーカに対して、上記算出されたパラメータ組を適用評価することにより、1つのパラメータ組を選択させる、
ことを特徴とする3次元位置姿勢センシングブログラムを記録した記録媒体。
付記12.上記処理プログラムは、コンピュータにさらに、前記選択された1つのパラメータ組に関して、各マーカの測定対象物に対する3次元位置情報を適用して評価することにより、該パラメータ組を改善させることを特徴とする付記11記載の3次元位置姿勢センシング処理プログラムを記録した記録媒体。
【0313】
付記13.コンピュータによって画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定するための処理プログラムを記録した記録媒体であり、
上記処理プログラムはコンピュータに、撮像装置により撮像された、測定対象物に対する3次元位置情報が既知の少なくとも3個のマーカが写っている画像を入力させ、
上記画像上で上記各マーカに対応する領域を抽出させ、
上記抽出した領域において、マーカの外観上の特徴から個々のマーカを特定させ、
上記特定されたマーカの画像上での大きさから、マーカまでの距離を推定させ、
上記推定された各マーカまでの距離と、このマーカの上記画像上での位置と、このマーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算させる、
ことを特徴とする3次元位置姿勢センシング処理プログラムを記録した記録媒体。
【0314】
付記14.コンピュータによつて画像を解析して、この画像を撮影した撮影装置に対する測定対象物の位置姿勢を測定するための処理プログラムを記録した記録媒体であり、
上記処理プログラムはコンピュータに、撮像装置により撮像された、測定対象物に対する3次元位置情報が既知のマーカが写っている画像を入力させ、
上記入力された画像を縮小させ、
上記縮小された画像上で上記各マーカに対応する領域を抽出させ、
上記抽出された各マーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算させる、
ことを特徴とする3次元位置姿勢センシング処理プログラムを記録した記録媒体。
【0315】
付記15.上記処理プログラムは、コンピュータにさらに、上記測定対象物の特徴部分を画像より抽出させ、上記抽出した特徴部分の画像上の位置より、上記演算された測定対象物の位置姿勢を補正させることを特徴とする付記13または付記14記載の3次元位置センシング処理プログラムを記録レた記録媒体。
【0316】
付記16.表面に識別マークが配されたマーカであり、
上記識別マークの外形が円形であることを特徴とするマーカ。
【0317】
(効果)
この付記16.のマーカによると、画像から識別マークを抽出する場合に、識別マークの外形が円形であるので、その抽出処理が容易である。
【0318】
すなわち、識別マークの外形が四角とか三角ではマーク部分の向きによっては画像上の図形の形状が大幅に異なり認識が困難であるのに対し、識別マークの外形が円形であるならマーク部分の向きによっても楕円になるだけであり、画像上の認識処理が容易となる。
【0319】
付記17.表面に識別マークが配されたマーカであり、
上記識別マークが、
外形が円形である背景部と、
この背景部の内部に配設された複数の所定パターンを有し、
上記複数の所定パターンの着色の組み合わせで、マーカを特定可能であることを特徴とするマーカ。
【0320】
(効果)
この付記17.のマーカによると、付記16.のマーカによる上述の効果に加えて、領域内の輝度や色度を分析してマーカを特定可能であるという効果を有している。
【0321】
付記18.表面に識別マークが配されたマーカであり、
上記識別マークが
外形が円形である背景部と、
この背景部の中心に配された中心印と、
上記中心印を囲む同心円上に等間隔で配された複数の周辺印とを有し、
上記中心印と周辺印の着色の組み合わせで、マーカを特定可能であることを特徴とするマーカ。
【0322】
(効果)
この付記18.のマーカによると、付記16.のマーカによる上述の効果に加えて、領域内の輝度や色度を分析してマーカを特定可能であるという効果を有している。
【0323】
付記19.表面に識別マークが配されたマーカであり、
上記識別マークが、
外形が円形である背景部と、
この背景部の内部に配された半径の異なる複数の同心円とを有し、
上記同心円の間の領域の着色の組み合わせで、マーカを特定可能であることを特徴とするマーカ。
【0324】
付記20.位置測定に供されるプローブであり、
測定対象に当接する部位である当接部と、
該プローブを識別する識別マークが表面に配されたマーク部と、
を具備することを特徴とするプローブ。
【0325】
付記21.対象物あるいは対象物付近に装着された3次元位置が既知な複数のマーカを、画像撮影装置を利用して撮影しマーカの画像内位置を計測することにより、対象物との相対的3次元位置姿勢を計測する装置において、
複数のマーカに対応する領域を前記マーカの画像内から抽出する手段と、
該マーカに対応する領域の画像内での幾何学的特徴を算出することにより、個々の該マーカを同定する手段と、
該マーカの3次元位置に基づいて、対象物と画像撮影装置間の相対的3次元位置姿勢を推定する手段と、
を具備したことを特徴とする3次元位置姿勢センシング装置。
【0326】
付記22.個々のマーカ内にはコード化されたパターンが配されることを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0327】
付記23.前記マーカ領域の画像内での幾何学的特徴を算出し該マーカを同定する手段は、画像内のマーカ領域の大きさを計測し、
前記対象物と画像撮影装置間の相対的3次元位置姿勢を推定する手段は、該マーカ領域の大きさの計測値に基づいて画像撮影装置とマーカ間の距離の初期値を算出し、該初期値に基づいて対象物と画像撮影装置間の相対的3次元位置姿勢を算出することを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0328】
付記24.前記画像撮影装置は他の装置に装着されており、画像撮影装置と該他の装置間の3次元位置姿勢関係が既知あるいは別途計測可能てあるとき、上記対象物と画像撮影装置間の相対的な3次元位置姿勢を利用することにより、対象物と該他の装置間の3次元位置姿勢を計測することを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0329】
付記25.前記相対的距離推定値が実現可能である範囲をとるマーカのみを利用して推定値を算出することを特徴とする付記23載の3次元位置姿勢センシング装置。
【0330】
付記26.前記推定された相対的距離に推定誤差分散を算出し、その推定値と誤差分散の両方を考慮しながら、対象物と画像撮影装置の3次元位置姿勢を推定することを特徴とする付記23記載の3次元位置姿勢センシング装置。
【0331】
付記27.前記マーカとしては、円形のマーカであり、そのマーカの画像内での投影像を楕円として近似し、楕円の長軸の長さを利用して、画像撮影装置からマーカまでの距離を推定することを特徴とする付記23記載の3次元位置姿勢センシング装置。
【0332】
付記28.前記マーカとしては、円形のカラーマーカを利用することを特徴とする付記27.記載の3次元位置姿勢センシング装置。
【0333】
付記29.前記マーカの形状として円形を利用し、マーカ内のコードとして、小円の色の異なるパターンを利用することを特徴とする付記22記載の3次元位置姿勢センシング装置。
【0334】
付記30.前記マーカとしては、同心円上に色の異なるパターンを生成することを特徴とする付記22記載の3次元位置姿勢センシング装置。
【0335】
付記31.前記円形マーカの方向情報を付加して3次元位置センシングを行うことを特徴とする付記27記載の3次元位置姿勢センシング装置。
【0336】
付記32.原画像からマーカ領域を抽出する際、原画像の縮小画像を作成し、該縮小画像内からマーカに対応すると想定される領域の候補を抽出し、該候補領域が原画像内で対応する領域を算出したのち、原画像内の領域でマーカに対応する領域を抽出・認識することを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0337】
付記33.固有の幾何学的特徴を有するマーカが認識されたのち、そのマーカの2次元または3次元位置関係を利用して、固有の幾何学的特徴を持たない別マーカを画像内から抽出し、該別マーカの画像内位置と3次元位置を利用して、対象物と画像撮影装置間の3次元位置姿勢パラメータを更新することを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0338】
付記34.前記画像撮影装置は、複数の画像を撮影し、該複数の画像を利用することを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0339】
付記35.マーカ群がセンサプローブの表面に装着され、該センサプローブを対象物として取り扱うことで、センサプローブの相対的位置姿勢を推定するとともに、センサプローブのプローブ先端の位置を計測することを特徴とする付記21記載の3次元位置姿勢センシング装置。
【0340】
付記36.マーカ形状が正多角形であることを特徴とする付記23記載の3次元位置姿勢センシング装置。
【0341】
【発明の効果】
本発明は、以上のような方式を採用することにより、従来の方法では困難であった遮蔽などの影響を受けずに、ロバストに(安定に)対象物の3次元位置姿勢を推定することができる。
【0342】
それゆえ、本発明の3次元位置姿勢センシング装置は、画像撮影装置または他の装置を規定する座標系における対象物の3次元位置を推定することにより、ロボットによる対象物の把持や、対象物の検査などに有効的に利用することができる。
【0343】
従って、以上説明したように、本発明によれば、
(1)遮蔽などの影響により、マーカ群の一部が観察されないときでも、対象物の3次元位置姿勢を推定することができるようにするとともに、
(2)従来のn点問題では、解を確定することができなかった3個のマーカからだけでも位置姿勢を推定することができるようにした、
3次元位置姿勢センシング装置を提供することが可能となる。
【図面の簡単な説明】
【図1】図1は、第1の実施の形態による3次元位置姿勢センシング装置の構成を示すブロック図である。
【図2】図2は、図1の画像撮影装置3と、カメラ画像面と、対象物1が規定するオブジェクト座標系との関係を表した図である。
【図3】図3は、第1の実施の形態における幾何学的特徴を持ったコードマーカ2群の一例を表した図である。
【図4】図4は、第1の実施の形態における別のコードパターンを表した図である。
【図5】図5は、第1の実施の形態における別のコードパターンを表した図である。
【図6】図6は、第1の実施の形態において、対象物1の3次元位置姿勢を推定するまでの処理手順を表したフローチャートである。
【図7】図7は、第1の実施の形態において、コードパターンの抽出処理過程を表した図である。
【図8】図8は、第1の実施の形態において、得られた3個のマーカMiに関して想定される3個の3角形Δ0c MiMjを示す図である。
【図9】図9は、第2の実施の形態におけるステップ2での処理の手順を示すフローチャートである。
【図10】図10は、第2実施の形態において、マーカの中心をPi 、カメラの焦点を0c とするとともに、カメラ像面と0c i の交点をQi とすると、Qi はマーカ像の中心であると判断することを示した図である。
【図11】図11は、第4の実施の形態において、画像内からランドマークを抽出する一例を示した図である。
【図12】図12は、第5の実施の形態で想定される構成を表したブロック図である。
【図13】図13は、第6の実施の形態による構成を表すブロック図である。
【図14】図14は、第6の実施の形態によるセンサプローブ138の例を表した図である。
【図15】図15は、第7の実施の形態の概念図を表したブロック図である。
【図16】図16は、第7の実施の形態の処理手順を表したフローチャートである。
【符号の説明】
1,121,201,…対象物、
2,122,202…マーカ
3,123,133,203,204…画像撮影装置、
4,124,134,205…コンピュータ、
125,136…基準座標系を規定する装置、
138…センサプローブ、
139…探針される物体X。

Claims (4)

  1. 撮像装置により撮像された、測定対象物に対する3次元位置情報が既知であり幾何学的に固有の特徴を有する少なくとも3個のマーカが写っている画像を入力する画像入力手段と、
    上記画像上で上記各マーカに対応する領域を抽出する領域抽出手段と、
    上記抽出した領域において、上記各マーカの上記幾何学的に固有の特徴を利用して個々のマーカを特定するマーカ特定手段と、
    上記特定されたマーカの画像上での大きさの情報を用いて推定された上記撮像装置から上記マーカまでの距離と、上記特定された各マーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算する位置姿勢演算手段と、
    を有することを特徴とする3次元位置姿勢センシング装置。
  2. 撮像装置により撮像された、測定対象物に対する3次元位置情報が既知であり幾何学的に固有の特徴を有する少なくとも4個のマーカが写っている画像を入力する画像入力手段と、
    上記画像上で上記各マーカに対応する領域を抽出する領域抽出手段と、
    上記抽出した領域において、上記各マーカの上記幾何学的に固有の特徴を利用して個々のマーカを特定するマーカ特定手段と、
    上記マーカ特定手段によって特定されたマーカより3つのマーカを選択するマーカ選択手段と、
    上記マーカ選択手段によって選択された3つのマーカの上記画像上での位置と、各マーカの測定対象物に対する3次元位置情報を用いて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算するためのパラメータ組を複数算出するパラメータ組算出手段と、
    上記マーカ選択手段によって選択されなかったマーカに対して、上記パラメータ組算出手段によって算出されたパラメータ組により算出される投影画像点と、上記選択されなかったマーカの画像内で測定された2次元位置との誤差の和を最小にする1つのパラメータ組を選択するパラメータ組選択手段と、
    を有することを特徴とする3次元位置姿勢センシング装置。
  3. 前記パラメータ組選択手段によって選択された1つのパラメータ組に関して、各マーカの測定対象物に対する3次元位置情報を適用して評価することにより、該パラメータ組を更新するパラメータ更新手段をさらに含むことを特徴とする請求項2記載の3次元位置姿勢センシング装置。
  4. 前記マーカは円形のマーカであり、
    前記位置姿勢演算手段は、前記円形のマーカの画像内での投影像を楕円として近似し、楕円の長軸の長さを利用して、前記撮影装置から前記マーカまでの距離を推定し、その推定された距離を含めて、上記撮像装置に対する測定対象物の3次元位置姿勢を演算することを特徴とする請求項1記載の3次元位置姿勢センシング装置。
JP02735999A 1999-02-04 1999-02-04 3次元位置姿勢センシング装置 Expired - Fee Related JP4794708B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP02735999A JP4794708B2 (ja) 1999-02-04 1999-02-04 3次元位置姿勢センシング装置
US09/498,963 US6724930B1 (en) 1999-02-04 2000-02-04 Three-dimensional position and orientation sensing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02735999A JP4794708B2 (ja) 1999-02-04 1999-02-04 3次元位置姿勢センシング装置

Publications (2)

Publication Number Publication Date
JP2000227309A JP2000227309A (ja) 2000-08-15
JP4794708B2 true JP4794708B2 (ja) 2011-10-19

Family

ID=12218868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02735999A Expired - Fee Related JP4794708B2 (ja) 1999-02-04 1999-02-04 3次元位置姿勢センシング装置

Country Status (2)

Country Link
US (1) US6724930B1 (ja)
JP (1) JP4794708B2 (ja)

Families Citing this family (146)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US6279579B1 (en) * 1998-10-23 2001-08-28 Varian Medical Systems, Inc. Method and system for positioning patients for medical treatment procedures
US6937696B1 (en) 1998-10-23 2005-08-30 Varian Medical Systems Technologies, Inc. Method and system for predictive physiological gating
US8788020B2 (en) 1998-10-23 2014-07-22 Varian Medical Systems, Inc. Method and system for radiation application
US6980679B2 (en) * 1998-10-23 2005-12-27 Varian Medical System Technologies, Inc. Method and system for monitoring breathing activity of a subject
US7158610B2 (en) * 2003-09-05 2007-01-02 Varian Medical Systems Technologies, Inc. Systems and methods for processing x-ray images
US7084887B1 (en) * 1999-06-11 2006-08-01 Canon Kabushiki Kaisha Marker layout method, mixed reality apparatus, and mixed reality space image generation method
DE10025922A1 (de) * 2000-05-27 2001-12-13 Robert Massen Automatische photogrammetrische Digitalisierung von Körpern und Objekten
DE10033828A1 (de) * 2000-07-19 2002-01-31 Robert Massen Optische Erfasung der Raumform von Körpern und Körperteilen
ATE391895T1 (de) * 2000-09-11 2008-04-15 Leica Geosystems Ag Verfahren zum identifizieren von messpunkten in einem optischen mess-system
JP4282216B2 (ja) * 2000-09-19 2009-06-17 オリンパス株式会社 3次元位置姿勢センシング装置
JP4537557B2 (ja) * 2000-09-19 2010-09-01 オリンパス株式会社 情報呈示システム
DE10049926A1 (de) * 2000-10-07 2002-04-11 Robert Massen Kamera zur kostengünstigen Erfassung der Raumform von Körpern
US6950552B2 (en) * 2001-02-05 2005-09-27 National Instruments Corporation System and method for precise location of a point of interest
US7034831B2 (en) * 2001-02-05 2006-04-25 National Instruments Corporation System and method for generating a low discrepancy curve in a region
US6959104B2 (en) * 2001-02-05 2005-10-25 National Instruments Corporation System and method for scanning a region using a low discrepancy sequence
US6909801B2 (en) * 2001-02-05 2005-06-21 National Instruments Corporation System and method for generating a low discrepancy curve on an abstract surface
US6917710B2 (en) * 2001-02-05 2005-07-12 National Instruments Corporation System and method for scanning a region using a low discrepancy curve
US6997387B1 (en) * 2001-03-28 2006-02-14 The Code Corporation Apparatus and method for calibration of projected target point within an image
US7127100B2 (en) * 2001-06-25 2006-10-24 National Instruments Corporation System and method for analyzing an image
US7769430B2 (en) 2001-06-26 2010-08-03 Varian Medical Systems, Inc. Patient visual instruction techniques for synchronizing breathing with a medical procedure
US7251352B2 (en) * 2001-08-16 2007-07-31 Siemens Corporate Research, Inc. Marking 3D locations from ultrasound images
AU2003209355A1 (en) * 2002-01-22 2003-09-02 Matchlight Software Inc. System and method for image attribute recording and analysis for biometric applications
WO2003064116A2 (en) * 2002-01-31 2003-08-07 Braintech Canada, Inc. Method and apparatus for single camera 3d vision guided robotics
US20050224899A1 (en) * 2002-02-06 2005-10-13 Ramsey Craig C Wireless substrate-like sensor
US7289230B2 (en) * 2002-02-06 2007-10-30 Cyberoptics Semiconductors, Inc. Wireless substrate-like sensor
US20050233770A1 (en) * 2002-02-06 2005-10-20 Ramsey Craig C Wireless substrate-like sensor
KR100480780B1 (ko) * 2002-03-07 2005-04-06 삼성전자주식회사 영상신호로부터 대상물체를 추적하는 방법 및 그 장치
JP4004899B2 (ja) 2002-09-02 2007-11-07 ファナック株式会社 物品の位置姿勢検出装置及び物品取出し装置
US7565004B2 (en) * 2003-06-23 2009-07-21 Shoestring Research, Llc Fiducial designs and pose estimation for augmented reality
US8571639B2 (en) * 2003-09-05 2013-10-29 Varian Medical Systems, Inc. Systems and methods for gating medical procedures
US7676079B2 (en) 2003-09-30 2010-03-09 Canon Kabushiki Kaisha Index identification method and apparatus
JP2005143657A (ja) * 2003-11-12 2005-06-09 Olympus Corp 情報呈示システム、情報呈示装置、情報呈示装置のための媒体、情報呈示方法、及び情報提示プログラム
US7729515B2 (en) * 2006-03-08 2010-06-01 Electronic Scripting Products, Inc. Optical navigation apparatus using fixed beacons and a centroid sensing device
US9229540B2 (en) 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
US7826641B2 (en) * 2004-01-30 2010-11-02 Electronic Scripting Products, Inc. Apparatus and method for determining an absolute pose of a manipulated object in a real three-dimensional environment with invariant features
US7961909B2 (en) * 2006-03-08 2011-06-14 Electronic Scripting Products, Inc. Computer interface employing a manipulated object with absolute pose detection component and a display
DE102004005380A1 (de) * 2004-02-03 2005-09-01 Isra Vision Systems Ag Verfahren zur Bestimmung der Lage eines Objekts im Raum
US7867167B2 (en) * 2004-04-15 2011-01-11 Johns Hopkins University Ultrasound calibration and real-time quality assurance based on closed form formulation
WO2006002298A2 (en) * 2004-06-22 2006-01-05 Sarnoff Corporation Method and apparatus determining camera pose
DE102004038545A1 (de) * 2004-08-06 2006-03-16 Peters, Heiko, Dr. Positionierungssystem und Positionsmeßsystem
JP4817631B2 (ja) * 2004-09-24 2011-11-16 キヤノン株式会社 情報処理装置、情報処理方法及びそのプログラム
US20060074305A1 (en) * 2004-09-30 2006-04-06 Varian Medical Systems Technologies, Inc. Patient multimedia display
WO2006064607A1 (ja) * 2004-12-17 2006-06-22 Olympus Corporation 複合マーカ及び複合マーカ情報取得装置
DE102005018336A1 (de) * 2005-02-28 2006-08-31 Osram Opto Semiconductors Gmbh Lichtleiter
JP2006268748A (ja) * 2005-03-25 2006-10-05 Olympus Corp 複合マーカ
JP4828195B2 (ja) * 2005-09-30 2011-11-30 株式会社トプコン カラーコード付き標識
US9119541B2 (en) * 2005-08-30 2015-09-01 Varian Medical Systems, Inc. Eyewear for patient prompting
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system
GB0523085D0 (en) * 2005-11-11 2005-12-21 Ortho Pro Teknica Ltd Tracking system for orthognathic surgery
JP4916167B2 (ja) * 2005-12-15 2012-04-11 キヤノン株式会社 指標識別方法及び指標識別装置
US7893697B2 (en) * 2006-02-21 2011-02-22 Cyberoptics Semiconductor, Inc. Capacitive distance sensing in semiconductor processing tools
DE112007000433T5 (de) * 2006-02-21 2009-01-02 Cyberoptics Semiconductor, Inc., Beaverton Kapazitive Abstandsmessung bei Halbleiterverarbeitungswerkzeugen
FI119483B (fi) * 2006-03-07 2008-11-28 Saides Oy Menetelmä, järjestelmä ja tietokoneohjelmatuote mittauslaitteen paikantamiseksi ja suurten kappaleiden mittaamiseksi
DE102006013185A1 (de) * 2006-03-22 2007-09-27 Refractory Intellectual Property Gmbh & Co. Kg Verfahren zur Ermittlung der Position und Orientierung einer Meß- oder Reparatureinrichtung und eine nach dem Verfahren arbeitende Vorrichtung
JP4798705B2 (ja) * 2006-03-23 2011-10-19 任天堂株式会社 位置算出装置、位置算出プログラム、ゲーム装置、およびゲームプログラム
JP5063023B2 (ja) * 2006-03-31 2012-10-31 キヤノン株式会社 位置姿勢補正装置、位置姿勢補正方法
JP2007315865A (ja) * 2006-05-24 2007-12-06 Canon Machinery Inc 三次元変位量測定器および測定方法
US20070276539A1 (en) * 2006-05-25 2007-11-29 Babak Habibi System and method of robotically engaging an object
US8284202B2 (en) * 2006-06-30 2012-10-09 Two Pic Mc Llc Methods and apparatus for capturing and rendering dynamic surface deformations in human motion
WO2008036354A1 (en) * 2006-09-19 2008-03-27 Braintech Canada, Inc. System and method of determining object pose
US8823933B2 (en) 2006-09-29 2014-09-02 Cyberoptics Corporation Substrate-like particle sensor
US7256899B1 (en) 2006-10-04 2007-08-14 Ivan Faul Wireless methods and systems for three-dimensional non-contact shape sensing
EP1914684A1 (en) * 2006-10-17 2008-04-23 Jose Maria De Espona Delgado Identification label containing graphic and/or electromagnetic references for relating a tridimensional shape to a real world object, and method for use thereof
US20080101693A1 (en) * 2006-10-26 2008-05-01 Intelligence Frontier Media Laboratory Ltd Video image based tracking system for identifying and tracking encoded color surface
US20080170750A1 (en) * 2006-11-01 2008-07-17 Demian Gordon Segment tracking in motion picture
GB0622451D0 (en) * 2006-11-10 2006-12-20 Intelligent Earth Ltd Object position and orientation detection device
KR100834904B1 (ko) 2006-12-08 2008-06-03 한국전자통신연구원 마커 기반의 사용자 인터랙션을 지원하는 증강현실 콘텐츠저작 시스템 및 방법
US20080181485A1 (en) * 2006-12-15 2008-07-31 Beis Jeffrey S System and method of identifying objects
BRMU8703085Y1 (pt) * 2007-03-16 2019-07-16 Embraer S.A. Dispositivo para medição fotogramétrica
US20080246493A1 (en) * 2007-04-05 2008-10-09 Gardner Delrae H Semiconductor Processing System With Integrated Showerhead Distance Measuring Device
JP4960754B2 (ja) * 2007-04-25 2012-06-27 キヤノン株式会社 情報処理装置、情報処理方法
US20080266323A1 (en) * 2007-04-25 2008-10-30 Board Of Trustees Of Michigan State University Augmented reality user interaction system
JP5538667B2 (ja) * 2007-04-26 2014-07-02 キヤノン株式会社 位置姿勢計測装置及びその制御方法
US7953247B2 (en) * 2007-05-21 2011-05-31 Snap-On Incorporated Method and apparatus for wheel alignment
JP5292725B2 (ja) * 2007-05-24 2013-09-18 株式会社島津製作所 モーショントラッカ装置
US20090015268A1 (en) * 2007-07-13 2009-01-15 Gardner Delrae H Device and method for compensating a capacitive sensor measurement for variations caused by environmental conditions in a semiconductor processing environment
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
CN101796545A (zh) * 2007-09-04 2010-08-04 索尼公司 综合运动捕捉
EP3239919A1 (en) 2008-03-05 2017-11-01 eBay Inc. Method and apparatus for image recognition services
US9495386B2 (en) 2008-03-05 2016-11-15 Ebay Inc. Identification of items depicted in images
US8238612B2 (en) * 2008-05-06 2012-08-07 Honeywell International Inc. Method and apparatus for vision based motion determination
US8179448B2 (en) * 2008-08-26 2012-05-15 National Taiwan University Auto depth field capturing system and method thereof
US10667727B2 (en) 2008-09-05 2020-06-02 Varian Medical Systems, Inc. Systems and methods for determining a state of a patient
TWI382267B (zh) * 2008-09-24 2013-01-11 Univ Nat Taiwan 自動景深捕捉系統及自動景深捕捉方法
US8199194B2 (en) * 2008-10-07 2012-06-12 The Boeing Company Method and system involving controlling a video camera to track a movable target object
US8559699B2 (en) * 2008-10-10 2013-10-15 Roboticvisiontech Llc Methods and apparatus to facilitate operations in image based systems
WO2010045271A1 (en) 2008-10-14 2010-04-22 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-d pose of the target
JP5227139B2 (ja) * 2008-11-12 2013-07-03 株式会社トプコン 建設機械
FR2946765A1 (fr) * 2009-06-16 2010-12-17 Centre Nat Rech Scient Systeme et procede de localisation d'image photographique.
JP5540583B2 (ja) * 2009-06-24 2014-07-02 富士ゼロックス株式会社 位置計測システム、位置計測用演算装置およびプログラム
US20110007150A1 (en) * 2009-07-13 2011-01-13 Raytheon Company Extraction of Real World Positional Information from Video
US20110007134A1 (en) * 2009-07-13 2011-01-13 Raytheon Company Synchronizing video images and three dimensional visualization images
US8558847B2 (en) * 2009-07-13 2013-10-15 Raytheon Company Displaying situational information based on geospatial data
US8331611B2 (en) * 2009-07-13 2012-12-11 Raytheon Company Overlay information over video
FR2949152A1 (fr) * 2009-08-17 2011-02-18 Eads Europ Aeronautic Defence Jauge de deformation et systeme de localisation spatiale de telles jauges
US9164577B2 (en) 2009-12-22 2015-10-20 Ebay Inc. Augmented reality system, method, and apparatus for displaying an item image in a contextual environment
US8872889B2 (en) 2010-01-14 2014-10-28 Innovmetric Logiciels Inc. Synchronization of the orientation of a 3D measurement device and the orientation of an intelligent guidance device
KR101082285B1 (ko) * 2010-01-29 2011-11-09 주식회사 팬택 증강 현실 제공 단말기 및 방법
EP2372300B1 (de) * 2010-02-24 2014-04-02 AICON 3D Systems GmbH Tastersatz zum Bilden von Messtastern für optische 3D-Messungen
WO2011113441A2 (en) * 2010-03-18 2011-09-22 Rigshospitalet Optical motion tracking of an object
ES2817800T3 (es) * 2010-04-22 2021-04-08 Metronor As Sistema de medición óptica
JP4971483B2 (ja) 2010-05-14 2012-07-11 任天堂株式会社 画像表示プログラム、画像表示装置、画像表示システム、および画像表示方法
EP2395474A3 (en) 2010-06-11 2014-03-26 Nintendo Co., Ltd. Storage medium having image recognition program stored therein, image recognition apparatus, image recognition system, and image recognition method
KR101330811B1 (ko) * 2010-08-25 2013-11-18 주식회사 팬택 인스턴트 마커를 이용한 증강 현실 장치 및 방법
US10127606B2 (en) 2010-10-13 2018-11-13 Ebay Inc. Augmented reality system and method for visualizing an item
JP5839971B2 (ja) * 2010-12-14 2016-01-06 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP5842248B2 (ja) * 2010-12-24 2016-01-13 国立研究開発法人産業技術総合研究所 マーカ
EP2686254B1 (de) * 2011-03-17 2018-08-15 SSI Schäfer Automation GmbH Steuerung und überwachung einer lager- und kommissionieranlage durch bewegung und sprache
US8687172B2 (en) 2011-04-13 2014-04-01 Ivan Faul Optical digitizer with improved distance measurement capability
US9449342B2 (en) 2011-10-27 2016-09-20 Ebay Inc. System and method for visualization of items in an environment using augmented reality
US9240059B2 (en) 2011-12-29 2016-01-19 Ebay Inc. Personal augmented reality
JP5801209B2 (ja) * 2012-01-06 2015-10-28 Kddi株式会社 カメラ姿勢推定装置、プログラム
US8886449B2 (en) 2012-01-13 2014-11-11 Qualcomm Incorporated Calibrated hardware sensors for estimating real-world distances
US8750568B2 (en) 2012-05-22 2014-06-10 Covidien Lp System and method for conformal ablation planning
US9439622B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical navigation system
US9498182B2 (en) 2012-05-22 2016-11-22 Covidien Lp Systems and methods for planning and navigation
US9439627B2 (en) 2012-05-22 2016-09-13 Covidien Lp Planning system and navigation system for an ablation procedure
US9439623B2 (en) 2012-05-22 2016-09-13 Covidien Lp Surgical planning system and navigation system
US10846766B2 (en) 2012-06-29 2020-11-24 Ebay Inc. Contextual menus based on image recognition
US20140000516A1 (en) * 2012-06-29 2014-01-02 Toyota Motor Engineering & Manufacturing North America, Inc. Digital point marking transfer
US9336541B2 (en) 2012-09-21 2016-05-10 Paypal, Inc. Augmented reality product instructions, tutorials and visualizations
DE102012218213B4 (de) * 2012-10-05 2016-03-03 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren zum Steuern eines Telemanipulationsroboters
EP2767232A1 (en) * 2013-02-15 2014-08-20 Koninklijke Philips N.V. System and method for determining a vital sign of a subject
DE102013211342A1 (de) * 2013-06-18 2014-12-18 Siemens Aktiengesellschaft Fotobasiertes 3D-Oberflächen-Inspektionssystem
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
US8958663B1 (en) * 2013-09-24 2015-02-17 Zazzle Inc. Automated imaging of customizable products
DE102013224358A1 (de) * 2013-11-28 2015-05-28 Airbus Operations Gmbh Verfahren zum Vermessen von Großbauteilen
US9443311B2 (en) * 2014-06-12 2016-09-13 Topcon Positioning Systems, Inc. Method and system to identify a position of a measurement pole
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
JP6599698B2 (ja) * 2015-08-31 2019-10-30 株式会社ミツトヨ 画像測定装置及びその制御プログラム
WO2017131547A1 (en) 2016-01-25 2017-08-03 Limited Liability Company "Topcon Positioning Systems" A method and apparatus for single camera optical measurements
US11577159B2 (en) 2016-05-26 2023-02-14 Electronic Scripting Products Inc. Realistic virtual/augmented/mixed reality viewing and interactions
US10922836B2 (en) 2016-11-15 2021-02-16 Carl Zeiss Industrielle Messtechnik Gmbh Method and system for determining a 3D position of an object in space
US9934592B1 (en) * 2016-11-15 2018-04-03 Carl Zeiss Industrielle Messtechnik Gmbh Method and system for determining a 6-DOF-pose of an object in space
JP7025156B2 (ja) * 2017-09-19 2022-02-24 株式会社トプコン データ処理装置、データ処理方法およびデータ処理用プログラム
CA3095732C (en) * 2018-03-30 2023-08-29 ZOZO, Inc. Size measuring system
WO2020033947A1 (en) 2018-08-10 2020-02-13 Covidien Lp Systems for ablation visualization
WO2020059716A1 (ja) 2018-09-21 2020-03-26 株式会社Zozo サイズ測定システム
CN109903337B (zh) * 2019-02-28 2022-06-14 北京百度网讯科技有限公司 用于确定挖掘机的铲斗的位姿的方法和装置
WO2020264489A1 (en) * 2019-06-28 2020-12-30 Mako Surgical Corp. Tracker-based surgical navigation
JP7435998B2 (ja) * 2019-09-17 2024-02-21 日本電気通信システム株式会社 物品位置管理装置、物品、物品位置管理システム、物品位置管理方法及びプログラム
CN110631479B (zh) * 2019-09-27 2020-11-27 北京航空航天大学 基于多微球视觉探针的空间位姿测量方法
WO2022113272A1 (ja) * 2020-11-27 2022-06-02 株式会社ニコン 電磁波無線通信システム、電磁波無線通信方法、トラッキングシステム、およびトラッキング方法
WO2024105847A1 (ja) * 2022-11-17 2024-05-23 ファナック株式会社 制御装置、3次元位置計測システム、及びプログラム
JP2024135773A (ja) * 2023-03-23 2024-10-04 東京ロボティクス株式会社 情報生成システム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CH679990A5 (ja) * 1989-06-08 1992-05-29 Bobst Sa
NO174025C (no) * 1991-10-11 1994-03-02 Metronor Sa System for punktvis maaling av romlige koordinater
US5751843A (en) * 1993-08-09 1998-05-12 Siemens Aktiengesellschaft Method for detecting the spatial position and rotational position of suitably marked objects in digital image sequences
JP3208953B2 (ja) 1993-09-29 2001-09-17 株式会社デンソー 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置
US5531520A (en) * 1994-09-01 1996-07-02 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets including anatomical body data
US5712926A (en) * 1994-10-20 1998-01-27 Eberhard; Jeffrey Wayne X-ray computed tomography (CT) system for detecting thin objects
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging
US5828770A (en) * 1996-02-20 1998-10-27 Northern Digital Inc. System for determining the spatial position and angular orientation of an object
US5832139A (en) * 1996-07-31 1998-11-03 Omniplanar, Inc. Method and apparatus for determining degrees of freedom of a camera
JPH1044042A (ja) * 1996-08-05 1998-02-17 Suzuki Motor Corp 被検査物の不良除去装置
JP3426459B2 (ja) * 1997-02-03 2003-07-14 ペンタックス株式会社 写真測量システムおよび写真測量方法
US5921992A (en) * 1997-04-11 1999-07-13 Radionics, Inc. Method and system for frameless tool calibration
DE19721903C1 (de) * 1997-05-26 1998-07-02 Aicon Industriephotogrammetrie Verfahren und Anlage zur meßtechnischen räumlichen 3D-Lageerfassung von Oberflächenpunkten
JPH1196374A (ja) * 1997-07-23 1999-04-09 Sanyo Electric Co Ltd 3次元モデリング装置、3次元モデリング方法および3次元モデリングプログラムを記録した媒体
US6304680B1 (en) * 1997-10-27 2001-10-16 Assembly Guidance Systems, Inc. High resolution, high accuracy process monitoring system
US6324296B1 (en) * 1997-12-04 2001-11-27 Phasespace, Inc. Distributed-processing motion tracking system for tracking individually modulated light points

Also Published As

Publication number Publication date
JP2000227309A (ja) 2000-08-15
US6724930B1 (en) 2004-04-20

Similar Documents

Publication Publication Date Title
JP4794708B2 (ja) 3次元位置姿勢センシング装置
JP5618569B2 (ja) 位置姿勢推定装置及びその方法
JP5671281B2 (ja) 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
US9928592B2 (en) Image-based signal detection for object metrology
JP6573354B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5839929B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
JP5612916B2 (ja) 位置姿勢計測装置、その処理方法、プログラム、ロボットシステム
JP3735344B2 (ja) キャリブレーション装置、キャリブレーション方法、及びキャリブレーション用プログラム
JP3859574B2 (ja) 3次元視覚センサ
US7812871B2 (en) Index identification method and apparatus
JP4885584B2 (ja) レンジファインダ校正方法及び装置
JP4604439B2 (ja) 画像処理装置及び画像処理方法、並びに記録媒体
CN113137920B (zh) 一种水下测量的设备与水下测量方法
US7190826B2 (en) Measuring the location of objects arranged on a surface, using multi-camera photogrammetry
Pizarro et al. Relative Pose Estimation for Instrumented, Calibrated Imaging Platforms.
US20170258391A1 (en) Multimodal fusion for object detection
JP2001524228A (ja) 機械視覚較正標的並びに画像内で標的の位置及び方向を決定する方法
JP5262705B2 (ja) 運動推定装置及びプログラム
JP2018128897A (ja) 対象物の姿勢等を検出する検出方法、検出プログラム
Weinmann et al. Geometric point quality assessment for the automated, markerless and robust registration of unordered TLS point clouds
CN114005108A (zh) 一种基于坐标变换的指针式仪表度数识别方法
JP5976089B2 (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JPWO2008032375A1 (ja) 画像補正装置及び方法、並びにコンピュータプログラム
JP4445472B2 (ja) 小さい対象物の表面再構成のための較正ソフトウェア

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071016

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110422

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110727

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees