[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2013037006A - Information processor and information processing method - Google Patents

Information processor and information processing method Download PDF

Info

Publication number
JP2013037006A
JP2013037006A JP2012208878A JP2012208878A JP2013037006A JP 2013037006 A JP2013037006 A JP 2013037006A JP 2012208878 A JP2012208878 A JP 2012208878A JP 2012208878 A JP2012208878 A JP 2012208878A JP 2013037006 A JP2013037006 A JP 2013037006A
Authority
JP
Japan
Prior art keywords
index
reliability
orientation
image
pkn
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012208878A
Other languages
Japanese (ja)
Other versions
JP5465299B2 (en
Inventor
Shinichi Araya
真一 荒谷
Shinji Uchiyama
晋二 内山
Kiyohide Sato
清秀 佐藤
Takaaki Endo
隆明 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012208878A priority Critical patent/JP5465299B2/en
Publication of JP2013037006A publication Critical patent/JP2013037006A/en
Application granted granted Critical
Publication of JP5465299B2 publication Critical patent/JP5465299B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for more stably measuring a position and posture of an imaging device with a high degree of accuracy by reducing an impact of falsely-detected index or an index with low detection accuracy.SOLUTION: An index detection part 2030 detects shot images of indices P1, P2 and P3 arranged or set on an object. An evaluation amount calculation part 2060 calculates an evaluation amount using two-dimensional geometric features on the images of the indices P1, P2 and P3 and/or a three-dimensional geometric feature showing each relationship between an imaging device 2060 and the indices P1, P2 and P3 in each three-dimensional space of the indices P1, P2 and P3. A reliability calculation part 2070 calculates each reliability of the indices P1, P2 and P3 corresponding to each calculated evaluation amount of the indices P1, P2 and P3. A position-and-posture calculation part 2080 obtains a position and posture of the object or the imaging device 2010 at least using each calculated reliability of the indices P1, P2 and P3 and information on each detected image coordinate of the indices P1, P2 and P3.

Description

本発明は、視点位置姿勢計測の精度向上と安定性を向上させる技術に関する。   The present invention relates to a technique for improving accuracy and stability of viewpoint position and orientation measurement.

近年、現実空間と仮想空間の繋ぎ目のない融合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実画像は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳描画することにより生成される。そして、複合現実感システムで利用される画像表示装置は、例えば、ビデオシースルー方式によって実現される。ここで、仮想空間の画像とは、例えば、コンピュータ・グラフィックスにより描画された仮想物体や文字情報等である。   In recent years, research on mixed reality has been actively conducted for the purpose of seamless fusion of real space and virtual space. The mixed reality image is generated by superimposing and drawing an image of a virtual space generated according to the position and orientation of the imaging device on an image of the real space taken by the imaging device such as a video camera. An image display device used in the mixed reality system is realized by, for example, a video see-through method. Here, the image in the virtual space is, for example, a virtual object or character information drawn by computer graphics.

複合現実感の実現のためには、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということが重要であり、従来から多くの取り組みが行われてきた。複合現実感における位置合わせの問題は、仮想の情報を重畳しようとする対象物体と撮像装置との間の、相対的な位置姿勢(以下ではこれを、撮像装置の位置姿勢と称する)を求める問題に帰結される。   In order to realize mixed reality, it is important how to accurately align the real space and the virtual space, and many efforts have been made so far. The problem of alignment in mixed reality is the problem of obtaining the relative position and orientation (hereinafter referred to as the position and orientation of the imaging device) between the target object on which virtual information is to be superimposed and the imaging device. As a result.

この問題を解決する方法としては次のような試みがなされている。即ち、環境中や対象物体上に、対象の座標系における配置が既知であるような複数の指標を設置あるいは設定する。そして、既知の情報であるその指標の対象座標系における三次元座標と、撮像装置が撮像した画像内における指標の投影像の座標とを利用して、対象座標系に対する撮像装置の位置姿勢を求める(非特許文献1を参照)。   As a method for solving this problem, the following attempts have been made. That is, a plurality of indexes whose arrangement in the target coordinate system is known are set or set in the environment or on the target object. Then, the position and orientation of the imaging device with respect to the target coordinate system is obtained using the three-dimensional coordinates of the target in the target coordinate system, which is known information, and the coordinates of the projected image of the index in the image captured by the imaging device. (See Non-Patent Document 1).

また、撮像装置に慣性センサを装着し、センサ計測値を利用することにより、画像情報のみを用いる場合と比べて安定した位置合わせを実現する試みがなされている。例えば、センサ計測値に基づいて推定した撮像装置の位置及び姿勢を指標の検出処理に利用する方法が提案されている。同推定結果を画像に基づく位置及び姿勢算出の初期値として用いる方法も提案されている。さらに、指標が見えない状況においても同推定結果を大まかな位置及び姿勢として用いる方法も提案されている(特許文献1、非特許文献2を参照)。   In addition, an attempt has been made to realize a stable alignment by attaching an inertial sensor to an imaging apparatus and using sensor measurement values, as compared with a case where only image information is used. For example, a method has been proposed in which the position and orientation of an imaging device estimated based on sensor measurement values are used for index detection processing. A method of using the estimation result as an initial value for position and orientation calculation based on an image has also been proposed. Furthermore, a method has also been proposed in which the estimation result is used as a rough position and orientation even in a situation where the index is not visible (see Patent Document 1 and Non-Patent Document 2).

従来の画像情報を用いた位置合わせ手法は、指標の検出結果がすべて正しいことを前提としていた。さらに、指標検出結果はすべて均等な重みとして計算されていた。そのため、誤検出や検出精度の低い指標による影響を大きく受け、正しい位置姿勢計測が行えない場面が起こり得る。   The conventional alignment method using image information is based on the premise that all detection results of indices are correct. Furthermore, all the index detection results were calculated as equal weights. For this reason, there is a possibility that a situation in which correct position and orientation measurement cannot be performed due to a large influence of erroneous detection or an index with low detection accuracy may occur.

そこで、M推定のような統計的推定手法を導入し、検出した指標(特徴点)の画像上での観察座標と撮像装置の位置姿勢や指標の位置から推定した指標の画像座標(再投影座標)との間の誤差(再投影誤差)を求る。そして、この誤差をもとに検出指標の信頼度を算出し、誤検出指標を排除することや、その影響を下げる手法が近年提案されている(非特許文献3を参照)。   Therefore, a statistical estimation technique such as M estimation is introduced, and the image coordinates (reprojection coordinates) of the index estimated from the observation coordinates on the image of the detected index (feature point) and the position and orientation of the imaging device and the position of the index. ) (Reprojection error). In recent years, a method has been proposed in which the reliability of a detection index is calculated based on this error, and a false detection index is eliminated or its influence is reduced (see Non-Patent Document 3).

近年、現実空間と仮想空間の繋ぎ目のない融合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感システムで利用される画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像を重畳描画してそれを表示するビデオシースルー方式によって主に実現される。ここで、仮想空間の画像とは、例えば、コンピュータ・グラフィックスにより描画された仮想物体や文字情報等である。   In recent years, research on mixed reality has been actively conducted for the purpose of seamless fusion of real space and virtual space. An image display device used in a mixed reality system superimposes and draws a virtual space image generated according to the position and orientation of an imaging device on a real space image captured by an imaging device such as a video camera. This is mainly realized by the video see-through method for displaying the video. Here, the image in the virtual space is, for example, a virtual object or character information drawn by computer graphics.

複合現実感の実現のためには、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということが重要であり、従来から多くの取り組みが行われてきた。複合現実感における位置合わせの問題は、仮想の情報を重畳しようとする対象物体と撮像装置との間の、相対的な位置姿勢(以下ではこれを、撮像装置の位置姿勢と称する)を求める問題に帰結される。   In order to realize mixed reality, it is important how to accurately align the real space and the virtual space, and many efforts have been made so far. The problem of alignment in mixed reality is the problem of obtaining the relative position and orientation (hereinafter referred to as the position and orientation of the imaging device) between the target object on which virtual information is to be superimposed and the imaging device. As a result.

この問題を解決する方法としては次のような試みがなされている。即ち、環境中や対象物体上に、対象の座標系における配置が既知であるような複数の指標を設置あるいは設定する。そして、既知の情報であるその指標の対象座標系における三次元座標と、撮像装置が撮像した画像内における指標の投影像の座標とを利用して、対象座標系に対する撮像装置の位置姿勢を求める(非特許文献1を参照)。   As a method for solving this problem, the following attempts have been made. That is, a plurality of indexes whose arrangement in the target coordinate system is known are set or set in the environment or on the target object. Then, the position and orientation of the imaging device with respect to the target coordinate system is obtained using the three-dimensional coordinates of the target in the target coordinate system, which is known information, and the coordinates of the projected image of the index in the image captured by the imaging device. (See Non-Patent Document 1).

また、撮像装置に慣性センサを装着し、センサ計測値に基づいて推定した撮像装置の位置及び姿勢を指標の検出処理に利用したり、同推定結果を画像に基づく位置及び姿勢算出の初期値として用いたり、さらに、指標が見えない状況においても同推定結果を大まかな位置及び姿勢として用いることで、画像情報のみを用いる場合と比べて安定した位置合わせを実現する試みがなされている(特許文献1、非特許文献2を参照)。   In addition, an inertial sensor is attached to the imaging device, and the position and orientation of the imaging device estimated based on the sensor measurement value are used for index detection processing, or the estimation result is used as an initial value for position and orientation calculation based on the image. In addition, even when the index is not visible, an attempt has been made to realize stable positioning compared to the case of using only image information by using the estimation result as a rough position and orientation (Patent Document) 1, see Non-Patent Document 2).

従来の画像情報を用いた位置合わせ手法は、指標の検出結果がすべて正しいことを前提としていた。さらに、指標検出結果はすべて均等な重みとして計算されていた。そのため、誤検出や検出精度の低い指標による影響を大きく受け、正しい位置姿勢計測が行えない場面が起こり得る。   The conventional alignment method using image information is based on the premise that all detection results of indices are correct. Furthermore, all the index detection results were calculated as equal weights. For this reason, there is a possibility that a situation in which correct position and orientation measurement cannot be performed due to a large influence of erroneous detection or an index with low detection accuracy may occur.

そこで、M推定のような統計的推定手法を導入し、検出した指標(特徴点)の画像上での観察座標と撮像装置の位置姿勢や指標の位置から推定した指標の画像座標(再投影座標)との間の誤差(再投影誤差)を求る。そして、この誤差をもとに検出指標の信頼度を算出し、誤検出指標を排除することや、その影響を下げる手法が近年提案されている(非特許文献3を参照)。   Therefore, a statistical estimation technique such as M estimation is introduced, and the image coordinates (reprojection coordinates) of the index estimated from the observation coordinates on the image of the detected index (feature point) and the position and orientation of the imaging device and the position of the index. ) (Reprojection error). In recent years, a method has been proposed in which the reliability of a detection index is calculated based on this error, and a false detection index is eliminated or its influence is reduced (see Non-Patent Document 3).

特開2005−33319号公報JP 2005-33319 A

佐藤, 田村:“複合現実感における位置合わせ手法”, 画像の認識・理解シンポジウム(MIRU 2002)論文集I, 情報処理学会シンポジウムシリーズ、 vol.2002、 no.11、 pp.I.61−I.68, July 2002Sato, Tamura: “Alignment Method in Mixed Reality”, Image Recognition and Understanding Symposium (MIRU 2002) Proceedings I, IPSJ Symposium Series, vol. 2002, no. 11, pp. I. 61-I. 68, July 2002 藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99、 no.574、 pp.1−8)Hirofumi Fujii, Noriyuki Kanbara, Hidehiko Iwasa, Haruo Takemura, Naokazu Yokoya, alignment with stereo camera combined with gyro sensor for augmented reality, IEICE Technical Report PRMU99-192 (Science Technical Report vol.99) No. 574, pp. 1-8) 佐藤,神原,横矢,竹村:“マーカと自然特徴点の追跡による動画像からのカメラ移動パラメータの復元”,電子情報通信学会論文誌,D−III,vol.J86−D−II,no.10,pp.1431−1440,2003.Sato, Kanbara, Yokoya, Takemura: “Restoring camera movement parameters from moving images by tracking markers and natural feature points”, IEICE Transactions, D-III, vol. J86-D-II, no. 10, pp. 1431-1440, 2003.

しかし、再投影誤差の統計量のみに基づいて信頼度を算出し、指標に重み付けすることで誤検出を排除または検出精度(検出すべき画像座標の正確さ)の低い指標の影響を軽減する試みは、必ずしも有効であるとはいえない。なぜなら、上記の手法は多数の指標が正しく検出され、例外的に現れた誤検出指標を排除することに関しては有効であるが、正しい指標より誤検出した指標の方が多い場合では、検出精度の低い指標の影響を受ける可能性があるからである。また、同じ画像で撮影された指標であっても、マーカの配置や撮影時の状況に応じて検出精度の低い指標が含まれる場合があるため位置姿勢計測精度の低下につながるという課題がある
本発明は上記問題に鑑みてなされたものである。即ち、本発明は、二次元形状を持つ指標(円マーカや多角形マーカ等)特有の評価量に応じて重み付けを変え、検出精度の低い指標による影響を排除又は減少させ、高精度且つより安定な撮像装置の位置姿勢計測を行うことを目的とする。
However, the reliability is calculated based only on the re-projection error statistic, and the weighting of the index eliminates false detection or reduces the influence of the index with low detection accuracy (accuracy of image coordinates to be detected). Is not necessarily effective. This is because the above-mentioned method is effective in correctly detecting a large number of indices and eliminating erroneously detected indices that appear exceptionally. This is because it may be affected by low indicators. In addition, even if the index is taken with the same image, there is a problem that the index with low detection accuracy may be included depending on the marker arrangement and the situation at the time of shooting. The present invention has been made in view of the above problems. That is, the present invention changes the weighting according to the evaluation amount peculiar to an index having a two-dimensional shape (circle marker, polygon marker, etc.), eliminates or reduces the influence of an index with low detection accuracy, and is highly accurate and more stable. The purpose is to measure the position and orientation of a simple imaging device.

上記目的を達成するために、本発明は以下の構成をを有する。   In order to achieve the above object, the present invention has the following configuration.

本願請求項1記載の発明は、撮像装置によって撮像された撮像画像を入力する画像入力工程と、物体上に配置または設定された指標を前記撮像画像から検出する指標検出工程と、前記撮像画像から検出されている夫々の指標の信頼度を算出する手がかりとして用いるための評価量を算出する指標評価量算出工程と、前記指標評価量算出工程で算出した指標の評価量に応じて当該指標の信頼度を算出する信頼度算出工程と、前記信頼度算出工程で算出された指標の信頼度と、前記指標検出工程で検出された夫々の指標の画像座標に関する情報とを少なくとも用いて、前記物体または撮像装置の位置姿勢を求める位置姿勢算出工程とを有し、前記評価量は、前記指標の画像上での2次元幾何特徴および/または前記指標の3次元空間中における前記撮像装置と前記指標との間の関係を表す3次元幾何特徴に基づくことを特徴とする。   According to the first aspect of the present invention, an image input step of inputting a captured image captured by an imaging device, an index detection step of detecting an index placed or set on an object from the captured image, and the captured image An index evaluation amount calculation step for calculating an evaluation amount to be used as a clue for calculating the reliability of each detected index, and the reliability of the index according to the evaluation amount of the index calculated in the index evaluation amount calculation step Using at least the reliability calculation step for calculating the degree, the reliability of the index calculated in the reliability calculation step, and the information on the image coordinates of each index detected in the index detection step, A position / orientation calculation step for obtaining a position / orientation of the imaging apparatus, wherein the evaluation amount is calculated based on a two-dimensional geometric feature on the image of the index and / or a front of the index in a three-dimensional space Characterized in that based on the three-dimensional geometric features representing the relationship between the index and the image pickup device.

本発明によれば、検出精度の低い指標の影響を下げることができるので、高精度かつより安定的に撮像装置の位置姿勢計測を行うことができる。   According to the present invention, since the influence of an index with low detection accuracy can be reduced, the position and orientation of the imaging apparatus can be measured with high accuracy and more stably.

第1の実施形態に係る位置姿勢算出装置の概略構成を示す図である。It is a figure which shows schematic structure of the position and orientation calculation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る位置姿勢算出方法の概略処理を示すフローチャートである。It is a flowchart which shows the schematic process of the position and orientation calculation method which concerns on 1st Embodiment. 第1の実施形態に係る指標の概略構成を示す図である。It is a figure which shows schematic structure of the parameter | index which concerns on 1st Embodiment. 第1の実施形態に係る指標と撮像装置の相対姿勢を示す図である。It is a figure which shows the parameter | index which concerns on 1st Embodiment, and the relative attitude | position of an imaging device. 第1の実施形態に係る位置姿勢算出部2080の概略処理を示すフローチャートである。10 is a flowchart showing a schematic process of a position / orientation calculation unit 2080 according to the first embodiment. 位置姿勢計測装置2000に適用可能なコンピュータのハードウェア構成を示すブロック図である。FIG. 10 is a block diagram showing a hardware configuration of a computer applicable to the position / orientation measuring apparatus 2000.

以下添付図面を参照して、本発明をその好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
本実施形態に係る撮像装置の位置姿勢計測装置は、検出した2次元形状を持つ指標の評価量に応じて信頼度を変えて重み付けを行い、精度の低い指標の排除または影響を下げ、撮像装置の位置姿勢計測結果の精度を向上させる。以下、本実施形態に係る指標の評価量に応じた重み付けによる撮像装置の位置姿勢測定方法について説明する。
[First Embodiment]
The position / orientation measurement apparatus of the imaging apparatus according to the present embodiment performs weighting by changing the reliability in accordance with the detected evaluation amount of the index having a two-dimensional shape, and reduces the exclusion or influence of the index with low accuracy. Improve the accuracy of the position and orientation measurement results. Hereinafter, a method for measuring the position and orientation of the imaging apparatus by weighting according to the evaluation amount of the index according to the present embodiment will be described.

図1は、本実施形態に係る撮像装置の位置姿勢計測装置2000の概略構成を示している。位置姿勢計測装置2000は、画像入力部2020、指標検出部2030、撮像装置概略位置姿勢入力部2040、データ管理部2050、評価量算出部2060、信頼度算出部2070、位置姿勢算出部2080によって構成されている。また、画像入力部2020には、計測対象である撮像装置2010が接続されている。   FIG. 1 shows a schematic configuration of a position / orientation measurement apparatus 2000 of the imaging apparatus according to the present embodiment. The position / orientation measurement apparatus 2000 includes an image input unit 2020, an index detection unit 2030, an imaging device approximate position / orientation input unit 2040, a data management unit 2050, an evaluation amount calculation unit 2060, a reliability calculation unit 2070, and a position / orientation calculation unit 2080. Has been. The image input unit 2020 is connected to an imaging device 2010 that is a measurement target.

環境中または対象物体上には、指標が複数配置されている。ここで、物体に配置された指標をP(k=1,,,Ko)で表す。Koは配置された指標の数(図3(a)の例ではK0=3)である。また、図3(b)で示すような多角形の指標Pは頂点pki(i=1,,,N)を含む。Nは、指標Pを構成する頂点の総数(本実施形態の場合はN=4)を表す。また、図3(c)に示すように、それぞれの頂点の相対的な位置関係が既知の点pki(i=1,,,N)によって構成される指標であってもよい。 A plurality of indices are arranged in the environment or on the target object. Here, the index arranged on the object is represented by P k (k = 1,, Ko). Ko is the number of indexes arranged (K0 = 3 in the example of FIG. 3A). Further, the polygonal index P k as shown in FIG. 3B includes the vertex p ki (i = 1,, N k ). N k represents the total number of vertices constituting the index P k (in this embodiment, N k = 4). Further, as shown in FIG. 3C, the index may be constituted by points p ki (i = 1,, N k ) whose relative positional relationship between the vertices is known.

以下では、計測の基準とする座標系(ここでは、環境中の一点を原点として定義し、互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)を世界座標系と呼び、世界座標系における各指標の位置姿勢は既知であるとする。また、環境中に配置された夫々の指標を構成する各頂点は、世界座標系において位置が既知であるとする。   In the following, a coordinate system used as a reference for measurement (here, a coordinate system in which one point in the environment is defined as the origin and three axes orthogonal to each other are defined as the X axis, the Y axis, and the Z axis) is referred to as the world coordinate system. It is assumed that the position and orientation of each index in the world coordinate system are known. Further, it is assumed that the position of each vertex constituting each index arranged in the environment is known in the world coordinate system.

指標Pは、撮影画像上における投影像の画面座標が検出可能であって、かついずれの指標であるか、さらには指標を構成する各頂点が識別可能であるような指標であれば、何れの形態であってもよい。例えば、図3(a)、(b)に示すような四角形指標は内部に識別子を表すパターンを持ち、一意に同定可能である。このような指標を検出する際には、撮影画像に2値化処理を施した後にラベリング処理を行い、一定面積以上の領域の中から4つの直線によって形成されているものを指標候補として抽出する。さらに、候補領域の中に特定のパターンがあるか否かを判定することによって候補領域が指標領域であるかを判定する。そして、指標領域と判定された場合は、内部のパターンを読み出すことによって指標の方向と識別子を取得する。 The index P k is any index that can detect the screen coordinates of the projected image on the photographed image and is an index that can identify each vertex constituting the index. It may be a form. For example, a rectangular index as shown in FIGS. 3A and 3B has a pattern representing an identifier inside and can be uniquely identified. When such an index is detected, a binarization process is performed on the captured image, and then a labeling process is performed, and an area formed by four straight lines is extracted as an index candidate from a region having a certain area or more. . Further, it is determined whether or not the candidate area is an index area by determining whether or not there is a specific pattern in the candidate area. If it is determined as the index region, the index direction and identifier are obtained by reading the internal pattern.

撮像装置2010によって撮影された画像は、画像入力部2020を介して指標検出部2030に入力される。   An image captured by the imaging device 2010 is input to the index detection unit 2030 via the image input unit 2020.

指標検出部2030は、画像入力部2020から画像を入力し、入力された画像中に撮影されている指標Pknを構成する各頂点pkniの画像座標を検出する。 The index detection unit 2030 receives an image from the image input unit 2020 and detects the image coordinates of each vertex p kni constituting the index P kn captured in the input image.

さらに、指標検出部2030は、検出された各々の指標Pknの識別(同定)を行う。 Furthermore, the index detection unit 2030 identifies (identifies) each detected index P kn .

そして、世界座標系における指標の位置姿勢MWMや各頂点の世界座標x pkni(指標に関する既知の情報として予め保持している)をデータ管理部2050から入力する。 Then, the input position of the index in the world coordinate system posture M WM and world coordinates x w Pkni of each vertex (held in advance as known information about the index) from the data management unit 2050.

そして、検出された夫々の指標の識別子knと世界座標系における位置姿勢MWM、各頂点pkniの画像座標upkniと世界座標x pkniの組を要素として有するリスト(以下、データリストと称す)を作成し、データ管理部2050に出力する。ここで、n(n=1,,,N)は検出された指標夫々に対するインデックスであり、Nは検出された指標の総数を表している。また、N個の指標から成る構成点(頂点)の総数をNTotalとする。例えば図1の場合は、識別子が1、2、3である四角形形状の指標が撮影される場合を示しているので、N=3である。また、識別子k=1、k=2、k=3と、これらの指標の位置姿勢、各頂点の画像座標upk1i、upk2i、upk3i、(i=1、2、3、4)及び世界座標x pk1i、x pk2i、x pk3i、(i=1、2、3、4)が出力される。NTotalは、12(=3×4)になる。 The list with identifiers k n and the position and orientation M WM in the world coordinate system of the detected respective indices, a set of image coordinates u Pkni and world coordinates x w Pkni of each vertex p kni as elements (hereinafter, the data list Is created and output to the data management unit 2050. Here, n (n = 1,..., N) is an index for each detected index, and N represents the total number of detected indices. Further, the total number of constituent points (vertices) made up of N indices is N Total . For example, in the case of FIG. 1, N = 3 because a case where a square index with identifiers 1, 2, and 3 is photographed is shown. Also, identifiers k 1 = 1, k 2 = 2 and k 3 = 3, the position and orientation of these indices, and the image coordinates u pk1i , u pk2i , u pk3i , (i = 1, 2, 3, 4) of each vertex. ) And world coordinates x w pk1i , x w pk2i , x w pk3i , (i = 1, 2, 3, 4). N Total is 12 (= 3 × 4).

ここで、ある三次元座標系Bに対する三次元の座標系Aの位置を表す三次元ベクトルをt、姿勢を表す3×3回転行列をRとする。この場合、A上での位置がxA(三次元ベクトル)で表される点のB上での座標xB(三次元ベクトル)は、下記の式1に示す4×4行列MBAを使って同次座標表現によって下記の式2のように表される。 Here, t is a three-dimensional vector representing the position of the three-dimensional coordinate system A with respect to a certain three-dimensional coordinate system B, and R is a 3 × 3 rotation matrix representing the posture. In this case, the coordinate x B (three-dimensional vector) on B of the point whose position on A is represented by x A (three-dimensional vector) uses a 4 × 4 matrix M BA shown in the following Equation 1. The following expression 2 is expressed by the homogeneous coordinate expression.

Figure 2013037006
Figure 2013037006

Figure 2013037006
Figure 2013037006

本実施形態においては、MBAを座標系Bに対する座標系Aの位置姿勢を表す手段として用いる。 In the present embodiment, MBA is used as means for representing the position and orientation of the coordinate system A relative to the coordinate system B.

撮像装置概略位置姿勢入力部2040は、世界座標系における撮像装置2010の位置姿勢の概略値MWCを求め、これをデータ管理部2050へと出力する。撮像装置の概略位置姿勢としては、例えば、6自由度位置姿勢センサを撮像装置2010に装着させてその出力値を用いてもよい。また、3自由度姿勢センサを撮像装置2010に装着することによって撮像装置2010の姿勢を計測し、指標検出部2030で得たデータリストをデータ管理部2050から入力し、これらの情報に基づいて求めてもよい。あるいは、指標検出部2030で得たデータリストをデータ管理部2050から入力し、画像座標と世界座標との対応関係から得られる線形連立方程式を解くことによって撮像装置の位置姿勢を推定する手法を用いて求めてもよい。その他の何れの手法を用いて撮像装置の概略位置姿勢を求め初期値としてもよい。 The imaging apparatus approximate position / orientation input unit 2040 obtains an approximate value M WC of the position / orientation of the imaging apparatus 2010 in the world coordinate system, and outputs this to the data management unit 2050. As the approximate position and orientation of the imaging apparatus, for example, a 6-DOF position and orientation sensor may be attached to the imaging apparatus 2010 and the output value thereof may be used. In addition, the attitude of the imaging apparatus 2010 is measured by mounting the attitude sensor of 3 degrees of freedom on the imaging apparatus 2010, the data list obtained by the index detection unit 2030 is input from the data management unit 2050, and obtained based on these information. May be. Alternatively, a method is used in which the data list obtained by the index detection unit 2030 is input from the data management unit 2050, and the position and orientation of the imaging apparatus is estimated by solving a linear simultaneous equation obtained from the correspondence between the image coordinates and the world coordinates. You may ask. Any other method may be used to obtain the approximate position and orientation of the imaging apparatus and use them as initial values.

データ管理部2050は、データリストの保持・管理を行っており、必要に応じてこれを出力する。また、指標に関する既知の情報として、世界座標系における指標の位置姿勢MWMや各頂点の世界座標x pkniを予め保持している。さらに、撮像装置概略位置姿勢入力部2040で求めた世界座標系における撮像装置2010の概略位置姿勢MWCを入力・保持し、必要に応じてこれを出力する。 The data management unit 2050 holds and manages the data list and outputs it as necessary. Further, as known information regarding the index, the position and orientation M WM of the index in the world coordinate system and the world coordinates x w pkni of each vertex are stored in advance. Further, the approximate position and orientation M WC of the imaging apparatus 2010 in the world coordinate system obtained by the imaging apparatus approximate position and orientation input unit 2040 is input and held, and is output as necessary.

評価量算出部2060は、データ管理部2050から、あるフレームにおける撮像装置2010の概略位置姿勢と、同フレームで検出された指標のデータリストを入力する。そして、データリストの要素である夫々の指標に対してその評価量VPknを算出し、得られた評価量を各指標のパラメータとしてデータリスト内に保存する。 The evaluation amount calculation unit 2060 receives, from the data management unit 2050, the approximate position and orientation of the imaging device 2010 in a certain frame and a data list of indices detected in the same frame. Then, an evaluation amount V Pkn is calculated for each index that is an element of the data list, and the obtained evaluation amount is stored in the data list as a parameter of each index.

ここで、本実施形態に係る評価量算出部2060における、評価量算出の詳細について説明する。まず、世界座標系における指標の重心位置と撮像装置2010の概略位置tWCとに基づいて、指標と撮像装置2010の視点とを結ぶ共線ベクトル Here, details of evaluation amount calculation in the evaluation amount calculation unit 2060 according to the present embodiment will be described. First, a collinear vector that connects the index and the viewpoint of the imaging apparatus 2010 based on the center of gravity position of the index in the world coordinate system and the approximate position t WC of the imaging apparatus 2010

Figure 2013037006
Figure 2013037006

を求める。ここで、世界座標系における指標の重心位置については、指標に関する既知の値として予め保持しておいても良いし、指標の各頂点の世界座標の平均値として求めても良い。 Ask for. Here, the barycentric position of the index in the world coordinate system may be stored in advance as a known value related to the index, or may be obtained as an average value of the world coordinates of each vertex of the index.

次に、指標の各頂点の世界座標に基づいて、世界座標系における指標の法線ベクトル   Then, based on the world coordinates of each vertex of the index, the normal vector of the index in the world coordinate system

Figure 2013037006
Figure 2013037006

を求める。この値は、指標に関する既知の値として予め保持しておいても良い。さらに、この指標の法線ベクトル Ask for. This value may be held in advance as a known value related to the index. In addition, the normal vector of this indicator

Figure 2013037006
Figure 2013037006

と共線ベクトル And collinear vector

Figure 2013037006
Figure 2013037006

とのなす角θPkn(図4(a)にその幾何的な関係を示す)を、式7の関係に基づいて算出する。 Is calculated based on the relationship of Equation (7) (the geometrical relationship is shown in FIG. 4A).

Figure 2013037006
Figure 2013037006

最後に、評価量VPkn=θPknとしてデータリストへと保存する。このようにして求めた評価量は、各指標がカメラに対してどれくらい正面から捕らえられているかを表す値となる。 Finally, the evaluation value V Pkn = θ Pkn is stored in the data list. The evaluation amount thus obtained is a value representing how much each index is captured from the front of the camera.

信頼度算出部2070は、データ管理部2050からデータリストを入力し、データリスト中の夫々の指標に対して、評価量算出部2060で求めたそれぞれの指標の評価量VPknに基づいて指標の信頼度ωPknを算出する。そして、得られた評価量を各指標のパラメータとしてデータリスト内に保存する。 The reliability calculation unit 2070 inputs the data list from the data management unit 2050, and for each index in the data list, the index value is calculated based on the evaluation value V Pkn of each index obtained by the evaluation value calculation unit 2060. The reliability ω Pkn is calculated. Then, the obtained evaluation amount is stored in the data list as a parameter of each index.

ここで、本実施形態に係る信頼度算出部2070における、信頼度算出の詳細について説明する。指標の信頼度ωPknは、指標の評価量VPknを引数とする重み関数 Here, details of reliability calculation in the reliability calculation unit 2070 according to the present embodiment will be described. The index reliability ω Pkn is a weighting function using the index evaluation amount V Pkn as an argument.

Figure 2013037006
Figure 2013037006

によって算出する。重み関数ω(VPkn)は、正(>0)である。係る関数は、ロバスト推定手法のひとつであるM推定で用いられるような重み関数(確率論的モデルを作り、観測データとよくあてはまるものに、より大きな重み付けを行う関数)であってもよいし、実験的、経験的に求めた関数であってもよい。 Calculated by The weight function ω (V Pkn ) is positive (> 0). Such a function may be a weighting function (a function that creates a probabilistic model and applies a larger weighting to what fits well with observation data) used in M estimation, which is one of robust estimation methods, It may be a function obtained experimentally or empirically.

ここで、   here,

Figure 2013037006
Figure 2013037006

When

Figure 2013037006
Figure 2013037006

のなす角θPknは0°から90°までの範囲で変化する。θPkn=90°であれば、平面形状の指標は検出できないので信頼度は0とする。また、θPknが90°付近であれば、指標の各頂点の観察座標の検出精度が低下するので小さな信頼度を与える。θPknが0°付近では検出精度が高くなるので大きな信頼度を与える。このように、θPkn=90°で0、θPkn=0°で最大となるような評価値θPknの関数ω(θPkn)によって信頼度ωPknを定義する。 The angle θ Pkn formed by changes in the range from 0 ° to 90 °. If θ Pkn = 90 °, the planar shape index cannot be detected, so the reliability is set to zero. Further, if θ Pkn is around 90 °, the accuracy of detection of the observation coordinates of each vertex of the index is lowered, so that a small reliability is given. When θPkn is around 0 °, the detection accuracy is high, so that high reliability is given. Thus, the reliability ω Pkn is defined by the function ω (θ Pkn ) of the evaluation value θ Pkn that becomes 0 when θ Pkn = 90 ° and becomes maximum when θ Pkn = 0 °.

位置姿勢算出部2080は、データ管理部2050からデータリスト及び撮像装置2010の概略位置姿勢を入力する。そして、あるフレームにおける撮像装置の初期位置姿勢と、同フレームで検出された各指標の識別子、信頼度、各頂点の画像座標と世界座標とをもとに撮像装置2010の位置姿勢算出処理を行う。そして、その結果として得られた撮像装置2010の位置姿勢情報(すなわち、世界座標系における撮像装置の位置と姿勢)を出力する。   The position / orientation calculation unit 2080 receives the data list and the approximate position / orientation of the imaging apparatus 2010 from the data management unit 2050. Then, the position / orientation calculation processing of the imaging apparatus 2010 is performed based on the initial position / orientation of the imaging apparatus in a certain frame, the identifier and reliability of each index detected in the same frame, and the image coordinates and world coordinates of each vertex. . Then, the position / orientation information of the imaging apparatus 2010 obtained as a result (that is, the position and orientation of the imaging apparatus in the world coordinate system) is output.

図2は、本実施形態の位置姿勢測定装置2000が位置姿勢情報を求める際に行う処理のフローチャートである。   FIG. 2 is a flowchart of processing performed when the position / orientation measurement apparatus 2000 according to the present embodiment obtains position / orientation information.

ステップS6010において、指標検出部2030は、入力画像に対して指標の検出処理を実行し、検出結果として生成したデータリストをデータ管理部2050に出力する。   In step S6010, the index detection unit 2030 executes index detection processing on the input image, and outputs a data list generated as a detection result to the data management unit 2050.

ステップS6020において、撮像装置概略位置姿勢算出部2040は、入力画像の撮像時刻と同一時刻の世界座標系における撮像装置2010の概略位置姿勢MWCを算出し、データ管理部2050へと入力する。 In step S6020, the imaging apparatus approximate position / orientation calculation unit 2040 calculates the approximate position / orientation M WC of the imaging apparatus 2010 in the world coordinate system at the same time as the imaging time of the input image, and inputs it to the data management unit 2050.

ステップS6030において、評価量算出部2060は、データ管理部2050から撮像装置2010の概略位置姿勢MWCを入力し、データリスト中の夫々の指標の評価量VPknを算出する。 In step S6030, evaluation quantity calculating unit 2060 inputs the approximate position and orientation M WC of the image capturing apparatus 2010 from the data management unit 2050, calculates an evaluation amount V Pkn indices of each of the data list.

ステップS6040において、信頼度算出部2070は、データリスト中の夫々の指標に対して、その評価量VPknに基づいて信頼度ωPknを算出する。 In step S6040, the reliability calculation unit 2070 calculates the reliability ω Pkn based on the evaluation value V Pkn for each index in the data list.

ステップS6050において、位置姿勢算出部2080は、データ管理部2050が保持している撮像装置2010の概略位置姿勢情報MWCと検出指標のデータリストを入力する。そして、これをもとに撮像装置2010の位置姿勢算出処理を行い、その結果として得られた撮像装置2010の位置姿勢情報を出力する。 In step S6050, the position and orientation calculation unit 2080 inputs the data list of the approximate position and orientation information M WC and detected index of the image pickup device 2010 to the data management unit 2050 holds. Based on this, the position / orientation calculation processing of the imaging apparatus 2010 is performed, and the position / orientation information of the imaging apparatus 2010 obtained as a result is output.

最後にステップS6060では、位置姿勢算出処理を終了するか否かの判定が行われる。オペレータが、位置姿勢算出装置2000に対して、位置姿勢算出処理の終了を指示した場合には、処理を終了させ、位置姿勢算出処理の継続を指示した場合には、再びステップS6010へと戻り、次フレームの入力画像に対する処理が実行される。   Finally, in step S6060, it is determined whether or not to end the position / orientation calculation process. When the operator instructs the position / orientation calculation apparatus 2000 to end the position / orientation calculation process, the process ends. When the operator instructs the continuation of the position / orientation calculation process, the process returns to step S6010 again. Processing for the input image of the next frame is executed.

次に、図5に示すフローチャートを参照しながら、位置姿勢算出部2080の処理(図2のステップS6050)の詳細を説明する。   Next, the details of the processing of the position / orientation calculation unit 2080 (step S6050 in FIG. 2) will be described with reference to the flowchart shown in FIG.

ステップS4010において、位置姿勢算出部2080は、あるフレームにおける撮像装置の初期位置姿勢と、データリスト(同フレームで検出された各指標の識別子、信頼度、各頂点の画像座標と世界座標)を、データ管理部2050から入力する。   In step S4010, the position / orientation calculation unit 2080 obtains an initial position / orientation of the imaging apparatus in a certain frame and a data list (identifier of each index, reliability, image coordinates and world coordinates of each vertex detected in the same frame), Input from the data management unit 2050.

ステップS4020において、位置姿勢算出部2080は、入力された指標の情報が位置及び姿勢の推定に十分な情報を含むか否かを判定し、それに応じて処理の分岐を行う。具体的には、入力された指標の頂点の総数NTotalが3以上の場合はステップS4030に処理を進め、3未満の場合はステップS4090に処理を進める。NTotalについてであるが、例えば、四角形の4頂点で構成される指標1つであればNTotalは4、三角形の3頂点で構成される指標2つならばNTotalは6となる。 In step S4020, the position / orientation calculation unit 2080 determines whether or not the input index information includes sufficient information for position and orientation estimation, and branches the process accordingly. Specifically, if the total number N Total of the input indices is 3 or more, the process proceeds to step S4030. If it is less than 3, the process proceeds to step S4090. Regarding N Total , for example, if there is one index composed of four vertices of a square, N Total is 4, and if there are two indices composed of three vertices of a triangle, N Total is 6.

位置姿勢算出部2080では、世界座標系(あるいは任意の座標系)における撮像装置2010の位置姿勢を求めるべき未知パラメータとして扱う。ここで、姿勢の表現方法として、3値のベクトルa=[ξ ψ ζ]を用いる。aは回転軸・回転角による姿勢の表現方法であり、回転行列Rは次式に示すようなaの関数となる。 The position / orientation calculation unit 2080 treats the position / orientation of the imaging apparatus 2010 in the world coordinate system (or an arbitrary coordinate system) as an unknown parameter to be obtained. Here, a ternary vector a = [ξ ψ ζ] T is used as an orientation expression method. “a” is a method of expressing the posture by the rotation axis and rotation angle, and the rotation matrix R is a function of “a” as shown in the following equation.

Figure 2013037006
Figure 2013037006

このとき、算出すべき撮像装置の位置姿勢は、位置t=[x y z]及び姿勢a=[ξ ψ ζ]によって表現される。そして、求める未知パラメータは、6値の状態ベクトルs=[x y z ξ ψ ζ]と記述される。 At this time, the position and orientation of the imaging apparatus to be calculated are expressed by a position t = [x y z] T and an orientation a = [ξ ψ ζ] T. The unknown parameter to be obtained is described as a six-valued state vector s = [x yz ξ ψ ζ].

ステップS4030において、位置姿勢算出部2080は、各々の指標の頂点pkniに対して、その画像座標の推定値(再投影座標)uPkni’を算出する。uPkni’の算出は、指標の頂点pkniの世界座標x Pkniと現在の状態ベクトルsの関数(観測方程式) In step S4030, the position / orientation calculation unit 2080 calculates an estimated value (reprojection coordinate) u Pkni ′ of the image coordinates for the vertex p kni of each index. calculation of u Pkni 'is, of vertex p kni of the world coordinates x w Pkni and the current state vector s of the indicator function (observation equation)

Figure 2013037006
Figure 2013037006

に基づいて行われる。 Based on.

具体的には、関数FC()は、x Pkniからカメラ座標における位置ベクトルx Pkniを求める次式 Specifically, the function F C () is obtained by the following equation for obtaining a position vector x C Pkn i in camera coordinates from x w Pkni.

Figure 2013037006
Figure 2013037006

及び、x Pkniから画像上の座標uPkni’を求める次式 And the following equation for obtaining the coordinate u Pkn i ′ on the image from x C Pkn i

Figure 2013037006
Figure 2013037006

によって構成されている。ここでf 及びf は、それぞれx軸方向及びy軸方向における撮像装置2010の焦点距離であり、既知の値として予め保持されているものとする。 It is constituted by. Here, f B x and f B y are the focal lengths of the imaging apparatus 2010 in the x-axis direction and the y-axis direction, respectively, and are held in advance as known values.

ステップS4040において、位置姿勢算出部2080は、各々の指標の頂点pkniの実測値uPkniと、それに対応する画像座標の計算値uPkni’との誤差(再投影誤差)ΔuPkniを次式によって算出する。 In step S4040, the position and orientation calculation unit 2080, the measured values u Pkni vertices p kni of each index, the error (re-projection error) Delta] u Pkni the computed value u Pkni 'image coordinates corresponding to it by the following formula calculate.

Figure 2013037006
Figure 2013037006

ステップS4050において、位置姿勢算出部2080は、各々の指標の頂点pkniに対して、状態ベクトルsに関する画像ヤコビアンJus Pkni(=∂uPkni/∂s)を算出する。ここで、係るヤコビアンは即ち、式12の関数F()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列である。 In step S4050, the position / orientation calculation unit 2080 calculates an image Jacobian J us Pkni (= ∂u Pkni / ∂s) related to the state vector s for each index vertex p kni . Here, the Jacobian is a Jacobian matrix of 2 rows × 6 columns having a solution obtained by partial differentiation of the function F c () of Expression 12 with each element of the state vector s.

具体的には、式14の右辺をカメラ座標x Pkniの各要素で変微分した解を各要素に持つ2行×3列のヤコビ行列Jux Pkni(=∂uPkni/∂x)と、式13の右辺をベクトルsの各要素で偏微分した解を各要素に持つ3行×6列のヤコビ行列Jxs Pkni(=∂x/∂s)を算出し、次式によってJus Pkniを算出する。 Specifically, a 2-row × 3-column Jacobian matrix J ux Pkn i (= ∂u Pkn / ∂x) having a solution obtained by varying and differentiating the right side of Equation 14 with each element of camera coordinates x C Pkni , A Jacobian matrix J xs Pkni (= ∂x / ∂s) of 3 rows × 6 columns having a solution obtained by partial differentiation of the right side of Equation 13 with each element of the vector s is calculated, and J us Pkni is calculated by the following equation: calculate.

Figure 2013037006
Figure 2013037006

ステップS4060において位置姿勢算出部2080は、ステップS4040及びステップS4050において算出した各指標の頂点の誤差ΔuPkni、画像ヤコビアンJus Pkni、ステップS4010で入力した各指標の信頼度ωPknに基づいて、状態ベクトルsの補正値Δsを算出する。以下、補正値Δsの算出処理の詳細を説明する。 In step S4060, the position / orientation calculation unit 2080 determines the state based on the error Δu Pkn of each index calculated in steps S4040 and S4050 , the image Jacobian J us Pkni , and the reliability ωPkn of each index input in step S4010. A correction value Δs of the vector s is calculated. Details of the correction value Δs calculation process will be described below.

はじめに、各指標の頂点における再投影誤差を垂直に並べた2NTotal次元の誤差ベクトルUを作成する。 First, a 2N Total- dimensional error vector U in which the reprojection errors at the vertices of each index are arranged vertically is created.

Figure 2013037006
Figure 2013037006

また、各指標の頂点におけるヤコビ行列Jus Pkniを垂直に並べた(2NTotal)行×6列の行列Φを作成する。 Also, a matrix Φ of (2N Total ) rows × 6 columns in which the Jacobian matrix J us Pkni at the vertices of each index is arranged vertically is created.

Figure 2013037006
Figure 2013037006

次に、指標Pknの各頂点pkniに対応する要素(頂点毎にx座標とy座標の2要素を有する)に対して当該指標の信頼度ωPknを対角成分に持つような、2NTotal行×2NTotal列の対角行列Wを作成する。 Next, 2N such that the reliability corresponding to each index p kni of the index P kn (having two elements of x-coordinate and y-coordinate for each vertex) has the reliability ω Pkn of the index as a diagonal component. Create a diagonal matrix W of Total rows x 2N Total columns.

Figure 2013037006
Figure 2013037006

行列Wを重みとした最小二乗法によってΔsを求めることを考えると、次の正規方程式   Considering that Δs is obtained by the least square method with the matrix W as a weight, the following normal equation

Figure 2013037006
Figure 2013037006

が得られるので、Δsを次式より算出する。 Therefore, Δs is calculated from the following equation.

Figure 2013037006
Figure 2013037006

このように、2次元指標特有の検出時の評価量に基づく信頼度を表す行列Wを重みとしてΔsの算出に利用することで、検出時の指標の評価量に応じて各指標のΔsの算出への寄与度が変化するという効果を得ることができる。2次元指標特有の検出時の評価量とは、ここでは、撮像装置と指標の相対姿勢である。即ち、より信頼できる指標である可能性が高い指標をΔsの算出に積極的に利用し、検出精度が低い可能性が高い指標から受ける悪影響を軽減するという効果を得ることができる。   In this way, by using the matrix W representing the reliability based on the evaluation amount at the time of detection specific to the two-dimensional index as a weight for calculating Δs, the Δs of each index is calculated according to the evaluation amount of the index at the time of detection. It is possible to obtain an effect that the degree of contribution to is changed. The evaluation amount at the time of detection peculiar to the two-dimensional index is here the relative posture between the imaging device and the index. That is, it is possible to obtain an effect of reducing an adverse effect received from an index that is highly likely to be a reliable index by actively using an index that is highly likely to be low in detection accuracy.

なお、M推定のような統計的推定手法によって指標の再投影誤差ΔuPkniに応じた重みを求め、ωPknとの積を得てこれを重みとして用いてもよい。 Note that a weight corresponding to the reprojection error Δu Pkn of the index is obtained by a statistical estimation method such as M estimation, and a product with ω Pkn may be obtained and used as the weight.

ここで、Δsは6次元ベクトルであるから、2MTotalが6以上であれば、Δsを求めることができる。式21のようにΔsを求めることができるが、他の方法によって求めてもよい。例えば、式20は連立一次方程式であるので、ΔsをGaussの消去法で解いてもよいし、その他のいずれの手法で解いてもよい。 Here, since Δs is a six-dimensional vector, if 2M Total is 6 or more, Δs can be obtained. Although Δs can be obtained as shown in Equation 21, it may be obtained by other methods. For example, since Equation 20 is a simultaneous linear equation, Δs may be solved by the Gauss elimination method or any other method.

ステップS4070において、位置姿勢算出部2080は、ステップS4060において算出した補正値Δsを用いて、以下の式22に従ってsを補正し、得られた値を新たなsとする。   In step S4070, the position / orientation calculation unit 2080 corrects s according to the following equation 22 using the correction value Δs calculated in step S4060, and sets the obtained value as new s.

Figure 2013037006
Figure 2013037006

ステップS4080において、位置姿勢算出部2080は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値Δsが予め定めた閾値より小さいかどうかといった何らかの判断基準を用いて、計算が収束しているか否かの判定を行う。収束していない場合には、補正後の状態ベクトルsを用いて、再度ステップS4030以降の処理を行う。   In step S4080, the position / orientation calculation unit 2080 converges the calculation using some criterion such as whether the error vector U is smaller than a predetermined threshold or whether the correction value Δs is smaller than the predetermined threshold. It is determined whether or not. If not converged, the processing after step S4030 is performed again using the corrected state vector s.

ステップS4080において計算が収束したと判定されると、ステップS4090において、位置姿勢算出部2080は、世界座標系における撮像装置の位置及び姿勢sを出力する。この時の出力の形態は、sそのものであっても良いし、sの位置成分を3値のベクトルで表し、姿勢成分をオイラー角や3×3の回転行列で表したものであっても良いし、sから生成した座標変換行列Mであっても良い。   If it is determined in step S4080 that the calculation has converged, in step S4090, the position / orientation calculation unit 2080 outputs the position and orientation s of the imaging device in the world coordinate system. The form of output at this time may be s itself, or the position component of s may be represented by a ternary vector, and the posture component may be represented by an Euler angle or a 3 × 3 rotation matrix. The coordinate transformation matrix M generated from s may be used.

以上の処理によって、世界座標系に対する(すなわち、世界座標系における)撮像装置の位置または位置と姿勢を取得することができる。以上のように、本実施形態に係る位置姿勢計測装置によれば、2次元形状を持つ指標の特有の評価量を考慮して位置姿勢推定を行うので、検出精度の低い指標の影響を軽減し、撮像装置の位置姿勢計測を高精度に行うことができる。   With the above processing, the position or position and orientation of the imaging device with respect to the world coordinate system (that is, in the world coordinate system) can be acquired. As described above, according to the position / orientation measurement apparatus according to the present embodiment, the position / orientation estimation is performed in consideration of the characteristic evaluation amount of the index having a two-dimensional shape, thereby reducing the influence of the index having low detection accuracy. The position and orientation of the imaging device can be measured with high accuracy.

[第2の実施形態]
第1の実施形態では、信頼度ωPknは、撮像装置と指標の相対姿勢に基づく評価量に基づいて決定されていた。しかし、二次元形状を持つ指標の幾何形状の特性を利用した評価量に基づいて信頼度を算出するのであれば、評価量とする情報の種類はこれに限定されるものではない。即ち、信頼度の算出方法はその他の方法、またはその他の方法と組み合わせた方法であってもよい。例えば、指標に関する2次元幾何情報(例えば、面積や縦横比など)を画像から得て、これを評価値として信頼度を算出することができる。
[Second Embodiment]
In the first embodiment, the reliability ω Pkn is determined based on the evaluation amount based on the relative posture between the imaging device and the index. However, if the reliability is calculated based on the evaluation amount using the characteristic of the geometric shape of the index having a two-dimensional shape, the type of information used as the evaluation amount is not limited to this. That is, the reliability calculation method may be other methods or a method combined with other methods. For example, two-dimensional geometric information (for example, area, aspect ratio, etc.) regarding the index can be obtained from the image, and the reliability can be calculated using this as an evaluation value.

例えば、検出された指標の画像上での面積SPknを評価値V Pknとして信頼度ωPknを算出してもよい。この場合、撮像装置概略位置姿勢入力部2040は不要となる。 For example, the reliability ω Pkn may be calculated using the area S Pkn of the detected index on the image as the evaluation value V S Pkn . In this case, the imaging apparatus approximate position and orientation input unit 2040 is not necessary.

評価量算出部2060は、データリストに保持している指標の各頂点の画像座標pkniを用いて、画像上で検出した指標領域の画像中における面積SPknを算出し、これを夫々の指標の評価量とする。指標の面積は、指標検出部2030の指標検出工程で得られるラベリング画像を指標検出部2030から評価量算出部2060へと入力し、当該指標領域の画素数をカウントすることで算出してもよい。ここでラベリング画像とは、例えば指標領域以外の画素の画素値を0に、各指標領域に相当する画素の画素値をその画像上における夫々の指標領域の識別番号に設定した画像である。 The evaluation amount calculation unit 2060 calculates the area S Pkn in the image of the index region detected on the image, using the image coordinates p kni of each vertex of the index held in the data list, and uses this for each index. The evaluation amount. The area of the index may be calculated by inputting a labeling image obtained in the index detection process of the index detection unit 2030 from the index detection unit 2030 to the evaluation amount calculation unit 2060 and counting the number of pixels in the index region. . Here, the labeling image is an image in which, for example, pixel values of pixels other than the index region are set to 0, and pixel values of pixels corresponding to the index regions are set to the identification numbers of the respective index regions on the image.

信頼度算出部2070は、画像上で検出した指標の面積SPknが大きいとき高い信頼度を、面積SPknが小さいとき低い信頼度を与えるような重み関数ω(V Pkn)を用いて、夫々の指標の信頼度を算出する。面積SPknの大小の判定は、分散や標準偏差を用いてもよいし、実験的、経験的に求めてもよい。 The reliability calculation unit 2070 uses a weighting function ω S (V S Pkn ) that gives high reliability when the area S Pkn of the index detected on the image is large and low reliability when the area S Pkn is small. The reliability of each index is calculated. The determination of the size of the area SPkn may be performed using variance or standard deviation, or may be obtained experimentally or empirically.

また、このようにして得られた指標の面積に基づく信頼度ω Pknをそのまま信頼度ωPknとして用いるだけでなく、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得、これを用いてもよい。 Further , the reliability ω S Pkn based on the area of the index obtained in this way is not only used as the reliability ω Pkn as it is, but also by obtaining a product or average with the reliability obtained by other methods. A combined reliability may be obtained and used.

<変形例1>
第2の実施形態で求めた信頼度の算出方法において、指標が四角形指標の場合には、画像上で検出した辺の縦横比を評価値Vratio Pknとして信頼度ωPknを算出してもよい。
<Modification 1>
In the reliability calculation method obtained in the second embodiment, when the index is a square index, the reliability ω Pkn may be calculated using the aspect ratio of the side detected on the image as the evaluation value V ratio Pkn. .

評価量算出部2060は、データリストに保持している指標の各頂点の画像座標pkniを用いて、例えば、夫々の頂点毎に存在する隣り合う2辺に対して、「見かけ上の短辺/見かけ上の長辺」によって長さの比を求める。そして、これらのうちの最小値を選択することによって評価量を得る。信頼度算出部2070は、例えば、指標が図3に示すような四角形指標であるとき評価値が1に近い指標に高い信頼度を、評価値が0に近い指標には低い信頼度を与えるような重み関数ωratio(Vratio Pkn)を用いて、夫々の指標の信頼度を算出する。 The evaluation amount calculation unit 2060 uses the image coordinates p kni of each vertex of the index held in the data list, for example, “apparent short side” for two adjacent sides existing for each vertex. The ratio of length is obtained by “/ apparent long side”. Then, an evaluation amount is obtained by selecting the minimum value among them. For example, when the index is a square index as shown in FIG. 3, the reliability calculation unit 2070 gives a high reliability to an index whose evaluation value is close to 1, and gives a low reliability to an index whose evaluation value is close to 0. The reliability of each index is calculated using a simple weight function ω ratio (V ratio Pkn ).

また、このようにして得られた検出した辺の縦横比に基づく信頼度ωratio Pknをそのまま信頼度ωPknとして用いるだけでなく、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 In addition, the reliability ω ratio Pkn based on the aspect ratio of the detected side thus obtained is used as the reliability ω Pkn as it is, and the product or average of the reliability obtained by other methods is obtained. It is also possible to obtain the reliability obtained by combining these and use this.

<変形例2>
第2の実施形態で求めた信頼度の算出方法において、指標が四角形指標の場合には、画像上で検出した指標における隣り合う2辺の間の角度を評価値Vangle Pknとして信頼度ωPknを算出してもよい。
<Modification 2>
In the reliability calculation method obtained in the second embodiment, when the index is a square index, the angle between two adjacent sides of the index detected on the image is set as the evaluation value V angle Pkn , and the reliability ω Pkn. May be calculated.

隣り合う2辺の組み合わせは夫々の頂点毎に存在するので、例えば、夫々の2辺間のなす角を求め、これらのうちの最小値を評価値とする。例えば、四角形指標の隣り合う辺の間の角度が90°付近であれば大きな信頼度を、0°付近であれば小さな信頼度を与えるような関数ωangle(Vangle Pkn)を重み関数として定義する。 Since a combination of two adjacent sides exists for each vertex, for example, an angle formed between the two sides is obtained, and the minimum value of these is used as the evaluation value. For example, a function ω angle (V angle Pkn ) is defined as a weighting function that gives a high reliability when the angle between adjacent sides of the quadrangle index is around 90 °, and a small reliability when it is around 0 °. To do.

また、このようにして得られた指標における隣り合う2辺の間の角度に基づく信頼度ωangle Pknをそのまま信頼度ωPknとして用いるだけでなく、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 Further , the reliability ω angle Pkn based on the angle between two adjacent sides in the index obtained in this way is not only used as the reliability ω Pkn as it is, but also the product of the reliability obtained by other methods, You may obtain the reliability which combined these by calculating | requiring an average, and may use this.

<変形例3>
第2の実施形態で求めた信頼度の算出方法において、円形の平面形状からなる円形指標を指標として用いる場合には、画像上で検出した指標の真円度を評価値Vcircle Pknとして信頼度ωPknを算出してもよい。この場合、指標検出部2030から評価量算出部2060へとラベリング画像が出力される。
<Modification 3>
In the reliability calculation method obtained in the second embodiment, when a circular index having a circular plane shape is used as an index, the roundness of the index detected on the image is used as the evaluation value V circle Pkn. ω Pkn may be calculated. In this case, a labeling image is output from the index detection unit 2030 to the evaluation amount calculation unit 2060.

真円度とは,円形指標の投影像として検出された領域(この領域は、円形指標が正面から撮影された場合には真円に近い形状となり、斜め方向から撮影された場合には楕円に近い形状となる)の真円からのずれ量である。円真度は、例えば、検出領域の外接円と内接円の半径の差によって定義できる。   Roundness is an area detected as a projected image of a circular index (this area has a shape close to a perfect circle when the circular index is photographed from the front, and an ellipse when the circular index is photographed from an oblique direction. This is the amount of deviation from a perfect circle. The circularity can be defined by, for example, a difference in radius between the circumscribed circle and the inscribed circle in the detection area.

信頼度算出部2070は、このrを夫々の指標領域に対して求め、これを評価値Vcircle Pknとする。信頼度算出部2070は、rが小さな指標には高い信頼度を、逆にrが大きな指標には低い信頼度を与えるような重み関数ωcircle(Vcircle Pkn)を用いて、夫々の指標の信頼度を算出する。 The reliability calculation unit 2070 calculates this r for each index region, and sets this as the evaluation value V circle Pkn . The reliability calculation unit 2070 uses a weight function ω circle (V circle Pkn ) that gives high reliability to an index with a small r and low reliability to an index with a large r. Calculate reliability.

また、このようにして得られた円形マーカの真円度に基づく信頼度ωcircle Pknをそのまま信頼度ωPknとして用いるだけでなく、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 Further , the reliability ω circle Pkn based on the roundness of the circular marker thus obtained is not only used as the reliability ω Pkn as it is, but also the product or average of the reliability obtained by other methods is obtained. It is also possible to obtain the reliability obtained by combining these and use this.

<変形例4>
第1の実施形態及び第2の実施形態で求めた信頼度の算出方法において、複数種の指標を混在して用いる場合に、夫々の指標の種類に応じて信頼度を定義してもよい。ここで複数の指標とは、例えば、内部にID情報を有するような多角形形状の指標、画像情報からは同定することができない単色領域からなる円形指標(以上の指標は人為的な指標)、エッジやテクスチャといった自然特徴によって定義される自然特徴指標である。
<Modification 4>
In the reliability calculation method obtained in the first embodiment and the second embodiment, when a plurality of types of indicators are used together, the reliability may be defined according to the type of each indicator. Here, the plurality of indices are, for example, a polygonal index having ID information therein, a circular index composed of a monochrome region that cannot be identified from the image information (the above indices are artificial indices), It is a natural feature index defined by natural features such as edges and textures.

例えば、円形指標や自然特徴指標などに比べて誤検出や同定間違いが起きにくいID情報を持つ多角形指標には高い信頼度を与える。自然特徴と比べると相対的に誤検出の可能性が低い円形指標には中位の信頼度を与える。最も誤検出の可能性の高い自然特徴指標には低い信頼度を与える。そして、これらの信頼度に応じて上記式21に基づく位置姿勢算出を行っても良い。   For example, a high degree of reliability is given to a polygonal index having ID information that is less prone to erroneous detection and identification errors than a circular index or a natural feature index. A medium index is given to a circular index that is relatively less likely to be erroneously detected than natural features. The low reliability is given to the natural feature index having the highest possibility of false detection. Then, the position / orientation calculation based on the formula 21 may be performed according to the reliability.

また、このようにして得られた指標の種類に基づく信頼度をそのまま用いるだけでなく、その他の方法で求めた例えば指標の幾何形状の特性を利用した信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。   In addition to using the reliability based on the type of index obtained in this way as it is, it is also possible to obtain the product or average with the reliability using characteristics of the geometric shape of the index obtained by other methods, for example. You may obtain the reliability which combined these and use this.

<変形例5>
第1の実施形態及び第2の実施形態で求めた信頼度の算出方法において、検出した指標が識別子を持ち、かつ認識の誤りを修正する誤り修正情報を持つとき、誤り修正の有無を評価値VIDmdf Pknとして信頼度ωPknを算出してもよい。何らかの理由で情報が抜けた場合等に指標の誤り修正が行われるため、誤り修正が行われた指標には低い信頼度を、逆に誤り訂正が行われない指標に高い信頼度を与えるような関数ωIDmdf(VIDmdf Pkn)を重み関数として定義する。
<Modification 5>
In the reliability calculation method obtained in the first embodiment and the second embodiment, when the detected index has an identifier and error correction information for correcting a recognition error, whether or not the error is corrected is evaluated. The reliability ω Pkn may be calculated as V IDmdf Pkn . Since the error correction of the index is performed when information is lost for some reason, a low reliability is given to the index for which error correction has been performed, and conversely a high reliability is given to an index for which error correction is not performed. The function ω IDmdf (V IDmdf Pkn ) is defined as a weight function.

また、このようにして得られた誤り修正の有無に基づく信頼度ωIDmdf Pknをそのまま信頼度ωPknとして用いるだけでなく、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 Further , the reliability ω IDmdf Pkn based on the presence or absence of error correction obtained in this way is not only used as the reliability ω Pkn as it is, but also by obtaining a product or average with the reliability obtained by other methods. This may be used after obtaining the reliability obtained by combining the two.

<変形例6>
第1の実施形態及び第2の実施形態で求めた信頼度の算出方法において、画像上で検出した指標のコントラストの強さを評価値V Pknとして信頼度ωPknを算出してもよい。コントラストCは、画像の明暗の差を表したもので、画像中の濃淡レベルの最小値をImin、最大値をImaxとすると次式で定義される。
<Modification 6>
In the reliability calculation method obtained in the first embodiment and the second embodiment, the reliability ω Pkn may be calculated using the contrast strength of the index detected on the image as the evaluation value V C Pkn . The contrast C represents the difference between light and dark in the image. The contrast C is defined by the following equation, where I min is the minimum value of the shading level in the image and I max is the maximum value.

Figure 2013037006
Figure 2013037006

コントラストCを指標の周辺領域において調べ、その値を評価値V Pknとする。コントラストが高い指標には、検出精度が高くなるので高い信頼度を、コントラストが低い指標は、検出精度が低くなるので低い信頼度を与えるような関数ω(V Pkn)を重み関数として定義する。 The contrast C is examined in the peripheral area of the index, and the value is set as the evaluation value V C Pkn . A function ω C (V C Pkn ) is defined as a weighting function that provides high reliability because the detection accuracy is high for an index with high contrast and low reliability for an index with low contrast because the detection accuracy is low. To do.

また、このようにして得られたコントラストに基づく信頼度ω Pknをそのまま信頼度ωPknとして用いるだけでなく、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 Further , the reliability ω C Pkn based on the contrast thus obtained is used not only as the reliability ω Pkn as it is, but also by combining these by obtaining a product or average with the reliability obtained by other methods. This may be used with confidence.

<変形例7>
第1の実施形態及び第2の実施形態で求めた信頼度の算出方法において、画像上で検出した指標の鮮鋭度を評価値Vsharp Pknとして信頼度ωPknを算出してもよい。鮮鋭度の計測方法は、エッジの斜度を計測する方法であってもよいし、像の空間周波数成分を計測する方法であってもよいし、その他の何れの方法でもよい。指標の周辺の鮮鋭度が高いとき、エッジがはっきり検出できるため高い信頼度を、逆に鮮鋭度が低いときは、低い信頼度を与えるような関数ωsharp(Vsharp Pkn)を重み関数として定義する。
<Modification 7>
In the reliability calculation method obtained in the first and second embodiments, the reliability ω Pkn may be calculated using the sharpness of the index detected on the image as the evaluation value V sharp Pkn . The method of measuring the sharpness may be a method of measuring the slope of the edge, a method of measuring the spatial frequency component of the image, or any other method. A function ω sharp (V sharp Pkn ) is defined as a weighting function that gives high reliability because the edge can be detected clearly when the sharpness around the index is high, and conversely when the sharpness is low. To do.

また、このように得られた鮮鋭度に基づく信頼度ωsharp Pknをそのまま信頼度ωPknとして用いてもよいし、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 Further , the reliability ω sharp Pkn based on the sharpness thus obtained may be used as the reliability ω Pkn as it is, or these are combined by obtaining a product or an average with the reliability obtained by other methods. This may be used after obtaining a high degree of reliability.

<変形例8>
第1の実施形態では、撮像装置概略位置姿勢入力部2040は次のような処理を行っていた。即ち、世界座標系における撮像装置2010の位置姿勢の概略値MWCを求め、概略値MWCと世界座標系における位置または位置姿勢が既知の指標より撮像装置2010と指標の相対姿勢を求めていた。しかし、4点以上の特徴点を有する指標を用いる場合には次のようにしても良い。即ち、2次元ホモグラフィの計算に基づいて画像上で検出した指標の画像座標より指標と撮像装置2010の概略位置姿勢MMCを求め、これに基づいて、指標の法線ベクトルと撮像装置2010から指標への視軸とのなす角を算出してもよい。
<Modification 8>
In the first embodiment, the imaging device approximate position and orientation input unit 2040 performs the following processing. That is, the approximate value M WC of the position and orientation of the imaging device 2010 in the world coordinate system is obtained, and the relative orientation between the imaging device 2010 and the index is obtained from the approximate value M WC and an index whose position or orientation in the world coordinate system is known. . However, when an index having four or more feature points is used, the following may be used. That is, determine the approximate position and orientation M MC metrics and imaging apparatus 2010 from the image coordinates of the indices detected on the image based on the 2D homography calculation, based on this, from the normal vector and the imaging apparatus 2010 of the index You may calculate the angle | corner with the visual axis to a parameter | index.

具体的には、求めた指標と撮像装置2010の概略相対位置に基づいて、撮像装置を基準とした座標系(以降、撮像装置座標系とする)における指標と撮像装置2010の視点とを結ぶ共線ベクトル   Specifically, based on the obtained index and the approximate relative position of the imaging device 2010, the joint between the index in the coordinate system based on the imaging device (hereinafter referred to as the imaging device coordinate system) and the viewpoint of the imaging device 2010 is shared. Line vector

Figure 2013037006
Figure 2013037006

を求める。そして、撮像装置座標系における指標の各頂点の座標(MMCから算出可能)に基づいて、撮像装置座標系における指標の法線ベクトル Ask for. Then, based on the coordinates of the vertices of the index in the imaging device coordinate system (can be calculated from M MC), the normal vector of the index in the imaging device coordinate system

Figure 2013037006
Figure 2013037006

を求める。以上のようにして、指標の法線ベクトル Ask for. As described above, the normal vector of the indicator

Figure 2013037006
Figure 2013037006

と共線ベクトル And collinear vector

Figure 2013037006
Figure 2013037006

が得られたら、以降は第1の実施形態と同様な処理を行えばよい。 After that, processing similar to that in the first embodiment may be performed.

また、このように得られた撮像装置2010と指標との相対姿勢に基づく信頼度ωθ Pknをそのまま信頼度ωPknとして用いてもよい。また、その他の方法で求めた信頼度との積や平均を求めることでこれらを組み合わせた信頼度を得て、これを用いてもよい。 Further , the reliability ω θ Pkn based on the relative attitude between the imaging device 2010 and the index obtained in this way may be used as the reliability ω Pkn as it is. Moreover, the reliability which combined these by calculating | requiring the product and average with the reliability calculated | required with the other method may be used, and this may be used.

<変形例9>
第2の実施形態では、指標の2次元幾何情報を画像から得て、これを評価量として信頼度を算出していた。しかし、撮像装置の概略位置姿勢MWCに基づいて指標の各頂点の推定座標(再投影座標)を求め、再投影座標の2次元幾何情報に基づいて信頼度を算出してもよい。
<Modification 9>
In the second embodiment, the two-dimensional geometric information of the index is obtained from the image, and the reliability is calculated using this as an evaluation amount. However, the estimated coordinates (reprojected coordinates) of each vertex of the index may be obtained based on the approximate position and orientation MWC of the imaging apparatus, and the reliability may be calculated based on the two-dimensional geometric information of the reprojected coordinates.

撮像装置2010の概略位置姿勢MWCが実際の位置姿勢(真値)から大きくずれていなければ、画像上で検出した座標の代わりに再投影座標を用いて信頼度を算出しても本発明の本質が損なわれないことはいうまでもない。 If the approximate position and orientation M WC of the imaging apparatus 2010 is not greatly deviated from the actual position and orientation (true value), the reliability can be calculated using the reprojected coordinates instead of the coordinates detected on the image. It goes without saying that the essence is not impaired.

<変形例10>
第1の実施形態及び第2の実施形態では、指標の位置は既知であるとして撮像装置の位置姿勢を求めていたが、指標の位置または位置姿勢も撮像装置の位置姿勢とともにを求めてもよい。
<Modification 10>
In the first embodiment and the second embodiment, the position and orientation of the imaging apparatus are obtained assuming that the position of the index is known. However, the position or orientation of the index may be obtained together with the position and orientation of the imaging apparatus. .

このとき、求めるべき位置または位置姿勢情報は、すなわち世界座標系における撮像装置2010の位置姿勢と、世界座標系における指標の位置または位置姿勢である。世界系座標における指標の位置を3値ベクトル[xPknPknPkn]、または位置姿勢を6値ベクトル[xPknPknPkn ξPkn ψPkn ζPknとして扱い、この未知パラメータを状態ベクトルsPknと記述する。 At this time, the position or position / orientation information to be obtained is the position / orientation of the imaging apparatus 2010 in the world coordinate system and the position or position / orientation of the index in the world coordinate system. The position of the index in the world coordinate system is treated as a ternary vector [x Pkn y Pkn z Pkn ], or the position and orientation is treated as a six-value vector [x Pkn y Pkn z Pkn ξ Pkn ψ Pkn ζ Pkn ] T , and this unknown parameter is in the state It is described as a vector s Pkn .

状態ベクトルsPknに適当な初期値を与える。初期値としては、オペレータが予めおおよその値を手入力しても良い。また、ある同一時刻に入力された(すなわち、撮影画像から検出された)複数の指標の検出座標をデータリストから抽出し、このデータを用いて、世界座標系系における指標の同時刻における位置または位置姿勢を公知の方法によって算出する。ここで、世界座標系における既知の点が3点以上必要となる。 An appropriate initial value is given to the state vector s Pkn . As an initial value, an operator may manually input an approximate value in advance. Further, detection coordinates of a plurality of indices input at a certain same time (that is, detected from a captured image) are extracted from the data list, and using this data, the position of the indices in the world coordinate system at the same time or The position and orientation are calculated by a known method. Here, three or more known points in the world coordinate system are required.

また、世界座標系における撮像装置の位置姿勢を6値のベクトル[xWCWCWC ξWC ψWC ζWCとして扱う。そして、この未知パラメータを状態ベクトルsWCと記述する。求めるべき位置または位置姿勢の状態ベクトルをs=[sWCPkn]と記述する。 In addition, the position and orientation of the imaging apparatus in the world coordinate system is treated as a six-value vector [x WC y WC z WC ξ WC ψ WC ζ WC ] T. This unknown parameter is described as a state vector s WC . A state vector of the position or position / orientation to be obtained is described as s = [s WC s Pkn ].

なお、世界座標系における指標の位置又は位置姿勢を算出する公知の手法としては例えば、指標が同一平面上に配置されている場合には、4点以上の指標を用いて2次元ホモグラフィの計算に基づいて指標の位置又は位置姿勢を得る手法を用いることができる。また、同一平面上にない6点以上の指標を用いる手法や、これらの解を初期値にして、ニュートン法のような繰り返し計算によって最適解を得る手法を用いることもできる。   In addition, as a known method for calculating the position or position and orientation of an index in the world coordinate system, for example, when the indices are arranged on the same plane, calculation of two-dimensional homography using four or more indices A method for obtaining the position or orientation of the index based on the above can be used. It is also possible to use a technique that uses six or more indices that are not on the same plane, or a technique that uses these solutions as initial values and obtains an optimal solution by iterative calculations such as the Newton method.

ここで位置姿勢算出部2080は、各々の指標の頂点pkniに対して、その画像座標の推定値(再投影座標)uPkni’を算出する。uPkni’の算出は、指標の頂点pkniの世界座標x Pkniと現在の状態ベクトルsの関数(観測方程式) Here, the position / orientation calculation unit 2080 calculates an estimated value (reprojection coordinate) u Pkni ′ of the image coordinates for the vertex p kni of each index. calculation of u Pkni 'is, of vertex p kni of the world coordinates x w Pkni and the current state vector s of the indicator function (observation equation)

Figure 2013037006
Figure 2013037006

に基づいて行われる。 Based on.

以降の処理については、第1の実施形態と同様に算出する。即ち、第1の実施形態と同様に信頼度を求め、信頼度を対角成分にもつ行列Wを重みとし、重みを考慮した最小二乗法で算出することで、指標の位置または位置姿勢と撮像装置の位置姿勢を求めることができる。   Subsequent processing is calculated in the same manner as in the first embodiment. That is, as in the first embodiment, the reliability is obtained, the matrix W having the reliability as a diagonal component is used as a weight, and calculation is performed by the least-squares method considering the weight, so that the position or orientation of the index and the imaging The position and orientation of the device can be obtained.

また、撮像装置の位置と姿勢(外部パラメータ)のみではなく、撮像装置の内部パラメータ(焦点距離やアスペクト比、歪み補正パラメータ)を求める問題であっても、同様の重み付けの枠組みを適用できることは言うまでもない。   It goes without saying that the same weighting framework can be applied not only to the position and orientation (external parameters) of the imaging apparatus but also to the problem of obtaining internal parameters (focal length, aspect ratio, distortion correction parameter) of the imaging apparatus. Yes.

<変形例11>
また、上記実施形態においては、図3(b)に示すような複数の頂点を有する2次元形状を持つ指標(三角形や四角形等の外形から成る指標)を用いていた。しかし2次元形状を持つ指標と同様に、複数の座標の集合を構成要素として有するような指標(これらを総称して多角形形状と呼ぶ)を用いる場合であっても、画像上の2次元幾何特徴やカメラと指標の3次元幾何特徴に基づいた評価量を求めることは可能である。従って、本実施形態で述べた発明の効果を得ることが可能である。
<Modification 11>
Further, in the above embodiment, an index having a two-dimensional shape having a plurality of vertices as shown in FIG. 3B (an index composed of an outer shape such as a triangle or a quadrangle) is used. However, as in the case of an index having a two-dimensional shape, even when an index having a set of a plurality of coordinates as a constituent element (collectively referred to as a polygonal shape) is used, It is possible to obtain the evaluation amount based on the feature and the three-dimensional geometric feature of the camera and the index. Therefore, the effects of the invention described in this embodiment can be obtained.

例えば、図3(c)に示すようにそれぞれの相対的な位置関係が既知の点pki(i=1,,,N)によって構成される指標であってもよい。また、複数の座標の集合を構成要素として有するような指標であればいずれの指標を用いてもよい。 For example, as shown in FIG. 3C, the index may be constituted by points p ki (i = 1,, N k ) whose relative positional relationships are known. In addition, any index may be used as long as it has a set of a plurality of coordinates as a constituent element.

<変形例12>
なお、上記実施形態においては、最適化演算において非線形方程式をテーラー展開し、1次近似で線形化することで補正値を求め、繰り返し補正していくことで最適解を求めるNewton−Raphson法を用いている。しかし、補正値の算出は必ずしもNewton−Raphson法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよい。また、最急降下法を用いても求めてもよい。他の何れの数値計算手法を適用しても本発明の本質が損なわれないことは言うまでもない。
<Modification 12>
In the above embodiment, the Newton-Raphson method is used in which a nonlinear equation is Taylor-expanded in an optimization operation, a correction value is obtained by linearizing by linear approximation, and an optimum solution is obtained by repeatedly correcting. ing. However, the correction value need not necessarily be calculated by the Newton-Raphson method. For example, you may obtain | require using LM method (Levenberg-Marquardt method) which is an iterative solution method of a well-known nonlinear equation. Alternatively, the steepest descent method may be used. It goes without saying that the essence of the present invention is not impaired even if any other numerical calculation method is applied.

[第3の実施形態]
上記実施形態では、図1に示した位置姿勢計測装置2000を構成する各部はハードウェアでもって実装されているものとして説明した。しかし、図1に示した各部の一部若しくは全部をソフトウェアでもって実現し、残りをハードウェアでもって実現しても良い。この場合、例えば、このハードウェアをパーソナルコンピュータに挿入可能な機能拡張カードとして実現し、この機能拡張カードをパーソナルコンピュータに挿入する。また、このソフトウェアは、このパーソナルコンピュータが有するメモリ上に格納する。係る構成によれば、パーソナルコンピュータが有するCPUがこのソフトウェアを実行すると共に、この機能拡張カードの動作制御をも行うことにより、第1の実施形態及び各種の変形例で説明した処理を行うことができる。
[Third Embodiment]
In the above-described embodiment, each part constituting the position / orientation measurement apparatus 2000 illustrated in FIG. 1 has been described as being implemented by hardware. However, some or all of the units shown in FIG. 1 may be realized by software, and the rest may be realized by hardware. In this case, for example, the hardware is realized as a function expansion card that can be inserted into a personal computer, and the function expansion card is inserted into the personal computer. The software is stored on a memory included in the personal computer. According to such a configuration, the CPU described in the first embodiment and various modifications can be performed by the CPU of the personal computer executing the software and also controlling the operation of the function expansion card. it can.

図6は、位置姿勢計測装置2000に適用可能なコンピュータのハードウェア構成を示すブロック図である。   FIG. 6 is a block diagram showing a hardware configuration of a computer applicable to the position / orientation measuring apparatus 2000.

601はCPUで、RAM602やROM603に格納されているプログラムやデータを用いて本コンピュータ全体の制御を行う。   Reference numeral 601 denotes a CPU which controls the entire computer using programs and data stored in the RAM 602 and ROM 603.

602はRAMで、外部記憶装置606からロードされたプログラムやデータ、I/F(インターフェース)607を介して外部から受信したプログラムやデータを一時的に記憶するためのエリアを有する。更には、CPU601が各種の処理を実行する際に用いるワークエリアも有する。即ち、RAM602は各種のエリアを適宜提供することができる。   A RAM 602 has an area for temporarily storing programs and data loaded from the external storage device 606 and programs and data received from the outside via an I / F (interface) 607. Furthermore, it has a work area used when the CPU 601 executes various processes. That is, the RAM 602 can provide various areas as appropriate.

603はROMで、本コンピュータの設定データやブートプログラムなどを格納する。   Reference numeral 603 denotes a ROM which stores setting data and a boot program for the computer.

604は操作部で、キーボードやマウスなどにより構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU601に対して入力することができる。   An operation unit 604 includes a keyboard and a mouse, and various instructions can be input to the CPU 601 by an operator of the computer.

605は表示部で、CRTや液晶画面などにより構成されており、CPU601による処理結果を画像や文字などでもって表示することができる。   A display unit 605 includes a CRT, a liquid crystal screen, and the like, and can display a processing result by the CPU 601 using an image, text, or the like.

606は外部記憶装置で、ハードディスクなどに代表される大容量情報記憶装置であって、ここにはOS(オペレーティングシステム)や、本コンピュータが行う各種の処理をCPU601に実行させるためのプログラムやデータ等が保存される。このプログラムやデータには、上記ソフトウェアや、機能拡張カード608の動作制御プログラムなども含まれる。また、外部記憶装置606には、上記説明において予め保持しているものとして説明した各種の情報や、I/F607を介して撮像装置2010から受信した撮像画像も保存される。   Reference numeral 606 denotes an external storage device, which is a large-capacity information storage device represented by a hard disk or the like. Here, an OS (operating system), programs and data for causing the CPU 601 to execute various processes performed by the computer, and the like. Is saved. The program and data include the above-described software and the operation control program for the function expansion card 608. The external storage device 606 also stores various types of information described as being held in advance in the above description and captured images received from the imaging device 2010 via the I / F 607.

外部記憶装置606に保存されている各種の情報はCPU601による制御に従って適宜RAM602にロードされる。そしてCPU601がこのロードされたプログラムやデータを用いて処理を実行することにより、本コンピュータは第1の実施形態及び各種の変形例で説明した処理を実行することができる。   Various types of information stored in the external storage device 606 are appropriately loaded into the RAM 602 under the control of the CPU 601. When the CPU 601 executes processing using the loaded program and data, the computer can execute the processing described in the first embodiment and various modifications.

607はI/Fで、本コンピュータを上記撮像装置2010に接続するためのものである。   Reference numeral 607 denotes an I / F for connecting the computer to the imaging apparatus 2010.

608は機能拡張カードである。   Reference numeral 608 denotes a function expansion card.

609は上述の各部を繋ぐバスである。   Reference numeral 609 denotes a bus connecting the above-described units.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) that records a program code of software that implements the functions of the above-described embodiments is supplied to a system or apparatus. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本願請求項1記載の発明は、現実空間中に配された、世界座標系における位置が未知の指標である未知指標と世界座標系における位置が既知の指標である既知指標と、を撮像装置を用いて撮像した撮像画像を入力する画像入力手段と、
前記撮像画像から、前記未知指標の画像座標と、前記既知指標の画像座標と、を検出する指標検出手段と、
前記撮像装置の概略位置姿勢を取得する撮像装置位置姿勢取得手段と、
前記未知指標の概略位置を取得する指標概略位置取得手段と、
前記現実空間中に配されているそれぞれの指標に対して信頼度を算出する信頼度算出手段と、
前記既知指標の位置と、前記指標検出手段で検出された画像座標に関する情報と、前記信頼度算出手段で算出された信頼度と、を用いて、前記撮像装置の概略位置姿勢と前記未知指標の概略位置とから、前記撮像装置の位置姿勢と前記未知指標の位置と、を算出する位置姿勢算出手段と
を備えることを特徴とする。
The invention according to claim 1 of the present application relates to an imaging device that includes an unknown index, which is an index whose position in the world coordinate system is unknown, and a known index whose position in the world coordinate system is an index, which are arranged in real space. An image input means for inputting a picked-up image picked up using;
Index detecting means for detecting the image coordinates of the unknown index and the image coordinates of the known index from the captured image;
Imaging device position and orientation acquisition means for acquiring an approximate position and orientation of the imaging device;
Index approximate position acquisition means for acquiring the approximate position of the unknown index;
A reliability calculation means for calculating a reliability for each index arranged in the real space;
Using the position of the known index, the information about the image coordinates detected by the index detection means, and the reliability calculated by the reliability calculation means, the approximate position and orientation of the imaging device and the unknown index Position and orientation calculation means for calculating the position and orientation of the imaging device and the position of the unknown index from the approximate position;
It is characterized by providing.

Claims (3)

撮像装置によって撮像された撮像画像を入力する画像入力工程と、
物体上に配置または設定された指標を前記撮像画像から検出する指標検出工程と、
前記撮像画像から検出されている夫々の指標の信頼度を算出する手がかりとして用いるための評価量を算出する指標評価量算出工程と、
前記指標評価量算出工程で算出した指標の評価量に応じて当該指標の信頼度を算出する信頼度算出工程と、
前記信頼度算出工程で算出された指標の信頼度と、前記指標検出工程で検出された夫々の指標の画像座標に関する情報とを少なくとも用いて、前記物体または撮像装置の位置姿勢を求める位置姿勢算出工程とを有し、
前記評価量は、前記指標の画像上での2次元幾何特徴および/または前記指標の3次元空間中における前記撮像装置と前記指標との間の関係を表す3次元幾何特徴に基づき、
前記位置姿勢算出工程では、前記信頼度算出工程で算出された当該指標の信頼度と、前記指標検出工程で検出された夫々の指標の画像座標に関する情報とを少なくとも用いて、前記物体または撮像装置の位置姿勢を求める過程において、当該指標の位置または位置姿勢をも求める
ことを特徴とする位置姿勢計測方法。
An image input step of inputting a captured image captured by the imaging device;
An index detection step of detecting an index placed or set on an object from the captured image;
An index evaluation amount calculating step for calculating an evaluation amount for use as a clue to calculate the reliability of each index detected from the captured image;
A reliability calculation step of calculating the reliability of the index according to the evaluation amount of the index calculated in the index evaluation amount calculation step;
Position / orientation calculation for determining the position / orientation of the object or the imaging apparatus using at least the reliability of the index calculated in the reliability calculation step and the information on the image coordinates of each index detected in the index detection step A process,
The evaluation amount is-out based on the three-dimensional geometric features representing the relationship between the imaging device and the indicator in the 3-dimensional space of the two-dimensional geometric features and / or the indicator on the image of the index,
In the position / orientation calculation step, the object or the imaging apparatus uses at least the reliability of the index calculated in the reliability calculation step and information on the image coordinates of each index detected in the index detection step. A position and orientation measurement method characterized in that, in the process of obtaining the position and orientation of the index, the position or position and orientation of the index is also obtained.
撮像装置によって撮像された撮像画像を入力する画像入力手段と、
物体上に配置または設定された指標を前記撮像画像から検出する指標検出手段と、
前記撮像画像で検出されている夫々の指標の信頼度を算出する手がかりとして用いるための評価量を、当該指標の画像上での2次元幾何特徴および/または当該指標の3次元空間中における撮像装置と指標との間の関係を表す3次元幾何特徴を利用して算出する指標評価量算出手段と、
前記指標評価量算出手段で取得した指標の評価量に応じて当該指標の信頼度を算出する信頼度算出手段と、
前記信頼度算出手段で算出された当該指標の信頼度と、前記指標検出手段で検出された夫々の指標の画像座標に関する情報とを少なくとも用いて、前記物体または撮像装置の位置姿勢を求める位置姿勢算出手段と
を有し、
前記位置姿勢算出手段は、前記信頼度算出手段で算出された当該指標の信頼度と、前記指標検出手段で検出された夫々の指標の画像座標に関する情報とを少なくとも用いて、前記物体または撮像装置の位置姿勢を求める過程において、当該指標の位置または位置姿勢をも求める
ことを特徴とする位置姿勢計測装置。
An image input means for inputting a captured image captured by the imaging device;
Index detecting means for detecting an index placed or set on an object from the captured image;
An evaluation amount to be used as a clue for calculating the reliability of each index detected in the captured image is used as a two-dimensional geometric feature on the index image and / or an imaging apparatus in the three-dimensional space of the index. Index evaluation amount calculating means for calculating using a three-dimensional geometric feature representing the relationship between the index and the index;
Reliability calculation means for calculating the reliability of the index according to the evaluation value of the index acquired by the index evaluation value calculation means;
Position / orientation for obtaining the position / orientation of the object or the imaging apparatus using at least the reliability of the index calculated by the reliability calculating unit and the information on the image coordinates of each index detected by the index detecting unit and a calculation means possess,
The position / orientation calculation means uses at least the reliability of the index calculated by the reliability calculation means and information on the image coordinates of each index detected by the index detection means, and the object or the imaging device A position / orientation measuring apparatus characterized in that, in the process of obtaining the position / orientation, the position or position / orientation of the index is also obtained.
コンピュータに請求項1に記載の位置姿勢計測方法の各工程を実行させるためのプログラム。 A program for causing a computer to execute each step of the position and orientation measurement method according to claim 1.
JP2012208878A 2012-09-21 2012-09-21 Information processing apparatus and information processing method Expired - Fee Related JP5465299B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012208878A JP5465299B2 (en) 2012-09-21 2012-09-21 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012208878A JP5465299B2 (en) 2012-09-21 2012-09-21 Information processing apparatus and information processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006300981A Division JP5403861B2 (en) 2006-11-06 2006-11-06 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2013037006A true JP2013037006A (en) 2013-02-21
JP5465299B2 JP5465299B2 (en) 2014-04-09

Family

ID=47886705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012208878A Expired - Fee Related JP5465299B2 (en) 2012-09-21 2012-09-21 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP5465299B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057758A (en) * 2014-09-08 2016-04-21 富士通株式会社 Display control method, information processing program, and information processing apparatus
JP2020509506A (en) * 2017-07-07 2020-03-26 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Method, apparatus, device, and storage medium for determining camera posture information
US20220215669A1 (en) * 2019-05-21 2022-07-07 Nippon Telegraph And Telephone Corporation Position measuring method, driving control method, driving control system, and marker

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude
JP2005033319A (en) * 2003-07-08 2005-02-03 Canon Inc Position and orientation measurement method and apparatus
JP2005326274A (en) * 2004-05-14 2005-11-24 Canon Inc Arrangement information inferring method and information processor
JP2006099188A (en) * 2004-09-28 2006-04-13 Canon Inc Information processing method and apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude
JP2005033319A (en) * 2003-07-08 2005-02-03 Canon Inc Position and orientation measurement method and apparatus
JP2005326274A (en) * 2004-05-14 2005-11-24 Canon Inc Arrangement information inferring method and information processor
JP2006099188A (en) * 2004-09-28 2006-04-13 Canon Inc Information processing method and apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057758A (en) * 2014-09-08 2016-04-21 富士通株式会社 Display control method, information processing program, and information processing apparatus
JP2020509506A (en) * 2017-07-07 2020-03-26 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Method, apparatus, device, and storage medium for determining camera posture information
US10963727B2 (en) 2017-07-07 2021-03-30 Tencent Technology (Shenzhen) Company Limited Method, device and storage medium for determining camera posture information
US20220215669A1 (en) * 2019-05-21 2022-07-07 Nippon Telegraph And Telephone Corporation Position measuring method, driving control method, driving control system, and marker
US12125288B2 (en) * 2019-05-21 2024-10-22 Nippon Telegraph And Telephone Corporation Position measuring method, driving control method, driving control system, and marker

Also Published As

Publication number Publication date
JP5465299B2 (en) 2014-04-09

Similar Documents

Publication Publication Date Title
JP5403861B2 (en) Information processing apparatus and information processing method
JP5132138B2 (en) Position and orientation measurement method, position and orientation measurement device
JP4593968B2 (en) Position and orientation measurement method and apparatus
JP5746477B2 (en) Model generation device, three-dimensional measurement device, control method thereof, and program
US9208395B2 (en) Position and orientation measurement apparatus, position and orientation measurement method, and storage medium
JP5036260B2 (en) Position and orientation calculation method and apparatus
US9495750B2 (en) Image processing apparatus, image processing method, and storage medium for position and orientation measurement of a measurement target object
US8223146B2 (en) Image processing apparatus and image processing method
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP5548482B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
US8995710B2 (en) Information processing apparatus, processing method thereof, and computer-readable storage medium
US7529387B2 (en) Placement information estimating method and information processing device
JP5058686B2 (en) Information processing method and information processing apparatus
US7671875B2 (en) Information processing method and apparatus
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
WO2016199605A1 (en) Image processing device, method, and program
KR20160003776A (en) Posture estimation method and robot
JP2013186816A (en) Moving image processor, moving image processing method and program for moving image processing
JP2018136896A (en) Information processor, system, information processing method, and manufacturing method of article
JP2006317223A (en) Position attitude measuring method and apparatus
JP2008309595A (en) Object recognizing device and program used for it
JP5465299B2 (en) Information processing apparatus and information processing method
JP5976089B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, and program
JP4566786B2 (en) Position and orientation measurement method and information processing apparatus
JP2011059009A (en) Position measuring object, position measuring system, arithmetic unit for position measurement, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140121

R151 Written notification of patent or utility model registration

Ref document number: 5465299

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees