[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2006284442A - Method of monitoring object and motion tracker using this - Google Patents

Method of monitoring object and motion tracker using this Download PDF

Info

Publication number
JP2006284442A
JP2006284442A JP2005106458A JP2005106458A JP2006284442A JP 2006284442 A JP2006284442 A JP 2006284442A JP 2005106458 A JP2005106458 A JP 2005106458A JP 2005106458 A JP2005106458 A JP 2005106458A JP 2006284442 A JP2006284442 A JP 2006284442A
Authority
JP
Japan
Prior art keywords
markers
marker
search
coordinates
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005106458A
Other languages
Japanese (ja)
Other versions
JP4396564B2 (en
Inventor
Ken Hirooka
研 廣岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2005106458A priority Critical patent/JP4396564B2/en
Publication of JP2006284442A publication Critical patent/JP2006284442A/en
Application granted granted Critical
Publication of JP4396564B2 publication Critical patent/JP4396564B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for monitoring the motion (position, angle) of an object which is attached with a marker having no discrimination information. <P>SOLUTION: A pair of cameras 12 and 14 for stereo-viewing an object are placed. Marker groups 18 with 4 or more turnable markers are attached and coordinates of each marker are defined on an object fixed coordinates system. Three markers with a position relation not forming a regular triangle when connecting the three markers are turned on as markers for searching. Based on geometrical prediction, correlation of marker images for searching making pairs between images is formed. For the three markers for searching, absolute coordinates are calculated and distance between the markers for searching is calculated. The markers are discriminated for identifying which of marker groups 18 the three markers for searching belong. Based on the absolute coordinates of the markers for searching and the coordinates on the object fixed coordinates system, the position and the angle of the object are identified. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、一定形状を有する物体にマーカーとなる発光体を取り付け、ステレオ視が可能な一対のカメラでマーカーを映し、カメラに映し出されたマーカーの画像から、この物体の動き、すなわち時々刻々変化する物体の位置情報や角度情報(方向)を検出する物体のモニタリング方法およびこの方法を用いたモーショントラッカに関する。
本発明は、例えば、ゲーム機や乗物等で用いるヘルメット型の頭部装着型表示装置の位置や角度を検出するヘッドモーショントラッカ(HMT)などに利用される。
The present invention attaches a light emitter as a marker to an object having a certain shape, projects the marker with a pair of cameras capable of stereo viewing, and moves the object, that is, changes from moment to moment from the image of the marker projected on the camera. The present invention relates to an object monitoring method for detecting position information and angle information (direction) of an object to be detected, and a motion tracker using this method.
The present invention is used for, for example, a head motion tracker (HMT) that detects the position and angle of a helmet-type head-mounted display device used in a game machine, a vehicle, or the like.

一定形状の物体の動きを正確にモニタリングする技術は、さまざまな分野で利用されている。例えば、ゲーム機などではバーチャルリアリティ(VR)を実現するために、頭部装着型表示装置を用いて動画を表示することがなされているが、このとき頭部の動きをモニタリングし、その動きに合わせて表示画像を変化させる必要があり、一定形状の物体である頭部装着型表示装置の動きを検出するためのヘッドモーショントラッカ(HMT)が取り付けられている。   A technique for accurately monitoring the movement of an object having a fixed shape is used in various fields. For example, in order to realize virtual reality (VR) in a game machine or the like, a moving image is displayed using a head-mounted display device. At this time, the movement of the head is monitored, and the movement is displayed. It is necessary to change the display image at the same time, and a head motion tracker (HMT) for detecting the movement of the head-mounted display device which is an object having a fixed shape is attached.

頭部装着型表示装置に取り付けられるヘッドモーショントラッカ(HMT)としては、磁気ソースを用いて周囲の空間に磁界を発生させておき、頭部装着型表示装置に固定した磁気センサにより磁気を測定し、測定された磁気データから磁気センサの現在位置や現在角度、ひいては頭部装着装置の現在位置や現在角度を検出する磁気測定方式のものが開示されている(特許文献1参照)。
磁気測定方式は、磁気センサが移動する空間に磁界が発生している限り特に制限なく使用することができるものの、磁気センサが移動する空間の磁気情報を予め測定し、磁気マッピングしておく必要がある。また、この空間内に金属等の磁気歪を生じる物体が存在すると、その影響で測定誤差を生じてしまうので、その補正を行う必要がある。
A head motion tracker (HMT) attached to a head-mounted display device uses a magnetic source to generate a magnetic field in the surrounding space, and measures magnetism with a magnetic sensor fixed to the head-mounted display device. A magnetic measurement system is disclosed that detects the current position and current angle of a magnetic sensor from the measured magnetic data, and consequently the current position and current angle of the head-mounted device (see Patent Document 1).
Although the magnetic measurement method can be used without any limitation as long as a magnetic field is generated in the space in which the magnetic sensor moves, it is necessary to measure magnetic information in the space in which the magnetic sensor moves in advance and perform magnetic mapping. is there. In addition, if an object that causes magnetostriction such as metal exists in this space, a measurement error occurs due to the influence, and it is necessary to correct it.

これに対し、光学的に頭部装着型表示装置の位置や角度を測定するものも開示されている。例えば、頭部装着型表示装置に反射板を取り付けて、光源から光を照射して反射光をカメラで撮影し、その映像データを利用してマーカーの位置や角度を測定するような光学測定によるものが開示されている(特許文献2参照)。
光学測定方式は、磁気マッピングの必要がなく、また、金属等による影響を受けることはないので、磁気歪の影響を受けやすい環境や場所では光学方式が使いやすい。
特開2002−81904号公報 特表平9−506194号公報
On the other hand, what optically measures the position and angle of a head-mounted display device is also disclosed. For example, by attaching a reflector to a head-mounted display device, irradiating light from a light source, photographing the reflected light with a camera, and measuring the position and angle of the marker using the video data Have been disclosed (see Patent Document 2).
Since the optical measurement method does not require magnetic mapping and is not affected by metal or the like, the optical method is easy to use in an environment or place that is susceptible to magnetostriction.
JP 2002-81904 A JP-T 9-506194

光学方式のモーショントラッカで、一定形状の物体についての3次元位置情報や角度情報(向き)を正確に測定しようとすると、その物体上に位置が固定された、異なる3点の位置を知る必要がある。そのため、物体上の異なる3箇所に、それぞれが識別可能なマーカーを取り付けて位置を測定することになる。
例えばヘルメット状の頭部装着型表示装置で具体的に説明すると、頭部装着型表示装置のヘルメット外周面上に、個々のマーカーを識別するため互いに異なる波長の赤外光を発光するLEDをマーカーとして、互いに離隔するようにして3箇所に取り付け、これら3つのマーカーのヘルメットに固定された座標系(ヘルメット座標系という)上の位置関係を予め測定し、定めておく。これら3点を、ステレオ視が可能でかつ設置場所が固定された2台のカメラで(すなわち2つのカメラ間の距離が既知の条件の下で)、それぞれのカメラで同時に撮影することで、それぞれのLED(マーカー)の映像から、発光波長の差によりLED(マーカー)を識別した上で、いわゆる三角測量の原理により、3つのマーカーの絶対座標(地上空間に対して定めた座標)を測定する。
そして、これら3つのマーカー位置について、絶対座標と、予め測定してある頭部装着型表示装置上に固定されたヘルメット座標系の位置関係とを対応付けることにより、絶対座標に対する頭部装着型表示装置の位置や角度を特定する。
If an optical motion tracker is used to accurately measure 3D position information and angle information (orientation) for an object of a fixed shape, it is necessary to know the positions of three different points that are fixed on the object. is there. Therefore, the position is measured by attaching markers each identifiable to three different places on the object.
For example, a helmet-shaped head-mounted display device will be specifically described. On the outer peripheral surface of the helmet of the head-mounted display device, LEDs that emit infrared light having different wavelengths are used as markers to identify individual markers. As described above, the positions of the three markers are fixed at the three positions, and the positional relationship of these three markers on the coordinate system (referred to as the helmet coordinate system) fixed to the helmet is measured and determined in advance. By shooting these three points simultaneously with each camera using two cameras that can be viewed in stereo and whose installation location is fixed (ie, the distance between the two cameras is known), After identifying the LED (marker) from the image of the LED (marker), the absolute coordinates of the three markers (coordinates determined with respect to the ground space) are measured by the so-called triangulation principle. .
Then, for these three marker positions, the absolute coordinate and the positional relationship of the helmet coordinate system fixed on the head-mounted display device that has been measured in advance are associated with each other to thereby match the head-mounted display device with respect to the absolute coordinate. Specify the position and angle.

上述したような光学方式では、個々のマーカーを識別する必要があるため、マーカー自身に、それぞれ他のマーカーと識別可能な何らかの情報を持たせて、検出側(カメラ側)で識別できるようにしている。上記例の場合は、発光波長をマーカーごとに変化させ、カメラ側で発光波長を識別するようにしてマーカーを識別している。   In the optical system as described above, since it is necessary to identify each marker, the marker itself has some information that can be distinguished from other markers so that it can be identified on the detection side (camera side). Yes. In the case of the above example, the marker is identified by changing the emission wavelength for each marker and identifying the emission wavelength on the camera side.

しかしながら、個々のマーカーに識別可能な情報を持たせる場合、故障などでマーカーを交換するたびに、識別情報を改めて記憶させておく必要がある。
また、カメラの視野に比べて頭部装着型表示装置の位置や方向が大きく変化する場合は、マーカー位置とカメラ設置位置との関係で、3つのマーカーのいずれかがカメラの視野から外れることがあり、ステレオ視することができなくなる。
そのため、常に3つの識別可能なマーカーが2台のカメラに同時に映し出されるようにしてそれぞれのマーカーがステレオ視できるようにしようとすれば、ヘルメットの外周全体にわたって、それぞれ識別可能なマーカーを分散配置するようにしておき、さらにこれらすべてのマーカーのヘルメット座標系上での位置関係を予め測定しておき、ヘルメットの位置、角度がどのようになっても、2台のカメラの視野内に少なくとも3つの識別可能なマーカーが存在するようにしておく必要がある。この場合、取り付けたすべてのマーカーについて、それぞれ識別できるように何らかの識別情報(例えば発光波長を異ならせる)を持たせておく必要があり、識別情報とマーカー配置との管理が大変である。
However, when each marker has identifiable information, it is necessary to store the identification information again every time the marker is replaced due to a failure or the like.
Also, if the position and direction of the head-mounted display device changes significantly compared to the camera field of view, one of the three markers may be out of the camera field of view due to the relationship between the marker position and the camera installation position. There is no stereo viewing.
For this reason, if three markers that can be identified are always displayed on two cameras at the same time so that each marker can be viewed in stereo, the markers that can be identified are distributed over the entire circumference of the helmet. In addition, the positional relationship of all these markers on the helmet coordinate system is measured in advance, so that at least three positions within the field of view of the two cameras can be obtained regardless of the position and angle of the helmet. There must be an identifiable marker. In this case, it is necessary to give some identification information (for example, different emission wavelengths) so that all attached markers can be identified, and management of identification information and marker arrangement is difficult.

また、識別情報を持たないマーカーで、個々のマーカーを識別しようとするなら、マーカーを1つ1つ点灯させて識別すればよいが、その場合、すべてのマーカーを順次点灯させなければならず、一巡するまでに長時間必要となるため、時々刻々変化する動きをモニタリングすることは困難である。   Also, if you want to identify individual markers with markers that do not have identification information, you can identify them by lighting them one by one, but in that case, all the markers must be lit sequentially, Since it takes a long time to complete a cycle, it is difficult to monitor the movement that changes from moment to moment.

そこで、本発明は、物体に多数取り付けたマーカーのなかから、カメラに映し出される3つの異なるマーカーの位置を光学的に測定し、これら3点の動きから物体の動き(位置、角度)をモニタリングする際に、マーカー自身には他のマーカーと識別するための情報を持たせることなく、マーカーの位置情報のみから個々のマーカーを識別するようにして、マーカーの位置、ひいては、マーカーが取り付けられた物体の動き(位置、角度)をモニタリングする方法を提供することを目的とする。   Therefore, the present invention optically measures the positions of three different markers displayed on the camera from among a large number of markers attached to the object, and monitors the movement (position and angle) of the object from these three movements. In this case, the marker itself is not provided with information for distinguishing it from other markers, but the individual marker is identified only from the marker position information, so that the marker position, and hence the object to which the marker is attached. An object of the present invention is to provide a method for monitoring the movement (position, angle).

また、本発明はマーカーを1つ1つ点灯させて個々のマーカーを識別しながらモニタリングするのではなく、測定に必要な3つのマーカーを同時に点灯させておき、これらのマーカーの位置をほぼ同時に測定することで、動きが激しい場合でもモニタリングすることができるモニタリング方法を提供することを目的とする。   In addition, the present invention does not monitor each individual marker by lighting it one by one, but lights up three markers necessary for measurement simultaneously and measures the positions of these markers almost simultaneously. Thus, an object is to provide a monitoring method capable of monitoring even when movement is intense.

また、本発明は、識別情報を有していないマーカーを利用して、かつ、1つ1つのマーカーを別々に点灯させて順次識別しながら測定するのではなく、3つのマーカーを同時に点灯させて、これらマーカーをほぼ同時に測定するようにして、物体の動きをモニタリングするモーショントラッカを提供することを目的とする。   In addition, the present invention uses a marker that does not have identification information, and does not measure while sequentially identifying each marker separately, and lighting three markers simultaneously. An object of the present invention is to provide a motion tracker that monitors the movement of an object by measuring these markers almost simultaneously.

上記課題を解決するためになされた本発明の物体のモニタリング方法は、(a)物体をステレオ視する一対のカメラを設置し、(b)物体の外表面に少なくとも4つの点灯可能なマーカー群を取り付け、(c)物体上に定義される物体固定座標系上での各マーカーの座標を定め、
(d)マーカー群のうち、一対のカメラそれぞれの画像に同時に映る3つのマーカーであって、この3つのマーカーを結んだ三角形が正三角形を形成しない位置関係となる3つのマーカーを探索用マーカーとして点灯し、(e)各画像に映る3つの探索用マーカー像に対し、幾何学的な予測に基づいて、画像間で対となる探索用マーカー像どうしの対応付けを行い、(f)対応付けがなされた3つの探索用マーカー像について、一対のカメラを用いた三角測量により空間上に定義される絶対座標系上での各探索用マーカーの絶対座標を算出し、(g)算出された3つの探索用マーカーそれぞれの絶対座標から探索用マーカー間の距離を算出し、(h)先に定めた物体固定座標系上での各マーカーの座標から求まる各マーカー間の距離と、算出された3つの探索用マーカー間の距離との関係に基づいて、これら3つの探索用マーカーが、それぞれ物体上に取り付けられたマーカー群のうちのいずれであるかを特定するマーカー識別を行い、(i)マーカー識別により特定された3つの探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を特定するようにしている。
The object monitoring method of the present invention made in order to solve the above-mentioned problems is as follows: (a) a pair of cameras for stereo-viewing an object; and (b) at least four illuminable marker groups on the outer surface of the object. Mounting, (c) determining the coordinates of each marker on the object fixed coordinate system defined on the object,
(D) Of the marker group, three markers that are simultaneously reflected in the images of the pair of cameras, and the three markers that connect the three markers are in a positional relationship that does not form an equilateral triangle, are used as search markers. Illuminates, and (e) the three search marker images shown in each image are associated with each other based on the geometric prediction, and (f) the association With respect to the three search marker images that have been made, the absolute coordinates of each search marker on the absolute coordinate system defined in space are calculated by triangulation using a pair of cameras, and (g) the calculated 3 The distance between the search markers is calculated from the absolute coordinates of each of the two search markers, and (h) the distance between the markers obtained from the coordinates of each marker on the previously determined object fixed coordinate system is calculated. Based on the relationship between the distance between the three search markers, the marker identification that identifies which of the three search markers is a marker group attached to the object, respectively ( i) The position and angle of the object with respect to the absolute coordinate system are specified based on the absolute coordinates of each of the three search markers specified by the marker identification and the coordinates on the object fixed coordinate system.

この発明のモニタリング方法によれば、物体の外表面に取り付けたマーカー群のうち、一対のカメラの視野内に含まれ、それぞれのカメラの画像に同時に映ることができる3つのマーカーを探索用マーカーとして点灯する。
探索用マーカー像が一対のカメラのそれぞれの画像に映し出されると、各カメラの位置や各カメラの撮影方向の情報、および、2つの画像に映る各探索用マーカー像の位置関係から幾何学的な予測(例えばエピポーラ幾何学による予測)により、2つの画像間で対となる探索用マーカーの組を対応付けすることができる。
この段階では、それぞれの画像間での探索用マーカーの組が特定されるだけであり、3つの探索用マーカーのいずれであるかまでは識別できない。
2つの画像間で対となる探索用マーカーの組が特定されると、それぞれの探索用マーカーについての各カメラからの方向角が特定できるので、カメラ間距離とこれら方向角とからいわゆる三角測量を行うことにより、それぞれの探索用マーカーの絶対座標を算出することができる。
3つの探索用マーカーそれぞれの絶対座標が算出されると、探索用マーカー間の距離を算出することができる。これを、先に定めた物体固定座標系上での各マーカーの座標から求めた各マーカー間の距離と比較する。3つの探索用マーカーを結ぶ三角形は、正三角形を形成しないようにしてあるので、少なくともいずれか1辺の長さが他の2辺と異なり、3つの探索用マーカー間の距離の違いに基づいて、それぞれの探索用マーカーが物体上に取り付けられたマーカー群のうちのいずれであるかを特定することができる。
そして3つの探索用マーカーが特定されると、3つの探索用マーカーそれぞれについて算出された絶対座標と予め定めてある物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を算出することができる。
このようにして、絶対座標系に対する物体の位置と角度とを求めることにより、物体の動きをモニタリングする。
According to the monitoring method of the present invention, among the markers attached to the outer surface of the object, three markers that are included in the field of view of the pair of cameras and can be simultaneously reflected in the images of the respective cameras are used as search markers. Light.
When the search marker image is displayed on each image of the pair of cameras, the geometric information is obtained from the position information of each camera and the shooting direction of each camera, and the positional relationship between the search marker images displayed on the two images. By the prediction (for example, prediction by epipolar geometry), a pair of search markers that are paired between two images can be associated.
At this stage, only a set of search markers between the respective images is specified, and it cannot be identified which of the three search markers.
When a pair of search markers that are paired between two images is specified, the direction angle from each camera for each search marker can be specified, and so-called triangulation can be performed from the distance between the cameras and these direction angles. By doing so, the absolute coordinates of each search marker can be calculated.
When the absolute coordinates of each of the three search markers are calculated, the distance between the search markers can be calculated. This is compared with the distance between the markers determined from the coordinates of the markers on the previously defined object fixed coordinate system. Since the triangle connecting the three search markers does not form an equilateral triangle, the length of at least one of the sides is different from the other two sides, based on the difference in distance between the three search markers. It is possible to specify which of the marker groups attached to the object each search marker is.
When the three search markers are specified, the position of the object with respect to the absolute coordinate system is determined based on the absolute coordinates calculated for each of the three search markers and the coordinates on the predetermined object fixed coordinate system. The angle can be calculated.
In this way, the movement of the object is monitored by obtaining the position and angle of the object with respect to the absolute coordinate system.

本発明によれば、物体に取り付ける個々のマーカーに識別情報を持たせなくても、一対のカメラに同時に映し出される3つのマーカーの位置関係から光学的にマーカーを識別することができ、物体の位置や角度をモニタリングすることができる。   According to the present invention, it is possible to optically identify a marker from the positional relationship of three markers displayed simultaneously on a pair of cameras without having identification information for each marker attached to the object. And angle can be monitored.

また、本発明によれば、マーカーを1つ1つ点灯させて個々のマーカーを識別しながらモニタリングすることなく、測定に必要な3つのマーカーを同時に点灯させておき、これらのマーカーの位置をほぼ同時に測定することができるので、動きが激しい場合でも位置や角度をモニタリングすることができる。
(他の課題を解決するための手段および効果)
In addition, according to the present invention, three markers necessary for measurement are lit at the same time without illuminating each marker and monitoring while identifying each marker, and the positions of these markers are almost the same. Since it can be measured simultaneously, the position and angle can be monitored even when the movement is intense.
(Means and effects for solving other problems)

上記の物体のモニタリング方法の発明の(a)から(i)の手順に続いて、(j)物体の絶対座標系に対する位置および角度と、物体固定座標系上での各マーカーの座標とに基づいて、全マーカーの絶対座標を算出し、(k)絶対座標が算出された全マーカーについて、一対のカメラの各画像上で各マーカーがそれぞれ映る予定位置を算出し、(l)全マーカーあるいは探索用マーカーを除いた残りのマーカーを点灯して、各画像上の予定位置と実際に映るマーカー像位置との対応付けにより、全マーカーについてのマーカー識別を行い、(m)識別されたマーカーのうちで一対のカメラの各画像に同時に映る3つのマーカーを新探索用マーカーとして抽出し、一対のカメラを用いた三角測量によりこれら3つの新探索用マーカーの絶対座標を算出し、(n)3つの新探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を再び特定するようにしてもよい。   Following the steps (a) to (i) of the invention of the object monitoring method, (j) based on the position and angle of the object with respect to the absolute coordinate system and the coordinates of each marker on the object fixed coordinate system Calculating the absolute coordinates of all the markers, (k) for all the markers for which the absolute coordinates have been calculated, calculating the planned positions where each marker appears on each image of the pair of cameras, and (l) all the markers or searching. The remaining markers except for the marker are turned on, and the markers are identified for all the markers by associating the planned positions on each image with the actual marker image positions. (M) Among the identified markers The three markers that appear simultaneously in each image of a pair of cameras are extracted as new search markers, and the absolute coordinates of these three new search markers are obtained by triangulation using a pair of cameras. Calculated, it may be identified again by the position and angle of the object relative to the absolute coordinate system based on the coordinates on (n) 3 single new search marker each absolute coordinates and the object fixed coordinate system.

この発明によれば、物体の絶対座標系に対する位置および角度と、予め定めてある物体固定座標系上での各マーカーの座標とに基づいて、全マーカーの絶対座標を算出することができる。絶対座標が算出された全マーカー(あるいは探索用マーカーはすでに識別できているのでこれを除いた残りのマーカー)について、一対のカメラの各画像上で各マーカーがそれぞれ映る予定位置を算出し、全マーカーを点灯して、算出された各画像上の予定位置と実際に映るマーカー像位置との対応付けにより、各マーカーについてのマーカー識別を行う。これにより、画像上に映る全マーカーはそれぞれ識別できるようになる。その後、一対のカメラの各画像に同時に映る3つの識別されたマーカーを新探索用マーカーとして抽出し、カメラ位置と画像に映し出された新探索用マーカー像位置との関係からいわゆる三角測量により、これら3つの新探索用マーカーの絶対座標を算出し、3つの新探索用マーカーに基づいて、絶対座標系に対する物体の位置と角度を再び特定する。
これにより、物体が時々刻々変化して画像上に映るマーカーが変化した場合でも、その時点で一対のカメラの各画像に同時に映る3つの新探索マーカーに基づいて、物体の位置や角度を算出することができる。
According to this invention, the absolute coordinates of all the markers can be calculated based on the position and angle of the object with respect to the absolute coordinate system and the coordinates of each marker on the predetermined object fixed coordinate system. For all markers for which absolute coordinates have been calculated (or for the remaining markers except for the search marker that has already been identified), the estimated positions where each marker appears on each image of a pair of cameras are calculated and all The marker is turned on, and marker identification for each marker is performed by associating the calculated estimated position on each image with the marker image position actually reflected. As a result, all markers appearing on the image can be identified. After that, three identified markers appearing simultaneously in each image of a pair of cameras are extracted as new search markers, and these are determined by so-called triangulation from the relationship between the camera position and the new search marker image position shown in the image. The absolute coordinates of the three new search markers are calculated, and the position and angle of the object with respect to the absolute coordinate system are specified again based on the three new search markers.
As a result, even when the object changes from moment to moment and the marker displayed on the image changes, the position and angle of the object are calculated based on the three new search markers simultaneously displayed on the images of the pair of cameras at that time. be able to.

また、上記発明における(a)において、一対のカメラは物体の一部をステレオ視するように設置するようにしてもよい。
これによれば、カメラと物体との距離を近くすることができるので、場所をとらずにモニタリングすることができる。また、カメラと物体との距離を近くすることにより、物体に取り付けたマーカーの画像上の位置を正確に測定することができ、モニタリングの精度を高めることができる。
In (a) in the above invention, the pair of cameras may be installed so that a part of the object is viewed in stereo.
According to this, since the distance between the camera and the object can be reduced, monitoring can be performed without taking a place. Further, by reducing the distance between the camera and the object, the position of the marker attached to the object can be accurately measured, and the accuracy of monitoring can be increased.

また、上記発明における(b)において、マーカー群を取り付ける物体上の位置は、一対のカメラで物体の一部を映したときに、常にこれらのマーカー群のうち少なくとも3つのマーカーが同時に一対のカメラのそれぞれに映るように、マーカー群を物体の外表面全体に分散させて配置するようにしてもよい。
これによれば、物体がいずれの方向を向いていても、一対のカメラに3つのマーカーを映すことができ、これらを探索用マーカーとして物体の位置、角度を算出することができるので、物体の向きについて制限を受けることなく、モニタリングすることができる。
Further, in (b) in the above invention, the position on the object to which the marker group is attached is such that when a part of the object is projected by a pair of cameras, at least three markers of these marker groups are always at the same time a pair of cameras. The marker groups may be distributed over the entire outer surface of the object so as to be reflected in each of the above.
According to this, regardless of the direction of the object, three markers can be projected on a pair of cameras, and the position and angle of the object can be calculated using these as search markers. It can be monitored without any restrictions on the direction.

また、上記発明における(l)において、予定位置とマーカー像位置との対応付けは、両者の間の距離に基づいて行うようにしてもよい。
予定位置とマーカー位置との距離が一定以下である場合に、マーカーを特定することにより、精度よくマーカー識別を行うことができる。
Moreover, in (l) in the said invention, you may make it perform matching with a plan position and a marker image position based on the distance between both.
When the distance between the planned position and the marker position is equal to or less than a certain value, the marker can be identified with high accuracy by specifying the marker.

また、別の観点からなされた本発明のモーショントラッカは、物体のステレオ視を行う一対のカメラと、物体の外表面に取り付けられる少なくとも4つの点灯可能なマーカー群と、一対のカメラおよびマーカー群の制御と物体の位置や角度を求める演算とを行う制御演算部とを備えたモーショントラッカであって、マーカー群は、物体上に定義される物体固定座標系上での各マーカーの座標が定められ、制御演算部は、マーカー群のうち、一対のカメラそれぞれの画像に同時に映る3つのマーカーであってこれら3つのマーカーを結んだ三角形が正三角形を形成しない位置関係となる3つのマーカーを探索用マーカーとして点灯し、各画像に映る3つの探索用マーカー像に対し、幾何学的な予測に基づいて、画像間で対となる探索用マーカー像どうしの対応付けを行い、対応付けがなされた3つの探索用マーカー像について、一対のカメラを用いた三角測量により空間上に定義される絶対座標系上での各探索用マーカーの絶対座標を算出し、算出された3つの探索用マーカーそれぞれの絶対座標から探索用マーカー間の距離を算出し、先に定めた物体固定座標系上での各マーカーの座標から求まる各マーカー間の距離と算出した3つの探索用マーカー間距離との関係に基づいてこれら3つの探索用マーカーがそれぞれ物体上に取り付けられたマーカー群のうちのいずれであるかを特定してマーカーを識別し、識別された3つの探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度とを特定する演算を行うようにしている。   Further, the motion tracker of the present invention made from another viewpoint includes a pair of cameras for performing a stereo view of an object, at least four illuminable marker groups attached to the outer surface of the object, and a pair of cameras and marker groups. The motion tracker includes a control calculation unit that performs control and calculation for obtaining the position and angle of the object, and the marker group defines the coordinates of each marker on the object fixed coordinate system defined on the object. The control calculation unit searches for three markers in the marker group, which are three markers that appear in the images of the pair of cameras at the same time, and in which the triangle connecting these three markers does not form an equilateral triangle. Search markers that illuminate as markers and are paired between images based on geometric predictions for the three search marker images shown in each image Associating each other and calculating the absolute coordinates of each search marker on the absolute coordinate system defined on the space by triangulation using a pair of cameras for the three associated search marker images Then, the distance between the search markers is calculated from the absolute coordinates of each of the calculated three search markers, and the distance between the markers obtained from the coordinates of each marker on the previously determined object fixed coordinate system is calculated. Based on the relationship between the three search marker distances, each of the three search markers is identified from among a group of markers attached on the object to identify the marker. Based on the absolute coordinates of each of the search markers and the coordinates on the object fixed coordinate system, an operation for specifying the position and angle of the object with respect to the absolute coordinate system is performed. .

また、上記モーショントラッカにおいて、制御演算部は、さらに、特定された物体の絶対座標系に対する位置および角度と、物体固定座標系上での各マーカーの座標とに基づいて、全マーカーの絶対座標を算出し、絶対座標が算出された全マーカーについて、一対のカメラの各画像上で各マーカーがそれぞれ映る予定位置を算出し、全マーカーあるいは探索用マーカーを除いた残りのマーカーを点灯して、算出された各画像上の予定位置と実際に映るマーカー像位置との対応付けにより、全マーカーについてのマーカー識別を行い、識別されたマーカーのうちで一対のカメラの各画像に同時に映る3つのマーカーを新探索用マーカーとして抽出し、カメラ位置と画像に映し出された新探索用マーカー像位置との関係からこれら3つの新探索用マーカーの絶対座標を算出し、3つの新探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を再び特定することにより、時々刻々変化する位置と角度とをモニタリングするようにしてもよい。   In the motion tracker, the control calculation unit further calculates the absolute coordinates of all the markers based on the position and angle of the identified object with respect to the absolute coordinate system and the coordinates of each marker on the object fixed coordinate system. Calculate and calculate the estimated positions where each marker appears on each image of a pair of cameras for all markers for which absolute coordinates have been calculated, and turn on the remaining markers excluding all markers or search markers The markers are identified for all the markers by associating the planned positions on each of the images and the marker image positions actually reflected, and among the identified markers, three markers that are simultaneously displayed on each image of the pair of cameras are displayed. These three new search markers are extracted as new search markers and based on the relationship between the camera position and the new search marker image position displayed in the image. -By calculating the absolute coordinates of the car and re-identifying the position and angle of the object with respect to the absolute coordinate system based on the absolute coordinates of each of the three new search markers and the coordinates on the object fixed coordinate system. You may make it monitor the position and angle which change.

以下、本発明の一実施形態である物体のモニタリング方法について、この方法を用いたヘッドモーショントラッカを具体例として、図面を用いて説明する。ただし、本発明は以下に説明する具体例に限られず、本発明の趣旨を逸脱しない範囲で適用されるものである。   Hereinafter, an object monitoring method according to an embodiment of the present invention will be described using a head motion tracker using this method as a specific example with reference to the drawings. However, the present invention is not limited to the specific examples described below, and can be applied without departing from the spirit of the present invention.

(実施形態1)
図1は本発明の一実施形態であるヘッドモーショントラッカの概略構成を示す図である。
このヘッドモーショントラッカ10は、ステレオ視ができるように距離dを隔てて並ぶように設置される一対のカメラ12、14と、ヘルメット16と、ヘルメット16の外側表面に取り付けた少なくとも4つ以上のLED群18(マーカー群)と、コンピュータにより構成される制御演算部20とから構成される。
(Embodiment 1)
FIG. 1 is a diagram showing a schematic configuration of a head motion tracker according to an embodiment of the present invention.
The head motion tracker 10 includes a pair of cameras 12 and 14 installed so as to be arranged at a distance d so as to enable stereo viewing, a helmet 16, and at least four or more LEDs attached to the outer surface of the helmet 16. It comprises a group 18 (marker group) and a control calculation unit 20 constituted by a computer.

カメラ12、14は、撮影方向がそれぞれヘルメット16に向けられており、LED群18のうち少なくとも3つのLED(カメラ12と14とで同一のLED)が同時に視野内に入るように、LED群18の数や配置に応じてカメラの設置位置を定めてある。
カメラ12、14は、ヘルメット16の全体像(カメラに面する側の全体像)が視野内に入るように、少し距離を隔てた位置に設置してもよい。この場合は、ヘルメット16に取り付けるLEDの数を比較的少なくしても、カメラ12、14の視野内に3つのLEDを含ませることができる。
The cameras 12 and 14 are each directed to the helmet 16 in the shooting direction, and the LED group 18 so that at least three LEDs (the same LED in the cameras 12 and 14) of the LED group 18 enter the field of view at the same time. The installation position of the camera is determined according to the number and arrangement of the cameras.
The cameras 12 and 14 may be installed at positions slightly apart so that the entire image of the helmet 16 (the entire image facing the camera) falls within the field of view. In this case, even if the number of LEDs attached to the helmet 16 is relatively small, three LEDs can be included in the field of view of the cameras 12 and 14.

一方、カメラ12、14を、ヘルメットに接近させてヘルメットの一部だけが視野内に入るようにしてもよい。この場合は、ヘルメット16に取り付けるLED群18を増やして、視野内に少なくとも3つのLEDが含まれるようにしなければならないが、LEDの位置を精度よく測定することができる。   On the other hand, the cameras 12 and 14 may be brought close to the helmet so that only a part of the helmet falls within the field of view. In this case, the number of LED groups 18 attached to the helmet 16 must be increased so that at least three LEDs are included in the field of view, but the position of the LEDs can be measured with high accuracy.

また、ヘルメット16が動く範囲に応じて、ヘルメット16上でのLED群18を取り付ける範囲を調整してもよい。すなわち、ヘルメット16の動く範囲が小さい場合は、カメラ12、14の視野の変動範囲も小さいので、その領域に限ってLED群18を取り付ければよい。ヘルメット16があらゆる方向に動く場合は、ヘルメット16の全体にわたってLED群18を取り付ける必要がある。なおLED群18としてヘルメット16に取り付けるLEDの数は、数が多くなるほど本発明が有効に働くことになるが、コストも増大するので適当な数にする必要がある。   Moreover, you may adjust the range which attaches LED group 18 on the helmet 16 according to the range which the helmet 16 moves. That is, when the range of movement of the helmet 16 is small, the range of fluctuation of the field of view of the cameras 12 and 14 is also small, so the LED group 18 may be attached only in that region. When the helmet 16 moves in all directions, it is necessary to attach the LED group 18 over the entire helmet 16. It should be noted that the number of LEDs attached to the helmet 16 as the LED group 18 works more effectively as the number increases, but the cost also increases, so it is necessary to make it an appropriate number.

LED群18は、カメラ12、14で点灯状態が確認できるものであれば発光波長に制限はない。例えばカメラに赤外線カメラを用いた場合は、赤外線発光LEDを用いることができる。
LED群18の各LEDのヘルメット上の位置、すなわちヘルメット上に固定された座標系(ヘルメット座標系)での各LEDの座標は測定してあり、したがって各LED間の距離は既知にしてある。
The LED group 18 is not limited in emission wavelength as long as the lighting state can be confirmed by the cameras 12 and 14. For example, when an infrared camera is used as the camera, an infrared light emitting LED can be used.
The position of each LED in the LED group 18 on the helmet, that is, the coordinates of each LED in the coordinate system (helmet coordinate system) fixed on the helmet, is measured, and thus the distance between the LEDs is known.

制御演算部20は、カメラ12、14およびLED群18についての制御とともに、これらと連動して種々の演算処理を行う。制御演算部20が実行する制御・演算内容を機能ごとに分けて説明すると、制御演算部20は、図1に示すように、探索用マーカー点灯部21、探索用マーカー対応付け部22、探索用マーカー絶対座標算出部23、探索用マーカー間距離算出部24、探索用マーカー識別部25、物体位置・角度特定部26とを備えている。   The control calculation unit 20 performs various calculation processes in conjunction with the controls on the cameras 12 and 14 and the LED group 18. The control and calculation contents executed by the control calculation unit 20 will be described separately for each function. As shown in FIG. 1, the control calculation unit 20 includes a search marker lighting unit 21, a search marker association unit 22, and a search use. A marker absolute coordinate calculation unit 23, a search marker distance calculation unit 24, a search marker identification unit 25, and an object position / angle identification unit 26 are provided.

探索用マーカー点灯部21は、LED群18(マーカー群)のうち、一対のカメラ12、14それぞれの画像に同時に映る3つのLED(マーカー)であって、これらLED間を結んだ三角形が正三角形を形成しない位置関係となる3つのLEDを、探索用LED(探索用マーカー)として点灯する。その他のマーカーは消灯されていなければならない。
探索用マーカー対応付け部22は、一対のカメラ12、14による2つの画像それぞれに映る3つの探索用のLED像(探索用マーカー像)に対し、エピポーラ幾何学に基づく予測により、画像間で対となる探索用LED像どうしの対応付けを行う。
探索用マーカー絶対座標算出部23は、対応付けがなされた3つの探索用LED像について、カメラ位置と画像に映し出された探索用LED像位置との関係から、各探索用LED絶対座標を算出する。
探索用マーカー間距離算出部24は、算出された3つの探索用LEDそれぞれの絶対座標から探索用LED間の距離を算出する。
探索用マーカー識別部25は、ヘルメット座標系(物体固定座標系)上での各LEDの座標から求めた各LED間の距離と、算出した3つの探索用LED間の距離との関係に基づいて、3つの探索用LEDが、それぞれ物体上に取り付けられたLED群18のうちのいずれであるかを特定するマーカー識別を行う。
物体位置・角度特定部26は、マーカー識別により特定された3つの探索用LEDそれぞれの絶対座標とヘルメット座標系(物体固定座標系)上での座標とに基づいて、絶対座標系に対するヘルメット16(物体)の位置と角度を特定する。
The search marker lighting section 21 is an LED group 18 (marker group) of three LEDs (markers) that are simultaneously shown in the images of the pair of cameras 12 and 14, and the triangle connecting these LEDs is a regular triangle. The three LEDs that are in a positional relationship that does not form are lit as search LEDs (search markers). Other markers must be off.
The search marker associating unit 22 performs pairing between images by prediction based on epipolar geometry for three search LED images (search marker images) reflected in each of two images by the pair of cameras 12 and 14. The search LED images are matched.
The search marker absolute coordinate calculation unit 23 calculates each search LED absolute coordinate from the relationship between the camera position and the search LED image position displayed in the image for the three search LED images associated with each other. .
The search marker distance calculation unit 24 calculates the distance between the search LEDs from the absolute coordinates of the calculated three search LEDs.
The search marker identifying unit 25 is based on the relationship between the distance between the LEDs obtained from the coordinates of the LEDs on the helmet coordinate system (object fixed coordinate system) and the calculated distance between the three search LEDs. Marker identification is performed to identify which of the three search LEDs is one of the LED groups 18 mounted on the object.
The object position / angle specifying unit 26 determines the helmet 16 (with respect to the absolute coordinate system) based on the absolute coordinates of the three search LEDs specified by the marker identification and the coordinates on the helmet coordinate system (object fixed coordinate system). The position and angle of the (object) are specified.

次に、このヘッドモーショントラッカ10による物体のモニタリング、すなわち時々刻々の位置、角度をモニタリングする動作について説明する。
図2は、ヘッドモーショントラッカ10により測定対象物体の位置、角度をモニタリングする際の動作フローを示す図である。
Next, the object monitoring by the head motion tracker 10, that is, the operation of monitoring the position and angle every moment will be described.
FIG. 2 is a diagram showing an operation flow when the position and angle of the measurement target object are monitored by the head motion tracker 10.

まず、図3に示すように、2つのカメラ12、14の視野内にある3つのLED(ただし3つの位置関係が正三角形とならないもの)を探索用マーカーとして点灯し、それ以外のLED群18を消灯する(s101)。便宜上、これら3つのLEDは、LED18a、18b、18cの組であるとする。   First, as shown in FIG. 3, three LEDs in the field of view of the two cameras 12 and 14 (however, the three positional relationships are not equilateral triangles) are lit as search markers, and the other LED groups 18 Is turned off (s101). For convenience, it is assumed that these three LEDs are a set of LEDs 18a, 18b, and 18c.

2つのカメラ12、14の画像A、B内に、点灯中の3つのLEDが映っていることを確認する(s102)。図4はこのときの画像例を示している。多数のLEDが存在するなかで、LEDは3つだけが点灯している。3つのLEDが、カメラ12、14の視野内に必ず入るようにするためには、ヘルメット16の初期位置を指定し、最初は初期位置近傍にセットするようヘルメット装着者に促しておけばよい。なお、もしも視野内に3つのLEDのいずれかが映っていない場合は、点灯させる3つのLEDの組を変更して映るようにすればよい。
この段階では、画像A、B内に映る3つのLED像は、それぞれがLED18a、18b、18cのいずれかであることは判明しているが、それぞれのLED像が、3つのうちのどれであるかは特定されていない。
It is confirmed that three LEDs that are lit are reflected in the images A and B of the two cameras 12 and 14 (s102). FIG. 4 shows an image example at this time. Among the many LEDs, only three LEDs are lit. In order to ensure that the three LEDs fall within the field of view of the cameras 12 and 14, the initial position of the helmet 16 may be designated and initially the helmet wearer may be prompted to set it near the initial position. If any of the three LEDs is not shown in the field of view, the set of the three LEDs to be lit may be changed and shown.
At this stage, it is known that each of the three LED images shown in the images A and B is one of the LEDs 18a, 18b, and 18c, but each of the LED images is any one of the three. It is not specified.

そこで、エピポーラ幾何学に基づく予測により、画像A、B間での共通のLEDの組(探索用マーカーの組)を認識するための対応付けを行う(s103)。図5は、エピポーラ幾何学に基づく予測を説明する図である。
カメラ12の撮影方向とカメラ14の撮影方向とが定まった状態で、カメラ12の画像Aには、点灯中のLED18a、18b、18cのいずれかであるLED18x(LED18y、LED18zは図示を省略する)が映し出されているとする。このときカメラ12とLED18xとを結ぶ仮想直線Lが存在するとして、これをカメラ14で映したとすると、カメラ14の画像B上に仮想直線LBが映し出されることになる。画像B上の仮想直線LBの位置は、画像A内でのLED18xが映る位置、および、カメラ12の撮影方向とカメラ14の撮影方向との関係に基づいて一意的に定まる。そして、LED18xの像は、この仮想直線LB上のいずれかの位置に存在することになる。したがって、画像B上に映し出される点灯中のLED像のうちで、仮想直線LB上に存在するものがあれば、それがLED18xの像であると特定することができる。同様に、他の2つのLED18yの像、LED18zの像についても特定することにより、画像Aと画像Bとに映し出される3つのLED18x、LED18y、LED18zの組の対応付けを行うことができる。
Therefore, association for recognizing a common LED set (search marker set) between the images A and B is performed by prediction based on epipolar geometry (s103). FIG. 5 is a diagram for explaining prediction based on epipolar geometry.
With the shooting direction of the camera 12 and the shooting direction of the camera 14 determined, the image A of the camera 12 has an LED 18x that is one of the LEDs 18a, 18b, and 18c that are lit (LED 18y and LED 18z are not shown). Is projected. At this time, assuming that there is a virtual straight line L connecting the camera 12 and the LED 18x, and this is projected by the camera 14, the virtual straight line LB is projected on the image B of the camera 14. The position of the virtual straight line LB on the image B is uniquely determined based on the position where the LED 18x appears in the image A and the relationship between the shooting direction of the camera 12 and the shooting direction of the camera 14. The image of the LED 18x exists at any position on the virtual straight line LB. Therefore, if there is an LED image that is displayed on the image B and is on the virtual straight line LB, it can be specified that it is an image of the LED 18x. Similarly, by specifying the image of the other two LEDs 18y and the image of the LED 18z, it is possible to associate a set of three LEDs 18x, LED 18y, and LED 18z displayed in the image A and the image B.

続いて、3つの探索用マーカーであるLED18x、LED18y、LED18zの絶対座標を算出し、これら3つのLEDの絶対空間に対する3次元位置を特定する(s104)。図6は、三角測量による絶対座標の算出を説明する図である。
LED18xの絶対座標は、カメラ12からLED18xへの方向角αxと、カメラ14からLED18xへの方向角βxと、カメラ間距離dとがわかれば一意的に算出できる。方向角αxは、カメラ12の撮影方向と、画像AにおけるLED18xの位置とにより定めることができ、同様に方向角βxは、カメラ14の撮影方向と、画像BにおけるLED18xの位置とにより定めることができる。また、カメラ間距離dは既知であることから、αx、βx、dからLED18xの絶対座標が算出される。同様に、LED18y、LED18zについても絶対座標が算出される。
Subsequently, the absolute coordinates of the three search markers LED18x, LED18y, and LED18z are calculated, and the three-dimensional positions of these three LEDs with respect to the absolute space are specified (s104). FIG. 6 is a diagram for explaining calculation of absolute coordinates by triangulation.
The absolute coordinates of the LED 18x can be uniquely calculated if the direction angle αx from the camera 12 to the LED 18x, the direction angle βx from the camera 14 to the LED 18x, and the inter-camera distance d are known. The direction angle αx can be determined by the shooting direction of the camera 12 and the position of the LED 18x in the image A. Similarly, the direction angle βx can be determined by the shooting direction of the camera 14 and the position of the LED 18x in the image B. it can. Since the inter-camera distance d is known, the absolute coordinates of the LED 18x are calculated from αx, βx, d. Similarly, absolute coordinates are calculated for the LEDs 18y and 18z.

続いて、3つの探索用マーカーであるLED18x、LED18y、LED18z間の距離を算出する(s105)。これら3つのLEDそれぞれの絶対座標が算出されているので、LED18xとLED18yとの距離dx、LED18yとLED18zとの距離dy、LED18zとLED18xとの距離dzは、簡単な計算で求められる。   Subsequently, distances between the three search markers LED 18x, LED 18y, and LED 18z are calculated (s105). Since the absolute coordinates of each of these three LEDs are calculated, the distance dx between the LED 18x and the LED 18y, the distance dy between the LED 18y and the LED 18z, and the distance dz between the LED 18z and the LED 18x can be obtained by simple calculation.

続いて、3つの探索用マーカーであるLED18x、LED18y、LED18zが、それぞれLED18a、18b、18cのいずれであるかを特定するための探索用マーカーの識別を行う(s106)。探索用マーカーの識別は、LED18x、LED18y、LED18z間の距離dx、dy、dzと、ヘルメット座標系において予め既知としてあるLED18a、18b、18c間の距離a、b、cとを比較することによりなされる。なお、LED18a、18b、18c間の距離a、b、cがすべて等しければ(すなわちLED18a、18b、18cが正三角形の位置関係)、距離による探索用マーカー識別はできないことになるが、点灯させる3つのLEDとして正三角形の位置関係とならないものを選択してあるので、識別が可能である。   Subsequently, the search markers for specifying which of the three search markers LED 18x, LED 18y, and LED 18z are the LEDs 18a, 18b, and 18c, respectively, are identified (s106). The search marker is identified by comparing the distances dx, dy, dz between the LEDs 18x, 18y, 18d and the distances a, b, c between the LEDs 18a, 18b, 18c, which are previously known in the helmet coordinate system. The If the distances a, b, and c between the LEDs 18a, 18b, and 18c are all equal (that is, the positional relationship of the LEDs 18a, 18b, and 18c is an equilateral triangle), the search marker cannot be identified by the distance, but it is lit 3 Since one LED that does not have a regular triangular positional relationship is selected, identification is possible.

続いて、3つのLEDが識別され、LED18a、18b、18cが特定されると、これら3つの点についての絶対座標系での位置とヘルメット座標系での位置とを対応付けることで、絶対座標に対するヘルメット16の位置や角度(向き)を算出する(s107)。
以上の演算処理により、ヘルメット16の空間(絶対座標)に対する位置、角度を決定し、ヘルメットの位置や向きを特定することができる。
Subsequently, when the three LEDs are identified and the LEDs 18a, 18b, and 18c are specified, the helmet relative to the absolute coordinates is obtained by associating the positions in the absolute coordinate system and the positions in the helmet coordinate system with respect to these three points. 16 positions and angles (orientations) are calculated (s107).
With the above calculation processing, the position and angle of the helmet 16 with respect to the space (absolute coordinates) can be determined, and the position and orientation of the helmet can be specified.

(実施形態2)
図7は本発明の他の一実施形態であるヘッドモーショントラッカ30の概略構成を示す図である。図7において、図1と同じ構成部分については同符号を付すことにより説明を省略する。
実施形態2は、実施形態1にさらに機能が追加されたものであり、制御演算部40には、追加機能を実施するための全マーカー絶対座標算出部41、全マーカー予定位置算出部42、全マーカー識別部43、新探索用マーカー絶対座標算出部44、物体位置・角度再特定部45が付加されている。実施形態2では、ヘルメット16に取り付けた全LED(全マーカー)を識別し、これらのなかから新探索用マーカーを抽出した上で、新探索用マーカーにより、時々刻々変化するヘルメットの位置や角度をモニタリングするものである。
(Embodiment 2)
FIG. 7 is a diagram showing a schematic configuration of a head motion tracker 30 according to another embodiment of the present invention. In FIG. 7, the same components as those in FIG.
In the second embodiment, functions are further added to the first embodiment, and the control calculation unit 40 includes an all marker absolute coordinate calculation unit 41, an all marker planned position calculation unit 42, and all A marker identification unit 43, a new marker absolute coordinate calculation unit for search 44, and an object position / angle re-specification unit 45 are added. In the second embodiment, all LEDs (all markers) attached to the helmet 16 are identified, new search markers are extracted from these, and the position and angle of the helmet that changes from moment to moment are changed by the new search markers. It is for monitoring.

全マーカー絶対座標算出部41は、物体位置角度特定部26で特定したヘルメット16(物体)の絶対座標系に対する位置および角度と、ヘルメット座標系(物体固定座標系)上での各LED(各マーカー)の座標とに基づいて、全LEDの絶対座標を算出する。
全マーカー予定位置算出部42は、絶対座標が算出された全LED(全マーカー)について、2つのカメラ12、14の画像A、B上での各LEDがそれぞれ映る予定位置を算出する。
全マーカー識別部43は、全LEDを点灯して、2つの画像A、B上の予定位置と、実際に画像A、Bに映るマーカー像位置との対応付けにより、全LEDについてのマーカー識別を行う。
新探索用マーカー絶対座標算出部44は、識別されたLEDのうちでカメラ12、14の2つの画像A、Bに同時に映る3つのLEDを新探索用LED(新探索用マーカー)として抽出し、カメラ位置と画像A、Bに映し出された新探索用LED像位置との関係から、これら3つの新探索用LEDの絶対座標を算出する。
物体位置・角度再特定部45は、3つの新探索用LEDそれぞれの絶対座標とヘルメット座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を再び特定することにより、時々刻々変化する位置と角度とをモニタリングする。
The absolute marker calculation unit 41 includes a position and an angle relative to the absolute coordinate system of the helmet 16 (object) specified by the object position angle specifying unit 26, and each LED (each marker on the helmet coordinate system (object fixed coordinate system)). ) To calculate the absolute coordinates of all the LEDs.
The all marker planned position calculation unit 42 calculates the planned positions at which the respective LEDs on the images A and B of the two cameras 12 and 14 appear for all LEDs (all markers) for which absolute coordinates have been calculated.
The all marker identifying unit 43 turns on all the LEDs and performs marker identification for all the LEDs by associating the planned positions on the two images A and B with the marker image positions actually reflected in the images A and B. Do.
The new search marker absolute coordinate calculation unit 44 extracts three LEDs that are simultaneously displayed in the two images A and B of the cameras 12 and 14 among the identified LEDs as new search LEDs (new search markers), From the relationship between the camera position and the new search LED image position displayed in the images A and B, the absolute coordinates of these three new search LEDs are calculated.
The object position / angle respecifying unit 45 re-identifies the position and angle of the object with respect to the absolute coordinate system based on the absolute coordinates of the three new search LEDs and the coordinates on the helmet coordinate system. Monitor the changing position and angle.

図8は、ヘッドモーショントラッカ30によりヘルメット16の位置、角度をモニタリングする際の動作フローを示す図である。この動作フローにおいてs201からs207までの手順は、実施形態1での図2におけるs101からs107までの手順と同じであるので、説明を省略し、その後の手順について説明する。   FIG. 8 is a diagram illustrating an operation flow when the position and angle of the helmet 16 are monitored by the head motion tracker 30. In this operation flow, the procedure from s201 to s207 is the same as the procedure from s101 to s107 in FIG. 2 in the first embodiment, so that the description thereof will be omitted and the subsequent procedure will be described.

実施形態1で説明したように、s207において、探索用LEDである3つのLEDが識別されてLED18a、18b、18cが特定され、これら3つの識別された探索用LED(LED18a、18b、18c)に基づいて絶対座標に対するヘルメット16の位置や角度(向き)が算出されているものとする(s207)。   As described in the first embodiment, in s207, three LEDs that are search LEDs are identified to identify LEDs 18a, 18b, and 18c, and these three identified search LEDs (LEDs 18a, 18b, and 18c) are identified. Based on this, it is assumed that the position and angle (orientation) of the helmet 16 with respect to the absolute coordinates are calculated (s207).

続いて、絶対座標系に対するヘルメット16の位置および角度と、ヘルメット座標系上での各LEDの座標とに基づいて、全LEDの絶対座標を算出する(s208)。   Subsequently, the absolute coordinates of all LEDs are calculated based on the position and angle of the helmet 16 with respect to the absolute coordinate system and the coordinates of each LED on the helmet coordinate system (s208).

続いて、絶対座標が算出された全LEDについて、カメラ12、14の画像A、B上で各LEDがそれぞれ映ると予想される予定位置を、カメラ12、14の撮影方向と各LEDの絶対座標との位置関係から算出する(s209)。   Subsequently, for all LEDs for which absolute coordinates have been calculated, the expected positions where the respective LEDs are expected to appear on the images A and B of the cameras 12 and 14 are determined as the shooting directions of the cameras 12 and 14 and the absolute coordinates of the LEDs. (S209).

続いて、全LEDを点灯し(s210)、画像A、B上の各LEDの予定位置と、画像A、Bに実際に映るLED像の位置との対応付けを行い、全LEDについて、LED群18のいずれであるかを特定するマーカー識別を行う(s211)。対応付けは、図9に示すように、各LEDの予定位置から予め設定した一定距離内に、1つのLED像が存在するか否かを判定し、全LEDについて、それぞれ予定位置から一定距離内に1つのLED像のみが存在するときに、全LEDの対応付けがなされる。これにより、全LEDについて、LED群18のいずれであるかのマーカー識別が行われる。なお、探索用LED(すなわちLED18a、18b、18c)については、2度目のマーカー識別となるが、精度確認のために、これらについても再度マーカー識別を行っている。
なお、マーカー識別の際に、たとえ1つでもLED像が予定位置から一定距離外に外れている場合(例えばヘルメットが高速かつ大きく変化した場合)は、対応付けは行われず、無視される。
Subsequently, all the LEDs are turned on (s210), and the estimated positions of the LEDs on the images A and B are associated with the positions of the LED images actually reflected in the images A and B. Marker identification that identifies which of the two is 18 is performed (s211). As shown in FIG. 9, it is determined whether or not one LED image exists within a predetermined distance from the planned position of each LED, as shown in FIG. When only one LED image exists, all the LEDs are associated. Thereby, the marker identification which is which of the LED group 18 is performed about all the LEDs. The search LEDs (that is, the LEDs 18a, 18b, and 18c) are the second marker identification. However, the markers are again identified for accuracy confirmation.
At the time of marker identification, if at least one LED image deviates from a predetermined distance from the planned position (for example, when the helmet changes rapidly and greatly), the association is not performed and is ignored.

続いて、全LEDのうちでカメラ12、14の2つの画像A、Bに同時に映る3つのLEDを新探索用LED(新探索用マーカー)として抽出し、カメラ位置と画像A、Bに映し出された新探索用LED像位置との関係から、これら3つの新探索用LEDの絶対座標を算出する(s212)。新探索用LEDとなる3つのLEDは、ヘルメット16の位置や向きの変化に応じて、s201(s101と同じ)の際に選択された探索用LEDと同じであるかもしれないし、異なるかもしれない。   Subsequently, among all the LEDs, three LEDs that appear simultaneously in the two images A and B of the cameras 12 and 14 are extracted as new search LEDs (new search markers), and are displayed in the camera position and the images A and B. From the relationship with the new search LED image position, the absolute coordinates of these three new search LEDs are calculated (s212). The three LEDs that will be the new search LEDs may or may not be the same as the search LEDs selected during s201 (same as s101), depending on changes in the position and orientation of the helmet 16. .

続いて、3つの新探索用LEDについて、算出した絶対座標とヘルメット座標系上での座標とに基づいて、絶対座標系に対するヘルメット16の位置と角度を再び特定することにより、ヘルメットの位置と角度とをモニタリングする(s213)。   Subsequently, for the three new search LEDs, the position and angle of the helmet are determined by re-identifying the position and angle of the helmet 16 with respect to the absolute coordinate system based on the calculated absolute coordinates and the coordinates on the helmet coordinate system. Are monitored (s213).

続いて、3つの新探索用LED(新探索用マーカー)を点灯する(s214)。このときその他のLEDは消灯状態にする。
続いて、3つの新探索用LED(新探索用マーカー)の像が2台のカメラそれぞれの画像に映し出されているかを確認する(s215)。そして2台のカメラに同時に映し出されていないときは、直前にs209で求めた予定位置を利用することとして、s210に進み、以降の動作を繰り返す。
一方、2台のカメラに同時に映し出されているときは、s203に進み(新探索用マーカーは探索用マーカーと読み替える)、以降の動作を繰り返す。


以上の動作により、時々刻々変化するヘルメットの位置や角度の変化、すなわちヘルメットの動きを追尾することができる。
Subsequently, three new search LEDs (new search markers) are turned on (s214). At this time, the other LEDs are turned off.
Subsequently, it is confirmed whether images of three new search LEDs (new search markers) are displayed on the images of the two cameras (s215). If the images are not projected on the two cameras at the same time, the process proceeds to s210 by using the scheduled position obtained immediately before in s209, and the subsequent operations are repeated.
On the other hand, when the images are simultaneously projected on the two cameras, the process proceeds to s203 (the new search marker is replaced with the search marker), and the subsequent operations are repeated.


With the above operation, it is possible to track the change in the position and angle of the helmet, which changes every moment, that is, the movement of the helmet.

上記動作フローでは、s210において、全LEDを点灯するようにしたが、これに代えて、探索用LEDとして先に点灯した3つのLEDを消灯し、残りのLEDを点灯するようにしてもよい。この場合は残りのLEDについて、マーカー識別を行うことになるが、探索用LEDについては既にマーカー識別できているので、全LEDのマーカー識別は可能である。さらに、この場合はs210で点灯させる数を減らすことができるので、LEDの識別を誤る可能性を少しでも減らすことができ、より確実な処理を行うことができる。   In the above operation flow, all the LEDs are turned on in s210, but instead of this, the three previously lit LEDs as the search LEDs may be turned off and the remaining LEDs may be turned on. In this case, marker identification is performed for the remaining LEDs, but marker identification has already been performed for the search LED, and therefore marker identification of all LEDs is possible. Further, in this case, since the number of lighting in s210 can be reduced, the possibility of erroneous LED identification can be reduced as much as possible, and more reliable processing can be performed.

上記実施形態ではヘルメットに取り付けるヘッドモーショントラッカを例に挙げたが、これに限らず、その他の一定形状の物体についてのモーショントラッカとしても利用することができる。   In the above embodiment, the head motion tracker attached to the helmet is taken as an example. However, the present invention is not limited to this, and the head motion tracker can be used as a motion tracker for other objects having a certain shape.

本発明は、識別情報を持たない発光体を利用する光学方式のモーショントラッカに利用することができる。   The present invention can be used for an optical motion tracker that uses a light emitter having no identification information.

本発明の一実施形態であるヘッドモーショントラッカの構成を示す図。The figure which shows the structure of the head motion tracker which is one Embodiment of this invention. 図1のヘッドモーショントラッカによる動作を説明するフローチャート。The flowchart explaining the operation | movement by the head motion tracker of FIG. 図1のヘッドモーショントラッカでの使用状態を説明する図。The figure explaining the use condition in the head motion tracker of FIG. カメラに映し出される画像例を示す図。The figure which shows the example of an image projected on a camera. エピポーラ幾何学に基づく予測を説明する図。The figure explaining the prediction based on epipolar geometry. 三角測量による絶対座標の算出を説明する図。The figure explaining calculation of the absolute coordinate by triangulation. 本発明の他の一実施形態であるヘッドモーショントラッカの構成を示す図。The figure which shows the structure of the head motion tracker which is other one Embodiment of this invention. 図7のヘッドモーショントラッカによる動作を説明するフローチャート。8 is a flowchart for explaining an operation by the head motion tracker of FIG. 算出された予定位置と各LEDとの位置関係に基づいて行われる各LEDのマーカー識別を説明する図。The figure explaining the marker identification of each LED performed based on the positional relationship between the calculated estimated position and each LED.

符号の説明Explanation of symbols

10 ヘッドモーショントラッカ
12、14 カメラ
16 ヘルメット
18 LED群(マーカー群)
20 演算制御部
21 探索用マーカー点灯部
22 探索用マーカー対応付け部
23 探索用マーカー絶対座標算出部
24 探索用マーカー間距離算出部
25 探索用マーカー識別部
26 物体位置・角度特定部
30 ヘッドモーショントラッカ
40 演算制御部
41 全マーカー絶対座標算出部
42 全マーカー予定位置算出部
43 全マーカー識別部
44 新探索用マーカー絶対座標算出部
45 物体位置・角度再特定部
10 Head motion tracker 12, 14 Camera 16 Helmet 18 LED group (marker group)
20 arithmetic control unit 21 search marker lighting unit 22 search marker association unit 23 search marker absolute coordinate calculation unit 24 search marker distance calculation unit 25 search marker identification unit 26 object position / angle identification unit 30 head motion tracker 40 Calculation control unit 41 All marker absolute coordinate calculation unit 42 All marker planned position calculation unit 43 All marker identification unit 44 New search marker absolute coordinate calculation unit 45 Object position / angle re-specification unit

Claims (7)

(a)物体をステレオ視する一対のカメラを設置し、
(b)物体の外表面に少なくとも4つの点灯可能なマーカー群を取り付け、
(c)物体上に定義される物体固定座標系上での各マーカーの座標を定め、
(d)マーカー群のうち、一対のカメラそれぞれの画像に同時に映る3つのマーカーであって、この3つのマーカーを結んだ三角形が正三角形を形成しない位置関係となる3つのマーカーを探索用マーカーとして点灯し、
(e)各画像に映る3つの探索用マーカー像に対し、幾何学的な予測に基づいて、画像間で対となる探索用マーカー像どうしの対応付けを行い、
(f)対応付けがなされた3つの探索用マーカー像について、一対のカメラを用いた三角測量により空間上に定義される絶対座標系上での各探索用マーカーの絶対座標を算出し、
(g)算出された3つの探索用マーカーそれぞれの絶対座標から探索用マーカー間の距離を算出し、
(h)先に定めた物体固定座標系上での各マーカーの座標から求まる各マーカー間の距離と、算出された3つの探索用マーカー間の距離との関係に基づいて、これら3つの探索用マーカーが、それぞれ物体上に取り付けられたマーカー群のうちのいずれであるかを特定するマーカー識別を行い、
(i)マーカー識別により特定された3つの探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を特定することを特徴とする物体のモニタリング方法。
(A) A pair of cameras for viewing an object in stereo is installed,
(B) At least four lightable marker groups are attached to the outer surface of the object,
(C) determining the coordinates of each marker on the object fixed coordinate system defined on the object;
(D) Of the marker group, three markers that appear in the images of the pair of cameras at the same time, and the three markers that connect the three markers have a positional relationship that does not form a regular triangle are used as search markers. Lights up,
(E) For the three search marker images shown in each image, based on geometric prediction, the search marker images that are paired between the images are associated with each other,
(F) For the three search marker images associated with each other, calculate the absolute coordinates of each search marker on the absolute coordinate system defined on the space by triangulation using a pair of cameras;
(G) calculating the distance between the search markers from the absolute coordinates of each of the calculated three search markers;
(H) Based on the relationship between the distance between each marker obtained from the coordinates of each marker on the object fixed coordinate system and the calculated distance between the three search markers, Marker identification that identifies which marker is one of a group of markers attached to each object,
(I) An object characterized by specifying the position and angle of an object with respect to the absolute coordinate system based on the absolute coordinates of each of the three search markers specified by marker identification and the coordinates on the object fixed coordinate system. Monitoring method.
前記(a)から(i)の手順に続いて、
(j)物体の絶対座標系に対する位置および角度と、物体固定座標系上での各マーカーの座標とに基づいて、全マーカーの絶対座標を算出し、
(k)絶対座標が算出された全マーカーについて、一対のカメラの各画像上で各マーカーがそれぞれ映る予定位置を算出し、
(l)全マーカーあるいは探索用マーカーを除いた残りのマーカーを点灯して、各画像上の予定位置と実際に映るマーカー像位置との対応付けにより、全マーカーについてのマーカー識別を行い、
(m)識別されたマーカーのうちで一対のカメラの各画像に同時に映る3つのマーカーを新探索用マーカーとして抽出し、一対のカメラを用いた三角測量によりこれら3つの新探索用マーカーの絶対座標を算出し、
(n)3つの新探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を再び特定することを特徴とする請求項1に記載の物体のモニタリング方法。
Following the steps (a) to (i),
(J) calculating the absolute coordinates of all the markers based on the position and angle of the object with respect to the absolute coordinate system and the coordinates of each marker on the object fixed coordinate system;
(K) For all markers for which absolute coordinates have been calculated, calculate the planned positions where each marker appears on each image of a pair of cameras,
(L) The remaining markers excluding all markers or search markers are turned on, and marker identification for all markers is performed by associating a planned position on each image with a marker image position actually reflected,
(M) Among the identified markers, three markers that are simultaneously shown in the images of the pair of cameras are extracted as new search markers, and the absolute coordinates of these three new search markers are obtained by triangulation using the pair of cameras. To calculate
2. The position and angle of an object with respect to the absolute coordinate system are specified again based on the absolute coordinates of each of the three new search markers and the coordinates on the object fixed coordinate system. Object monitoring method.
前記(a)において、一対のカメラは物体の一部をステレオ視するように設置することを特徴とする請求項1に記載のモニタリング法。 2. The monitoring method according to claim 1, wherein in (a), the pair of cameras are installed so that a part of an object is viewed in stereo. 前記(b)において、マーカー群を取り付ける物体上の位置は、一対のカメラで物体の一部を映したときに、常にこれらのマーカー群のうち少なくとも3つのマーカーが同時に一対のカメラのそれぞれに映るように、マーカー群を物体の外表面全体に分散させて配置することを特徴とする請求項3に記載のモニタリング法。 In (b) above, the position on the object to which the marker group is attached is such that when a part of the object is projected with a pair of cameras, at least three markers of these marker groups are always reflected on each of the pair of cameras at the same time. As described above, the monitoring method according to claim 3, wherein the marker group is distributed over the entire outer surface of the object. 前記(l)において、予定位置とマーカー像位置との対応付けは、両者の間の距離に基づいて行うことを特徴とする請求項2に記載のモニタリング方法。 3. The monitoring method according to claim 2, wherein in (l), the association between the planned position and the marker image position is performed based on a distance between the two. 物体のステレオ視を行う一対のカメラと、物体の外表面に取り付けられる少なくとも4つの点灯可能なマーカー群と、一対のカメラおよびマーカー群の制御と物体の位置や角度を求める演算とを行う制御演算部とを備えたモーショントラッカであって、
マーカー群は、物体上に定義される物体固定座標系上での各マーカーの座標が定められ、
制御演算部は、マーカー群のうち、一対のカメラそれぞれの画像に同時に映る3つのマーカーであってこれら3つのマーカーを結んだ三角形が正三角形を形成しない位置関係となる3つのマーカーを探索用マーカーとして点灯し、各画像に映る3つの探索用マーカー像に対し、幾何学的な予測に基づいて、画像間で対となる探索用マーカー像どうしの対応付けを行い、対応付けがなされた3つの探索用マーカー像について、一対のカメラを用いた三角測量により空間上に定義される絶対座標系上での各探索用マーカーの絶対座標を算出し、算出された3つの探索用マーカーそれぞれの絶対座標から探索用マーカー間の距離を算出し、先に定めた物体固定座標系上での各マーカーの座標から求まる各マーカー間の距離と算出した3つの探索用マーカー間距離との関係に基づいてこれら3つの探索用マーカーがそれぞれ物体上に取り付けられたマーカー群のうちのいずれであるかを特定してマーカーを識別し、識別された3つの探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度とを特定する演算を行うことを特徴とするモーショントラッカ。
Control computation for performing a stereo view of an object, at least four illuminable marker groups attached to the outer surface of the object, and controlling the pair of cameras and marker groups and computing the position and angle of the object A motion tracker with a
In the marker group, the coordinates of each marker on the object fixed coordinate system defined on the object are determined,
The control calculation unit searches for three markers in the marker group that are simultaneously displayed in the images of the pair of cameras, and in which the triangle connecting these three markers has a positional relationship that does not form an equilateral triangle. The three search marker images appearing in each image are associated with each other based on the geometric prediction, and the search marker images that are paired between the images are associated with each other. For the search marker image, calculate the absolute coordinates of each search marker on the absolute coordinate system defined in space by triangulation using a pair of cameras, and calculate the absolute coordinates of each of the calculated three search markers The distance between the markers for search is calculated from the distance between the markers obtained from the coordinates of each marker on the object fixed coordinate system determined previously and the three search markers calculated. Based on the relationship with the inter-car distance, the three search markers are identified from among a group of markers attached to the object, the markers are identified, and each of the three identified search markers is identified. A motion tracker characterized by performing an operation for specifying the position and angle of an object with respect to the absolute coordinate system based on the absolute coordinates of the object and the coordinates on the object fixed coordinate system.
前記制御演算部は、さらに、特定された物体の絶対座標系に対する位置および角度と、物体固定座標系上での各マーカーの座標とに基づいて、全マーカーの絶対座標を算出し、絶対座標が算出された全マーカーについて、一対のカメラの各画像上で各マーカーがそれぞれ映る予定位置を算出し、全マーカーあるいは探索用マーカーを除いた残りのマーカーを点灯して、算出された各画像上の予定位置と実際に映るマーカー像位置との対応付けにより、全マーカーについてのマーカー識別を行い、識別されたマーカーのうちで一対のカメラの各画像に同時に映る3つのマーカーを新探索用マーカーとして抽出し、カメラ位置と画像に映し出された新探索用マーカー像位置との関係からこれら3つの新探索用マーカーの絶対座標を算出し、3つの新探索用マーカーそれぞれの絶対座標と物体固定座標系上での座標とに基づいて、絶対座標系に対する物体の位置と角度を再び特定することを特徴とする請求項6に記載のモーショントラッカ。 The control calculation unit further calculates the absolute coordinates of all the markers based on the position and angle of the identified object with respect to the absolute coordinate system and the coordinates of each marker on the object fixed coordinate system. For all the calculated markers, calculate the planned positions where each marker appears on each image of a pair of cameras, turn on the remaining markers excluding all markers or search markers, and calculate on each calculated image Markers are identified for all markers by associating the planned positions with the marker image positions that are actually reflected, and among the identified markers, three markers that appear simultaneously in each image of a pair of cameras are extracted as new search markers. Then, the absolute coordinates of these three new search markers are calculated from the relationship between the camera position and the new search marker image position displayed in the image. Search on the basis of the coordinates on the marker each absolute coordinates and the object fixed coordinate system, the motion tracker according to claim 6, characterized in that re-identifying the position and angle of the object relative to the absolute coordinate system.
JP2005106458A 2005-04-01 2005-04-01 Object monitoring method and motion tracker using the same Active JP4396564B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005106458A JP4396564B2 (en) 2005-04-01 2005-04-01 Object monitoring method and motion tracker using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005106458A JP4396564B2 (en) 2005-04-01 2005-04-01 Object monitoring method and motion tracker using the same

Publications (2)

Publication Number Publication Date
JP2006284442A true JP2006284442A (en) 2006-10-19
JP4396564B2 JP4396564B2 (en) 2010-01-13

Family

ID=37406517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005106458A Active JP4396564B2 (en) 2005-04-01 2005-04-01 Object monitoring method and motion tracker using the same

Country Status (1)

Country Link
JP (1) JP4396564B2 (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315775A (en) * 2006-05-23 2007-12-06 Shimadzu Corp Head motion tracker system and its usage
JP2008026265A (en) * 2006-07-25 2008-02-07 Shimadzu Corp Head motion tracker system
KR100835186B1 (en) 2007-01-29 2008-06-04 주식회사 프리진 System for classifying marker of motion capture using active marker
JP2008262264A (en) * 2007-04-10 2008-10-30 Shimadzu Corp Head motion tracker apparatus
JP2008289645A (en) * 2007-05-24 2008-12-04 Shimadzu Corp Motion tracker
JP2009031086A (en) * 2007-07-26 2009-02-12 Shimadzu Corp Marker image identification device and method for identifying marker image
JP2009036517A (en) * 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2009041919A (en) * 2007-08-06 2009-02-26 Shimadzu Corp Head motion tracker apparatus
JP2009085805A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Motion tracker apparatus
JP2009085806A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Head motion tracker system and calibration apparatus used for the same
JP2009109319A (en) * 2007-10-30 2009-05-21 Shimadzu Corp Head motion tracker system
JP2009287933A (en) * 2008-05-27 2009-12-10 Shimadzu Corp Motion tracker device
JP2010038707A (en) * 2008-08-05 2010-02-18 Shimadzu Corp Motion tracker device
JP2010038847A (en) * 2008-08-08 2010-02-18 Shimadzu Corp Motion tracker system and coordinate system setting method therefor
WO2011024895A1 (en) * 2009-08-28 2011-03-03 株式会社オプトン Three-dimensional shape measurement method and three-dimensional shape measurement system
WO2012060393A1 (en) * 2010-11-01 2012-05-10 国立大学法人北海道大学 Target position tracking device and target luminescence detection device
JP2012226666A (en) * 2011-04-21 2012-11-15 Shimadzu Corp Motion tracker device
EP2944285A4 (en) * 2013-01-10 2016-08-17 Koh Young Tech Inc Tracking system and method for tracking by using same
JP2016531276A (en) * 2013-06-13 2016-10-06 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting the orientation of at least one object
JP2021533391A (en) * 2018-08-03 2021-12-02 オックスフォード メトリックス ピーエルシー Active marker device and its design method
CN114777668A (en) * 2022-04-12 2022-07-22 新拓三维技术(深圳)有限公司 Desktop type elbow measuring method and device
JP7441466B2 (en) 2020-04-03 2024-03-01 学校法人法政大学 Concrete compaction management system
JP7441465B2 (en) 2020-04-03 2024-03-01 学校法人法政大学 Concrete compaction traceability system

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007315775A (en) * 2006-05-23 2007-12-06 Shimadzu Corp Head motion tracker system and its usage
JP2008026265A (en) * 2006-07-25 2008-02-07 Shimadzu Corp Head motion tracker system
KR100835186B1 (en) 2007-01-29 2008-06-04 주식회사 프리진 System for classifying marker of motion capture using active marker
JP2008262264A (en) * 2007-04-10 2008-10-30 Shimadzu Corp Head motion tracker apparatus
JP2008289645A (en) * 2007-05-24 2008-12-04 Shimadzu Corp Motion tracker
JP2009031086A (en) * 2007-07-26 2009-02-12 Shimadzu Corp Marker image identification device and method for identifying marker image
JP2009036517A (en) * 2007-07-31 2009-02-19 Shimadzu Corp Head motion tracker device
JP2009041919A (en) * 2007-08-06 2009-02-26 Shimadzu Corp Head motion tracker apparatus
JP2009085805A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Motion tracker apparatus
JP2009085806A (en) * 2007-10-01 2009-04-23 Shimadzu Corp Head motion tracker system and calibration apparatus used for the same
JP2009109319A (en) * 2007-10-30 2009-05-21 Shimadzu Corp Head motion tracker system
JP2009287933A (en) * 2008-05-27 2009-12-10 Shimadzu Corp Motion tracker device
JP2010038707A (en) * 2008-08-05 2010-02-18 Shimadzu Corp Motion tracker device
JP2010038847A (en) * 2008-08-08 2010-02-18 Shimadzu Corp Motion tracker system and coordinate system setting method therefor
WO2011024895A1 (en) * 2009-08-28 2011-03-03 株式会社オプトン Three-dimensional shape measurement method and three-dimensional shape measurement system
JP2011047876A (en) * 2009-08-28 2011-03-10 Teruaki Yogo Three-dimensional shape measurement method
WO2012060393A1 (en) * 2010-11-01 2012-05-10 国立大学法人北海道大学 Target position tracking device and target luminescence detection device
JP2012226666A (en) * 2011-04-21 2012-11-15 Shimadzu Corp Motion tracker device
US9576366B2 (en) 2013-01-10 2017-02-21 Koh Young Technology Inc. Tracking system and tracking method using the same
EP2944285A4 (en) * 2013-01-10 2016-08-17 Koh Young Tech Inc Tracking system and method for tracking by using same
JP2016531276A (en) * 2013-06-13 2016-10-06 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se Detector for optically detecting the orientation of at least one object
JP2021533391A (en) * 2018-08-03 2021-12-02 オックスフォード メトリックス ピーエルシー Active marker device and its design method
JP7441466B2 (en) 2020-04-03 2024-03-01 学校法人法政大学 Concrete compaction management system
JP7441465B2 (en) 2020-04-03 2024-03-01 学校法人法政大学 Concrete compaction traceability system
CN114777668A (en) * 2022-04-12 2022-07-22 新拓三维技术(深圳)有限公司 Desktop type elbow measuring method and device
CN114777668B (en) * 2022-04-12 2024-01-16 新拓三维技术(深圳)有限公司 Desktop type bent pipe measuring method and device

Also Published As

Publication number Publication date
JP4396564B2 (en) 2010-01-13

Similar Documents

Publication Publication Date Title
JP4396564B2 (en) Object monitoring method and motion tracker using the same
CN110458961B (en) Augmented reality based system
US7768656B2 (en) System and method for three-dimensional measurement of the shape of material objects
JP4644540B2 (en) Imaging device
CN108022264B (en) Method and equipment for determining camera pose
JP2010038707A (en) Motion tracker device
JP2012084149A (en) Navigation of mobile divice
JP2015537205A (en) Method and apparatus for determining the posture of an object
CN109073363B (en) Image recognition device, image recognition method, and image recognition unit
CN110174092A (en) A kind of intensive cluster relative positioning method based on infrared coding target
JP5292725B2 (en) Motion tracker device
JP5505363B2 (en) Motion tracker device
US20130113890A1 (en) 3d location sensing system and method
CN101981407A (en) Chassis-measuring system and method for determining the position parameters of probes of a chassis-measuring system
KR101371384B1 (en) Tracking system and method for tracking using the same
US10591603B2 (en) Retroreflector acquisition in a coordinate measuring device
TWI646449B (en) Three-dimensional positioning system and method thereof
KR100913165B1 (en) Apparatus and method for detecting a localization of mobility
JP4656016B2 (en) Motion tracker device
JP4858346B2 (en) Marker image identification device and marker image identification method
JP2004045321A (en) Position measuring system
JP4872768B2 (en) Head motion tracker device
JP4892982B2 (en) Magnetic mapping device
JP2007334762A (en) Head motion tracker
JP6670682B2 (en) Position detection method and position detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070608

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090929

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4396564

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4