[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2010038707A - Motion tracker device - Google Patents

Motion tracker device Download PDF

Info

Publication number
JP2010038707A
JP2010038707A JP2008201438A JP2008201438A JP2010038707A JP 2010038707 A JP2010038707 A JP 2010038707A JP 2008201438 A JP2008201438 A JP 2008201438A JP 2008201438 A JP2008201438 A JP 2008201438A JP 2010038707 A JP2010038707 A JP 2010038707A
Authority
JP
Japan
Prior art keywords
coordinate system
optical marker
movement
time
movement amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008201438A
Other languages
Japanese (ja)
Other versions
JP5594944B2 (en
Inventor
Kazuo Tawada
一穂 多和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2008201438A priority Critical patent/JP5594944B2/en
Publication of JP2010038707A publication Critical patent/JP2010038707A/en
Application granted granted Critical
Publication of JP5594944B2 publication Critical patent/JP5594944B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a motion tracker device capable of reliably identifying each optical marker without causing the optical marker to have identification information or to emit light one by one in turn. <P>SOLUTION: The motion tracker device 1 includes: an object angular velocity detection sensor 4 detecting an object angular velocity acting on an object 10 in a short time; an object acceleration detection sensor 5 detecting an object acceleration acting on the object 10 in a short time; a first coordinate system angular movement calculation part 23 calculating an angular movement of a first coordinate system; a first coordinate system position movement calculation part 27 calculating a position movement of the first coordinate system; and an optical marker estimation part 26 estimating a predicted movement position of the optical marker on the basis of optical marker location information, the angular movement of the first coordinate system, and the position movement of the first coordinate system. An optical marker location information calculation part 24 identifies three or more optical markers 7 individually on the basis of the predicted movement positions of the optical markers. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、光学方式のモーショントラッカ装置(以下、MT装置ともいう)に関し、さらに詳細には、光学マーカーの現在位置及び現在角度を検出する機能を備える光学方式のMT装置に関する。本発明は、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度(すなわち、現在の頭部位置及び頭部角度)を検出するヘッドモーショントラッカ装置(以下、HMT装置ともいう)等に利用される。
ここで、光学方式のHMT装置とは、反射板や発光体等の光学マーカーを取り付けたヘルメット等を頭部に装着して、光学マーカーの位置を立体視が可能なカメラ装置で測定することにより、頭部の動きを追跡する装置等のことをいう。
The present invention relates to an optical motion tracker device (hereinafter also referred to as an MT device), and more particularly to an optical MT device having a function of detecting a current position and a current angle of an optical marker. The present invention relates to a head motion tracker device (hereinafter, the current head position and head angle) for detecting the current position and current angle of a helmet with a head-mounted display device used in, for example, game machines and vehicles (hereinafter, the current head position and head angle). , Also referred to as an HMT device).
Here, the optical HMT device is a device in which a helmet equipped with an optical marker such as a reflector or a light emitter is attached to the head, and the position of the optical marker is measured with a camera device capable of stereoscopic viewing. It means a device that tracks the movement of the head.

時々刻々と変動する物体の現在位置や現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機では、バーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより、映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在位置や現在角度に合わせて、映像を変化させる必要がある。よって、頭部装着型表示装置付ヘルメット(対象物)の現在位置や現在角度を測定するために、HMT装置が利用されている。   A technique for accurately measuring the current position and current angle of an object that changes from moment to moment is used in various fields. For example, in a game machine, an image is displayed by using a helmet with a head-mounted display device in order to realize virtual reality (VR). At this time, it is necessary to change the image in accordance with the current position and the current angle of the head mounted display-equipped helmet. Therefore, the HMT device is used to measure the current position and the current angle of the head-mounted helmet with a display device (target object).

また、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(移動体)の緯度、経度、高度、姿勢に加えて、飛行体に設定された相対座標系に対するパイロットの頭部角度及び頭部位置を測定している。このときに、HMT装置が利用されている。   Also, in the rescue operation by the rescue flying boat, in order not to lose sight of the found rescue target, by locking when the aiming image displayed by the helmet with head mounted display device corresponds to the rescue target, Calculating the position of the locked rescue target has been done. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude, and attitude of the flying object (moving object), the pilot's head angle and head with respect to the relative coordinate system set for the flying object The position is being measured. At this time, the HMT device is used.

頭部装着型表示装置付ヘルメットに利用されるHMT装置としては、光学的に頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するものが開示されている(例えば、特許文献1参照)。具体的には、複数の反射板を頭部装着型表示装置付ヘルメットに取り付けるとともに光源から光を照射したときの反射光をカメラ装置でモニタする光学方式のHMT装置が開示されている。また、発光体を互いに離隔するようにして複数箇所に取り付けた光学方式のHMT装置もある(例えば、特許文献2参照)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として発光体であるLED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、頭部装着型表示装置付ヘルメットにおける3個のLEDの相対的な位置関係をHMT装置に予め記憶させておく。そして、これら3個のLEDを、立体視が可能でかつ設置場所が固定された第一カメラと第二カメラ(カメラ装置)で同時に撮影することで、所謂、三角測量の原理により、カメラ装置に対する3個のLEDの相対的な位置関係を測定している。これにより、カメラ装置に対する頭部装着型表示装置付ヘルメットの現在位置や現在角度を特定している。
特表平9−506194号公報 特願2006−284442号公報
As an HMT device used for a helmet with a head-mounted display device, an apparatus that optically measures the current position and current angle of the helmet with a head-mounted display device is disclosed (for example, see Patent Document 1). ). Specifically, an optical HMT device is disclosed in which a plurality of reflectors are attached to a helmet with a head-mounted display device, and reflected light when light is emitted from a light source is monitored by a camera device. There is also an optical HMT device in which light emitters are attached to a plurality of locations so as to be separated from each other (see, for example, Patent Document 2). Specifically, on the outer peripheral surface of the helmet with a head-mounted display device, LEDs (light-emitting diodes) that are light emitters as optical marker groups are attached to three locations so as to be separated from each other, and the head-mounted display device The relative positional relationship of the three LEDs in the attached helmet is stored in advance in the HMT device. And by photographing these three LEDs simultaneously with the first camera and the second camera (camera device) that can be stereoscopically viewed and fixed in place, the so-called triangulation principle is applied to the camera device. The relative positional relationship of the three LEDs is measured. Thereby, the current position and the current angle of the helmet with a head-mounted display device with respect to the camera device are specified.
JP-T 9-506194 Japanese Patent Application No. 2006-284442

上述したような光学方式のHMT装置で、カメラ装置に対する3個のLEDの相対的な位置関係を測定するためには、3個のLEDをそれぞれ識別する必要がある。よって、頭部装着型表示装置付ヘルメットには、それぞれが識別可能な3個のLEDが取り付けられている。例えば、頭部装着型表示装置付ヘルメットの外周面上に、互いに異なる波長の赤外光を発光するLEDを互いに離隔するようにして取り付け、頭部装着型表示装置付ヘルメットにおける3個のLEDのそれぞれの位置をHMT装置に予め記憶させておく。そして、これら3個のLEDを波長差によりそれぞれ識別しながら、カメラ装置に対する3個のLEDのそれぞれの現在位置を測定している。   In order to measure the relative positional relationship of the three LEDs with respect to the camera device in the optical HMT device as described above, it is necessary to identify each of the three LEDs. Therefore, three LEDs that can be individually identified are attached to the head-mounted helmet with a display device. For example, on the outer peripheral surface of the helmet with a head-mounted display device, LEDs that emit infrared light of different wavelengths are attached so as to be separated from each other, and the three LEDs in the helmet with the head-mounted display device are Each position is stored in advance in the HMT apparatus. Then, the current position of each of the three LEDs with respect to the camera device is measured while identifying each of the three LEDs by the wavelength difference.

しかしながら、それぞれが識別可能な3個のLEDを取り付けた場合、1個のLEDが故障等したときに、故障した1個のLEDを新品の1個のLEDと交換するとともに、新品の1個のLEDの識別情報(例えば、波長情報)を改めてHMT装置に記憶させる必要があった。よって、新品のLEDと交換するたびに、新品のLEDの識別情報をHMT装置に記憶させる手間がかかった。
また、識別情報を有さない3個のLEDを、1個1個順番に点灯させることにより、識別することも考えられるが、1個1個順番に点灯させなければならないので、時々刻々と変化する頭部装着型表示装置付ヘルメットの動きをモニタリングすることは困難である。
However, when three LEDs that can be identified are attached, when one LED fails, etc., one failed LED is replaced with one new LED, and one new LED is replaced. LED identification information (for example, wavelength information) has to be stored in the HMT device anew. Therefore, every time it is replaced with a new LED, it takes time to store the identification information of the new LED in the HMT device.
In addition, it is conceivable to identify three LEDs that do not have identification information by lighting them one by one, but they must be turned on one by one. It is difficult to monitor the movement of a helmet with a head mounted display device.

そこで、本出願人は、頭部装着型表示装置付ヘルメット50等に取り付けられた3個のLED57a、57b、57cのそれぞれの現在位置を識別する際に、LED57a、57b、57cに識別情報を持たせたり、1個1個順番に点灯させたりすることもなく、LED57a、57b、57cのそれぞれの現在位置を識別することができる方法を見出した。
具体的には、まず、第一カメラの撮影方向と第二カメラの撮影方向とが定まった状態において、エピポーラ幾何学に基づく予測により、第一カメラで撮影された第一画像と第二カメラで撮影された第二画像との間での共通のLED像の組を認識することを行った。
そして、第一画像中のLED像と第二画像中のLED像との対応付けを行うことができれば、第一画像及び第二画像中のLED像の位置により、第一カメラからの方向角度αと第二カメラからの方向角度βとを算出し、第一カメラと第二カメラとの間の距離dを用いることで、所謂、三角測量の手法でカメラ装置に対するLEDの位置を算出することを行った(図3参照)。
Therefore, the present applicant has identification information on the LEDs 57a, 57b, 57c when identifying the current positions of the three LEDs 57a, 57b, 57c attached to the head mounted display-equipped helmet 50 and the like. The present inventors have found a method that can identify the current positions of the LEDs 57a, 57b, and 57c without lighting them one by one or lighting them one by one.
Specifically, first, in a state where the shooting direction of the first camera and the shooting direction of the second camera are determined, the first image shot by the first camera and the second camera are predicted by prediction based on epipolar geometry. A set of common LED images with the captured second image was recognized.
If the LED image in the first image can be associated with the LED image in the second image, the direction angle α from the first camera is determined by the position of the LED image in the first image and the second image. And the direction angle β from the second camera, and using the distance d 1 between the first camera and the second camera, the position of the LED relative to the camera device is calculated by a so-called triangulation method. (See FIG. 3).

このようにして算出された各LEDの位置が、頭部装着型表示装置付ヘルメットに取り付けられたLEDのいずれにそれぞれ対応するかはまだ認識できないので、例えば、時間がt、tと順に流れたとすると、図10に示すように、時間tに、LED57a、57b、57cのそれぞれの位置を記憶するとともに、記憶されたそれぞれのLED57a、57b、57cの位置を中心とする一定の大きさの球状である予想移動範囲Da、Db、Dcを設定することにより、時間tに、予想移動範囲Da、Db、Dcに存在するLEDを、時間tに設定された予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別した。 Since it is not yet possible to recognize which of the LEDs attached to the head-mounted display-equipped helmet with the position of each LED calculated in this way, for example, time t 1 , t 2 in order When played back, as shown in FIG. 10, the time t 1, LED57a, 57b, stores the position of each of 57c, stored respective LED57a, 57 b, a constant around the position of 57c size By setting the predicted movement ranges Da, Db, and Dc that are spherical, the LEDs existing in the predicted movement ranges Da, Db, and Dc at time t 2 are replaced with the expected movement ranges Da, Db set at time t 1. , Dc was identified as the same LED.

しかしながら、図11に示すように、頭部装着型表示装置付ヘルメット50の移動速度が速い場合に、予想移動範囲Da、Db、DcにLEDが存在しなくなることがあった。また、設定する予想移動範囲Da、Db、Dcの大きさを大きくすると、予想移動範囲Da、Db、Dcに2個のLEDが同時に存在することがあった。つまり、予想移動範囲Da、Db、Dcに存在するLEDを、その予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別することができなくなることがあった。   However, as shown in FIG. 11, when the moving speed of the helmet 50 with a head-mounted display device is high, the LED may not exist in the expected movement ranges Da, Db, and Dc. Further, when the predicted movement ranges Da, Db, and Dc to be set are increased, two LEDs may exist at the same time in the predicted movement ranges Da, Db, and Dc. That is, it may be impossible to identify the LEDs existing in the predicted movement ranges Da, Db, Dc as being the same as the LEDs corresponding to the predicted movement ranges Da, Db, Dc.

そこで、本発明は、頭部装着型表示装置付ヘルメット等の対象物に取り付けられた3個以上のLED等の光学マーカーのそれぞれの現在位置を識別する際に、光学マーカーに識別情報を持たせたり、1個1個順番に点灯させたりすることなく、各光学マーカーを確実に識別することができるモーショントラッカ装置を提供することを目的とする。   Therefore, the present invention provides the optical marker with identification information when identifying the current position of each of the three or more optical markers such as LEDs attached to an object such as a head-mounted display-equipped helmet. Another object of the present invention is to provide a motion tracker device that can reliably identify each optical marker without lighting them one by one.

上記課題を解決するためになされた本発明のモーショントラッカ装置は、第一座標系が設定された対象物と、前記第一座標系に位置決めされて対象物に取り付けられた3個以上の同一種の光学マーカーと、第二座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記第二座標系における3個以上の光学マーカーのそれぞれの現在位置を含む光学マーカー位置情報を算出する光学マーカー位置情報算出部と、前記光学マーカー位置情報を記憶する光学マーカー記憶部と、前記光学マーカー位置情報に基づいて、前記第二座標系における対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物角速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物角速度検出センサと、前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物加速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物加速度検出センサと、前記対象物角速度に基づいて、前記第一座標系の角度移動量を算出する第一座標系角度移動量算出部と、前記対象物加速度に基づいて、前記第一座標系の位置移動量を算出する第一座標系位置移動量算出部と、前記光学マーカー記憶部に記憶された光学マーカー位置情報、第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記第二座標系における光学マーカーの予想移動位置を推定する光学マーカー推定部とを備え、前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記3個以上の光学マーカーをそれぞれ識別するようにしている。   The motion tracker device of the present invention, which has been made to solve the above-mentioned problems, includes an object having a first coordinate system set, and three or more identical species positioned on the first coordinate system and attached to the object. And a second coordinate system is set, a camera device that detects the light beam from the optical marker by stereoscopic vision, and three or more optical markers in the second coordinate system based on the detected light beam Based on the optical marker position information, an optical marker position information calculation unit that calculates optical marker position information including each current position, an optical marker storage unit that stores the optical marker position information, and the second coordinate system A motion tracker device comprising a relative information calculation unit for calculating relative information including a current position and a current angle of an object, and positioning in the first coordinate system An object angular velocity detection sensor for detecting an object angular velocity acting on the object and acting on the object in a shorter time than a light detection interval time in the camera device, and positioned in the first coordinate system. The object acceleration detection sensor for detecting the object acceleration acting on the object and acting on the object in a shorter time than the light detection interval time in the camera device, and the object angular velocity based on the object angular velocity, A first coordinate system angular movement amount calculation unit that calculates an angular movement amount of the first coordinate system, and a first coordinate system position movement amount calculation that calculates a position movement amount of the first coordinate system based on the object acceleration. And the predicted movement position of the optical marker in the second coordinate system based on the optical marker position information stored in the optical marker storage unit, the angle movement amount of the first coordinate system, and the position movement amount of the first coordinate system. And an optical marker estimation unit that estimates a, the optical marker position information calculating unit, based on the expected movement position of the optical markers, and the three or more optical markers to identify respectively.

ここで、「角度移動量」とは、ロール方向(X軸に対する回転)と、エレベーション方向(Y軸に対する回転)と、アジマス方向(Z軸に対する回転)とにおける移動量のことをいう。
また、「位置移動量」とは、X軸方向とY軸方向とZ軸方向とにおける移動量のことをいう。
また、「対象物角速度検出センサ」とは、センサ自体に3軸(X軸、Y軸、Z軸)が定義されて、この3軸を基準とする角速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。
また、「対象物加速度検出センサ」とは、センサ自体に3軸(X軸、Y軸、Z軸)が定義されて、この3軸を基準とする3軸方向の加速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、加速度センサ等が用いられる。
また、「カメラ装置での光線の検出間隔時間」とは、カメラ装置による撮影と撮影との間隔時間(例えば、16msec)のこという。
Here, the “angle movement amount” refers to a movement amount in the roll direction (rotation with respect to the X axis), the elevation direction (rotation with respect to the Y axis), and the azimuth direction (rotation with respect to the Z axis).
The “position movement amount” refers to a movement amount in the X-axis direction, the Y-axis direction, and the Z-axis direction.
In addition, the “object angular velocity detection sensor” has three axes (X axis, Y axis, Z axis) defined in the sensor itself, and detects an angular velocity based on these three axes in a short time (for example, 4 msec). For example, a gyro sensor or the like is used.
In addition, the “object acceleration detection sensor” is defined by three axes (X axis, Y axis, Z axis) in the sensor itself, and acceleration in a triaxial direction with reference to the three axes is short-time (for example, 4 msec) that can be detected, for example, an acceleration sensor or the like is used.
The “light detection interval time at the camera device” refers to an interval time (for example, 16 msec) between photographing by the camera device.

本発明のモーショントラッカ装置によれば、時間がt、t2’(tの直前)、tと順に流れたとすると、時間tに記憶された3個以上の光学マーカーのそれぞれの位置と、時間tから時間t2’までに対象物に作用する対象物角速度と、時間tから時間t2’までに対象物に作用する対象物加速度とを用いて、第一座標系の角度移動量と第一座標系の位置移動量とを算出することにより、時間t2’での光学マーカーの予想移動位置を推定する。次に、例えば、推定された各光学マーカーの予想移動位置を中心とする球状である予想移動範囲を設定することにより、時間tに予想移動範囲に存在する光学マーカーを、時間t2’に設定された予想移動範囲に対応する光学マーカーと同一のものであると識別する。 According to the motion tracker device of the present invention, time t 1, t 2 '(just before t 2), when the flows in t 2 and forward, each of the positions of three or more optical markers stored in the time t 1 When, 'and the object angular velocity acting on the object until, from the time t 1 time t 2' from the time t 1 time t 2 by using the object acceleration acting on the object before, the first coordinate system By calculating the angular movement amount and the position movement amount of the first coordinate system, the predicted movement position of the optical marker at time t 2 ′ is estimated. Then, for example, by setting the estimated movement range is spherical around the expected movement position of each optical marker estimated, an optical marker present in the expected range of movement in time t 2, the time t 2 ' The optical marker corresponding to the set expected movement range is identified as the same one.

以上のように、本発明のモーショントラッカ装置によれば、対象物角速度と対象物加速度とにより推定された光学マーカーの予想移動位置を設定するので、対象物の移動速度が速い場合にも、光学マーカーを見失うことを防ぐことができる。   As described above, according to the motion tracker device of the present invention, since the expected movement position of the optical marker estimated by the object angular velocity and the object acceleration is set, the optical tracker can be used even when the object movement speed is high. It is possible to prevent the marker from being lost.

(他の課題を解決するための手段および効果)
また、上記の発明において、前記第一座標系位置移動量算出部は、前記光学マーカー記憶部に記憶された少なくとも2つの光学マーカー位置情報に基づいて、前記第一座標系の原点の移動速度を算出し、当該第一座標系の原点の移動速度と対象物加速度とに基づいて、前記第一座標系の位置移動量を算出するようにしてもよい。
また、上記の発明において、前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記光学マーカーの予想移動範囲を設定することで、前記3個以上の光学マーカーをそれぞれ識別するようにしてもよい。
また、上記の発明において、前記光学マーカーの予想移動範囲は、各光学マーカーの予想移動位置を中心とする球状であるようにしてもよい。
(Means and effects for solving other problems)
In the above invention, the first coordinate system position movement amount calculation unit may calculate the movement speed of the origin of the first coordinate system based on at least two optical marker position information stored in the optical marker storage unit. It may be calculated and the position movement amount of the first coordinate system may be calculated based on the moving speed of the origin of the first coordinate system and the object acceleration.
In the above invention, the optical marker position information calculation unit identifies each of the three or more optical markers by setting an expected movement range of the optical marker based on an expected movement position of the optical marker. You may make it do.
In the above invention, the expected movement range of the optical marker may be a sphere centered on the expected movement position of each optical marker.

そして、上記の発明において、前記第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記光学マーカーの位置移動量を算出することで、前記光学マーカーの予想移動範囲の大きさを決定する予想移動範囲決定部を備えるようにしてもよい。
本発明によれば、時間tから時間t2’までに対象物に作用する対象物角速度と、時間tから時間t2’までに対象物に作用する対象物加速度とにより、第一座標系の角度移動量と第一座標系の位置移動量とを算出することで、時間tから時間t2’までの光学マーカーの位置移動量を算出する。これにより、1個の光学マーカーの予想移動位置を中心とする予想移動範囲の大きさを、例えば、光学マーカーの位置移動量が長い場合には大きくし、一方、光学マーカーの位置移動量が短い場合には小さくすることができる。よって、対象物の移動速度が速い場合にも、予想移動範囲に光学マーカーが存在しなくなることをより防ぐとともに、対象物の移動速度が遅い場合に、予想移動範囲に2個以上の光学マーカーが同時に存在することをより防ぐことができる。
In the invention described above, the position movement amount of the optical marker is calculated based on the angle movement amount of the first coordinate system and the position movement amount of the first coordinate system. You may make it provide the estimated moving range determination part which determines a magnitude | size.
According to the present invention, 'the object angular velocity acting on the object until, from the time t 1 time t 2' from the time t 1 time t 2 by the object acceleration acting on the object by the first coordinate By calculating the angle movement amount of the system and the position movement amount of the first coordinate system, the position movement amount of the optical marker from time t 1 to time t 2 ′ is calculated. Accordingly, the size of the predicted movement range centered on the predicted movement position of one optical marker is increased, for example, when the position movement amount of the optical marker is long, while the position movement amount of the optical marker is short. In some cases it can be made smaller. Therefore, even when the moving speed of the object is fast, it is further prevented that the optical marker does not exist in the expected moving range, and when the moving speed of the object is slow, two or more optical markers are present in the expected moving range. It is possible to prevent the presence at the same time.

さらに、上記の発明において、前記対象物は、搭乗者の頭部に装着されるヘルメットであり、かつ、前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられ、前記移動体に取り付けられ、前記移動体に作用する移動体角速度を、前記対象物角速度検出センサと同時間に検出する移動体角速度検出センサと、前記移動体に取り付けられ、前記移動体に作用する移動体加速度を、前記対象物加速度度検出センサと同時間に検出する移動体加速度検出センサとを備え、前記第一座標系角度移動量算出部は、前記対象物角速度と移動体角速度とに基づいて、前記第一座標系の角度移動量を算出し、前記第一座標系位置移動量算出部は、前記対象物加速度と移動体加速度とに基づいて、前記第一座標系の位置移動量を算出するようにしてもよい。   Further, in the above invention, the object is a helmet to be mounted on a passenger's head, and the camera device is attached to a moving body on which the passenger is boarded, and is attached to the moving body. A moving body angular velocity detection sensor that detects a moving body angular velocity acting on the moving body at the same time as the object angular velocity detection sensor; and a moving body acceleration attached to the moving body and acting on the moving body, A moving body acceleration detection sensor that detects the object acceleration degree detection sensor at the same time, and the first coordinate system angular movement amount calculation unit calculates the first coordinate based on the object angular velocity and the moving body angular velocity. The first coordinate system position movement amount calculation unit may calculate the position movement amount of the first coordinate system based on the object acceleration and the moving body acceleration. Good

ここで、「移動体角速度検出センサ」とは、対象物角速度検出センサと同様に、センサ自体に3軸が定義されて、この3軸を基準とする角速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。なお、上述した対象物角速度センサは、対象物が移動体中で移動したときには、対象物の動きと移動体の動きとが合成された動きの情報を検出することになるが、移動体角速度センサは、移動体の動きのみの情報を検出することになる。
また、「移動体加速度検出センサ」とは、対象物加速度検出センサと同様に、センサ自体に3軸が定義されて、この3軸を基準とする3軸方向の加速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、加速度センサ等が用いられる。なお、上述した対象物加速度センサは、対象物が移動体中で移動したときには、対象物の動きと移動体の動きとが合成された動きの情報を検出することになるが、移動体加速度センサは、移動体の動きのみの情報を検出することになる。
Here, the “moving body angular velocity detection sensor” is similar to the object angular velocity detection sensor, in which three axes are defined in the sensor itself, and the angular velocity based on these three axes is detected in a short time (for example, 4 msec). For example, a gyro sensor or the like is used. Note that the above-described object angular velocity sensor detects movement information obtained by combining the movement of the object and the movement of the object when the object moves in the moving object. Detects only the movement of the moving object.
The “moving body acceleration detection sensor” is similar to the object acceleration detection sensor. Three axes are defined in the sensor itself, and acceleration in the three-axis direction with reference to the three axes is performed for a short time (for example, 4 msec). ), For example, an acceleration sensor or the like is used. Note that the object acceleration sensor described above detects movement information obtained by combining the movement of the object and the movement of the object when the object moves in the moving object. Detects only the movement of the moving object.

本発明によれば、対象物角速度検出センサで、移動体中では搭乗者の頭部の動きと移動体の動きとが合成された動きの情報が検出されるが、移動体角速度検出センサで移動体の動きのみの情報が検出されるため、対象物角速度と移動体角速度とを用いて、移動体の動きを除外した搭乗者の頭部の動きのみの情報を算出することができる。
さらに、対象物加速度検出センサで、移動体中では搭乗者の頭部の動きと移動体の動きとが合成された動きの情報が検出されるが、移動体加速度検出センサで移動体の動きのみの情報が検出されるため、対象物加速度と移動体加速度とを用いて、移動体の動きを除外した搭乗者の頭部の動きのみの情報を算出することができる。
これにより、例えば、搭乗者が移動体に搭乗していても、光学マーカーの予想移動位置を設定することができるので、対象物の移動速度が速い場合にも、光学マーカーを見失うことを防ぐことができる。
According to the present invention, the object angular velocity detection sensor detects movement information obtained by combining the movement of the passenger's head and the movement of the moving body in the moving body. Since only the information on the movement of the body is detected, it is possible to calculate only the information on the movement of the head of the occupant excluding the movement of the moving body using the object angular velocity and the moving body angular velocity.
Furthermore, the object acceleration detection sensor detects movement information in the moving body by combining the movement of the passenger's head and the movement of the moving body, but only the movement of the moving body is detected by the moving body acceleration detection sensor. Therefore, it is possible to calculate only the movement of the passenger's head excluding the movement of the moving body using the object acceleration and the moving body acceleration.
As a result, for example, even if the passenger is on the moving body, the predicted movement position of the optical marker can be set, so that even if the moving speed of the object is fast, the optical marker is prevented from being lost. Can do.

以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.

(実施形態1)
図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの平面図である。
HMT装置1は、カメラ装置2に設定される第二座標系(XYZ座標系)に対する遊戯者3の頭部位置(X、Y、Z)及び頭部角度(RL、EL、AZ)を含む相対情報を算出するものである。つまり、XYZ座標系における遊戯者3が着用する頭部装着型表示装置付ヘルメット10に設定された第一座標系(X’Y’Z’座標系)の位置及び角度を算出する。
なお、角度RLは、ロール方向(X軸に対する回転)の角度であり、角度ELは、エレベーション方向(Y軸に対する回転)の角度であり、角度AZは、アジマス方向(Z軸に対する回転)の角度である。
(Embodiment 1)
FIG. 1 is a diagram showing a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a plan view of the helmet with a head-mounted display device shown in FIG.
The HMT device 1 includes the player's 3 head position (X h , Y h , Z h ) and head angle (RL h , EL h ), relative to the second coordinate system (XYZ coordinate system) set in the camera device 2. Relative information including AZ h ) is calculated. That is, the position and angle of the first coordinate system (X′Y′Z ′ coordinate system) set in the helmet 10 with a head mounted display device worn by the player 3 in the XYZ coordinate system are calculated.
The angle RL h is an angle in the roll direction (rotation with respect to the X axis), the angle EL h is an angle in the elevation direction (rotation with respect to the Y axis), and the angle AZ h is an azimuth direction (with respect to the Z axis). Angle of rotation).

HMT装置1は、遊戯者3の頭部に装着される頭部装着型表示装置付ヘルメット10と、ゲーム機30に取り付けられたカメラ装置2と、コンピュータにより構成される制御部20とから構成される。
頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、遊戯者3の目に導くコンバイナ8と、光学マーカーとして機能するLED群7と、3軸ジャイロセンサ(対象物角速度検出センサ)4と、加速度センサ(対象物加速度検出センサ)5とを有する。なお、頭部装着型表示装置付ヘルメット10を装着した遊戯者3は、表示器による表示映像とコンバイナ8の前方実在物とを視認することが可能となっている。
The HMT device 1 includes a head mounted display-equipped helmet 10 attached to the player's 3 head, a camera device 2 attached to a game machine 30, and a control unit 20 configured by a computer. The
The helmet 10 with a head-mounted display device functions as a display device (not shown), a combiner 8 that guides the player 3 by reflecting image display light emitted from the display device, and an optical marker. A group of LEDs 7, a three-axis gyro sensor (object angular velocity detection sensor) 4, and an acceleration sensor (object acceleration detection sensor) 5. In addition, the player 3 wearing the helmet 10 with a head-mounted display device can visually recognize the display image by the display and the front actual thing of the combiner 8.

ここで、頭部装着型表示装置付ヘルメット10自体には、第一座標系(X’Y’Z’座標系)が予め定められており、3軸ジャイロセンサ4と加速度センサ5とは、X’Y’Z’座標系と正確に軸合わせされ、かつ、X’Y’Z’座標系に位置決めされて取り付けられている。なお、初期状態において、X’Y’Z’座標系は遊戯者3によって後述する第二座標系(XYZ座標系)と軸合わせ(軸のズレの調整)される。初期状態でのX’Y’Z’座標系とXYZ座標系との軸合わせの方法については、広く用いられている一般的な方法(例えば、頭部装着型表示装置付ヘルメット10を装着した遊戯者3に特定方向を向くように指示することにより軸合わせを行う方法)等により行われる。   Here, the first coordinate system (X′Y′Z ′ coordinate system) is predetermined for the head mounted helmet 10 itself, and the three-axis gyro sensor 4 and the acceleration sensor 5 are defined as X It is precisely aligned with the 'Y'Z' coordinate system and is positioned and attached to the X'Y'Z 'coordinate system. In the initial state, the X′Y′Z ′ coordinate system is aligned with a second coordinate system (XYZ coordinate system) described later by the player 3 (adjustment of the axis deviation). As a method of aligning the X′Y′Z ′ coordinate system and the XYZ coordinate system in the initial state, a widely used general method (for example, a game in which a helmet 10 with a head-mounted display device is mounted) is used. Or the like by instructing the person 3 to face in a specific direction).

LED群7は、図2に示すように、同じ波長の赤外光を発光する3個(あるいは3個以上の数)のLED7a、7b、7cがお互い一定の距離dを隔てるようにして、第一座標系(X’Y’Z’座標系)に位置決めされて取り付けられたものである。つまり、X’Y’Z’座標系におけるLED7a、7b、7cの座標位置は、(X’DISa、Y’DISa、Z’ DISa)、(X’DISb、Y’ DISb、Z’ DISb)、(X’DISc、Y’DISc、Z’ DISc)として表現できる。しかしながら、LED7a、7b、7cは、同じ波長の赤外光を発光するものなので、後述するカメラ装置2のみでは、撮影した各LEDが、頭部装着型表示装置付ヘルメット10に取り付けられたLEDのいずれにそれぞれ対応するかは認識できないことになる。 LED group 7, as shown in FIG. 2, LED 7a of three emitting infrared light of the same wavelength (or three or more numbers), 7b, 7c are as separating each other at a distance d 2, It is positioned and attached to the first coordinate system (X′Y′Z ′ coordinate system). That is, the coordinate positions of the LEDs 7a, 7b, 7c in the X′Y′Z ′ coordinate system are (X ′ DISa , Y ′ DISa , Z ′ DISa ), (X ′ DISb , Y ′ DISb , Z ′ DISb ), ( X ′ DISc , Y ′ DISc , Z ′ DISc ). However, since the LEDs 7a, 7b, and 7c emit infrared light having the same wavelength, only the camera device 2 described later captures each LED that has been photographed by the LED attached to the helmet 10 with a head-mounted display device. Which one corresponds to each other cannot be recognized.

3軸ジャイロセンサ4は、頭部装着型表示装置付ヘルメット10に作用する角速度(V’RL、V’EL、V’AZ)を短時間(例えば、4msec)で検出するものである。なお、3軸ジャイロセンサ4は、第一座標系(X’Y’Z’座標系)に軸合わせされているので、ロール方向(X’軸に対する回転)、エレベーション方向(Y’軸に対する回転)、アジマス方向(Z’軸に対する回転)における対象物角速度(V’RL、V’EL、V’AZ)が検出される。また、3軸ジャイロセンサ4は、X’Y’Z’座標系の原点に取り付けられているが、X’Y’Z’座標系の原点以外の位置に取り付けられた場合には、X’Y’Z’座標系の原点の位置での角速度を求めるためにオフセット行列M0を乗算したりする一般的な計算方法等で、対象物角速度(V’RL、V’EL、V’AZ)を変換することになる。 The triaxial gyro sensor 4 detects angular velocities (V ′ RL , V ′ EL , V ′ AZ ) acting on the helmet 10 with a head mounted display device in a short time (for example, 4 msec). Since the triaxial gyro sensor 4 is aligned with the first coordinate system (X′Y′Z ′ coordinate system), the roll direction (rotation with respect to the X ′ axis) and the elevation direction (rotation with respect to the Y ′ axis). ), Object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) in the azimuth direction (rotation with respect to the Z ′ axis) are detected. Further, the three-axis gyro sensor 4 is attached to the origin of the X′Y′Z ′ coordinate system, but when attached to a position other than the origin of the X′Y′Z ′ coordinate system, the X′Y 'Z' in order to obtain an angular velocity at the position of the origin of the coordinate system in the general calculation method or the like or to multiply the offset matrix M0 conversion, the object velocity (V 'RL, V' EL , V 'AZ) and Will do.

加速度センサ5は、頭部装着型表示装置付ヘルメット10に作用する加速度(α’、α’、α’)を短時間(例えば、4msec)で検出するものである。なお、加速度センサ5は、第一座標系(X’Y’Z’座標系)に軸合わせされているので、X’軸方向、Y’軸方向、Z’軸方向における対象物加速度(α’、α’、α’)が検出される。 The acceleration sensor 5 detects acceleration (α ′ x , α ′ y , α ′ z ) acting on the head mounted helmet 10 with a display device in a short time (for example, 4 msec). Since the acceleration sensor 5 is aligned with the first coordinate system (X′Y′Z ′ coordinate system), the object acceleration (α ′) in the X ′ axis direction, the Y ′ axis direction, and the Z ′ axis direction. x , α ′ y , α ′ z ) are detected.

ゲーム機30は、遊戯者3が着席する座席30aとカメラ装置2とを備える。
カメラ装置2は、第一カメラ2aと第二カメラ2bとからなる。第一カメラ2aと第二カメラ2bとは、撮影方向が異なりかつ立体視が可能な一定の距離dを隔てるように、天井に固定されている。
ここで、図3に示すように、カメラ装置2(2a、2b)に対するLED7aの位置は、カメラ装置2に撮影された画像中に映し出されているLED7a像の位置を抽出し、さらに第一カメラ2aからの方向角度αと第二カメラ2bからの方向角度βとを抽出し、第一カメラ2aと第二カメラ2bとの間の距離dを用いることにより、三角測量の手法で算出することができる。他の光学マーカーであるLED7b、7cのカメラ装置2に対する位置についても、同様に算出される。
The game machine 30 includes a seat 30 a on which the player 3 is seated and the camera device 2.
The camera device 2 includes a first camera 2a and a second camera 2b. The first camera 2a and the second camera 2b, so as to separate a predetermined distance d 1 capable photographing direction is different and stereoscopic, and is fixed to the ceiling.
Here, as shown in FIG. 3, the position of the LED 7a with respect to the camera device 2 (2a, 2b) is obtained by extracting the position of the LED 7a image displayed in the image photographed by the camera device 2, and further by the first camera. The direction angle α from 2a and the direction angle β from the second camera 2b are extracted, and the distance d 1 between the first camera 2a and the second camera 2b is used to calculate by the triangulation method. Can do. The positions of the LEDs 7b and 7c, which are other optical markers, with respect to the camera device 2 are similarly calculated.

このときの各LED7a、7b、7cの位置を、空間座標で表現することができるようにするために、カメラ装置2に固定され、カメラ装置2とともに移動する座標系である第二座標系(XYZ座標系)を用いる。なお、XYZ座標系の具体的な原点位置やXYZ軸方向の説明については後述する。XYZ座標系によりLED7a、7b、7cの座標位置は、(XLED1、YLED1、ZLED1)、(XLED2、YLED2、ZLED2)、(XLED3、YLED3、ZLED3)として表現できる。これにより、カメラ装置2に対する3個のLED7a、7b、7cの座標位置(XLED1、YLED1、ZLED1)、(XLED2、YLED2、ZLED2)、(XLED3、YLED3、ZLED3)がそれぞれどのLEDか識別されて特定されれば、LED7a、7b、7cが位置決めされて取り付けられている頭部装着型表示装置付ヘルメット10の位置(X、Y、Z)及び角度(RL、EL、AZ)は、XYZ座標系における第一座標系(X’Y’Z’座標系)の位置及び角度を用いて表現できる。なお、角度RLは、ロール方向(X軸に対する回転)の角度であり、角度ELは、エレベーション方向(Y軸に対する回転)の角度であり、角度AZは、アジマス方向(Z軸に対する回転)の角度である。また、頭部装着型表示装置付ヘルメット10の位置(X、Y、Z)は、X’Y’Z’座標系の原点の座標位置である。 The second coordinate system (XYZ), which is a coordinate system that is fixed to the camera device 2 and moves together with the camera device 2 so that the positions of the LEDs 7a, 7b, and 7c at this time can be expressed in spatial coordinates. Coordinate system). A specific origin position of the XYZ coordinate system and description of the XYZ axis directions will be described later. LED7a the XYZ coordinate system, 7b, 7c coordinate position can be expressed as (X LED1, Y LED1, Z LED1), (X LED2, Y LED2, Z LED2), (X LED3, Y LED3, Z LED3). Thus, three LED7a to the camera apparatus 2, 7b, 7c coordinate position (X LED1, Y LED1, Z LED1), (X LED2, Y LED2, Z LED2), (X LED3, Y LED3, Z LED3) Are identified and specified, the position (X h , Y h , Z h ) and angle (X h , Y h , Z h ) and angle of the helmet 10 with head mounted display device to which the LEDs 7a, 7b, 7c are positioned and attached. RL h , EL h , AZ h ) can be expressed using the position and angle of the first coordinate system (X′Y′Z ′ coordinate system) in the XYZ coordinate system. The angle RL h is an angle in the roll direction (rotation with respect to the X axis), the angle EL h is an angle in the elevation direction (rotation with respect to the Y axis), and the angle AZ h is an azimuth direction (with respect to the Z axis). Angle of rotation). Further, the positions (X h , Y h , Z h ) of the helmet 10 with a head-mounted display device are coordinate positions of the origin of the X′Y′Z ′ coordinate system.

制御部20は、図1に示すように、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、第一座標系角度移動量算出部23と、第一座標系位置移動量算出部27と、相対情報算出部22と、光学マーカー位置情報算出部24と、光学マーカー推定部26と、映像表示部25とを有する。なお、図4は、制御部20が実行する流れを説明するタイムチャートである。   As shown in FIG. 1, the control unit 20 is configured by a computer including a CPU 21, a memory 41, and the like, and performs various controls and arithmetic processes. The processing executed by the CPU 21 will be described separately for each functional block. The motion tracker driving unit 28, the first coordinate system angle movement amount calculation unit 23, the first coordinate system position movement amount calculation unit 27, and the relative information calculation will be described. Unit 22, optical marker position information calculation unit 24, optical marker estimation unit 26, and video display unit 25. FIG. 4 is a time chart for explaining the flow executed by the control unit 20.

また、メモリ41には、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、第二座標系(XYZ座標系)を記憶する第二座標系記憶領域43と、時間記憶領域42と、第一座標系(X’Y’Z’座標系)を記憶するとともに、X’Y’Z’座標系における3個のLED7a、7b、7cのそれぞれの位置(X’DIS、Y’DIS、Z’ DIS)を初期データとして記憶する第一座標系記憶領域46と、XYZ座標系における3個のLED7a、7b、7cの時間tでのそれぞれの位置(XLED、YLED、ZLED)を含む光学マーカー位置情報を順次記憶する光学マーカー記憶領域44と、dを直径とする球状とする予想移動範囲の大きさを記憶する予想移動範囲記憶領域45とを有する。 The memory 41 has an area for storing various data necessary for the control unit 20 to execute processing, and a second coordinate system storage area for storing a second coordinate system (XYZ coordinate system). 43, the time storage area 42, and the first coordinate system (X'Y'Z 'coordinate system) are stored, and the positions of the three LEDs 7a, 7b, 7c in the X'Y'Z' coordinate system ( X ′ DIS , Y ′ DIS , Z ′ DIS ) as initial data, and the positions (Xn) of the three LEDs 7a, 7b, 7c at time t n in the XYZ coordinate system Optical marker storage area 44 for sequentially storing optical marker position information including LED , Y LED , Z LED ), and an expected movement range storage area 45 for storing the size of the expected movement range having a diameter d 2 as a sphere. Have

ここで、第二座標系(XYZ座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図3に示すように、第一カメラ2aと第二カメラ2bとの中点を原点とし、前方方向をX軸方向とし、前方方向に垂直方向をY軸方向とし、X軸方向及びY軸方向に垂直方向をZ軸方向とするように、第二座標系記憶領域43に予め設定されている。
また、時間記憶領域44は、カメラ装置2でLED7a、7b、7cが検出される毎に更新される時間tと、対象物角速度(V’RL、V’EL、V’AZ)及び対象物加速度(α’、α’、α’)が検出される毎に更新される時間sとを記憶する。ただし、ここでの時間t、sは、実時間を単位とする代わりに、後述するモーショントラッカ駆動部28や第一座標系角度移動量算出部23や第一座標系位置移動量算出部27が、画像データ、角度移動量(RLDEP、ELDEP、AZDEP)、位置移動量(ΔX、ΔY、ΔZ)を算出するプログラム(図8及び図9参照)を実行する際の処理回数カウンタt、sの値を、「時間」として扱うものである。
Here, the second coordinate system (XYZ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. 3, the first camera 2a and the second camera 2b The second coordinate system is stored such that the midpoint is the origin, the forward direction is the X-axis direction, the forward direction is the Y-axis direction, and the X-axis direction and the Y-axis direction are the Z-axis direction. An area 43 is preset.
The time storage area 44, LED 7a camera device 2, 7b, and time t n which 7c is updated each time it is detected, the object velocity (V 'RL, V' EL , V 'AZ) and the object The time s n updated every time the acceleration (α ′ x , α ′ y , α ′ z ) is detected is stored. However, the times t n and s n here are not based on real time, but a motion tracker driving unit 28, a first coordinate system angular movement calculation unit 23, and a first coordinate system position movement calculation unit described later. 27 executes a program (see FIGS. 8 and 9) for calculating image data, angular movement amounts (RL DEP , EL DEP , AZ DEP ) and position movement amounts (ΔX l , ΔY l , ΔZ l ). The values of the processing number counters t n and s n are handled as “time”.

モーショントラッカ駆動部28は、LED群7を点灯させる指令信号を出力するとともに、カメラ装置2でLED群7から出射される光線の画像データを時間t毎に検出させる制御を行う。しかし、LED7a、7b、7cは、同じ波長の赤外光を発光するものなので、エピポーラ幾何学に基づく予測により、第一カメラ2aで撮影された第一画像と第二カメラ2bで撮影された第二画像との間での共通のLED像の組を認識することは行うことができるが、頭部装着型表示装置付ヘルメット10に取り付けられたLEDのいずれにそれぞれ対応するかを決定することはできない。そこで、後述する光学マーカー位置情報算出部24等によって、各LEDが識別されるようになっている。 Motion tracker driver 28 outputs the command signal for lighting the LED group 7, performs control to detect the image data of the light emitted from the LED group 7 in the camera apparatus 2 every time t n. However, since the LEDs 7a, 7b, and 7c emit infrared light having the same wavelength, the first image captured by the first camera 2a and the second image captured by the second camera 2b are predicted based on the epipolar geometry. Although it is possible to recognize a set of common LED images between two images, it is possible to determine which of the LEDs attached to the helmet 10 with a head-mounted display device corresponds to. Can not. Therefore, each LED is identified by an optical marker position information calculation unit 24, which will be described later.

第一座標系角度移動量算出部23は、3軸ジャイロセンサ4で検出された時間tから時間t+sまでの対象物角速度(VRL’、VEL’、VAZ’)を積分演算することにより、時間tから時間t+sまでの第一座標系(X’Y’Z’座標系)の角度移動量(RLDEP、ELDEP、AZDEP)を算出する制御を行う。
まず、3軸ジャイロセンサ4で検出された時間sの対象物角速度(V’RL、V’EL、V’AZ)を積分演算することにより、時間tに記憶されたX’Y’Z’座標系の角度(RL、EL、AZ)からの角度移動量(RLs0、ELs0、AZs0)を算出する。次に、3軸ジャイロセンサ4で検出された時間sの対象物角速度(V’RL、V’EL、V’AZ)を積分演算することにより、時間t+sでのX’Y’Z’座標系の角度からの角度移動量(RLs1、ELs1、AZs1)を算出する。このように角度移動量を算出していき、時間s〜sに算出された角度移動量を合計して、時間tから時間t+sまでのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)を算出する。
The first coordinate system angular movement calculating unit 23 integrates the object angular velocities (V RL ′, V EL ′, V AZ ′) detected from the time t n to the time t n + s 2 detected by the three-axis gyro sensor 4. By calculating, control is performed to calculate the amount of angular movement (RL DEP , EL DEP , AZ DEP ) of the first coordinate system (X′Y′Z ′ coordinate system) from time t n to time t n + s 2. .
First, X′Y′Z stored at time t n is calculated by integrating the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) detected at time s 0 by the three-axis gyro sensor 4. 'Amount of angular movement (RL s0 , EL s0 , AZ s0 ) from the angle (RL h , EL h , AZ h ) of the coordinate system is calculated. Next, X′Y ′ at time t n + s 0 is calculated by integrating the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) detected by the three-axis gyro sensor 4 at time s 1. The amount of angular movement (RL s1 , EL s1 , AZ s1 ) from the angle of the Z ′ coordinate system is calculated. The angle movement amount is calculated in this way, and the angle movement amounts calculated from time s 0 to s 2 are summed, and the angle of the X′Y′Z ′ coordinate system from time t to time t n + s 2 is calculated. The movement amount (RL DEP , EL DEP , AZ DEP ) is calculated.

第一座標系位置移動量算出部27は、加速度センサ5で検出された時間tから時間tn+までの対象物加速度(α’、α’、α’)を二回積分演算することにより、時間tから時間tn+までの第一座標系(X’Y’Z’座標系)の位置移動量(ΔX、ΔY、ΔZ)を算出する制御を行う。
時間tから時間tn+までの対象物加速度(α’、α’、α’)を用いて、時間tから時間tn+までのX’Y’Z’座標系の位置移動量(ΔX、ΔY、ΔZ)を算出するには、対象物加速度(α’、α’、α’)を二回積分演算するため、時間tでのX’Y’Z’座標系の移動速度(初速度)が必要になる。そこで、時間tn−1でのX’Y’Z’座標系の原点の位置と、時間tでのX’Y’Z’座標系の原点の位置とを差分して、その差分を時間t−tn−1で除算することにより、原点の移動速度(V’、V’、V’)を算出する。これにより、原点の移動速度(V’、V’、V ’)を時間tでのX’Y’Z’座標系の移動速度として用いる。
そして、X’Y’Z’座標系の移動速度(V’、V’、V’)を用いて、加速度センサ5で検出された時間sの対象物加速度(α’、α’、α’)を二回積分演算することにより、時間tに記憶されたX’Y’Z’座標系の位置(X、Y、Z)からの位置移動量(ΔXs0、ΔYs0、ΔZs0)を算出する。次に、X’Y’Z’座標系の移動速度(V’、V’、V’)を用いて、加速度センサ5で検出された時間sの対象物加速度(α’、α’、α’)を二回積分演算することにより、時間t+sでのX’Y’Z’座標系の位置からの位置移動量(ΔXs1、ΔYs1、ΔZs1)を算出する。このように位置移動量を算出していき、時間s〜sに算出された位置移動量を合計して、時間tから時間t+sまでのX’Y’Z’座標系の位置移動量(ΔX、ΔY、ΔZ)を算出する。
The first coordinate system position movement amount calculating section 27, object acceleration from time detected by the acceleration sensor 5 t n to time t n + s 2 (α ' x, α' y, α 'z) twice integrating By calculating, control is performed to calculate the amount of position movement (ΔX 1 , ΔY 1 , ΔZ 1 ) of the first coordinate system (X′Y′Z ′ coordinate system) from time t n to time t n + s 2. .
Object acceleration from time t n to time t n + s 2 (α ' x, α' y, α 'z) using, X'Y'Z from time t n to time t n + s 2' coordinate system In order to calculate the position movement amount (ΔX 1 , ΔY 1 , ΔZ 1 ), the object acceleration (α ′ x , α ′ y , α ′ z ) is integrated twice, so that X at time t n is calculated. The moving speed (initial speed) of the 'Y'Z' coordinate system is required. Accordingly, the position of the origin of the X′Y′Z ′ coordinate system at the time t n−1 and the position of the origin of the X′Y′Z ′ coordinate system at the time t n are subtracted, and the difference is calculated as the time. By dividing by t n −t n−1 , the moving speed (V ′ x , V ′ y , V ′ z ) of the origin is calculated. As a result, the movement speed (V x ′, V y ′, V z ′) of the origin is used as the movement speed of the X′Y′Z ′ coordinate system at time t n .
Then, using the moving speed (V ′ x , V ′ y , V ′ z ) of the X′Y′Z ′ coordinate system, the object acceleration (α ′ x , α) detected by the acceleration sensor 5 at time s 0 is detected. ' y , α' z ) is integrated twice to obtain a position movement amount (ΔX from the position (X h , Y h , Z h ) of the X′Y′Z ′ coordinate system stored at time t n. s0 , ΔYs0 , ΔZs0 ). Next, 'moving speed of the coordinate system (V'X'Y'Z x, V ' y, V' z) using a time detected by the acceleration sensor 5 s 1 object acceleration (alpha 'x, α ′ y , α ′ z ) are integrated twice to obtain the position movement amounts (ΔX s1 , ΔY s1 , ΔZ s1 ) from the position of the X′Y′Z ′ coordinate system at time t n + s 0. calculate. The position movement amount is calculated in this way, and the position movement amounts calculated during the times s 0 to s 2 are summed, and the X′Y′Z ′ coordinate system from the time t n to the time t n + s 2 is added. The amount of position movement (ΔX 1 , ΔY 1 , ΔZ 1 ) is calculated.

光学マーカー推定部26は、時間tの光学マーカー位置情報、時間tから時間tn+までの第一座標系(X’Y’Z’座標系)の角度移動量(RLDEP、ELDEP、AZDEP)、時間tから時間tn+までのX’Y’Z’座標系の位置移動量(ΔX、ΔY、ΔZ)に基づいて、第二座標系(XYZ座標系)におけるLED7a、7b、7cの予想移動位置17a、17b、17cを推定する制御を行う。
XYZ座標系における時間tから時間tn+までのLED7aの位置移動量(ΔX、ΔY、ΔZ)を算出するには、X’Y’Z’座標系が角度移動量(RLDEP、ELDEP、AZDEP)で移動することにより生じるLED7aの位置移動量(ΔX、ΔY、ΔZ)と、X’Y’Z’座標系が位置移動量(ΔX、ΔY、ΔZ)で移動することにより生じるLED7aの位置移動量(ΔX、ΔY、ΔZ)とを算出する必要がある。
まず、X’Y’Z’座標系が角度移動量(RLDEP、ELDEP、AZDEP)で移動することにより、XYZ座標系におけるLED7aの位置移動量(ΔX、ΔY、ΔZ)を算出する方法について説明する。時間tから時間tn+までのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)を下記式(1)に代入することにより、時間tから時間tn+までのLED7aの位置移動量(ΔX、ΔY、ΔZ)を算出する。
Angle movement amount of the optical markers estimation unit 26, an optical marker position information of the time t n, a first coordinate system from the time t n to time t n + s 2 (X'Y'Z 'coordinate system) (RL DEP, EL DEP , AZ DEP ), the second coordinate system (XYZ coordinates) based on the amount of position movement (ΔX l , ΔY l , ΔZ l ) of the X′Y′Z ′ coordinate system from time t n to time t n + s 2 Control for estimating the expected movement positions 17a, 17b, and 17c of the LEDs 7a, 7b, and 7c in the system) is performed.
In order to calculate the position movement amount (ΔX, ΔY, ΔZ) of the LED 7a from the time t n to the time t n + s 2 in the XYZ coordinate system, the X′Y′Z ′ coordinate system uses the angular movement amount (RL DEP , EL The position movement amount (ΔX r , ΔY r , ΔZ r ) of the LED 7 a generated by moving with DEP , AZ DEP ) and the position movement amount (ΔX l , ΔY l , ΔZ l ) of the X′Y′Z ′ coordinate system. It is necessary to calculate the position movement amount (ΔX 1 , ΔY 1 , ΔZ 1 ) of the LED 7a that is generated by moving at.
First, the X′Y′Z ′ coordinate system is moved by the angular movement amount (RL DEP , EL DEP , AZ DEP ), so that the position movement amount (ΔX r , ΔY r , ΔZ r ) of the LED 7 a in the XYZ coordinate system is changed. A calculation method will be described. By substituting the amount of angular movement (RL DEP , EL DEP , AZ DEP ) of the X′Y′Z ′ coordinate system from time t n to time t n + s 2 into the following equation (1), the time from time t n to time The position movement amount (ΔX r , ΔY r , ΔZ r ) of the LED 7a up to t n + s 2 is calculated.

Figure 2010038707
Figure 2010038707

次に、X’Y’Z’座標系が位置移動量(ΔX、ΔY、ΔZ)で移動することにより、XYZ座標系におけるLED7aの位置移動量(ΔX、ΔY、ΔZ)を算出する方法について説明する。このときには、時間tから時間tn+までのX’Y’Z’座標系の位置移動量(ΔX、ΔY、ΔZ)が、そのまま時間tから時間tn+までのLED7aの位置移動量(ΔX、ΔY、ΔZ)となる。
そして、LED7aの位置移動量(ΔX、ΔY、ΔZ)と、LED7aの位置移動量(ΔX、ΔY、ΔZ)とを算出することができれば、下記式(2)により、XYZ座標系における時間tのLED7aの位置(XLED、YLED、ZLED)に、LED7aの位置移動量(ΔX、ΔY、ΔZ)とLED7aの位置移動量(ΔX、ΔY、ΔZ)とを加算することで、時間tn+でのLED7aの予想移動位置17a(XDEP、YDEP、ZDEP)を推定する(図5参照)。
Next, by moving the X′Y′Z ′ coordinate system by the position movement amounts (ΔX 1 , ΔY 1 , ΔZ 1 ), the position movement amounts (ΔX 1 , ΔY 1 , ΔZ 1 ) of the LED 7a in the XYZ coordinate system. A method for calculating the value will be described. At this time, position movement amount of X'Y'Z 'coordinate system from the time t n to time t n + s 2 (ΔX l , ΔY l, ΔZ l) is from it the time t n to time t n + s 2 This is the position movement amount (ΔX 1 , ΔY 1 , ΔZ 1 ) of the LED 7a.
Then, if the position movement amount (ΔX r , ΔY r , ΔZ r ) of the LED 7 a and the position movement amount (ΔX l , ΔY l , ΔZ l ) of the LED 7 a can be calculated, XYZ can be calculated by the following equation (2). position of LED 7a time t n in a coordinate system (X LED, Y LED, Z LED) , the position movement amount of LED7a (ΔX r, ΔY r, ΔZ r) and the position movement amount of LED7a (ΔX l, ΔY l, ΔZ 1 ) is added to estimate the expected movement position 17a (X DEP , Y DEP , Z DEP ) of the LED 7a at time t n + s 2 (see FIG. 5).

Figure 2010038707
Figure 2010038707

また、LED7b、7cについても、同様に時間tn+s2でのLED7b、7cの予想移動位置17b、17cを推定する。 For the LEDs 7b and 7c, the estimated movement positions 17b and 17c of the LEDs 7b and 7c at the time t n + s2 are similarly estimated.

光学マーカー位置情報算出部24は、時間t+sでのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17cを用いて、LED7a、7b、7cのそれぞれの予想移動範囲Da、Db、Dcを設定することにより、時間tn+1の画像データを用いて、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する制御を行う。
まず、図6に示すように、光学マーカー推定部26により推定された時間t+sでのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17cを中心としdを直径とする球状である予想移動範囲Da、Db、Dcを第二座標系(XYZ座標系)に設定する。これにより、時間tn+1に、予想移動範囲Da、Db、Dcに存在するLEDを、時間t+sに設定された予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別する。例えば、図7に示すように、時間tn+1に、予想移動範囲Daに存在するLED7aを、時間t+sに設定された予想移動範囲Daに対応するLED7aと同一のものであると識別する。同様に、予想移動範囲Dbに存在するLED7bを、LED7bと同一のものであるとし、予想移動範囲Dcに存在するLED7cを、LED7cと同一のものであると識別する。このようにして、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報が算出される。
The optical marker position information calculation unit 24 uses the predicted movement positions Da, Db of the LEDs 7a, 7b, 7c using the predicted movement positions 17a, 17b, 17c of the LEDs 7a, 7b, 7c at time t n + s 2. , carried out by setting the Dc, using the image data of the time t n + 1, LED7a, 7b , the respective control for calculating the optical marker position information of the time t n + 1 that includes the current position of 7c.
First, as shown in FIG. 6, the estimated movement positions 17 a, 17 b, and 17 c of the LEDs 7 a, 7 b, and 7 c at the time t n + s 2 estimated by the optical marker estimation unit 26 are centered, and d 2 is the diameter. The spherical expected movement ranges Da, Db, and Dc are set in the second coordinate system (XYZ coordinate system). Thus, at time t n + 1 , the LEDs existing in the expected movement ranges Da, Db, Dc are the same as the LEDs corresponding to the expected movement ranges Da, Db, Dc set at time t n + s 2. Identify. For example, as shown in FIG. 7, at time t n + 1 , the LED 7 a existing in the expected movement range Da is identified as the same LED 7 a corresponding to the expected movement range Da set at time t n + s 2. . Similarly, the LED 7b existing in the expected movement range Db is assumed to be the same as the LED 7b, and the LED 7c existing in the expected movement range Dc is identified as the same as the LED 7c. In this manner, the optical marker position information at time t n + 1 including the current positions of the LEDs 7a, 7b, and 7c is calculated.

相対情報算出部22は、時間tn+1の光学マーカー位置情報に基づいて、第二座標系(XYZ座標系)における遊戯者3の頭部位置(X、Y、Z)及び頭部角度(RL、EL、AZ)を含む相対情報を算出する制御を行う。
具体的には、XYZ座標系における3個のLED7a、7b、7cのそれぞれの現在の座標位置である時間tn+1の光学マーカー位置情報を得ることで、LED7a、7b、7cが固定されている頭部装着型表示装置付ヘルメット10の現在位置(X、Y、Z)や現在角度(RL、EL、AZ)が算出される。
映像表示部25は、相対情報に基づいて、表示器から映像表示光を出射する制御を行う。これにより、遊戯者3は、表示器による表示映像を視認することができる。
Based on the optical marker position information at time t n + 1 , the relative information calculation unit 22 determines the head position (X h , Y h , Z h ) and head angle of the player 3 in the second coordinate system (XYZ coordinate system). Control to calculate relative information including (RL h , EL h , AZ h ) is performed.
Specifically, the head where the LEDs 7a, 7b, 7c are fixed is obtained by obtaining the optical marker position information at time t n + 1 which is the current coordinate position of each of the three LEDs 7a, 7b, 7c in the XYZ coordinate system. The current position (X h , Y h , Z h ) and current angle (RL h , EL h , AZ h ) of the helmet 10 with a part-mounted display device are calculated.
The video display unit 25 performs control for emitting video display light from the display based on the relative information. Thereby, the player 3 can visually recognize the display image by a display.

次に、HMT装置1により、XYZ座標系における遊戯者3の頭部位置(X、Y、Z)及び頭部角度(RL、EL、AZ)を測定する測定動作について説明する。図8及び図9は、HMT装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、頭部装着型表示装置付ヘルメット10を装着した遊戯者3の頭部が初期位置になるように指示する。つまり、X’Y’Z’座標系は遊戯者3によってXYZ座標系と軸合わせされる。
次に、ステップS102の処理において、時間tとしてt=tと時間記憶領域42に記憶させる。
Next, the measurement operation for measuring the head position (X h , Y h , Z h ) and head angle (RL h , EL h , AZ h ) of the player 3 in the XYZ coordinate system by the HMT device 1 will be described. To do. 8 and 9 are flowcharts for explaining the measurement operation by the HMT apparatus 1.
First, in the process of step S101, an instruction is given so that the head of the player 3 wearing the helmet 10 with a head-mounted display device is in the initial position. That is, the X′Y′Z ′ coordinate system is aligned with the XYZ coordinate system by the player 3.
Next, in the process of step S102, it is stored in the t n = t 0 and time storage area 42 as the time t n.

次に、ステップS103の処理において、モーショントラッカ駆動部28は、カメラ装置2でLED群7の画像データを検出させる。なお、X’Y’Z’座標系におけるLED群7の座標位置(X’DIS、Y’DIS、Z’ DIS)を初期データとして第一座標系記憶領域46に記憶させているので、時間tの光学マーカー位置情報は、初期データを用いてLED7a、7b、7cがそれぞれ識別されることにより、LED7a、7b、7cのそれぞれの現在位置を含む時間tの光学マーカー位置情報が光学マーカー記憶領域44に記憶されることになる。
次に、ステップS104の処理において、時間sとしてs=sと時間記憶領域42に記憶させる。
Next, in the process of step S <b> 103, the motion tracker driving unit 28 causes the camera device 2 to detect the image data of the LED group 7. Since the coordinate position (X ′ DIS , Y ′ DIS , Z ′ DIS ) of the LED group 7 in the X′Y′Z ′ coordinate system is stored in the first coordinate system storage area 46 as initial data, the time t optical marker position information of 0, LED 7a using the initial data, 7b, 7c is by being identified respectively, LED 7a, 7b, the respective optical marker position information of the time t 0 including the current position is an optical marker memories 7c It will be stored in area 44.
Next, in the process of step S104, the time s n is stored in the time storage area 42 as s n = s 0 .

次に、ステップS105の処理において、3軸ジャイロセンサ4が、対象物角速度(V’RL、V’EL、V’AZ)を検出する。
また、ステップS106の処理において、加速度センサ5が、対象物加速度(α’、α’、α’)を検出する。
Next, in the process of step S105, the three-axis gyro sensor 4 detects the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ).
Further, in the process of step S106, the acceleration sensor 5 detects the object acceleration (α ′ x , α ′ y , α ′ z ).

次に、ステップS107の処理において、s>sを満たすか否かを判定する。s>sを満たさないと判定したときには、ステップS108の処理において、s=sn+1と時間記憶領域44に記憶させて、ステップS105及びS106の処理に戻る。つまり、s>sを満たすと判定するときまで、ステップS105〜ステップS108の処理は繰り返される。
一方、s>sを満たすと判定したときには、ステップS109の処理において、第一座標系角度移動量算出部23は、3軸ジャイロセンサ4で検出された時間tから時間t+sまでの対象物角速度(V’RL、V’EL、V’AZ)を積分演算することにより、時間tから時間t+sまでのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)を算出する。
Next, in the process of step S107, it is determined whether or not s n > s 1 is satisfied. If it is determined that s n > s 1 is not satisfied, s n = s n + 1 is stored in the time storage area 44 in the process of step S108, and the process returns to steps S105 and S106. That is, the processes in steps S105 to S108 are repeated until it is determined that s n > s 1 is satisfied.
On the other hand, it s n> when it is determined that satisfy s 1, in the processing of step S109, the first coordinate system the angle shift amount calculating part 23, 3 detected time axis gyroscope 4 t n time t n + s 2 object velocity up to (V 'RL, V' EL , V 'AZ) by integral operation using, X'Y'Z from time t n to time t n + s 2' angular movement amount of the coordinate system (RL DEP , EL DEP , AZ DEP ) are calculated.

次に、ステップS110の処理において、第一座標系位置移動量算出部27は、加速度センサ5で検出された時間tから時間tn+までの対象物加速度(α’、α’、α’)を二回積分演算することにより、時間tから時間tn+までのX’Y’Z’座標系の位置移動量(ΔX、ΔY、ΔZ)を算出する。
次に、ステップS111の処理において、光学マーカー推定部26は、時間tの光学マーカー位置情報、時間tから時間tn+までのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)、時間tから時間tn+までのX’Y’Z’座標系の位置移動量(ΔX、ΔY、ΔZ)に基づいて、XYZ座標系におけるLED7a、7b、7cの予想移動位置17a、17b、17cを推定する。
Next, in the process in step S110, the first coordinate system position movement amount calculating section 27, object acceleration from time detected by the acceleration sensor 5 t n to time t n + s 2 (α ' x, α' y , Α ′ z ) are calculated twice to calculate the position movement amounts (ΔX l , ΔY l , ΔZ l ) of the X′Y′Z ′ coordinate system from time t n to time t n + s 2. .
Next, in the process of step S111, the optical markers estimation unit 26, an optical marker position information of the time t n, the angle shift amount of X'Y'Z 'coordinate system from the time t n to time t n + s 2 (RL DEP , EL DEP , AZ DEP ), based on the amount of movement (ΔX 1 , ΔY 1 , ΔZ 1 ) of the X′Y′Z ′ coordinate system from time t n to time t n + s 2 , in the XYZ coordinate system Estimated movement positions 17a, 17b, and 17c of the LEDs 7a, 7b, and 7c are estimated.

次に、ステップS112の処理において、光学マーカー位置情報算出部24は、時間t+sでのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17cを用いて、LED7a、7b、7cのそれぞれの予想移動範囲Da、Db、DcをXYZ座標系に設定する。
次に、ステップS113の処理において、t=tn+1と時間記憶領域42に記憶させる。
次に、ステップS114の処理において、モーショントラッカ駆動部28は、カメラ装置2でLED群7の画像データを検出させる。
Next, in the process of step S112, the optical marker position information calculation unit 24 uses the predicted movement positions 17a, 17b, and 17c of the LEDs 7a, 7b, and 7c at the time t n + s 2 to use the LEDs 7a, 7b, and 7c. Are set in the XYZ coordinate system.
Next, in the process of step S113, t n = t n + 1 is stored in the time storage area 42.
Next, in the process of step S <b> 114, the motion tracker driving unit 28 causes the camera device 2 to detect the image data of the LED group 7.

次に、ステップS115の処理において、光学マーカー位置情報算出部24は、時間tn+1の画像データを用いて、予想移動範囲Da、Db、Dcに存在するLEDを、設定された予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別することにより、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する。このとき、光学マーカー記憶領域44に時間tn+1の光学マーカー位置情報を記憶させる。
次に、ステップS116の処理において、相対頭部情報算出部22は、時間tn+1の光学マーカー位置情報に基づいて、XYZ座標系における遊戯者3の頭部の現在位置(X、Y、Z)や現在角度(RL、EL、AZ)を算出する。
Next, in the processing of step S115, the optical marker position information calculation unit 24 uses the image data at time t n + 1 to replace the LEDs existing in the expected movement ranges Da, Db, Dc with the set expected movement range Da, By identifying that the LED is the same as the LED corresponding to Db and Dc, the optical marker position information at time t n + 1 including the current position of each of the LEDs 7a, 7b and 7c is calculated. At this time, optical marker position information at time t n + 1 is stored in the optical marker storage area 44.
Next, in the process of step S116, the relative head information calculation unit 22 based on the optical marker position information at time t n + 1 , the current position of the player 3's head in the XYZ coordinate system (X h , Y h , Z h ) and the current angle (RL h , EL h , AZ h ) are calculated.

次に、ステップS117の処理において、映像表示光を出射することを終了させるか否かを判定する。映像表示光を出射することを終了させるときには、本フローチャートを終了させる。一方、映像表示光を出射することを終了させないと判定されたときには、ステップS104の処理に戻る。つまり、映像表示光を出射することを終了させると判定するときまで、ステップS104〜ステップS117の処理は繰り返される。   Next, in the process of step S117, it is determined whether or not to end the emission of the video display light. When the emission of the image display light is terminated, this flowchart is terminated. On the other hand, when it is determined not to end the emission of the image display light, the process returns to step S104. That is, the processing from step S104 to step S117 is repeated until it is determined that the emission of the video display light is to be terminated.

以上のように、HMT装置1によれば、対象物角速度(V’RL、V’EL、V’AZ)と対象物加速度(α’、α’、α’)とにより推定されたLED7a、7b、7cの位置を中心とする予想移動範囲Da、Db、Dcを設定するので、頭部装着型表示装置付ヘルメット10の移動速度が速い場合にも、予想移動範囲Da、Db、DcにLED7a、7b、7cが存在しなくなることを防ぐことができる。 As described above, according to the HMT device 1, it is estimated based on the object angular velocity (V ′ RL , V ′ EL , V ′ AZ ) and the object acceleration (α ′ x , α ′ y , α ′ z ). Since the expected movement ranges Da, Db, Dc centering on the positions of the LEDs 7a, 7b, 7c are set, even when the movement speed of the helmet 10 with a head-mounted display device is fast, the expected movement ranges Da, Db, Dc LED 7a, 7b, 7c can be prevented from being lost.

(実施形態2)
図12は、本発明の他の一実施形態であるHMT装置の概略構成を示す図である。
HMT装置61は、カメラ装置2に設定される第二座標系(XYZ座標系)に対するパイロット63の頭部位置(X、Y、Z)及び頭部角度(RL、EL、AZ)を含む相対情報を算出するものである。つまり、XYZ座標系におけるパイロット63が着用する頭部装着型表示装置付ヘルメット10に設定された第一座標系(X’Y’Z’座標系)の位置及び角度を算出する。なお、上述した実施形態1と同様のものについては、同じ符号を付して、説明を省略することとする。
(Embodiment 2)
FIG. 12 is a diagram showing a schematic configuration of an HMT apparatus according to another embodiment of the present invention.
The HMT device 61 includes a head position (X h , Y h , Z h ) and a head angle (RL h , EL h , AZ) of the pilot 63 with respect to the second coordinate system (XYZ coordinate system) set in the camera device 2. The relative information including h ) is calculated. That is, the position and angle of the first coordinate system (X′Y′Z ′ coordinate system) set in the helmet 10 with a head mounted display device worn by the pilot 63 in the XYZ coordinate system are calculated. In addition, about the thing similar to Embodiment 1 mentioned above, the same code | symbol is attached | subjected and description shall be abbreviate | omitted.

HMT装置61は、パイロット63の頭部に装着される頭部装着型表示装置付ヘルメット10と、飛行体62に取り付けられたカメラ装置2と、飛行体62に取り付けられた3軸ジャイロセンサ(移動体角速度検出センサ)64と、飛行体62に取り付けられた加速度センサ(移動体加速度検出センサ)65と、コンピュータにより構成される制御部20とから構成される。   The HMT device 61 includes a head mounted display-equipped helmet 10 attached to the pilot 63 head, the camera device 2 attached to the flying object 62, and a three-axis gyro sensor (moving) attached to the flying object 62. A body angular velocity detection sensor) 64, an acceleration sensor (moving body acceleration detection sensor) 65 attached to the flying body 62, and a control unit 20 configured by a computer.

3軸ジャイロセンサ(移動体角速度検出センサ)64は、飛行体62に作用する角速度(VRL、VEL、VAZ)を短時間(例えば、4msec)で検出するものである。つまり、パイロット63は飛行体62に乗っており、飛行体62も動いているので、対象物角速度(V’RL、V’EL、V’AZ)は、頭部装着型表示装置付ヘルメット10の角速度だけでなく、飛行体62の角速度も含んだものとなるが、3軸ジャイロセンサ64は、飛行体62のみに作用する角速度を、3軸ジャイロセンサ4と同時間で検出する。なお、3軸ジャイロセンサ64は、第二座標系(XYZ座標系)に軸合わせされている。 The triaxial gyro sensor (moving body angular velocity detection sensor) 64 detects angular velocities (V RL , V EL , V AZ ) acting on the flying object 62 in a short time (for example, 4 msec). That is, since the pilot 63 is on the flying body 62 and the flying body 62 is also moving, the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) are the same as those of the helmet 10 with a head mounted display device. Although it includes not only the angular velocity but also the angular velocity of the flying object 62, the three-axis gyro sensor 64 detects the angular velocity acting only on the flying object 62 at the same time as the three-axis gyro sensor 4. The triaxial gyro sensor 64 is aligned with the second coordinate system (XYZ coordinate system).

加速度センサ(移動体加速度検出センサ)65は、飛行体62に作用する加速度(α、α、α)を短時間(例えば、4msec)で検出するものである。つまり、パイロット63は飛行体62に乗っており、飛行体62も動いているので、対象物加速度(α’、α’、α’)は、頭部装着型表示装置付ヘルメット10の加速度だけでなく、飛行体62の加速度も含んだものとなるが、加速度センサ65は、飛行体62のみに作用する加速度を、加速度センサ4と同時間で検出する。なお、加速度センサ65は、第二座標系(XYZ座標系)に軸合わせされている。 The acceleration sensor (moving body acceleration detection sensor) 65 detects acceleration (α x , α y , α z ) acting on the flying object 62 in a short time (for example, 4 msec). That is, since the pilot 63 is on the flying body 62 and the flying body 62 is also moving, the object acceleration (α ′ x , α ′ y , α ′ z ) is the same as that of the helmet 10 with a head mounted display device. Although not only the acceleration but also the acceleration of the flying object 62 is included, the acceleration sensor 65 detects the acceleration acting only on the flying object 62 at the same time as the acceleration sensor 4. The acceleration sensor 65 is aligned with the second coordinate system (XYZ coordinate system).

制御部20は、図12に示すように、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、対象物角速度(V’RL、V’EL、V’AZ)と移動体角速度(VRL、VEL、VAZ)とに基づいてXYZ座標系の角度移動量(RLDEP、ELDEP、AZDEP)を算出する第一座標系角度移動量算出部68と、対象物加速度(α’、α’、α’)と移動体加速度(α、α、α)とに基づいてXYZ座標系の位置移動量(ΔX、ΔY、ΔZ)を算出する第一座標系位置移動量算出部67と、相対情報算出部22と、光学マーカー位置情報算出部24と、光学マーカー推定部26と、映像表示部25と、予想移動範囲Da、Db、Dcの大きさを決定する予想移動範囲決定部66とを有する。
また、予想移動範囲記憶領域45には、LED7a、7b、7cの位置移動量と、予想移動範囲Da、Db、Dcの大きさとを対応させたテーブルが記憶されている。
As shown in FIG. 12, the control unit 20 is composed of a computer including a CPU 21, a memory 41, and the like, and performs various controls and arithmetic processes. The process of CPU21 performs, will be described separately for each functional block, a motion tracker driver 28, the object velocity (V 'RL, V' EL , V 'AZ) and the moving object angular velocity (V RL, V EL, V AZ ) and the first coordinate system angular movement amount calculation unit 68 for calculating the angular movement amounts (RL DEP , EL DEP , AZ DEP ) of the XYZ coordinate system, and the object acceleration (α ′ x , α ′ y , Α ′ z ) and the moving body acceleration (α x , α y , α z ), the first coordinate system position movement amount for calculating the position movement amount (ΔX l , ΔY l , ΔZ l ) of the XYZ coordinate system Calculation unit 67, relative information calculation unit 22, optical marker position information calculation unit 24, optical marker estimation unit 26, video display unit 25, and expected movement that determines the sizes of the predicted movement ranges Da, Db, and Dc And a range determining unit 66.
Further, the predicted movement range storage area 45 stores a table in which the positional movement amounts of the LEDs 7a, 7b, and 7c are associated with the predicted movement ranges Da, Db, and Dc.

第一座標系角度移動量算出部68は、3軸ジャイロセンサ4で検出された時間tから時間t+sまでの対象物角速度(V’RL、V’EL、V’AZ)と、3軸ジャイロセンサ64で検出された時間tから時間t+sまでの対象物角速度(VRL、VEL、VAZ)との差分を積分演算することにより、時間tから時間t+sまでの第一座標系(XYZ座標系)の角度移動量(RLDEP、ELDEP、AZDEP)を算出する制御を行う。 The first coordinate system the angle shift amount calculating part 68, the object velocity from the time t n, which is detected by the triaxial gyro sensor 4 to time t n + s 2 (V ' RL, V' EL, V 'AZ) and, By integrating the difference from the object angular velocity (V RL , V EL , V AZ ) from time t n to time t n + s 2 detected by the three-axis gyro sensor 64, time t n to time t n Control is performed to calculate the angular movement amounts (RL DEP , EL DEP , AZ DEP ) of the first coordinate system (XYZ coordinate system) up to + s 2 .

第一座標系位置移動量算出部67は、加速度センサ5で検出された時間tから時間tn+までの対象物加速度(α’、α’、α’)と、加速度センサ65で検出された時間tから時間tn+までの移動体加速度(α、α、α)との差分を二回積分演算することにより、時間tから時間tn+までの第一座標系(X’Y’Z’座標系)の位置移動量(ΔX、ΔY、ΔZ)を算出する制御を行う。 The first coordinate system position movement amount calculating section 67, object acceleration from time t n, which is detected by the acceleration sensor 5 to the time t n + s 2 (α ' x, α' y, α 'z) and the acceleration sensor mobile acceleration from time t n, which is detected at 65 to time t n + s 2 (α x , α y, α z) by twice integrating calculates the difference between the time from the time t n t n + s 2 Control is performed to calculate the position movement amounts (ΔX 1 , ΔY 1 , ΔZ 1 ) of the first coordinate system (X′Y′Z ′ coordinate system) up to.

予想移動範囲決定部66は、予想移動位置17a、17b、17c及び時間tの光学マーカー位置情報に基づいてLED7a、7b、7cの位置移動量を算出することで予想移動範囲Da、Db、Dcの大きさを決定する制御を行う。
例えば、LED7aの予想移動位置17aを中心とする予想移動範囲Daの大きさを、LED7aの位置移動量が長い場合には大きくし、一方、LED7aの位置移動量が短い場合には小さくする。また、LED7bの予想移動位置17bを中心とする予想移動範囲Daの大きさを、LED7bの位置移動量が長い場合には大きくし、一方、LED7bの位置移動量が短い場合には小さくする。さらに、LED7cの予想移動位置17cを中心とする予想移動範囲Dcの大きさを、LED7cの位置移動量が長い場合には大きくし、一方、LED7cの位置移動量が短い場合には小さくする。
Expected movement range determining unit 66, the expected movement position 17a, 17b, 17c and LED7a based on the optical marker position information of the time t n, 7b, expected movement ranges Da by calculating the position movement amount of 7c, Db, Dc Control to determine the size of.
For example, the size of the expected movement range Da centered on the expected movement position 17a of the LED 7a is increased when the position movement amount of the LED 7a is long, while it is decreased when the position movement amount of the LED 7a is short. Further, the size of the expected movement range Da centered on the expected movement position 17b of the LED 7b is increased when the position movement amount of the LED 7b is long, and is decreased when the position movement amount of the LED 7b is short. Furthermore, the size of the expected movement range Dc centered on the expected movement position 17c of the LED 7c is increased when the position movement amount of the LED 7c is long, while it is decreased when the position movement amount of the LED 7c is short.

光学マーカー位置情報算出部24は、時間t+sでのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17c、及び、予想移動範囲決定部66で決定された予想移動範囲Da、Db、Dcの大きさを用いて、LED7a、7b、7cのそれぞれの予想移動範囲Da、Db、Dcを設定することにより、時間tn+1の画像データを用いて、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する制御を行う。 The optical marker position information calculation unit 24 includes the predicted movement positions 17a, 17b, and 17c of the LEDs 7a, 7b, and 7c at the time t n + s 2 and the predicted movement range Da determined by the predicted movement range determination unit 66. By setting the expected movement ranges Da, Db, and Dc of the LEDs 7a, 7b, and 7c using the sizes of Db and Dc, the image data at the time tn + 1 is used to set the respective movements of the LEDs 7a, 7b, and 7c. Control is performed to calculate optical marker position information at time t n + 1 including the current position.

以上のように、HMT装置61によれば、3軸ジャイロセンサ4で、飛行体62中ではパイロット63の頭部の動きと飛行体62の動きとが合成された動きの情報が検出されるが、3軸ジャイロセンサ64で飛行体62の動きのみの情報が検出されるため、対象物角速度(V’RL、V’EL、V’AZ)と移動体角速度(VRL、VEL、VAZ)とを用いて、飛行体62の動きを除外したパイロット63の頭部の動きのみの情報を算出することができる。
さらに、加速度センサ5で、飛行体62中ではパイロット63の頭部の動きと飛行体62の動きとが合成された動きの情報が検出されるが、加速度センサ65で飛行体62の動きのみの情報が検出されるため、対象物加速度(V’RL、V’EL、V’AZ)と移動体加速度(VRL、VEL、VAZ)とを用いて、飛行体62の動きを除外したパイロット63の頭部の動きのみの情報を算出することができる。
これにより、パイロット63が飛行体62に搭乗していても、推定されたLED7a、7b、7cの予想移動位置17a、17b、17cを中心とする予想移動範囲Da、Db、Dcを設定することができるので、パイロット63の頭部の移動速度が速い場合にも、予想移動範囲Da、Db、DcにLED7a、7b、7cが存在しなくなることを防ぐことができる。
As described above, according to the HMT device 61, the three-axis gyro sensor 4 detects movement information in the flying object 62 in which the movement of the head of the pilot 63 and the movement of the flying object 62 are combined. , the information only the motion of the aircraft 62 is detected by the triaxial gyro sensor 64, the object velocity (V 'RL, V' EL , V 'AZ) and the moving object angular velocity (V RL, V EL, V AZ ) Can be used to calculate only the head movement of the pilot 63 excluding the movement of the flying object 62.
Further, the acceleration sensor 5 detects movement information obtained by combining the movement of the head of the pilot 63 and the movement of the flying body 62 in the flying body 62, but only the movement of the flying body 62 is detected by the acceleration sensor 65. Since the information is detected, the motion of the flying object 62 is excluded using the object acceleration (V ′ RL , V ′ EL , V ′ AZ ) and the moving object acceleration (V RL , V EL , V AZ ). Only the movement of the head of the pilot 63 can be calculated.
Thereby, even if the pilot 63 is on the flying object 62, the estimated movement ranges Da, Db, Dc centered on the estimated movement positions 17a, 17b, 17c of the estimated LEDs 7a, 7b, 7c can be set. Therefore, even when the moving speed of the head of the pilot 63 is fast, it is possible to prevent the LEDs 7a, 7b, and 7c from disappearing in the expected moving ranges Da, Db, and Dc.

また、予想移動範囲決定部66は、LED7aの予想移動位置LED17aを中心とする予想移動範囲Daの大きさを、LED7aの位置移動量が長い場合には大きくし、一方、LED7aの位置移動量が短い場合には小さくする。よって、頭部装着型表示装置付ヘルメット10の移動速度が速い場合にも、予想移動範囲Da、Db、DcにLED7a、7b、7cが存在しなくなることをより防ぐとともに、頭部装着型表示装置付ヘルメット10の移動速度が遅い場合に、予想移動範囲Da、Db、Dcに2個以上のLED7a、7b、7cが同時に存在することをより防ぐことができる。   Further, the expected movement range determination unit 66 increases the size of the expected movement range Da around the expected movement position LED 17a of the LED 7a when the position movement amount of the LED 7a is long, while the position movement amount of the LED 7a is larger. If it is short, make it small. Therefore, even when the moving speed of the helmet 10 with a head-mounted display device is high, the LEDs 7a, 7b, and 7c are prevented from being present in the expected movement ranges Da, Db, and Dc, and the head-mounted display device is prevented. When the movement speed of the attached helmet 10 is slow, it is possible to further prevent two or more LEDs 7a, 7b, and 7c from being simultaneously present in the expected movement ranges Da, Db, and Dc.

本発明のHMT装置は、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度を検出するものとして、利用される。   The HMT device of the present invention is used, for example, as a device that detects the current position and the current angle of a helmet with a head-mounted display device used in game machines, vehicles, and the like.

本発明の一実施形態であるHMT装置の概略構成を示す図である。It is a figure which shows schematic structure of the HMT apparatus which is one Embodiment of this invention. 図1に示す頭部装着型表示装置付ヘルメットの平面図である。It is a top view of the helmet with a head-mounted display device shown in FIG. 第二座標系の設定を説明するための図である。It is a figure for demonstrating the setting of a 2nd coordinate system. 制御部が実行する流れを説明するためのタイムチャートである。It is a time chart for demonstrating the flow which a control part performs. 頭部装着型表示装置付ヘルメットの移動を説明するための図である。It is a figure for demonstrating a movement of the helmet with a head mounting | wearing type display apparatus. 頭部装着型表示装置付ヘルメットの移動を説明するための図である。It is a figure for demonstrating a movement of the helmet with a head mounting | wearing type display apparatus. 頭部装着型表示装置付ヘルメットの移動を説明するための図である。It is a figure for demonstrating a movement of the helmet with a head mounting | wearing type display apparatus. HMT装置による測定動作について説明するためのフローチャートである。It is a flowchart for demonstrating the measurement operation | movement by a HMT apparatus. HMT装置による測定動作について説明するためのフローチャートである。It is a flowchart for demonstrating the measurement operation | movement by a HMT apparatus. 従来の頭部装着型表示装置付ヘルメットの移動を説明するための図である。It is a figure for demonstrating the movement of the conventional helmet with a head-mounted display apparatus. 従来の頭部装着型表示装置付ヘルメットの移動を説明するための図である。It is a figure for demonstrating the movement of the conventional helmet with a head-mounted display apparatus. 本発明の他の一実施形態であるHMT装置の概略構成を示す図である。It is a figure which shows schematic structure of the HMT apparatus which is other one Embodiment of this invention.

符号の説明Explanation of symbols

1 ヘッドモーショントラッカ装置
2 カメラ装置
3 遊戯者
4 3軸ジャイロセンサ(対象物角速度検出センサ)
5 加速度センサ(対象物加速度検出センサ)
7 LED群(光学マーカー群)
10 頭部装着型表示装置付ヘルメット(対象物)
22 相対情報算出部
23 第一座標系角度移動量算出部
24 光学マーカー位置情報算出部
26 光学マーカー推定部
27 第一座標系位置移動量算出部
44 光学マーカー記憶領域
DESCRIPTION OF SYMBOLS 1 Head motion tracker apparatus 2 Camera apparatus 3 Player 4 3-axis gyro sensor (object angular velocity detection sensor)
5 Acceleration sensor (object acceleration detection sensor)
7 LED group (optical marker group)
10 Helmet with head mounted display (object)
DESCRIPTION OF SYMBOLS 22 Relative information calculation part 23 1st coordinate system angle movement amount calculation part 24 Optical marker position information calculation part 26 Optical marker estimation part 27 1st coordinate system position movement amount calculation part 44 Optical marker storage area

Claims (6)

第一座標系が設定された対象物と、
前記第一座標系に位置決めされて対象物に取り付けられた3個以上の同一種の光学マーカーと、
第二座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記第二座標系における3個以上の光学マーカーのそれぞれの現在位置を含む光学マーカー位置情報を算出する光学マーカー位置情報算出部と、
前記光学マーカー位置情報を記憶する光学マーカー記憶部と、
前記光学マーカー位置情報に基づいて、前記第二座標系における対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、
前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物角速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物角速度検出センサと、
前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物加速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物加速度検出センサと、
前記対象物角速度に基づいて、前記第一座標系の角度移動量を算出する第一座標系角度移動量算出部と、
前記対象物加速度に基づいて、前記第一座標系の位置移動量を算出する第一座標系位置移動量算出部と、
前記光学マーカー記憶部に記憶された光学マーカー位置情報、第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記第二座標系における光学マーカーの予想移動位置を推定する光学マーカー推定部とを備え、
前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記3個以上の光学マーカーをそれぞれ識別することを特徴とするモーショントラッカ装置。
An object with a first coordinate system, and
Three or more optical markers of the same type positioned in the first coordinate system and attached to the object;
A second coordinate system is set, and a camera device that detects a light beam from the optical marker in a stereoscopic view;
An optical marker position information calculating unit that calculates optical marker position information including current positions of three or more optical markers in the second coordinate system based on the detected light beam;
An optical marker storage unit for storing the optical marker position information;
A motion tracker device comprising: a relative information calculation unit that calculates relative information including a current position and a current angle of an object in the second coordinate system based on the optical marker position information;
An object angular velocity detection sensor which is positioned in the first coordinate system and attached to the object and detects the object angular velocity acting on the object in a shorter time than the detection interval time of the light beam in the camera device;
An object acceleration detection sensor which is positioned in the first coordinate system and attached to the object and detects the object acceleration acting on the object in a shorter time than the light detection interval time in the camera device;
A first coordinate system angular movement amount calculation unit that calculates an angular movement amount of the first coordinate system based on the object angular velocity;
A first coordinate system position movement amount calculation unit that calculates a position movement amount of the first coordinate system based on the object acceleration;
Based on the optical marker position information stored in the optical marker storage unit, the angle movement amount of the first coordinate system, and the position movement amount of the first coordinate system, an estimated movement position of the optical marker in the second coordinate system is estimated. An optical marker estimation unit,
The motion tracker device, wherein the optical marker position information calculation unit identifies each of the three or more optical markers based on an expected movement position of the optical marker.
前記第一座標系位置移動量算出部は、前記光学マーカー記憶部に記憶された少なくとも2つの光学マーカー位置情報に基づいて、前記第一座標系の原点の移動速度を算出し、
当該第一座標系の原点の移動速度と対象物加速度とに基づいて、前記第一座標系の位置移動量を算出することを特徴とする請求項1に記載のモーショントラッカ装置。
The first coordinate system position movement amount calculation unit calculates a movement speed of the origin of the first coordinate system based on at least two optical marker position information stored in the optical marker storage unit,
The motion tracker device according to claim 1, wherein a position movement amount of the first coordinate system is calculated based on a moving speed of the origin of the first coordinate system and an object acceleration.
前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記光学マーカーの予想移動範囲を設定することで、前記3個以上の光学マーカーをそれぞれ識別することを特徴とする請求項1又は請求項2に記載のモーショントラッカ装置。   The optical marker position information calculation unit identifies each of the three or more optical markers by setting an expected movement range of the optical marker based on an expected movement position of the optical marker. The motion tracker device according to claim 1 or 2. 前記光学マーカーの予想移動範囲は、各光学マーカーの予想移動位置を中心とする球状であることを特徴とする請求項3に記載のモーショントラッカ装置。   The motion tracker device according to claim 3, wherein the predicted movement range of the optical marker is a sphere centered on the predicted movement position of each optical marker. 前記第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記光学マーカーの位置移動量を算出することで、前記光学マーカーの予想移動範囲の大きさを決定する予想移動範囲決定部を備えることを特徴とする請求項3又は請求項4に記載のモーショントラッカ装置。   Expected movement for determining the size of the expected movement range of the optical marker by calculating the position movement amount of the optical marker based on the angular movement amount of the first coordinate system and the position movement amount of the first coordinate system. The motion tracker device according to claim 3, further comprising a range determination unit. 前記対象物は、搭乗者の頭部に装着されるヘルメットであり、かつ、
前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられ、
前記移動体に取り付けられ、前記移動体に作用する移動体角速度を、前記対象物角速度検出センサと同時間に検出する移動体角速度検出センサと、
前記移動体に取り付けられ、前記移動体に作用する移動体加速度を、前記対象物加速度度検出センサと同時間に検出する移動体加速度検出センサとを備え、
前記第一座標系角度移動量算出部は、前記対象物角速度と移動体角速度とに基づいて、前記第一座標系の角度移動量を算出し、
前記第一座標系位置移動量算出部は、前記対象物加速度と移動体加速度とに基づいて、前記第一座標系の位置移動量を算出することを特徴とする請求項1〜請求項5のいずれかに記載のモーショントラッカ装置。
The object is a helmet to be worn on a passenger's head; and
The camera device is attached to a moving body on which the passenger is boarded,
A moving body angular velocity detection sensor that is attached to the moving body and detects a moving body angular velocity acting on the moving body at the same time as the object angular velocity detection sensor;
A moving body acceleration detection sensor that is attached to the moving body and detects a moving body acceleration acting on the moving body at the same time as the object acceleration degree detection sensor;
The first coordinate system angular movement amount calculation unit calculates the angular movement amount of the first coordinate system based on the object angular velocity and the moving body angular velocity,
The first coordinate system position movement amount calculation unit calculates a position movement amount of the first coordinate system based on the object acceleration and the moving body acceleration. The motion tracker device according to any one of the above.
JP2008201438A 2008-08-05 2008-08-05 Motion tracker device Active JP5594944B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008201438A JP5594944B2 (en) 2008-08-05 2008-08-05 Motion tracker device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008201438A JP5594944B2 (en) 2008-08-05 2008-08-05 Motion tracker device

Publications (2)

Publication Number Publication Date
JP2010038707A true JP2010038707A (en) 2010-02-18
JP5594944B2 JP5594944B2 (en) 2014-09-24

Family

ID=42011415

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008201438A Active JP5594944B2 (en) 2008-08-05 2008-08-05 Motion tracker device

Country Status (1)

Country Link
JP (1) JP5594944B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013160513A (en) * 2012-02-01 2013-08-19 Shimadzu Corp Motion tracker device
JP2015513143A (en) * 2012-02-22 2015-04-30 アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi veTicaret Anonim Sirketi System and method for optimizing a tracking system
US9759804B2 (en) 2011-06-22 2017-09-12 Samsung Electronics Co., Ltd. Method and apparatus for estimating 3D position and orientation through sensor fusion
WO2019017300A1 (en) * 2017-07-20 2019-01-24 株式会社ソニー・インタラクティブエンタテインメント Information processing device and position information acquisition method
CN109584521A (en) * 2018-10-15 2019-04-05 西安理工大学 A kind of incorrect sitting-pose monitoring method based on Notch sensor
WO2020031659A1 (en) * 2018-08-06 2020-02-13 国立研究開発法人産業技術総合研究所 Position and attitude estimation system, position and attitude estimation apparatus, and position and attitude estimation method
US10963055B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Vibration device and control system for presenting corrected vibration data
US10963054B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Information processing system, vibration control method and program
US10969867B2 (en) 2016-12-15 2021-04-06 Sony Interactive Entertainment Inc. Information processing system, controller device, controller device control method and program
US10981053B2 (en) 2017-04-18 2021-04-20 Sony Interactive Entertainment Inc. Vibration control apparatus
US11013990B2 (en) 2017-04-19 2021-05-25 Sony Interactive Entertainment Inc. Vibration control apparatus
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
US11458389B2 (en) 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
JP7518081B2 (en) 2019-01-11 2024-07-17 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Fall detection system and method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09506194A (en) * 1993-11-30 1997-06-17 ハネウエル・インコーポレーテッド Inclined reflector position detection system
JP2002008043A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Device and method for analyzing action
WO2005124687A1 (en) * 2004-06-16 2005-12-29 The University Of Tokyo Method for marker tracking in optical motion capture system, optical motion capture method, and system
JP2006284442A (en) * 2005-04-01 2006-10-19 Shimadzu Corp Method of monitoring object and motion tracker using this
JP2007315775A (en) * 2006-05-23 2007-12-06 Shimadzu Corp Head motion tracker system and its usage
JP2007315968A (en) * 2006-05-26 2007-12-06 Univ Of Tokyo Method and apparatus for estimating kinematic parameters using motion capture
JP2008027362A (en) * 2006-07-25 2008-02-07 Shimadzu Corp Motion tracker device
JP2008059204A (en) * 2006-08-30 2008-03-13 Shimadzu Corp Head motion tracker apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09506194A (en) * 1993-11-30 1997-06-17 ハネウエル・インコーポレーテッド Inclined reflector position detection system
JP2002008043A (en) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd Device and method for analyzing action
WO2005124687A1 (en) * 2004-06-16 2005-12-29 The University Of Tokyo Method for marker tracking in optical motion capture system, optical motion capture method, and system
JP2006284442A (en) * 2005-04-01 2006-10-19 Shimadzu Corp Method of monitoring object and motion tracker using this
JP2007315775A (en) * 2006-05-23 2007-12-06 Shimadzu Corp Head motion tracker system and its usage
JP2007315968A (en) * 2006-05-26 2007-12-06 Univ Of Tokyo Method and apparatus for estimating kinematic parameters using motion capture
JP2008027362A (en) * 2006-07-25 2008-02-07 Shimadzu Corp Motion tracker device
JP2008059204A (en) * 2006-08-30 2008-03-13 Shimadzu Corp Head motion tracker apparatus

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9759804B2 (en) 2011-06-22 2017-09-12 Samsung Electronics Co., Ltd. Method and apparatus for estimating 3D position and orientation through sensor fusion
JP2013160513A (en) * 2012-02-01 2013-08-19 Shimadzu Corp Motion tracker device
JP2015513143A (en) * 2012-02-22 2015-04-30 アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi veTicaret Anonim Sirketi System and method for optimizing a tracking system
KR101850048B1 (en) * 2012-02-22 2018-05-30 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 System and method for optimizing tracker system
US10963054B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Information processing system, vibration control method and program
US10969867B2 (en) 2016-12-15 2021-04-06 Sony Interactive Entertainment Inc. Information processing system, controller device, controller device control method and program
US10963055B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Vibration device and control system for presenting corrected vibration data
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
US10981053B2 (en) 2017-04-18 2021-04-20 Sony Interactive Entertainment Inc. Vibration control apparatus
US11013990B2 (en) 2017-04-19 2021-05-25 Sony Interactive Entertainment Inc. Vibration control apparatus
US11458389B2 (en) 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
JP2019020333A (en) * 2017-07-20 2019-02-07 株式会社ソニー・インタラクティブエンタテインメント Information processing device and position information acquisition method
WO2019017300A1 (en) * 2017-07-20 2019-01-24 株式会社ソニー・インタラクティブエンタテインメント Information processing device and position information acquisition method
US11195293B2 (en) 2017-07-20 2021-12-07 Sony Interactive Entertainment Inc. Information processing device and positional information obtaining method
WO2020031659A1 (en) * 2018-08-06 2020-02-13 国立研究開発法人産業技術総合研究所 Position and attitude estimation system, position and attitude estimation apparatus, and position and attitude estimation method
CN109584521A (en) * 2018-10-15 2019-04-05 西安理工大学 A kind of incorrect sitting-pose monitoring method based on Notch sensor
JP7518081B2 (en) 2019-01-11 2024-07-17 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー Fall detection system and method

Also Published As

Publication number Publication date
JP5594944B2 (en) 2014-09-24

Similar Documents

Publication Publication Date Title
JP5594944B2 (en) Motion tracker device
JP4961904B2 (en) Head motion tracker device
JP4924342B2 (en) Motion tracker device
JP4396564B2 (en) Object monitoring method and motion tracker using the same
US11360552B1 (en) High assurance headtracking via structured light projection for head worn display (HWD)
JP2009069364A (en) Head mounted display device and head mounted display device system
JP5292725B2 (en) Motion tracker device
US11269400B2 (en) Positioning system
JP5505363B2 (en) Motion tracker device
JP4665872B2 (en) Head motion tracker device
JP2016151566A (en) Motion tracker device
JP2014095557A (en) Motion tracker device
JP5092300B2 (en) Head motion tracker device
JP2007315775A (en) Head motion tracker system and its usage
JP4967546B2 (en) Head motion tracker device
JP4905311B2 (en) Head motion tracker system and calibration device used therefor
JP4656016B2 (en) Motion tracker device
JP5029531B2 (en) Motion tracker system and coordinate system setting method thereof
JP4905321B2 (en) Head motion tracker device
JP2009036517A (en) Head motion tracker device
JP4656017B2 (en) Head motion tracker device
JP4877138B2 (en) Head motion tracker device
JP4872768B2 (en) Head motion tracker device
JP2007334762A (en) Head motion tracker
JP4784591B2 (en) Motion tracker device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130614

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130621

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20130802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140805

R151 Written notification of patent or utility model registration

Ref document number: 5594944

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151