JP2010038707A - Motion tracker device - Google Patents
Motion tracker device Download PDFInfo
- Publication number
- JP2010038707A JP2010038707A JP2008201438A JP2008201438A JP2010038707A JP 2010038707 A JP2010038707 A JP 2010038707A JP 2008201438 A JP2008201438 A JP 2008201438A JP 2008201438 A JP2008201438 A JP 2008201438A JP 2010038707 A JP2010038707 A JP 2010038707A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- optical marker
- movement
- time
- movement amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Abstract
Description
本発明は、光学方式のモーショントラッカ装置(以下、MT装置ともいう)に関し、さらに詳細には、光学マーカーの現在位置及び現在角度を検出する機能を備える光学方式のMT装置に関する。本発明は、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度(すなわち、現在の頭部位置及び頭部角度)を検出するヘッドモーショントラッカ装置(以下、HMT装置ともいう)等に利用される。
ここで、光学方式のHMT装置とは、反射板や発光体等の光学マーカーを取り付けたヘルメット等を頭部に装着して、光学マーカーの位置を立体視が可能なカメラ装置で測定することにより、頭部の動きを追跡する装置等のことをいう。
The present invention relates to an optical motion tracker device (hereinafter also referred to as an MT device), and more particularly to an optical MT device having a function of detecting a current position and a current angle of an optical marker. The present invention relates to a head motion tracker device (hereinafter, the current head position and head angle) for detecting the current position and current angle of a helmet with a head-mounted display device used in, for example, game machines and vehicles (hereinafter, the current head position and head angle). , Also referred to as an HMT device).
Here, the optical HMT device is a device in which a helmet equipped with an optical marker such as a reflector or a light emitter is attached to the head, and the position of the optical marker is measured with a camera device capable of stereoscopic viewing. It means a device that tracks the movement of the head.
時々刻々と変動する物体の現在位置や現在角度を正確に測定する技術は、様々な分野で利用されている。例えば、ゲーム機では、バーチャルリアリティ(VR)を実現するために、頭部装着型表示装置付ヘルメットを用いることにより、映像を表示することがなされている。このとき、頭部装着型表示装置付ヘルメットの現在位置や現在角度に合わせて、映像を変化させる必要がある。よって、頭部装着型表示装置付ヘルメット(対象物)の現在位置や現在角度を測定するために、HMT装置が利用されている。 A technique for accurately measuring the current position and current angle of an object that changes from moment to moment is used in various fields. For example, in a game machine, an image is displayed by using a helmet with a head-mounted display device in order to realize virtual reality (VR). At this time, it is necessary to change the image in accordance with the current position and the current angle of the head mounted display-equipped helmet. Therefore, the HMT device is used to measure the current position and the current angle of the head-mounted helmet with a display device (target object).
また、救難飛行艇による救難活動では、発見した救難目標を見失うことがないようにするため、頭部装着型表示装置付ヘルメットにより表示される照準画像と救難目標とが対応した時にロックすることにより、ロックされた救難目標の位置を演算することが行われている。このとき、その救難目標の位置を演算するために、飛行体(移動体)の緯度、経度、高度、姿勢に加えて、飛行体に設定された相対座標系に対するパイロットの頭部角度及び頭部位置を測定している。このときに、HMT装置が利用されている。 Also, in the rescue operation by the rescue flying boat, in order not to lose sight of the found rescue target, by locking when the aiming image displayed by the helmet with head mounted display device corresponds to the rescue target, Calculating the position of the locked rescue target has been done. At this time, in order to calculate the position of the rescue target, in addition to the latitude, longitude, altitude, and attitude of the flying object (moving object), the pilot's head angle and head with respect to the relative coordinate system set for the flying object The position is being measured. At this time, the HMT device is used.
頭部装着型表示装置付ヘルメットに利用されるHMT装置としては、光学的に頭部装着型表示装置付ヘルメットの現在位置や現在角度を測定するものが開示されている(例えば、特許文献1参照)。具体的には、複数の反射板を頭部装着型表示装置付ヘルメットに取り付けるとともに光源から光を照射したときの反射光をカメラ装置でモニタする光学方式のHMT装置が開示されている。また、発光体を互いに離隔するようにして複数箇所に取り付けた光学方式のHMT装置もある(例えば、特許文献2参照)。具体的には、頭部装着型表示装置付ヘルメットの外周面上に、光学マーカー群として発光体であるLED(発光ダイオード)を互いに離隔するようにして3箇所に取り付け、頭部装着型表示装置付ヘルメットにおける3個のLEDの相対的な位置関係をHMT装置に予め記憶させておく。そして、これら3個のLEDを、立体視が可能でかつ設置場所が固定された第一カメラと第二カメラ(カメラ装置)で同時に撮影することで、所謂、三角測量の原理により、カメラ装置に対する3個のLEDの相対的な位置関係を測定している。これにより、カメラ装置に対する頭部装着型表示装置付ヘルメットの現在位置や現在角度を特定している。
上述したような光学方式のHMT装置で、カメラ装置に対する3個のLEDの相対的な位置関係を測定するためには、3個のLEDをそれぞれ識別する必要がある。よって、頭部装着型表示装置付ヘルメットには、それぞれが識別可能な3個のLEDが取り付けられている。例えば、頭部装着型表示装置付ヘルメットの外周面上に、互いに異なる波長の赤外光を発光するLEDを互いに離隔するようにして取り付け、頭部装着型表示装置付ヘルメットにおける3個のLEDのそれぞれの位置をHMT装置に予め記憶させておく。そして、これら3個のLEDを波長差によりそれぞれ識別しながら、カメラ装置に対する3個のLEDのそれぞれの現在位置を測定している。 In order to measure the relative positional relationship of the three LEDs with respect to the camera device in the optical HMT device as described above, it is necessary to identify each of the three LEDs. Therefore, three LEDs that can be individually identified are attached to the head-mounted helmet with a display device. For example, on the outer peripheral surface of the helmet with a head-mounted display device, LEDs that emit infrared light of different wavelengths are attached so as to be separated from each other, and the three LEDs in the helmet with the head-mounted display device are Each position is stored in advance in the HMT apparatus. Then, the current position of each of the three LEDs with respect to the camera device is measured while identifying each of the three LEDs by the wavelength difference.
しかしながら、それぞれが識別可能な3個のLEDを取り付けた場合、1個のLEDが故障等したときに、故障した1個のLEDを新品の1個のLEDと交換するとともに、新品の1個のLEDの識別情報(例えば、波長情報)を改めてHMT装置に記憶させる必要があった。よって、新品のLEDと交換するたびに、新品のLEDの識別情報をHMT装置に記憶させる手間がかかった。
また、識別情報を有さない3個のLEDを、1個1個順番に点灯させることにより、識別することも考えられるが、1個1個順番に点灯させなければならないので、時々刻々と変化する頭部装着型表示装置付ヘルメットの動きをモニタリングすることは困難である。
However, when three LEDs that can be identified are attached, when one LED fails, etc., one failed LED is replaced with one new LED, and one new LED is replaced. LED identification information (for example, wavelength information) has to be stored in the HMT device anew. Therefore, every time it is replaced with a new LED, it takes time to store the identification information of the new LED in the HMT device.
In addition, it is conceivable to identify three LEDs that do not have identification information by lighting them one by one, but they must be turned on one by one. It is difficult to monitor the movement of a helmet with a head mounted display device.
そこで、本出願人は、頭部装着型表示装置付ヘルメット50等に取り付けられた3個のLED57a、57b、57cのそれぞれの現在位置を識別する際に、LED57a、57b、57cに識別情報を持たせたり、1個1個順番に点灯させたりすることもなく、LED57a、57b、57cのそれぞれの現在位置を識別することができる方法を見出した。
具体的には、まず、第一カメラの撮影方向と第二カメラの撮影方向とが定まった状態において、エピポーラ幾何学に基づく予測により、第一カメラで撮影された第一画像と第二カメラで撮影された第二画像との間での共通のLED像の組を認識することを行った。
そして、第一画像中のLED像と第二画像中のLED像との対応付けを行うことができれば、第一画像及び第二画像中のLED像の位置により、第一カメラからの方向角度αと第二カメラからの方向角度βとを算出し、第一カメラと第二カメラとの間の距離d1を用いることで、所謂、三角測量の手法でカメラ装置に対するLEDの位置を算出することを行った(図3参照)。
Therefore, the present applicant has identification information on the
Specifically, first, in a state where the shooting direction of the first camera and the shooting direction of the second camera are determined, the first image shot by the first camera and the second camera are predicted by prediction based on epipolar geometry. A set of common LED images with the captured second image was recognized.
If the LED image in the first image can be associated with the LED image in the second image, the direction angle α from the first camera is determined by the position of the LED image in the first image and the second image. And the direction angle β from the second camera, and using the distance d 1 between the first camera and the second camera, the position of the LED relative to the camera device is calculated by a so-called triangulation method. (See FIG. 3).
このようにして算出された各LEDの位置が、頭部装着型表示装置付ヘルメットに取り付けられたLEDのいずれにそれぞれ対応するかはまだ認識できないので、例えば、時間がt1、t2と順に流れたとすると、図10に示すように、時間t1に、LED57a、57b、57cのそれぞれの位置を記憶するとともに、記憶されたそれぞれのLED57a、57b、57cの位置を中心とする一定の大きさの球状である予想移動範囲Da、Db、Dcを設定することにより、時間t2に、予想移動範囲Da、Db、Dcに存在するLEDを、時間t1に設定された予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別した。 Since it is not yet possible to recognize which of the LEDs attached to the head-mounted display-equipped helmet with the position of each LED calculated in this way, for example, time t 1 , t 2 in order When played back, as shown in FIG. 10, the time t 1, LED57a, 57b, stores the position of each of 57c, stored respective LED57a, 57 b, a constant around the position of 57c size By setting the predicted movement ranges Da, Db, and Dc that are spherical, the LEDs existing in the predicted movement ranges Da, Db, and Dc at time t 2 are replaced with the expected movement ranges Da, Db set at time t 1. , Dc was identified as the same LED.
しかしながら、図11に示すように、頭部装着型表示装置付ヘルメット50の移動速度が速い場合に、予想移動範囲Da、Db、DcにLEDが存在しなくなることがあった。また、設定する予想移動範囲Da、Db、Dcの大きさを大きくすると、予想移動範囲Da、Db、Dcに2個のLEDが同時に存在することがあった。つまり、予想移動範囲Da、Db、Dcに存在するLEDを、その予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別することができなくなることがあった。
However, as shown in FIG. 11, when the moving speed of the
そこで、本発明は、頭部装着型表示装置付ヘルメット等の対象物に取り付けられた3個以上のLED等の光学マーカーのそれぞれの現在位置を識別する際に、光学マーカーに識別情報を持たせたり、1個1個順番に点灯させたりすることなく、各光学マーカーを確実に識別することができるモーショントラッカ装置を提供することを目的とする。 Therefore, the present invention provides the optical marker with identification information when identifying the current position of each of the three or more optical markers such as LEDs attached to an object such as a head-mounted display-equipped helmet. Another object of the present invention is to provide a motion tracker device that can reliably identify each optical marker without lighting them one by one.
上記課題を解決するためになされた本発明のモーショントラッカ装置は、第一座標系が設定された対象物と、前記第一座標系に位置決めされて対象物に取り付けられた3個以上の同一種の光学マーカーと、第二座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、検出された光線に基づいて、前記第二座標系における3個以上の光学マーカーのそれぞれの現在位置を含む光学マーカー位置情報を算出する光学マーカー位置情報算出部と、前記光学マーカー位置情報を記憶する光学マーカー記憶部と、前記光学マーカー位置情報に基づいて、前記第二座標系における対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物角速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物角速度検出センサと、前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物加速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物加速度検出センサと、前記対象物角速度に基づいて、前記第一座標系の角度移動量を算出する第一座標系角度移動量算出部と、前記対象物加速度に基づいて、前記第一座標系の位置移動量を算出する第一座標系位置移動量算出部と、前記光学マーカー記憶部に記憶された光学マーカー位置情報、第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記第二座標系における光学マーカーの予想移動位置を推定する光学マーカー推定部とを備え、前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記3個以上の光学マーカーをそれぞれ識別するようにしている。 The motion tracker device of the present invention, which has been made to solve the above-mentioned problems, includes an object having a first coordinate system set, and three or more identical species positioned on the first coordinate system and attached to the object. And a second coordinate system is set, a camera device that detects the light beam from the optical marker by stereoscopic vision, and three or more optical markers in the second coordinate system based on the detected light beam Based on the optical marker position information, an optical marker position information calculation unit that calculates optical marker position information including each current position, an optical marker storage unit that stores the optical marker position information, and the second coordinate system A motion tracker device comprising a relative information calculation unit for calculating relative information including a current position and a current angle of an object, and positioning in the first coordinate system An object angular velocity detection sensor for detecting an object angular velocity acting on the object and acting on the object in a shorter time than a light detection interval time in the camera device, and positioned in the first coordinate system. The object acceleration detection sensor for detecting the object acceleration acting on the object and acting on the object in a shorter time than the light detection interval time in the camera device, and the object angular velocity based on the object angular velocity, A first coordinate system angular movement amount calculation unit that calculates an angular movement amount of the first coordinate system, and a first coordinate system position movement amount calculation that calculates a position movement amount of the first coordinate system based on the object acceleration. And the predicted movement position of the optical marker in the second coordinate system based on the optical marker position information stored in the optical marker storage unit, the angle movement amount of the first coordinate system, and the position movement amount of the first coordinate system. And an optical marker estimation unit that estimates a, the optical marker position information calculating unit, based on the expected movement position of the optical markers, and the three or more optical markers to identify respectively.
ここで、「角度移動量」とは、ロール方向(X軸に対する回転)と、エレベーション方向(Y軸に対する回転)と、アジマス方向(Z軸に対する回転)とにおける移動量のことをいう。
また、「位置移動量」とは、X軸方向とY軸方向とZ軸方向とにおける移動量のことをいう。
また、「対象物角速度検出センサ」とは、センサ自体に3軸(X軸、Y軸、Z軸)が定義されて、この3軸を基準とする角速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。
また、「対象物加速度検出センサ」とは、センサ自体に3軸(X軸、Y軸、Z軸)が定義されて、この3軸を基準とする3軸方向の加速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、加速度センサ等が用いられる。
また、「カメラ装置での光線の検出間隔時間」とは、カメラ装置による撮影と撮影との間隔時間(例えば、16msec)のこという。
Here, the “angle movement amount” refers to a movement amount in the roll direction (rotation with respect to the X axis), the elevation direction (rotation with respect to the Y axis), and the azimuth direction (rotation with respect to the Z axis).
The “position movement amount” refers to a movement amount in the X-axis direction, the Y-axis direction, and the Z-axis direction.
In addition, the “object angular velocity detection sensor” has three axes (X axis, Y axis, Z axis) defined in the sensor itself, and detects an angular velocity based on these three axes in a short time (for example, 4 msec). For example, a gyro sensor or the like is used.
In addition, the “object acceleration detection sensor” is defined by three axes (X axis, Y axis, Z axis) in the sensor itself, and acceleration in a triaxial direction with reference to the three axes is short-time (for example, 4 msec) that can be detected, for example, an acceleration sensor or the like is used.
The “light detection interval time at the camera device” refers to an interval time (for example, 16 msec) between photographing by the camera device.
本発明のモーショントラッカ装置によれば、時間がt1、t2’(t2の直前)、t2と順に流れたとすると、時間t1に記憶された3個以上の光学マーカーのそれぞれの位置と、時間t1から時間t2’までに対象物に作用する対象物角速度と、時間t1から時間t2’までに対象物に作用する対象物加速度とを用いて、第一座標系の角度移動量と第一座標系の位置移動量とを算出することにより、時間t2’での光学マーカーの予想移動位置を推定する。次に、例えば、推定された各光学マーカーの予想移動位置を中心とする球状である予想移動範囲を設定することにより、時間t2に予想移動範囲に存在する光学マーカーを、時間t2’に設定された予想移動範囲に対応する光学マーカーと同一のものであると識別する。 According to the motion tracker device of the present invention, time t 1, t 2 '(just before t 2), when the flows in t 2 and forward, each of the positions of three or more optical markers stored in the time t 1 When, 'and the object angular velocity acting on the object until, from the time t 1 time t 2' from the time t 1 time t 2 by using the object acceleration acting on the object before, the first coordinate system By calculating the angular movement amount and the position movement amount of the first coordinate system, the predicted movement position of the optical marker at time t 2 ′ is estimated. Then, for example, by setting the estimated movement range is spherical around the expected movement position of each optical marker estimated, an optical marker present in the expected range of movement in time t 2, the time t 2 ' The optical marker corresponding to the set expected movement range is identified as the same one.
以上のように、本発明のモーショントラッカ装置によれば、対象物角速度と対象物加速度とにより推定された光学マーカーの予想移動位置を設定するので、対象物の移動速度が速い場合にも、光学マーカーを見失うことを防ぐことができる。 As described above, according to the motion tracker device of the present invention, since the expected movement position of the optical marker estimated by the object angular velocity and the object acceleration is set, the optical tracker can be used even when the object movement speed is high. It is possible to prevent the marker from being lost.
(他の課題を解決するための手段および効果)
また、上記の発明において、前記第一座標系位置移動量算出部は、前記光学マーカー記憶部に記憶された少なくとも2つの光学マーカー位置情報に基づいて、前記第一座標系の原点の移動速度を算出し、当該第一座標系の原点の移動速度と対象物加速度とに基づいて、前記第一座標系の位置移動量を算出するようにしてもよい。
また、上記の発明において、前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記光学マーカーの予想移動範囲を設定することで、前記3個以上の光学マーカーをそれぞれ識別するようにしてもよい。
また、上記の発明において、前記光学マーカーの予想移動範囲は、各光学マーカーの予想移動位置を中心とする球状であるようにしてもよい。
(Means and effects for solving other problems)
In the above invention, the first coordinate system position movement amount calculation unit may calculate the movement speed of the origin of the first coordinate system based on at least two optical marker position information stored in the optical marker storage unit. It may be calculated and the position movement amount of the first coordinate system may be calculated based on the moving speed of the origin of the first coordinate system and the object acceleration.
In the above invention, the optical marker position information calculation unit identifies each of the three or more optical markers by setting an expected movement range of the optical marker based on an expected movement position of the optical marker. You may make it do.
In the above invention, the expected movement range of the optical marker may be a sphere centered on the expected movement position of each optical marker.
そして、上記の発明において、前記第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記光学マーカーの位置移動量を算出することで、前記光学マーカーの予想移動範囲の大きさを決定する予想移動範囲決定部を備えるようにしてもよい。
本発明によれば、時間t1から時間t2’までに対象物に作用する対象物角速度と、時間t1から時間t2’までに対象物に作用する対象物加速度とにより、第一座標系の角度移動量と第一座標系の位置移動量とを算出することで、時間t1から時間t2’までの光学マーカーの位置移動量を算出する。これにより、1個の光学マーカーの予想移動位置を中心とする予想移動範囲の大きさを、例えば、光学マーカーの位置移動量が長い場合には大きくし、一方、光学マーカーの位置移動量が短い場合には小さくすることができる。よって、対象物の移動速度が速い場合にも、予想移動範囲に光学マーカーが存在しなくなることをより防ぐとともに、対象物の移動速度が遅い場合に、予想移動範囲に2個以上の光学マーカーが同時に存在することをより防ぐことができる。
In the invention described above, the position movement amount of the optical marker is calculated based on the angle movement amount of the first coordinate system and the position movement amount of the first coordinate system. You may make it provide the estimated moving range determination part which determines a magnitude | size.
According to the present invention, 'the object angular velocity acting on the object until, from the time t 1 time t 2' from the time t 1 time t 2 by the object acceleration acting on the object by the first coordinate By calculating the angle movement amount of the system and the position movement amount of the first coordinate system, the position movement amount of the optical marker from time t 1 to time t 2 ′ is calculated. Accordingly, the size of the predicted movement range centered on the predicted movement position of one optical marker is increased, for example, when the position movement amount of the optical marker is long, while the position movement amount of the optical marker is short. In some cases it can be made smaller. Therefore, even when the moving speed of the object is fast, it is further prevented that the optical marker does not exist in the expected moving range, and when the moving speed of the object is slow, two or more optical markers are present in the expected moving range. It is possible to prevent the presence at the same time.
さらに、上記の発明において、前記対象物は、搭乗者の頭部に装着されるヘルメットであり、かつ、前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられ、前記移動体に取り付けられ、前記移動体に作用する移動体角速度を、前記対象物角速度検出センサと同時間に検出する移動体角速度検出センサと、前記移動体に取り付けられ、前記移動体に作用する移動体加速度を、前記対象物加速度度検出センサと同時間に検出する移動体加速度検出センサとを備え、前記第一座標系角度移動量算出部は、前記対象物角速度と移動体角速度とに基づいて、前記第一座標系の角度移動量を算出し、前記第一座標系位置移動量算出部は、前記対象物加速度と移動体加速度とに基づいて、前記第一座標系の位置移動量を算出するようにしてもよい。 Further, in the above invention, the object is a helmet to be mounted on a passenger's head, and the camera device is attached to a moving body on which the passenger is boarded, and is attached to the moving body. A moving body angular velocity detection sensor that detects a moving body angular velocity acting on the moving body at the same time as the object angular velocity detection sensor; and a moving body acceleration attached to the moving body and acting on the moving body, A moving body acceleration detection sensor that detects the object acceleration degree detection sensor at the same time, and the first coordinate system angular movement amount calculation unit calculates the first coordinate based on the object angular velocity and the moving body angular velocity. The first coordinate system position movement amount calculation unit may calculate the position movement amount of the first coordinate system based on the object acceleration and the moving body acceleration. Good
ここで、「移動体角速度検出センサ」とは、対象物角速度検出センサと同様に、センサ自体に3軸が定義されて、この3軸を基準とする角速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、ジャイロセンサ等が用いられる。なお、上述した対象物角速度センサは、対象物が移動体中で移動したときには、対象物の動きと移動体の動きとが合成された動きの情報を検出することになるが、移動体角速度センサは、移動体の動きのみの情報を検出することになる。
また、「移動体加速度検出センサ」とは、対象物加速度検出センサと同様に、センサ自体に3軸が定義されて、この3軸を基準とする3軸方向の加速度を短時間(例えば、4msec)で検出できるもののことをいい、例えば、加速度センサ等が用いられる。なお、上述した対象物加速度センサは、対象物が移動体中で移動したときには、対象物の動きと移動体の動きとが合成された動きの情報を検出することになるが、移動体加速度センサは、移動体の動きのみの情報を検出することになる。
Here, the “moving body angular velocity detection sensor” is similar to the object angular velocity detection sensor, in which three axes are defined in the sensor itself, and the angular velocity based on these three axes is detected in a short time (for example, 4 msec). For example, a gyro sensor or the like is used. Note that the above-described object angular velocity sensor detects movement information obtained by combining the movement of the object and the movement of the object when the object moves in the moving object. Detects only the movement of the moving object.
The “moving body acceleration detection sensor” is similar to the object acceleration detection sensor. Three axes are defined in the sensor itself, and acceleration in the three-axis direction with reference to the three axes is performed for a short time (for example, 4 msec). ), For example, an acceleration sensor or the like is used. Note that the object acceleration sensor described above detects movement information obtained by combining the movement of the object and the movement of the object when the object moves in the moving object. Detects only the movement of the moving object.
本発明によれば、対象物角速度検出センサで、移動体中では搭乗者の頭部の動きと移動体の動きとが合成された動きの情報が検出されるが、移動体角速度検出センサで移動体の動きのみの情報が検出されるため、対象物角速度と移動体角速度とを用いて、移動体の動きを除外した搭乗者の頭部の動きのみの情報を算出することができる。
さらに、対象物加速度検出センサで、移動体中では搭乗者の頭部の動きと移動体の動きとが合成された動きの情報が検出されるが、移動体加速度検出センサで移動体の動きのみの情報が検出されるため、対象物加速度と移動体加速度とを用いて、移動体の動きを除外した搭乗者の頭部の動きのみの情報を算出することができる。
これにより、例えば、搭乗者が移動体に搭乗していても、光学マーカーの予想移動位置を設定することができるので、対象物の移動速度が速い場合にも、光学マーカーを見失うことを防ぐことができる。
According to the present invention, the object angular velocity detection sensor detects movement information obtained by combining the movement of the passenger's head and the movement of the moving body in the moving body. Since only the information on the movement of the body is detected, it is possible to calculate only the information on the movement of the head of the occupant excluding the movement of the moving body using the object angular velocity and the moving body angular velocity.
Furthermore, the object acceleration detection sensor detects movement information in the moving body by combining the movement of the passenger's head and the movement of the moving body, but only the movement of the moving body is detected by the moving body acceleration detection sensor. Therefore, it is possible to calculate only the movement of the passenger's head excluding the movement of the moving body using the object acceleration and the moving body acceleration.
As a result, for example, even if the passenger is on the moving body, the predicted movement position of the optical marker can be set, so that even if the moving speed of the object is fast, the optical marker is prevented from being lost. Can do.
以下、本発明の実施形態について図面を用いて説明する。なお、本発明は、以下に説明するような実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の態様が含まれることはいうまでもない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that the present invention is not limited to the embodiments described below, and it goes without saying that various aspects are included without departing from the spirit of the present invention.
(実施形態1)
図1は、本発明の一実施形態であるHMT装置の概略構成を示す図であり、図2は、図1に示す頭部装着型表示装置付ヘルメットの平面図である。
HMT装置1は、カメラ装置2に設定される第二座標系(XYZ座標系)に対する遊戯者3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出するものである。つまり、XYZ座標系における遊戯者3が着用する頭部装着型表示装置付ヘルメット10に設定された第一座標系(X’Y’Z’座標系)の位置及び角度を算出する。
なお、角度RLhは、ロール方向(X軸に対する回転)の角度であり、角度ELhは、エレベーション方向(Y軸に対する回転)の角度であり、角度AZhは、アジマス方向(Z軸に対する回転)の角度である。
(Embodiment 1)
FIG. 1 is a diagram showing a schematic configuration of an HMT device according to an embodiment of the present invention, and FIG. 2 is a plan view of the helmet with a head-mounted display device shown in FIG.
The
The angle RL h is an angle in the roll direction (rotation with respect to the X axis), the angle EL h is an angle in the elevation direction (rotation with respect to the Y axis), and the angle AZ h is an azimuth direction (with respect to the Z axis). Angle of rotation).
HMT装置1は、遊戯者3の頭部に装着される頭部装着型表示装置付ヘルメット10と、ゲーム機30に取り付けられたカメラ装置2と、コンピュータにより構成される制御部20とから構成される。
頭部装着型表示装置付ヘルメット10は、表示器(図示せず)と、表示器から出射される画像表示光を反射することにより、遊戯者3の目に導くコンバイナ8と、光学マーカーとして機能するLED群7と、3軸ジャイロセンサ(対象物角速度検出センサ)4と、加速度センサ(対象物加速度検出センサ)5とを有する。なお、頭部装着型表示装置付ヘルメット10を装着した遊戯者3は、表示器による表示映像とコンバイナ8の前方実在物とを視認することが可能となっている。
The
The
ここで、頭部装着型表示装置付ヘルメット10自体には、第一座標系(X’Y’Z’座標系)が予め定められており、3軸ジャイロセンサ4と加速度センサ5とは、X’Y’Z’座標系と正確に軸合わせされ、かつ、X’Y’Z’座標系に位置決めされて取り付けられている。なお、初期状態において、X’Y’Z’座標系は遊戯者3によって後述する第二座標系(XYZ座標系)と軸合わせ(軸のズレの調整)される。初期状態でのX’Y’Z’座標系とXYZ座標系との軸合わせの方法については、広く用いられている一般的な方法(例えば、頭部装着型表示装置付ヘルメット10を装着した遊戯者3に特定方向を向くように指示することにより軸合わせを行う方法)等により行われる。
Here, the first coordinate system (X′Y′Z ′ coordinate system) is predetermined for the head mounted
LED群7は、図2に示すように、同じ波長の赤外光を発光する3個(あるいは3個以上の数)のLED7a、7b、7cがお互い一定の距離d2を隔てるようにして、第一座標系(X’Y’Z’座標系)に位置決めされて取り付けられたものである。つまり、X’Y’Z’座標系におけるLED7a、7b、7cの座標位置は、(X’DISa、Y’DISa、Z’ DISa)、(X’DISb、Y’ DISb、Z’ DISb)、(X’DISc、Y’DISc、Z’ DISc)として表現できる。しかしながら、LED7a、7b、7cは、同じ波長の赤外光を発光するものなので、後述するカメラ装置2のみでは、撮影した各LEDが、頭部装着型表示装置付ヘルメット10に取り付けられたLEDのいずれにそれぞれ対応するかは認識できないことになる。
3軸ジャイロセンサ4は、頭部装着型表示装置付ヘルメット10に作用する角速度(V’RL、V’EL、V’AZ)を短時間(例えば、4msec)で検出するものである。なお、3軸ジャイロセンサ4は、第一座標系(X’Y’Z’座標系)に軸合わせされているので、ロール方向(X’軸に対する回転)、エレベーション方向(Y’軸に対する回転)、アジマス方向(Z’軸に対する回転)における対象物角速度(V’RL、V’EL、V’AZ)が検出される。また、3軸ジャイロセンサ4は、X’Y’Z’座標系の原点に取り付けられているが、X’Y’Z’座標系の原点以外の位置に取り付けられた場合には、X’Y’Z’座標系の原点の位置での角速度を求めるためにオフセット行列M0を乗算したりする一般的な計算方法等で、対象物角速度(V’RL、V’EL、V’AZ)を変換することになる。
The
加速度センサ5は、頭部装着型表示装置付ヘルメット10に作用する加速度(α’x、α’y、α’z)を短時間(例えば、4msec)で検出するものである。なお、加速度センサ5は、第一座標系(X’Y’Z’座標系)に軸合わせされているので、X’軸方向、Y’軸方向、Z’軸方向における対象物加速度(α’x、α’y、α’z)が検出される。
The
ゲーム機30は、遊戯者3が着席する座席30aとカメラ装置2とを備える。
カメラ装置2は、第一カメラ2aと第二カメラ2bとからなる。第一カメラ2aと第二カメラ2bとは、撮影方向が異なりかつ立体視が可能な一定の距離d1を隔てるように、天井に固定されている。
ここで、図3に示すように、カメラ装置2(2a、2b)に対するLED7aの位置は、カメラ装置2に撮影された画像中に映し出されているLED7a像の位置を抽出し、さらに第一カメラ2aからの方向角度αと第二カメラ2bからの方向角度βとを抽出し、第一カメラ2aと第二カメラ2bとの間の距離d1を用いることにより、三角測量の手法で算出することができる。他の光学マーカーであるLED7b、7cのカメラ装置2に対する位置についても、同様に算出される。
The
The
Here, as shown in FIG. 3, the position of the
このときの各LED7a、7b、7cの位置を、空間座標で表現することができるようにするために、カメラ装置2に固定され、カメラ装置2とともに移動する座標系である第二座標系(XYZ座標系)を用いる。なお、XYZ座標系の具体的な原点位置やXYZ軸方向の説明については後述する。XYZ座標系によりLED7a、7b、7cの座標位置は、(XLED1、YLED1、ZLED1)、(XLED2、YLED2、ZLED2)、(XLED3、YLED3、ZLED3)として表現できる。これにより、カメラ装置2に対する3個のLED7a、7b、7cの座標位置(XLED1、YLED1、ZLED1)、(XLED2、YLED2、ZLED2)、(XLED3、YLED3、ZLED3)がそれぞれどのLEDか識別されて特定されれば、LED7a、7b、7cが位置決めされて取り付けられている頭部装着型表示装置付ヘルメット10の位置(Xh、Yh、Zh)及び角度(RLh、ELh、AZh)は、XYZ座標系における第一座標系(X’Y’Z’座標系)の位置及び角度を用いて表現できる。なお、角度RLhは、ロール方向(X軸に対する回転)の角度であり、角度ELhは、エレベーション方向(Y軸に対する回転)の角度であり、角度AZhは、アジマス方向(Z軸に対する回転)の角度である。また、頭部装着型表示装置付ヘルメット10の位置(Xh、Yh、Zh)は、X’Y’Z’座標系の原点の座標位置である。
The second coordinate system (XYZ), which is a coordinate system that is fixed to the
制御部20は、図1に示すように、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、第一座標系角度移動量算出部23と、第一座標系位置移動量算出部27と、相対情報算出部22と、光学マーカー位置情報算出部24と、光学マーカー推定部26と、映像表示部25とを有する。なお、図4は、制御部20が実行する流れを説明するタイムチャートである。
As shown in FIG. 1, the
また、メモリ41には、制御部20が処理を実行するために必要な種々のデータを蓄積する領域が形成してあり、第二座標系(XYZ座標系)を記憶する第二座標系記憶領域43と、時間記憶領域42と、第一座標系(X’Y’Z’座標系)を記憶するとともに、X’Y’Z’座標系における3個のLED7a、7b、7cのそれぞれの位置(X’DIS、Y’DIS、Z’ DIS)を初期データとして記憶する第一座標系記憶領域46と、XYZ座標系における3個のLED7a、7b、7cの時間tnでのそれぞれの位置(XLED、YLED、ZLED)を含む光学マーカー位置情報を順次記憶する光学マーカー記憶領域44と、d2を直径とする球状とする予想移動範囲の大きさを記憶する予想移動範囲記憶領域45とを有する。
The
ここで、第二座標系(XYZ座標系)は、原点及び各座標軸の方向を任意に定めることができるが、本実施形態では図3に示すように、第一カメラ2aと第二カメラ2bとの中点を原点とし、前方方向をX軸方向とし、前方方向に垂直方向をY軸方向とし、X軸方向及びY軸方向に垂直方向をZ軸方向とするように、第二座標系記憶領域43に予め設定されている。
また、時間記憶領域44は、カメラ装置2でLED7a、7b、7cが検出される毎に更新される時間tnと、対象物角速度(V’RL、V’EL、V’AZ)及び対象物加速度(α’x、α’y、α’z)が検出される毎に更新される時間snとを記憶する。ただし、ここでの時間tn、snは、実時間を単位とする代わりに、後述するモーショントラッカ駆動部28や第一座標系角度移動量算出部23や第一座標系位置移動量算出部27が、画像データ、角度移動量(RLDEP、ELDEP、AZDEP)、位置移動量(ΔXl、ΔYl、ΔZl)を算出するプログラム(図8及び図9参照)を実行する際の処理回数カウンタtn、snの値を、「時間」として扱うものである。
Here, the second coordinate system (XYZ coordinate system) can arbitrarily determine the origin and the direction of each coordinate axis. In this embodiment, as shown in FIG. 3, the
The
モーショントラッカ駆動部28は、LED群7を点灯させる指令信号を出力するとともに、カメラ装置2でLED群7から出射される光線の画像データを時間tn毎に検出させる制御を行う。しかし、LED7a、7b、7cは、同じ波長の赤外光を発光するものなので、エピポーラ幾何学に基づく予測により、第一カメラ2aで撮影された第一画像と第二カメラ2bで撮影された第二画像との間での共通のLED像の組を認識することは行うことができるが、頭部装着型表示装置付ヘルメット10に取り付けられたLEDのいずれにそれぞれ対応するかを決定することはできない。そこで、後述する光学マーカー位置情報算出部24等によって、各LEDが識別されるようになっている。
第一座標系角度移動量算出部23は、3軸ジャイロセンサ4で検出された時間tnから時間tn+s2までの対象物角速度(VRL’、VEL’、VAZ’)を積分演算することにより、時間tnから時間tn+s2までの第一座標系(X’Y’Z’座標系)の角度移動量(RLDEP、ELDEP、AZDEP)を算出する制御を行う。
まず、3軸ジャイロセンサ4で検出された時間s0の対象物角速度(V’RL、V’EL、V’AZ)を積分演算することにより、時間tnに記憶されたX’Y’Z’座標系の角度(RLh、ELh、AZh)からの角度移動量(RLs0、ELs0、AZs0)を算出する。次に、3軸ジャイロセンサ4で検出された時間s1の対象物角速度(V’RL、V’EL、V’AZ)を積分演算することにより、時間tn+s0でのX’Y’Z’座標系の角度からの角度移動量(RLs1、ELs1、AZs1)を算出する。このように角度移動量を算出していき、時間s0〜s2に算出された角度移動量を合計して、時間tから時間tn+s2までのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)を算出する。
The first coordinate system angular
First, X′Y′Z stored at time t n is calculated by integrating the object angular velocities (V ′ RL , V ′ EL , V ′ AZ ) detected at time s 0 by the three-
第一座標系位置移動量算出部27は、加速度センサ5で検出された時間tnから時間tn+s2までの対象物加速度(α’x、α’y、α’z)を二回積分演算することにより、時間tnから時間tn+s2までの第一座標系(X’Y’Z’座標系)の位置移動量(ΔXl、ΔYl、ΔZl)を算出する制御を行う。
時間tnから時間tn+s2までの対象物加速度(α’x、α’y、α’z)を用いて、時間tnから時間tn+s2までのX’Y’Z’座標系の位置移動量(ΔXl、ΔYl、ΔZl)を算出するには、対象物加速度(α’x、α’y、α’z)を二回積分演算するため、時間tnでのX’Y’Z’座標系の移動速度(初速度)が必要になる。そこで、時間tn−1でのX’Y’Z’座標系の原点の位置と、時間tnでのX’Y’Z’座標系の原点の位置とを差分して、その差分を時間tn−tn−1で除算することにより、原点の移動速度(V’x、V’y、V’z)を算出する。これにより、原点の移動速度(Vx’、Vy’、Vz ’)を時間tnでのX’Y’Z’座標系の移動速度として用いる。
そして、X’Y’Z’座標系の移動速度(V’x、V’y、V’z)を用いて、加速度センサ5で検出された時間s0の対象物加速度(α’x、α’y、α’z)を二回積分演算することにより、時間tnに記憶されたX’Y’Z’座標系の位置(Xh、Yh、Zh)からの位置移動量(ΔXs0、ΔYs0、ΔZs0)を算出する。次に、X’Y’Z’座標系の移動速度(V’x、V’y、V’z)を用いて、加速度センサ5で検出された時間s1の対象物加速度(α’x、α’y、α’z)を二回積分演算することにより、時間tn+s0でのX’Y’Z’座標系の位置からの位置移動量(ΔXs1、ΔYs1、ΔZs1)を算出する。このように位置移動量を算出していき、時間s0〜s2に算出された位置移動量を合計して、時間tnから時間tn+s2までのX’Y’Z’座標系の位置移動量(ΔXl、ΔYl、ΔZl)を算出する。
The first coordinate system position movement
Object acceleration from time t n to time t n + s 2 (α ' x, α' y, α 'z) using, X'Y'Z from time t n to time t n + s 2' coordinate system In order to calculate the position movement amount (ΔX 1 , ΔY 1 , ΔZ 1 ), the object acceleration (α ′ x , α ′ y , α ′ z ) is integrated twice, so that X at time t n is calculated. The moving speed (initial speed) of the 'Y'Z' coordinate system is required. Accordingly, the position of the origin of the X′Y′Z ′ coordinate system at the time t n−1 and the position of the origin of the X′Y′Z ′ coordinate system at the time t n are subtracted, and the difference is calculated as the time. By dividing by t n −t n−1 , the moving speed (V ′ x , V ′ y , V ′ z ) of the origin is calculated. As a result, the movement speed (V x ′, V y ′, V z ′) of the origin is used as the movement speed of the X′Y′Z ′ coordinate system at time t n .
Then, using the moving speed (V ′ x , V ′ y , V ′ z ) of the X′Y′Z ′ coordinate system, the object acceleration (α ′ x , α) detected by the
光学マーカー推定部26は、時間tnの光学マーカー位置情報、時間tnから時間tn+s2までの第一座標系(X’Y’Z’座標系)の角度移動量(RLDEP、ELDEP、AZDEP)、時間tnから時間tn+s2までのX’Y’Z’座標系の位置移動量(ΔXl、ΔYl、ΔZl)に基づいて、第二座標系(XYZ座標系)におけるLED7a、7b、7cの予想移動位置17a、17b、17cを推定する制御を行う。
XYZ座標系における時間tnから時間tn+s2までのLED7aの位置移動量(ΔX、ΔY、ΔZ)を算出するには、X’Y’Z’座標系が角度移動量(RLDEP、ELDEP、AZDEP)で移動することにより生じるLED7aの位置移動量(ΔXr、ΔYr、ΔZr)と、X’Y’Z’座標系が位置移動量(ΔXl、ΔYl、ΔZl)で移動することにより生じるLED7aの位置移動量(ΔXl、ΔYl、ΔZl)とを算出する必要がある。
まず、X’Y’Z’座標系が角度移動量(RLDEP、ELDEP、AZDEP)で移動することにより、XYZ座標系におけるLED7aの位置移動量(ΔXr、ΔYr、ΔZr)を算出する方法について説明する。時間tnから時間tn+s2までのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)を下記式(1)に代入することにより、時間tnから時間tn+s2までのLED7aの位置移動量(ΔXr、ΔYr、ΔZr)を算出する。
Angle movement amount of the optical
In order to calculate the position movement amount (ΔX, ΔY, ΔZ) of the
First, the X′Y′Z ′ coordinate system is moved by the angular movement amount (RL DEP , EL DEP , AZ DEP ), so that the position movement amount (ΔX r , ΔY r , ΔZ r ) of the
次に、X’Y’Z’座標系が位置移動量(ΔXl、ΔYl、ΔZl)で移動することにより、XYZ座標系におけるLED7aの位置移動量(ΔXl、ΔYl、ΔZl)を算出する方法について説明する。このときには、時間tnから時間tn+s2までのX’Y’Z’座標系の位置移動量(ΔXl、ΔYl、ΔZl)が、そのまま時間tnから時間tn+s2までのLED7aの位置移動量(ΔXl、ΔYl、ΔZl)となる。
そして、LED7aの位置移動量(ΔXr、ΔYr、ΔZr)と、LED7aの位置移動量(ΔXl、ΔYl、ΔZl)とを算出することができれば、下記式(2)により、XYZ座標系における時間tnのLED7aの位置(XLED、YLED、ZLED)に、LED7aの位置移動量(ΔXr、ΔYr、ΔZr)とLED7aの位置移動量(ΔXl、ΔYl、ΔZl)とを加算することで、時間tn+s2でのLED7aの予想移動位置17a(XDEP、YDEP、ZDEP)を推定する(図5参照)。
Next, by moving the X′Y′Z ′ coordinate system by the position movement amounts (ΔX 1 , ΔY 1 , ΔZ 1 ), the position movement amounts (ΔX 1 , ΔY 1 , ΔZ 1 ) of the
Then, if the position movement amount (ΔX r , ΔY r , ΔZ r ) of the
また、LED7b、7cについても、同様に時間tn+s2でのLED7b、7cの予想移動位置17b、17cを推定する。
For the
光学マーカー位置情報算出部24は、時間tn+s2でのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17cを用いて、LED7a、7b、7cのそれぞれの予想移動範囲Da、Db、Dcを設定することにより、時間tn+1の画像データを用いて、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する制御を行う。
まず、図6に示すように、光学マーカー推定部26により推定された時間tn+s2でのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17cを中心としd2を直径とする球状である予想移動範囲Da、Db、Dcを第二座標系(XYZ座標系)に設定する。これにより、時間tn+1に、予想移動範囲Da、Db、Dcに存在するLEDを、時間tn+s2に設定された予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別する。例えば、図7に示すように、時間tn+1に、予想移動範囲Daに存在するLED7aを、時間tn+s2に設定された予想移動範囲Daに対応するLED7aと同一のものであると識別する。同様に、予想移動範囲Dbに存在するLED7bを、LED7bと同一のものであるとし、予想移動範囲Dcに存在するLED7cを、LED7cと同一のものであると識別する。このようにして、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報が算出される。
The optical marker position
First, as shown in FIG. 6, the estimated movement positions 17 a, 17 b, and 17 c of the
相対情報算出部22は、時間tn+1の光学マーカー位置情報に基づいて、第二座標系(XYZ座標系)における遊戯者3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出する制御を行う。
具体的には、XYZ座標系における3個のLED7a、7b、7cのそれぞれの現在の座標位置である時間tn+1の光学マーカー位置情報を得ることで、LED7a、7b、7cが固定されている頭部装着型表示装置付ヘルメット10の現在位置(Xh、Yh、Zh)や現在角度(RLh、ELh、AZh)が算出される。
映像表示部25は、相対情報に基づいて、表示器から映像表示光を出射する制御を行う。これにより、遊戯者3は、表示器による表示映像を視認することができる。
Based on the optical marker position information at time t n + 1 , the relative
Specifically, the head where the
The
次に、HMT装置1により、XYZ座標系における遊戯者3の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を測定する測定動作について説明する。図8及び図9は、HMT装置1による測定動作について説明するためのフローチャートである。
まず、ステップS101の処理において、頭部装着型表示装置付ヘルメット10を装着した遊戯者3の頭部が初期位置になるように指示する。つまり、X’Y’Z’座標系は遊戯者3によってXYZ座標系と軸合わせされる。
次に、ステップS102の処理において、時間tnとしてtn=t0と時間記憶領域42に記憶させる。
Next, the measurement operation for measuring the head position (X h , Y h , Z h ) and head angle (RL h , EL h , AZ h ) of the
First, in the process of step S101, an instruction is given so that the head of the
Next, in the process of step S102, it is stored in the t n = t 0 and
次に、ステップS103の処理において、モーショントラッカ駆動部28は、カメラ装置2でLED群7の画像データを検出させる。なお、X’Y’Z’座標系におけるLED群7の座標位置(X’DIS、Y’DIS、Z’ DIS)を初期データとして第一座標系記憶領域46に記憶させているので、時間t0の光学マーカー位置情報は、初期データを用いてLED7a、7b、7cがそれぞれ識別されることにより、LED7a、7b、7cのそれぞれの現在位置を含む時間t0の光学マーカー位置情報が光学マーカー記憶領域44に記憶されることになる。
次に、ステップS104の処理において、時間snとしてsn=s0と時間記憶領域42に記憶させる。
Next, in the process of step S <b> 103, the motion
Next, in the process of step S104, the time s n is stored in the
次に、ステップS105の処理において、3軸ジャイロセンサ4が、対象物角速度(V’RL、V’EL、V’AZ)を検出する。
また、ステップS106の処理において、加速度センサ5が、対象物加速度(α’x、α’y、α’z)を検出する。
Next, in the process of step S105, the three-
Further, in the process of step S106, the
次に、ステップS107の処理において、sn>s1を満たすか否かを判定する。sn>s1を満たさないと判定したときには、ステップS108の処理において、sn=sn+1と時間記憶領域44に記憶させて、ステップS105及びS106の処理に戻る。つまり、sn>s1を満たすと判定するときまで、ステップS105〜ステップS108の処理は繰り返される。
一方、sn>s1を満たすと判定したときには、ステップS109の処理において、第一座標系角度移動量算出部23は、3軸ジャイロセンサ4で検出された時間tnから時間tn+s2までの対象物角速度(V’RL、V’EL、V’AZ)を積分演算することにより、時間tnから時間tn+s2までのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)を算出する。
Next, in the process of step S107, it is determined whether or not s n > s 1 is satisfied. If it is determined that s n > s 1 is not satisfied, s n = s n + 1 is stored in the
On the other hand, it s n> when it is determined that satisfy s 1, in the processing of step S109, the first coordinate system the angle shift
次に、ステップS110の処理において、第一座標系位置移動量算出部27は、加速度センサ5で検出された時間tnから時間tn+s2までの対象物加速度(α’x、α’y、α’z)を二回積分演算することにより、時間tnから時間tn+s2までのX’Y’Z’座標系の位置移動量(ΔXl、ΔYl、ΔZl)を算出する。
次に、ステップS111の処理において、光学マーカー推定部26は、時間tnの光学マーカー位置情報、時間tnから時間tn+s2までのX’Y’Z’座標系の角度移動量(RLDEP、ELDEP、AZDEP)、時間tnから時間tn+s2までのX’Y’Z’座標系の位置移動量(ΔXl、ΔYl、ΔZl)に基づいて、XYZ座標系におけるLED7a、7b、7cの予想移動位置17a、17b、17cを推定する。
Next, in the process in step S110, the first coordinate system position movement
Next, in the process of step S111, the optical
次に、ステップS112の処理において、光学マーカー位置情報算出部24は、時間tn+s2でのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17cを用いて、LED7a、7b、7cのそれぞれの予想移動範囲Da、Db、DcをXYZ座標系に設定する。
次に、ステップS113の処理において、tn=tn+1と時間記憶領域42に記憶させる。
次に、ステップS114の処理において、モーショントラッカ駆動部28は、カメラ装置2でLED群7の画像データを検出させる。
Next, in the process of step S112, the optical marker position
Next, in the process of step S113, t n = t n + 1 is stored in the
Next, in the process of step S <b> 114, the motion
次に、ステップS115の処理において、光学マーカー位置情報算出部24は、時間tn+1の画像データを用いて、予想移動範囲Da、Db、Dcに存在するLEDを、設定された予想移動範囲Da、Db、Dcに対応するLEDと同一のものであると識別することにより、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する。このとき、光学マーカー記憶領域44に時間tn+1の光学マーカー位置情報を記憶させる。
次に、ステップS116の処理において、相対頭部情報算出部22は、時間tn+1の光学マーカー位置情報に基づいて、XYZ座標系における遊戯者3の頭部の現在位置(Xh、Yh、Zh)や現在角度(RLh、ELh、AZh)を算出する。
Next, in the processing of step S115, the optical marker position
Next, in the process of step S116, the relative head
次に、ステップS117の処理において、映像表示光を出射することを終了させるか否かを判定する。映像表示光を出射することを終了させるときには、本フローチャートを終了させる。一方、映像表示光を出射することを終了させないと判定されたときには、ステップS104の処理に戻る。つまり、映像表示光を出射することを終了させると判定するときまで、ステップS104〜ステップS117の処理は繰り返される。 Next, in the process of step S117, it is determined whether or not to end the emission of the video display light. When the emission of the image display light is terminated, this flowchart is terminated. On the other hand, when it is determined not to end the emission of the image display light, the process returns to step S104. That is, the processing from step S104 to step S117 is repeated until it is determined that the emission of the video display light is to be terminated.
以上のように、HMT装置1によれば、対象物角速度(V’RL、V’EL、V’AZ)と対象物加速度(α’x、α’y、α’z)とにより推定されたLED7a、7b、7cの位置を中心とする予想移動範囲Da、Db、Dcを設定するので、頭部装着型表示装置付ヘルメット10の移動速度が速い場合にも、予想移動範囲Da、Db、DcにLED7a、7b、7cが存在しなくなることを防ぐことができる。
As described above, according to the
(実施形態2)
図12は、本発明の他の一実施形態であるHMT装置の概略構成を示す図である。
HMT装置61は、カメラ装置2に設定される第二座標系(XYZ座標系)に対するパイロット63の頭部位置(Xh、Yh、Zh)及び頭部角度(RLh、ELh、AZh)を含む相対情報を算出するものである。つまり、XYZ座標系におけるパイロット63が着用する頭部装着型表示装置付ヘルメット10に設定された第一座標系(X’Y’Z’座標系)の位置及び角度を算出する。なお、上述した実施形態1と同様のものについては、同じ符号を付して、説明を省略することとする。
(Embodiment 2)
FIG. 12 is a diagram showing a schematic configuration of an HMT apparatus according to another embodiment of the present invention.
The
HMT装置61は、パイロット63の頭部に装着される頭部装着型表示装置付ヘルメット10と、飛行体62に取り付けられたカメラ装置2と、飛行体62に取り付けられた3軸ジャイロセンサ(移動体角速度検出センサ)64と、飛行体62に取り付けられた加速度センサ(移動体加速度検出センサ)65と、コンピュータにより構成される制御部20とから構成される。
The
3軸ジャイロセンサ(移動体角速度検出センサ)64は、飛行体62に作用する角速度(VRL、VEL、VAZ)を短時間(例えば、4msec)で検出するものである。つまり、パイロット63は飛行体62に乗っており、飛行体62も動いているので、対象物角速度(V’RL、V’EL、V’AZ)は、頭部装着型表示装置付ヘルメット10の角速度だけでなく、飛行体62の角速度も含んだものとなるが、3軸ジャイロセンサ64は、飛行体62のみに作用する角速度を、3軸ジャイロセンサ4と同時間で検出する。なお、3軸ジャイロセンサ64は、第二座標系(XYZ座標系)に軸合わせされている。
The triaxial gyro sensor (moving body angular velocity detection sensor) 64 detects angular velocities (V RL , V EL , V AZ ) acting on the flying
加速度センサ(移動体加速度検出センサ)65は、飛行体62に作用する加速度(αx、αy、αz)を短時間(例えば、4msec)で検出するものである。つまり、パイロット63は飛行体62に乗っており、飛行体62も動いているので、対象物加速度(α’x、α’y、α’z)は、頭部装着型表示装置付ヘルメット10の加速度だけでなく、飛行体62の加速度も含んだものとなるが、加速度センサ65は、飛行体62のみに作用する加速度を、加速度センサ4と同時間で検出する。なお、加速度センサ65は、第二座標系(XYZ座標系)に軸合わせされている。
The acceleration sensor (moving body acceleration detection sensor) 65 detects acceleration (α x , α y , α z ) acting on the flying
制御部20は、図12に示すように、CPU21、メモリ41等からなるコンピュータにより構成され、各種の制御や演算処理を行うものである。CPU21が実行する処理を、機能ブロックごとに分けて説明すると、モーショントラッカ駆動部28と、対象物角速度(V’RL、V’EL、V’AZ)と移動体角速度(VRL、VEL、VAZ)とに基づいてXYZ座標系の角度移動量(RLDEP、ELDEP、AZDEP)を算出する第一座標系角度移動量算出部68と、対象物加速度(α’x、α’y、α’z)と移動体加速度(αx、αy、αz)とに基づいてXYZ座標系の位置移動量(ΔXl、ΔYl、ΔZl)を算出する第一座標系位置移動量算出部67と、相対情報算出部22と、光学マーカー位置情報算出部24と、光学マーカー推定部26と、映像表示部25と、予想移動範囲Da、Db、Dcの大きさを決定する予想移動範囲決定部66とを有する。
また、予想移動範囲記憶領域45には、LED7a、7b、7cの位置移動量と、予想移動範囲Da、Db、Dcの大きさとを対応させたテーブルが記憶されている。
As shown in FIG. 12, the
Further, the predicted movement
第一座標系角度移動量算出部68は、3軸ジャイロセンサ4で検出された時間tnから時間tn+s2までの対象物角速度(V’RL、V’EL、V’AZ)と、3軸ジャイロセンサ64で検出された時間tnから時間tn+s2までの対象物角速度(VRL、VEL、VAZ)との差分を積分演算することにより、時間tnから時間tn+s2までの第一座標系(XYZ座標系)の角度移動量(RLDEP、ELDEP、AZDEP)を算出する制御を行う。
The first coordinate system the angle shift
第一座標系位置移動量算出部67は、加速度センサ5で検出された時間tnから時間tn+s2までの対象物加速度(α’x、α’y、α’z)と、加速度センサ65で検出された時間tnから時間tn+s2までの移動体加速度(αx、αy、αz)との差分を二回積分演算することにより、時間tnから時間tn+s2までの第一座標系(X’Y’Z’座標系)の位置移動量(ΔXl、ΔYl、ΔZl)を算出する制御を行う。
The first coordinate system position movement amount calculating section 67, object acceleration from time t n, which is detected by the
予想移動範囲決定部66は、予想移動位置17a、17b、17c及び時間tnの光学マーカー位置情報に基づいてLED7a、7b、7cの位置移動量を算出することで予想移動範囲Da、Db、Dcの大きさを決定する制御を行う。
例えば、LED7aの予想移動位置17aを中心とする予想移動範囲Daの大きさを、LED7aの位置移動量が長い場合には大きくし、一方、LED7aの位置移動量が短い場合には小さくする。また、LED7bの予想移動位置17bを中心とする予想移動範囲Daの大きさを、LED7bの位置移動量が長い場合には大きくし、一方、LED7bの位置移動量が短い場合には小さくする。さらに、LED7cの予想移動位置17cを中心とする予想移動範囲Dcの大きさを、LED7cの位置移動量が長い場合には大きくし、一方、LED7cの位置移動量が短い場合には小さくする。
Expected movement
For example, the size of the expected movement range Da centered on the expected
光学マーカー位置情報算出部24は、時間tn+s2でのLED7a、7b、7cのそれぞれの予想移動位置17a、17b、17c、及び、予想移動範囲決定部66で決定された予想移動範囲Da、Db、Dcの大きさを用いて、LED7a、7b、7cのそれぞれの予想移動範囲Da、Db、Dcを設定することにより、時間tn+1の画像データを用いて、LED7a、7b、7cのそれぞれの現在位置を含む時間tn+1の光学マーカー位置情報を算出する制御を行う。
The optical marker position
以上のように、HMT装置61によれば、3軸ジャイロセンサ4で、飛行体62中ではパイロット63の頭部の動きと飛行体62の動きとが合成された動きの情報が検出されるが、3軸ジャイロセンサ64で飛行体62の動きのみの情報が検出されるため、対象物角速度(V’RL、V’EL、V’AZ)と移動体角速度(VRL、VEL、VAZ)とを用いて、飛行体62の動きを除外したパイロット63の頭部の動きのみの情報を算出することができる。
さらに、加速度センサ5で、飛行体62中ではパイロット63の頭部の動きと飛行体62の動きとが合成された動きの情報が検出されるが、加速度センサ65で飛行体62の動きのみの情報が検出されるため、対象物加速度(V’RL、V’EL、V’AZ)と移動体加速度(VRL、VEL、VAZ)とを用いて、飛行体62の動きを除外したパイロット63の頭部の動きのみの情報を算出することができる。
これにより、パイロット63が飛行体62に搭乗していても、推定されたLED7a、7b、7cの予想移動位置17a、17b、17cを中心とする予想移動範囲Da、Db、Dcを設定することができるので、パイロット63の頭部の移動速度が速い場合にも、予想移動範囲Da、Db、DcにLED7a、7b、7cが存在しなくなることを防ぐことができる。
As described above, according to the
Further, the
Thereby, even if the
また、予想移動範囲決定部66は、LED7aの予想移動位置LED17aを中心とする予想移動範囲Daの大きさを、LED7aの位置移動量が長い場合には大きくし、一方、LED7aの位置移動量が短い場合には小さくする。よって、頭部装着型表示装置付ヘルメット10の移動速度が速い場合にも、予想移動範囲Da、Db、DcにLED7a、7b、7cが存在しなくなることをより防ぐとともに、頭部装着型表示装置付ヘルメット10の移動速度が遅い場合に、予想移動範囲Da、Db、Dcに2個以上のLED7a、7b、7cが同時に存在することをより防ぐことができる。
Further, the expected movement
本発明のHMT装置は、例えば、ゲーム機や乗物等で用いられる頭部装着型表示装置付ヘルメットの現在位置及び現在角度を検出するものとして、利用される。 The HMT device of the present invention is used, for example, as a device that detects the current position and the current angle of a helmet with a head-mounted display device used in game machines, vehicles, and the like.
1 ヘッドモーショントラッカ装置
2 カメラ装置
3 遊戯者
4 3軸ジャイロセンサ(対象物角速度検出センサ)
5 加速度センサ(対象物加速度検出センサ)
7 LED群(光学マーカー群)
10 頭部装着型表示装置付ヘルメット(対象物)
22 相対情報算出部
23 第一座標系角度移動量算出部
24 光学マーカー位置情報算出部
26 光学マーカー推定部
27 第一座標系位置移動量算出部
44 光学マーカー記憶領域
DESCRIPTION OF
5 Acceleration sensor (object acceleration detection sensor)
7 LED group (optical marker group)
10 Helmet with head mounted display (object)
DESCRIPTION OF
Claims (6)
前記第一座標系に位置決めされて対象物に取り付けられた3個以上の同一種の光学マーカーと、
第二座標系が設定され、前記光学マーカーからの光線を立体視で検出するカメラ装置と、
検出された光線に基づいて、前記第二座標系における3個以上の光学マーカーのそれぞれの現在位置を含む光学マーカー位置情報を算出する光学マーカー位置情報算出部と、
前記光学マーカー位置情報を記憶する光学マーカー記憶部と、
前記光学マーカー位置情報に基づいて、前記第二座標系における対象物の現在位置及び現在角度を含む相対情報を算出する相対情報算出部とを備えるモーショントラッカ装置であって、
前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物角速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物角速度検出センサと、
前記第一座標系に位置決めされて対象物に取り付けられ、前記対象物に作用する対象物加速度を、前記カメラ装置での光線の検出間隔時間より短時間で検出する対象物加速度検出センサと、
前記対象物角速度に基づいて、前記第一座標系の角度移動量を算出する第一座標系角度移動量算出部と、
前記対象物加速度に基づいて、前記第一座標系の位置移動量を算出する第一座標系位置移動量算出部と、
前記光学マーカー記憶部に記憶された光学マーカー位置情報、第一座標系の角度移動量及び第一座標系の位置移動量に基づいて、前記第二座標系における光学マーカーの予想移動位置を推定する光学マーカー推定部とを備え、
前記光学マーカー位置情報算出部は、前記光学マーカーの予想移動位置に基づいて、前記3個以上の光学マーカーをそれぞれ識別することを特徴とするモーショントラッカ装置。 An object with a first coordinate system, and
Three or more optical markers of the same type positioned in the first coordinate system and attached to the object;
A second coordinate system is set, and a camera device that detects a light beam from the optical marker in a stereoscopic view;
An optical marker position information calculating unit that calculates optical marker position information including current positions of three or more optical markers in the second coordinate system based on the detected light beam;
An optical marker storage unit for storing the optical marker position information;
A motion tracker device comprising: a relative information calculation unit that calculates relative information including a current position and a current angle of an object in the second coordinate system based on the optical marker position information;
An object angular velocity detection sensor which is positioned in the first coordinate system and attached to the object and detects the object angular velocity acting on the object in a shorter time than the detection interval time of the light beam in the camera device;
An object acceleration detection sensor which is positioned in the first coordinate system and attached to the object and detects the object acceleration acting on the object in a shorter time than the light detection interval time in the camera device;
A first coordinate system angular movement amount calculation unit that calculates an angular movement amount of the first coordinate system based on the object angular velocity;
A first coordinate system position movement amount calculation unit that calculates a position movement amount of the first coordinate system based on the object acceleration;
Based on the optical marker position information stored in the optical marker storage unit, the angle movement amount of the first coordinate system, and the position movement amount of the first coordinate system, an estimated movement position of the optical marker in the second coordinate system is estimated. An optical marker estimation unit,
The motion tracker device, wherein the optical marker position information calculation unit identifies each of the three or more optical markers based on an expected movement position of the optical marker.
当該第一座標系の原点の移動速度と対象物加速度とに基づいて、前記第一座標系の位置移動量を算出することを特徴とする請求項1に記載のモーショントラッカ装置。 The first coordinate system position movement amount calculation unit calculates a movement speed of the origin of the first coordinate system based on at least two optical marker position information stored in the optical marker storage unit,
The motion tracker device according to claim 1, wherein a position movement amount of the first coordinate system is calculated based on a moving speed of the origin of the first coordinate system and an object acceleration.
前記カメラ装置は、前記搭乗者が搭乗する移動体に取り付けられ、
前記移動体に取り付けられ、前記移動体に作用する移動体角速度を、前記対象物角速度検出センサと同時間に検出する移動体角速度検出センサと、
前記移動体に取り付けられ、前記移動体に作用する移動体加速度を、前記対象物加速度度検出センサと同時間に検出する移動体加速度検出センサとを備え、
前記第一座標系角度移動量算出部は、前記対象物角速度と移動体角速度とに基づいて、前記第一座標系の角度移動量を算出し、
前記第一座標系位置移動量算出部は、前記対象物加速度と移動体加速度とに基づいて、前記第一座標系の位置移動量を算出することを特徴とする請求項1〜請求項5のいずれかに記載のモーショントラッカ装置。 The object is a helmet to be worn on a passenger's head; and
The camera device is attached to a moving body on which the passenger is boarded,
A moving body angular velocity detection sensor that is attached to the moving body and detects a moving body angular velocity acting on the moving body at the same time as the object angular velocity detection sensor;
A moving body acceleration detection sensor that is attached to the moving body and detects a moving body acceleration acting on the moving body at the same time as the object acceleration degree detection sensor;
The first coordinate system angular movement amount calculation unit calculates the angular movement amount of the first coordinate system based on the object angular velocity and the moving body angular velocity,
The first coordinate system position movement amount calculation unit calculates a position movement amount of the first coordinate system based on the object acceleration and the moving body acceleration. The motion tracker device according to any one of the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008201438A JP5594944B2 (en) | 2008-08-05 | 2008-08-05 | Motion tracker device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008201438A JP5594944B2 (en) | 2008-08-05 | 2008-08-05 | Motion tracker device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010038707A true JP2010038707A (en) | 2010-02-18 |
JP5594944B2 JP5594944B2 (en) | 2014-09-24 |
Family
ID=42011415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008201438A Active JP5594944B2 (en) | 2008-08-05 | 2008-08-05 | Motion tracker device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5594944B2 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013160513A (en) * | 2012-02-01 | 2013-08-19 | Shimadzu Corp | Motion tracker device |
JP2015513143A (en) * | 2012-02-22 | 2015-04-30 | アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi veTicaret Anonim Sirketi | System and method for optimizing a tracking system |
US9759804B2 (en) | 2011-06-22 | 2017-09-12 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating 3D position and orientation through sensor fusion |
WO2019017300A1 (en) * | 2017-07-20 | 2019-01-24 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and position information acquisition method |
CN109584521A (en) * | 2018-10-15 | 2019-04-05 | 西安理工大学 | A kind of incorrect sitting-pose monitoring method based on Notch sensor |
WO2020031659A1 (en) * | 2018-08-06 | 2020-02-13 | 国立研究開発法人産業技術総合研究所 | Position and attitude estimation system, position and attitude estimation apparatus, and position and attitude estimation method |
US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
US10963054B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Information processing system, vibration control method and program |
US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
US10981053B2 (en) | 2017-04-18 | 2021-04-20 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11013990B2 (en) | 2017-04-19 | 2021-05-25 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
JP7518081B2 (en) | 2019-01-11 | 2024-07-17 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Fall detection system and method |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09506194A (en) * | 1993-11-30 | 1997-06-17 | ハネウエル・インコーポレーテッド | Inclined reflector position detection system |
JP2002008043A (en) * | 2000-06-16 | 2002-01-11 | Matsushita Electric Ind Co Ltd | Device and method for analyzing action |
WO2005124687A1 (en) * | 2004-06-16 | 2005-12-29 | The University Of Tokyo | Method for marker tracking in optical motion capture system, optical motion capture method, and system |
JP2006284442A (en) * | 2005-04-01 | 2006-10-19 | Shimadzu Corp | Method of monitoring object and motion tracker using this |
JP2007315775A (en) * | 2006-05-23 | 2007-12-06 | Shimadzu Corp | Head motion tracker system and its usage |
JP2007315968A (en) * | 2006-05-26 | 2007-12-06 | Univ Of Tokyo | Method and apparatus for estimating kinematic parameters using motion capture |
JP2008027362A (en) * | 2006-07-25 | 2008-02-07 | Shimadzu Corp | Motion tracker device |
JP2008059204A (en) * | 2006-08-30 | 2008-03-13 | Shimadzu Corp | Head motion tracker apparatus |
-
2008
- 2008-08-05 JP JP2008201438A patent/JP5594944B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09506194A (en) * | 1993-11-30 | 1997-06-17 | ハネウエル・インコーポレーテッド | Inclined reflector position detection system |
JP2002008043A (en) * | 2000-06-16 | 2002-01-11 | Matsushita Electric Ind Co Ltd | Device and method for analyzing action |
WO2005124687A1 (en) * | 2004-06-16 | 2005-12-29 | The University Of Tokyo | Method for marker tracking in optical motion capture system, optical motion capture method, and system |
JP2006284442A (en) * | 2005-04-01 | 2006-10-19 | Shimadzu Corp | Method of monitoring object and motion tracker using this |
JP2007315775A (en) * | 2006-05-23 | 2007-12-06 | Shimadzu Corp | Head motion tracker system and its usage |
JP2007315968A (en) * | 2006-05-26 | 2007-12-06 | Univ Of Tokyo | Method and apparatus for estimating kinematic parameters using motion capture |
JP2008027362A (en) * | 2006-07-25 | 2008-02-07 | Shimadzu Corp | Motion tracker device |
JP2008059204A (en) * | 2006-08-30 | 2008-03-13 | Shimadzu Corp | Head motion tracker apparatus |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9759804B2 (en) | 2011-06-22 | 2017-09-12 | Samsung Electronics Co., Ltd. | Method and apparatus for estimating 3D position and orientation through sensor fusion |
JP2013160513A (en) * | 2012-02-01 | 2013-08-19 | Shimadzu Corp | Motion tracker device |
JP2015513143A (en) * | 2012-02-22 | 2015-04-30 | アセルサン・エレクトロニク・サナイ・ヴェ・ティジャレット・アノニム・シルケティAselsan Elektronik Sanayi veTicaret Anonim Sirketi | System and method for optimizing a tracking system |
KR101850048B1 (en) * | 2012-02-22 | 2018-05-30 | 아셀산 엘렉트로닉 사나이 베 티카렛 아노님 시르케티 | System and method for optimizing tracker system |
US10963054B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Information processing system, vibration control method and program |
US10969867B2 (en) | 2016-12-15 | 2021-04-06 | Sony Interactive Entertainment Inc. | Information processing system, controller device, controller device control method and program |
US10963055B2 (en) | 2016-12-15 | 2021-03-30 | Sony Interactive Entertainment Inc. | Vibration device and control system for presenting corrected vibration data |
US11145172B2 (en) | 2017-04-18 | 2021-10-12 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US10981053B2 (en) | 2017-04-18 | 2021-04-20 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11013990B2 (en) | 2017-04-19 | 2021-05-25 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
US11458389B2 (en) | 2017-04-26 | 2022-10-04 | Sony Interactive Entertainment Inc. | Vibration control apparatus |
JP2019020333A (en) * | 2017-07-20 | 2019-02-07 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and position information acquisition method |
WO2019017300A1 (en) * | 2017-07-20 | 2019-01-24 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and position information acquisition method |
US11195293B2 (en) | 2017-07-20 | 2021-12-07 | Sony Interactive Entertainment Inc. | Information processing device and positional information obtaining method |
WO2020031659A1 (en) * | 2018-08-06 | 2020-02-13 | 国立研究開発法人産業技術総合研究所 | Position and attitude estimation system, position and attitude estimation apparatus, and position and attitude estimation method |
CN109584521A (en) * | 2018-10-15 | 2019-04-05 | 西安理工大学 | A kind of incorrect sitting-pose monitoring method based on Notch sensor |
JP7518081B2 (en) | 2019-01-11 | 2024-07-17 | ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー | Fall detection system and method |
Also Published As
Publication number | Publication date |
---|---|
JP5594944B2 (en) | 2014-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5594944B2 (en) | Motion tracker device | |
JP4961904B2 (en) | Head motion tracker device | |
JP4924342B2 (en) | Motion tracker device | |
JP4396564B2 (en) | Object monitoring method and motion tracker using the same | |
US11360552B1 (en) | High assurance headtracking via structured light projection for head worn display (HWD) | |
JP2009069364A (en) | Head mounted display device and head mounted display device system | |
JP5292725B2 (en) | Motion tracker device | |
US11269400B2 (en) | Positioning system | |
JP5505363B2 (en) | Motion tracker device | |
JP4665872B2 (en) | Head motion tracker device | |
JP2016151566A (en) | Motion tracker device | |
JP2014095557A (en) | Motion tracker device | |
JP5092300B2 (en) | Head motion tracker device | |
JP2007315775A (en) | Head motion tracker system and its usage | |
JP4967546B2 (en) | Head motion tracker device | |
JP4905311B2 (en) | Head motion tracker system and calibration device used therefor | |
JP4656016B2 (en) | Motion tracker device | |
JP5029531B2 (en) | Motion tracker system and coordinate system setting method thereof | |
JP4905321B2 (en) | Head motion tracker device | |
JP2009036517A (en) | Head motion tracker device | |
JP4656017B2 (en) | Head motion tracker device | |
JP4877138B2 (en) | Head motion tracker device | |
JP4872768B2 (en) | Head motion tracker device | |
JP2007334762A (en) | Head motion tracker | |
JP4784591B2 (en) | Motion tracker device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101008 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120524 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120713 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130319 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130614 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20130621 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20130802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140805 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5594944 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |