JP2003058317A - Marker for detecting orienting position, orienting position detector and shooting game device - Google Patents
Marker for detecting orienting position, orienting position detector and shooting game deviceInfo
- Publication number
- JP2003058317A JP2003058317A JP2001242819A JP2001242819A JP2003058317A JP 2003058317 A JP2003058317 A JP 2003058317A JP 2001242819 A JP2001242819 A JP 2001242819A JP 2001242819 A JP2001242819 A JP 2001242819A JP 2003058317 A JP2003058317 A JP 2003058317A
- Authority
- JP
- Japan
- Prior art keywords
- image
- screen
- marker
- player
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、対象領域面内に向
けられたコントローラからの遠隔的な入力操作を受け
て、指向された対象領域面内の位置を検出する装置、検
出用のマーカ及びこれらが適用される射的ゲーム装置に
関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for detecting a position in a target area plane directed by a remote input operation from a controller directed in the target area plane, a marker for detection, and a marker for detection. The present invention relates to a shooting game device to which these are applied.
【0002】[0002]
【従来の技術】従来、プレイヤ前方のスクリーン上に映
像を表示し、表示されている対象物への射撃をプレイヤ
に模擬銃のコントローラを用いて擬似体験させるビデオ
ゲーム機が知られている。2. Description of the Related Art Conventionally, there has been known a video game machine which displays an image on a screen in front of a player and allows a player to experience a shooting of a displayed object by using a controller of a simulated gun.
【0003】このようなビデオゲーム機のうちの1つで
ある特許第2961097号公報記載の射的ビデオゲー
ム機は、模擬銃の銃口近傍に設けられたCCDカメラに
より、スクリーン上部所定位置に設置される2個の赤外
線発光LEDを撮像し、CCD画像中の2つの赤外線発
光LEDの像の位置関係から、撮像された範囲の中央す
なわちスクリーンに対する銃口の向きを検出するもので
ある。A shooting video game machine described in Japanese Patent No. 2961097, which is one of such video game machines, is installed at a predetermined position above the screen by a CCD camera provided near the muzzle of the simulated gun. Two infrared emitting LEDs are imaged, and the orientation of the muzzle with respect to the center of the imaged range, that is, the screen is detected from the positional relationship between the images of the two infrared emitting LEDs in the CCD image.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、上記の
ように2個の赤外線発光LEDを検出用として採用した
射的ビデオゲーム機では、プレイエリアが水平面上で所
定の広さを有していてコントローラとしての模擬銃が移
動可能な場合とか、模擬銃が回転操作可能な場合には、
銃口の向きを正確に検出することには限界がある。However, in the shooting video game machine which employs the two infrared emitting LEDs for detection as described above, the play area has a predetermined area on the horizontal plane, and the controller is If the simulated gun as is movable or if the simulated gun can be rotated,
There is a limit to accurately detecting the direction of the muzzle.
【0005】本発明はこれらに着目してなされたもので
あり、その目的は、コントローラの操作性に関する態様
に関係なく、コントローラの向きすなわちゲーム画像が
表示される画面等の対象領域面との交点を算定すること
を可能にする構造的に簡易な指向位置検出用マーカ、指
向位置検出装置及び射的ゲーム装置を提供することであ
る。The present invention has been made paying attention to these points, and the object thereof is the direction of the controller, that is, the intersection point with the target area surface such as the screen on which the game image is displayed, regardless of the mode relating to the operability of the controller. It is an object of the present invention to provide a structurally simple directional position detecting marker, a directional position detecting device, and a shooting game device that make it possible to calculate.
【0006】[0006]
【課題を解決するための手段】上記の目的を達成するた
めの本発明に係る指向位置検出用マーカは、コントロー
ラに設けられた撮像手段により対象領域面内の指向方向
の撮像画像を生成し、該撮像画像から撮像範囲の中央に
対応する対象領域面内の位置を算定するための情報を撮
像画像中に提供するための指向位置検出用マーカであっ
て、対象領域面に対して所定の位置関係を有して配設可
能に構成され、2軸方向の情報を含む形態を有する光源
を有してなることを特徴とするものである。A pointing position detecting marker according to the present invention for achieving the above object generates a picked-up image of a pointing direction in a target area plane by an image pickup means provided in a controller, A directional position detection marker for providing information for calculating the position in the target area plane corresponding to the center of the captured range from the captured image in a predetermined position with respect to the target area plane. It is characterized in that it has a light source having a configuration including information in the two axial directions and that the light source can be arranged in a relationship.
【0007】この構成によれば、対象領域面に向けてコ
ントローラを操作する等により撮像手段で撮像画像が生
成される。撮像画像中には指向位置検出用マーカの像が
含まれている。指向位置検出用マーカは2軸方向の情報
を有することから、撮像画像中に、コントローラの位置
情報のみならずコントローラの例えば指向方向の軸を中
心とした(回転)傾き、すなわち回転角度情報が含まれ
る。従って、この位置情報及び回転角度情報から撮像画
像の中心、すなわちコントローラが向けられた対象領域
面上の位置、すなわち交点を算定することが可能とな
る。指向位置検出用マーカは対象領域面上に限らず、対
象領域面との位置関係が規定されておれば足りる。指向
位置検出用マーカは所要の位置に取り付け可能な構成を
有していることで、対象領域面として種々の物への適用
が可能となる。取り付け位置も制限を受けないため、所
望する位置に配設可能である。指向位置検出用マーカは
2軸方向の情報を提示可能であれば、形状は問わず、点
状に限らず、棒状の光源でもよい。According to this structure, the picked-up image is generated by the image pickup means by operating the controller toward the target area surface. The captured image includes an image of the marker for detecting the pointing position. Since the directional position detection marker has information about the two-axis directions, the captured image includes not only the position information of the controller but also the (rotational) tilt about the axis of the controller, for example, the rotation angle, that is, rotation angle information. Be done. Therefore, from the position information and the rotation angle information, it is possible to calculate the center of the captured image, that is, the position on the target area surface where the controller is directed, that is, the intersection. The pointing position detection marker is not limited to being on the target area surface, and it is sufficient if the positional relationship with the target area surface is defined. Since the directional position detection marker has a structure that can be attached at a desired position, it can be applied to various objects as the target area surface. Since the mounting position is not limited, it can be arranged at a desired position. The directional position detection marker is not limited to a point shape and may be a rod-shaped light source as long as it can present information in the two axis directions.
【0008】請求項2記載の発明は、請求項1記載の指
向位置検出用マーカにおいて、前記光源は、前記対象領
域面上に配置可能であることを特徴とする。この構成に
よれば、対象領域面と同一面であるため、演算式が容易
となるという利点がある。According to a second aspect of the present invention, in the directional position detecting marker according to the first aspect, the light source can be arranged on the surface of the target area. According to this configuration, since it is on the same surface as the target area surface, there is an advantage that the arithmetic expression becomes easy.
【0009】請求項3記載の発明は、請求項1又は2記
載の指向位置検出用マーカにおいて、前記光源は、複数
の点状光源からなることを特徴とする。この構成によれ
ば、2軸方向の情報を識別可能な点状光源から構成する
ことで、指向位置検出用マーカを容易、安価に作成する
ことが可能となる。According to a third aspect of the present invention, in the directional position detecting marker according to the first or second aspect, the light source is composed of a plurality of point light sources. According to this configuration, the pointing position detection marker can be easily and inexpensively created by using the point light source capable of discriminating the information in the biaxial directions.
【0010】請求項4記載の発明は、請求項3記載の指
向位置検出用マーカにおいて、前記複数の点状光源は、
直線上で所定間隔を有する3個の点状光源と、一端の点
状光源から前記直線に直交する方向に所定間隔離間した
1個の点状光源とからなることを特徴とする。この構成
によれば、最小の点状光源で2軸方向の情報を提示可能
となる。それ以上の点状光源を付加的に採用することに
より精度向上などを図ることが可能となる。According to a fourth aspect of the invention, in the pointing position detecting marker according to the third aspect, the plurality of point light sources are
It is characterized in that it is composed of three point light sources having a predetermined distance on a straight line and one point light source spaced from the point light source at one end by a predetermined distance in the direction orthogonal to the straight line. According to this configuration, it is possible to present the information in the biaxial directions with the minimum point light source. It is possible to improve accuracy by additionally adopting more point light sources.
【0011】請求項5記載の発明は、請求項4記載の指
向位置検出用マーカにおいて、前記所定間隔は一定であ
ることを特徴とする。この構成によれば、点状光源の間
隔を一定とすることで、演算式が容易となる。According to a fifth aspect of the present invention, in the directional position detecting marker according to the fourth aspect, the predetermined interval is constant. According to this configuration, the arithmetic expression becomes easy by keeping the interval between the point light sources constant.
【0012】請求項6記載の発明は、請求項1〜5のい
ずれかに記載の指向位置検出用マーカにおいて、前記光
源は、発光体であることを特徴とする。この構成によれ
ば、自身が発光する発光素子(LED)等が採用可能で
あり、しかも取り付け構造も簡易で、作業も容易であ
る。According to a sixth aspect of the present invention, in the marker for detecting the directional position according to any one of the first to fifth aspects, the light source is a light emitting body. According to this structure, a light emitting element (LED) or the like that emits light itself can be adopted, and the mounting structure is simple and the work is easy.
【0013】請求項7記載の発明は、請求項1〜5のい
ずれかに記載の指向位置検出用マーカにおいて、前記光
源は、前方からの入射光を反射可能な反射体であること
を特徴とする。この構成によれば、対象領域面の前方か
ら発光体等により光を照射し、反射体からの反射(出
射)光を撮像手段で受光する態様とすることも可能であ
る。これにより、対象領域面側に直接発光体を装備する
必要がなく、構成が容易で汎用性も高い。好ましくは、
反射体の形状は半円球等が所要幅の反射光を生成する点
で好ましく、撮像手段の、すなわちコントローラの移動
範囲がいたずらに制約されず、汎用性が高くなる。According to a seventh aspect of the present invention, in the directional position detecting marker according to any of the first to fifth aspects, the light source is a reflector capable of reflecting incident light from the front. To do. According to this configuration, it is possible to adopt a mode in which the light is emitted from the front of the surface of the target region by the light emitter and the reflected (emitted) light from the reflector is received by the imaging means. As a result, it is not necessary to directly equip the surface of the target area with the light-emitting body, and the configuration is easy and versatility is high. Preferably,
The shape of the reflector is preferably a hemisphere or the like in that it produces reflected light of a required width, and the range of movement of the imaging means, that is, the controller is not unnecessarily restricted and the versatility is increased.
【0014】請求項8記載の発明は、請求項1〜7のい
ずれかに記載の指向位置検出用マーカにおいて、光源
は、赤外光を出射するものであることを特徴とする。こ
の構成によれば、自然光の影響を受けにくいという利点
があり、自然光に含まれる波長光を採用する場合に比し
て、操作環境を暗室状とする等の付加物が不要となる。The invention according to claim 8 is the marker for detecting a directional position according to any one of claims 1 to 7, characterized in that the light source emits infrared light. According to this configuration, there is an advantage that it is less likely to be affected by natural light, and as compared with the case where the wavelength light included in natural light is adopted, an additional object such as making the operating environment a dark room is unnecessary.
【0015】請求項9記載の発明は、請求項1〜7のい
ずれかに記載の指向位置検出用マーカにおいて、前記光
源が特定色の光を出射するものであることを特徴とす
る。この構成によれば、利用目的に応じて所望する色の
光を出射するマーカが採用可能となる。According to a ninth aspect of the present invention, in the directional position detecting marker according to any one of the first to seventh aspects, the light source emits light of a specific color. According to this configuration, it is possible to employ a marker that emits light of a desired color according to the purpose of use.
【0016】請求項10記載の発明は、対象領域面内に
向けられたコントローラからの遠隔的な入力操作を受け
て、指向された対象領域面内の位置を検出する装置であ
って、請求項1〜9のいずれかに記載の指向位置検出用
マーカと、コントローラに設けられ、その向きに対応し
た方向の撮像画像を生成する撮像手段と、少なくとも前
記入力の際に生成された撮像画像中の指向位置検出用マ
ーカの像を識別する識別手段と、識別された指向位置検
出用マーカの像の位置及び回転角度情報から撮像範囲の
中央に対応する対象領域面内の位置を算定する算定手段
とを備えたことを特徴とする指向位置検出装置である。
この構成によれば、位置情報及び回転角度情報から撮像
画像の中央、すなわちコントローラが向けられた対象領
域面上の位置、すなわち交点を算定することが可能とな
る。According to a tenth aspect of the present invention, there is provided a device for receiving a remote input operation from a controller directed to the inside of the target area plane and detecting the position of the pointed inside of the target area plane. 1-9, an imaging unit that is provided in the controller and that generates a captured image in a direction corresponding to the orientation, and at least the captured image generated at the time of the input. Identification means for identifying the image of the directional position detection marker, and calculation means for calculating the position in the target area plane corresponding to the center of the imaging range from the position and rotation angle information of the identified image of the directional position detection marker. The pointing position detecting device is characterized by comprising:
According to this configuration, it is possible to calculate the center of the captured image, that is, the position on the target area surface to which the controller is directed, that is, the intersection, from the position information and the rotation angle information.
【0017】請求項11記載の発明は、請求項10記載
の指向位置検出装置において、指向位置検出用マーカ
は、2軸方向の一方の軸に対して他方の軸が互いに逆向
きの軸情報を含む形態を有する異種の指向位置検出用マ
ーカを含み、これら異種の指向位置検出用マーカが対象
領域面に対してそれぞれ所定の位置関係を有して配設さ
れていることを特徴とする。この構成によれば、基本形
態を共通にする、異種の指向位置検出用マーカを採用す
ることで、同種のマーカを利用する際の個々の判別のた
めの処理が不要となる。According to an eleventh aspect of the present invention, in the directivity position detecting device according to the tenth aspect, the directivity position detecting marker includes axis information in which one axis of the two axis directions is opposite to the other axis. The present invention is characterized in that it includes different types of directional position detection markers having a form including these, and these different types of directional position detection markers are arranged in a predetermined positional relationship with respect to the target area surface. According to this configuration, by adopting different types of directional position detection markers having the same basic form, it is not necessary to perform a process for individual determination when using the same type of marker.
【0018】請求項12記載の発明は、請求項10又は
11記載の指向位置検出装置において、対象領域面は、
画像が表示される画面を含むことを特徴とする。この構
成によれば、画像中の所望する位置を指定することが可
能となる。According to a twelfth aspect of the present invention, in the pointing position detecting apparatus according to the tenth or eleventh aspect, the target area surface is
It is characterized by including a screen on which an image is displayed. According to this configuration, it is possible to specify a desired position in the image.
【0019】請求項13記載の発明は、請求項12記載
の指向位置検出装置において、画面は、プロジェクタか
ら投射される画像が表示されるスクリーンであることを
特徴とする。この構成によれば、スクリーン上の所望の
位置の指定が可能となる。According to a thirteenth aspect of the present invention, in the pointing position detecting apparatus according to the twelfth aspect, the screen is a screen on which an image projected from the projector is displayed. With this configuration, it is possible to specify a desired position on the screen.
【0020】請求項14記載の発明は、請求項10〜1
3のいずれかに記載の指向位置検出装置において、指向
位置検出用マーカは複数の点状光源からなり、前記複数
の点状光源は、直線上で所定間隔を有する3個の点状光
源と、一端の点状光源から前記直線に直交する方向に所
定間隔離間した1個の点状光源とからなるもので、算定
手段は、4個の点状光源の位置情報と前記撮像画像中の
4個の点状光源の像の位置及び回転角度情報とから前記
撮像手段の前記対象領域面に対する向きを表す視線ベク
トルを算定すると共に該視線ベクトルの対象領域面との
交点を算定するものであることを特徴とする。この構成
によれば、簡易な構成でありながら、位置情報及び回転
角度情報から撮像画像の中心、すなわちコントローラが
向けられた対象領域面上の位置、すなわち交点を算定す
ることが可能となる。The fourteenth aspect of the present invention includes the tenth to first aspects.
In the directional position detecting device according to any one of 3 above, the directional position detecting marker is composed of a plurality of point light sources, and the plurality of point light sources are three point light sources having a predetermined interval on a straight line, The calculation means is composed of one point-like light source spaced from the point-like light source at one end in a direction orthogonal to the straight line by a predetermined distance, and the calculating means includes position information of four point-like light sources and four pieces of the point information in the captured image. From the position and rotation angle information of the image of the point light source, the line-of-sight vector representing the orientation of the image pickup means with respect to the target area surface is calculated, and the intersection of the line-of-sight vector with the target area surface is calculated. Characterize. According to this configuration, it is possible to calculate the center of the captured image, that is, the position on the surface of the target region where the controller is directed, that is, the intersection, from the position information and the rotation angle information, even with a simple configuration.
【0021】請求項15記載の発明は、請求項10〜1
4のいずれかに記載の指向位置検出装置と、射的対象画
像が含まれるゲーム画像を生成するゲーム制御手段と、
生成されたゲーム画像を画面に表示する画像表示手段と
を備え、コントローラは表示された射的対象画像の表示
位置を指向して射的指示に対応する入力操作を行うもの
であり、算定手段は、入力操作の際に画面内の指向位置
を算定するものであり、ゲーム制御手段は、算定された
指向位置と射的対象画像の画面内での表示位置との一致
の有無を判定し、判定結果に従ってゲーム進行を制御す
るものであることを特徴とするものである。この構成に
よれば、ゲーム画面に登場する射的対象画像に対する射
的操作を受けて、その射的が射的対象画像に当たったか
否かが判定され、それに従って以降のゲーム進行が制御
される。例えば射撃ゲームを模したゲームではコントロ
ーラとして銃の形状をしたものが採用される。種々のコ
ントローラに採用できることから、種々のゲームへの適
用性が高い。The invention as claimed in claim 15 is as follows.
4. The pointing position detecting device according to any one of 4 above, and game control means for generating a game image including a shooting target image,
An image display means for displaying the generated game image on the screen is provided, and the controller directs the display position of the displayed target object image to perform an input operation corresponding to the target shot, and the calculation means is , Is for calculating the pointing position in the screen during the input operation, and the game control means determines whether or not the calculated pointing position and the display position of the shooting target image on the screen match, It is characterized in that the game progress is controlled according to the result. With this configuration, it is determined whether or not the shooting target hits the shooting target image by receiving a shooting operation on the shooting target image that appears on the game screen, and the subsequent game progress is controlled accordingly. . For example, in a game simulating a shooting game, a gun-shaped one is used as a controller. Since it can be used in various controllers, it is highly applicable to various games.
【0022】[0022]
【発明の実施の形態】以下、本発明の実施の形態の1つ
である射撃ビデオゲーム機について説明する。DETAILED DESCRIPTION OF THE INVENTION A shooting video game machine, which is one of the embodiments of the present invention, will be described below.
【0023】図1は射撃ビデオゲーム機におけるスクリ
ーン121での投射画像の移動を示す図である。図1
(a)は投射画像122のスクリーン121下部への表
示を示しており、図1(b)は投射画像123のスクリ
ーン121上部への表示を示している。図5はプレイヤ
300の左右への移動に伴う表示画像の変化を示す図で
ある。FIG. 1 is a diagram showing the movement of the projected image on the screen 121 in the shooting video game machine. Figure 1
1A shows the display of the projection image 122 on the lower part of the screen 121, and FIG. 1B shows the display of the projection image 123 on the upper part of the screen 121. FIG. 5 is a diagram showing changes in the display image due to the movement of the player 300 to the left and right.
【0024】また、図2、図4は下部への投射画像12
2の例を示す図であり、図3は上部への投射画像123
の例を示す図である。2 and 4 show the projected image 12 on the lower part.
2 is a diagram showing an example of FIG. 2, and FIG.
It is a figure which shows the example of.
【0025】図1(a)、(b)に示すように、本ゲー
ム機前方に設定された所定領域を有するプレイエリア1
30に立つプレイヤ300は、ガンユニット10を操作
して、スクリーン121上の投射画像122、123中
に表示される恐竜に対し仮想的な射撃を行う。ゲーム空
間(仮想3次元空間)内にて3D形状を有し時刻の経過
とともに動作しつつ移動する恐竜は、(あらかじめ設定
されたプレイヤ300の基準視点に位置が対応する)仮
想視点から捕らえらる画像として、遠方に存在するとき
には図2のような投射画像122中に表示され、また、
近接するときには図3に示すような投射画像123、ま
たは図4に示すような投射画像122中に表示される。As shown in FIGS. 1A and 1B, a play area 1 having a predetermined area set in front of the game machine.
The player 300 standing at 30 operates the gun unit 10 to virtually shoot a dinosaur displayed in the projection images 122 and 123 on the screen 121. A dinosaur that has a 3D shape in the game space (virtual three-dimensional space) and moves while operating with the passage of time is captured from a virtual viewpoint (the position of which corresponds to the preset reference viewpoint of the player 300). As an image, when it is present at a distance, it is displayed in the projection image 122 as shown in FIG.
When approaching, it is displayed in the projection image 123 as shown in FIG. 3 or the projection image 122 as shown in FIG.
【0026】特に、本ゲーム機では、スクリーン121
下部に表示される投射画像122(図1(a))が、ス
クリーン121上部に表示される投射画像123(図1
(b))へと、ゲーム空間内にて移動される仮想視点と
恐竜との位置に応じて表示内容が変化されつつ、矢印A
1の向きに連続的に移動され、このようなスクリーン1
21上の投射画像の移動に伴い、プレイヤ300の視線
はスクリーン121下部からスクリーン121上部へと
(図1(a)の矢印A2の向きから図1(b)の矢印A3
の向きへと)自然に変化されることとなる。Particularly, in this game machine, the screen 121
The projection image 122 (FIG. 1A) displayed at the bottom is the projection image 123 (FIG. 1) displayed at the top of the screen 121.
To (b)), while the display contents are changed according to the positions of the virtual viewpoint and the dinosaur moved in the game space, the arrow A
Continuously moved in one direction, such a screen 1
Along with the movement of the projection image on the screen 21, the player's line of sight moves from the bottom of the screen 121 to the top of the screen 121 (from the direction of arrow A 2 in FIG. 1A to the arrow A 3 in FIG. 1B).
Will be changed naturally.
【0027】さらに、本ゲーム機では、ゲーム空間内で
恐竜がプレイヤを攻撃することが想定されており、図3
の投射画像123中の状態から、恐竜が、プレイエリア
130上のプレイヤを噛み付くような動作の画像をスク
リーン121上部に表示させ、また、図4の投射画像1
22中の状態から恐竜がプレイヤを蹴るような動作(ま
た尻尾を振り回すような動作)の画像をスクリーン12
1下部に表示させる。Furthermore, in this game machine, it is assumed that a dinosaur attacks the player in the game space.
From the state in the projection image 123 of No. 3, the dinosaur displays an image of the action of biting the player on the play area 130 on the upper part of the screen 121, and the projection image 1 of FIG.
An image of the action of a dinosaur kicking the player (or the action of swinging the tail) from the state of 22 is displayed on the screen 12.
1 Display at the bottom.
【0028】プレイヤ300は、プレイエリア130上
を左右へと移動することにより、これらの恐竜からの攻
撃を回避することができる。図1(b)のように恐竜の
頭部に向けての射撃を行っているプレイヤ300は、恐
竜が攻撃を開始することを察知して、図5のようにプレ
イエリア130上を左方に(矢印A4の向きに)移動す
ると、本ゲーム機では、この移動が検知され、ゲーム空
間内にて恐竜から仮想プレイヤ(仮想視点)が遠ざかっ
ていくように座標が設定され、プレイヤ300が恐竜か
ら離れていくような(恐竜が矢印A5の向きに外れてい
く)投射画像123が表示されることとなる。The player 300 can avoid attacks from these dinosaurs by moving left and right on the play area 130. As shown in FIG. 1B, the player 300 shooting toward the head of the dinosaur recognizes that the dinosaur will start attacking, and moves to the left on the play area 130 as shown in FIG. When moving (in the direction of arrow A 4 ), the game machine detects this movement, sets coordinates so that the virtual player (virtual viewpoint) moves away from the dinosaur in the game space, and the player 300 causes the dinosaur to move. The projected image 123 is displayed as if it were moving away from the dinosaur (the dinosaur is detached in the direction of arrow A 5 ).
【0029】図3、図4には、仮想視点に近接する大型
恐竜の上下の部位がスクリーン121の上下に表示され
ているが、仮想視点から遠方の飛行恐竜(翼竜)をスク
リーン121の下部に表示させ、仮想視点に対する飛行
恐竜の位置に応じ表示内容を連続的に変化させつつ連続
的に移動させ、仮想視点に近接する飛行恐竜をスクリー
ン121の上部に表示させるものとすることができる。In FIGS. 3 and 4, the upper and lower parts of the large dinosaur close to the virtual viewpoint are displayed above and below the screen 121, but a flying dinosaur (pterosaur) far from the virtual viewpoint is displayed below the screen 121. It is possible to display the flying dinosaur near the virtual viewpoint on the upper part of the screen 121 by continuously changing the display content according to the position of the flying dinosaur with respect to the virtual viewpoint and continuously moving the displayed content.
【0030】かかる概略動作を行う本ゲーム機の構成に
つき、図6〜図11を順に用いて説明する。図6、図7
は画像の投射のための構成に関するものであり、図8、
図9は銃口16の向きの検出のための構成に関するもの
であり、図10はマーカ6〜9の形態及びスクリーンへ
の取り付け構造図を示すものであり、図11、図12は
ミラー43の回転等の保護のための構成に関するもので
ある。The configuration of the present game machine which performs the above-described general operation will be described with reference to FIGS. 6 to 11 in order. 6 and 7
Relates to a configuration for projecting an image, and FIG.
9 shows a structure for detecting the direction of the muzzle 16, FIG. 10 shows a form of the markers 6 to 9 and a mounting structure of the markers, and FIGS. 11 and 12 show rotation of the mirror 43. The present invention relates to a configuration for protecting the like.
【0031】画像の投射のための構成について説明す
る。図6は本ゲーム機の外観を示す図であり、図7はス
クリーン121上の投射画像の移動を説明するための模
式的断面図である。A configuration for projecting an image will be described. FIG. 6 is a view showing the outer appearance of the present game machine, and FIG. 7 is a schematic cross-sectional view for explaining the movement of the projection image on the screen 121.
【0032】本ゲーム機では、図6に示すように、スク
リーン保持台120により保持されたスクリーン121
上で、プロジェクタ31(図7)から投射された投射画
像124が矢印A6方向に移動され、ガンユニット1
0、ガンユニット20はガンケーブル17を介して(後
に図13にて説明する)本体制御部100に接続されて
いる。投射画像124は前述の恐竜などのような射撃対
象物を含むものであり、プレイエリア130上に立つ1
Pプレイヤは、ガンユニット10を操作し(また2Pプ
レイヤは、ガンユニット20を操作し)射撃対象物を仮
想的に射撃し、射撃位置、射撃タイミングなどの射撃の
巧拙に応じ得点が加算されていく。In this game machine, as shown in FIG. 6, a screen 121 held by a screen holding base 120 is used.
Above, the projection image 124 projected from the projector 31 (FIG. 7) is moved in the direction of the arrow A 6 and the gun unit 1
0, the gun unit 20 is connected to the main body controller 100 via a gun cable 17 (which will be described later with reference to FIG. 13). The projected image 124 includes a shooting target object such as the above-mentioned dinosaur, and stands on the play area 130.
The P player operates the gun unit 10 (and the 2P player operates the gun unit 20) to virtually shoot the target, and points are added according to the skill of the shooting such as the shooting position and the shooting timing. Go.
【0033】基台110前面に取り付けられた4つのプ
レイヤ感知センサ51〜54は、1人プレイ時の1Pプ
レイヤの(また2人プレイ時の1Pプレイヤおよび2P
プレイヤの)左右への移動を感知するものであり、側板
125が、スクリーン121に対する銃口の向きの検出
(後述)、スクリーン121上での表示に際しての外乱
等を防止するために設けられている。The four player detection sensors 51 to 54 mounted on the front surface of the base 110 are used by the 1P player during one-player play (or the 1P player and 2P play during two-player play).
A side plate 125 is provided to detect the movement of the player to the left and right, and to detect the orientation of the muzzle with respect to the screen 121 (described later) and prevent disturbances when displaying on the screen 121.
【0034】また、本ゲーム機では、リアルさ、迫力を
醸し出すための音楽などが再生され、ゲーム進行に際し
中高音域の音声を出力するためのスピーカ(上)32、
スピーカ(左)33およびスピーカ(右)34と、低音
域の音声を出力するためのウーファースピーカ35とが
設けられている。スピーカ(上)32とスピーカ(左)
33とは1組となって、また、スピーカ(上)32とス
ピーカ(右)34とは1組となって、ステレオ音声を再
生する。Further, in this game machine, music for producing realism and power is reproduced, and a speaker (upper) 32 for outputting a sound in the middle and high range when the game progresses,
A speaker (left) 33, a speaker (right) 34, and a woofer speaker 35 for outputting low-pitched sound are provided. Speaker (top) 32 and speaker (left)
33 forms a set, and the speaker (upper) 32 and the speaker (right) 34 form a set to reproduce stereo sound.
【0035】コイン投入口38からは所定金額のコイン
が投入され、スクリーン121上への表示に合わせてス
タートボタン36が適宜押下されて、1Pプレイヤのみ
の1人プレイ、また、1Pプレイヤおよび2Pプレイヤ
による2人プレイが選択的に開始される。A predetermined amount of coins are inserted from the coin insertion slot 38, the start button 36 is appropriately pressed in accordance with the display on the screen 121, and the 1P player only plays one person, or the 1P player and the 2P player. Two-player play by is selectively started.
【0036】矩形平板状のミラー43は、図7に示すよ
うに、紙面に垂直な方向に延びるミラー軸45を有して
おり、ミラー軸45の両端はミラー保持部材46により
回転自在に保持されている。後述の制御部に接続される
ステッピングモータ41の回転はタイミングベルト44
によってミラー43へと伝達され、ミラー43が矢印A
7の向きへと回転されることにより、投射画像124が
スクリーン121上にて矢印A6の向きへと移動され
る。As shown in FIG. 7, the rectangular flat plate-shaped mirror 43 has a mirror shaft 45 extending in a direction perpendicular to the paper surface, and both ends of the mirror shaft 45 are rotatably held by mirror holding members 46. ing. The rotation of the stepping motor 41, which is connected to the control unit described later, is rotated by the timing belt 44.
Is transmitted to the mirror 43 by the arrow A
The projection image 124 is moved in the direction of arrow A 6 on the screen 121 by being rotated in the direction of 7 .
【0037】本ゲーム機前方の所定の高さ位置に設定さ
れている基準視点には、ゲーム空間内の仮想視点が対応
付けられており、(平均的な身長の)プレイヤはこの基
準視点位置からスクリーン121を見ることが想定され
ている。A virtual viewpoint in the game space is associated with a reference viewpoint set at a predetermined height position in front of the game machine, and a player (of average height) can move from this reference viewpoint position. It is envisioned to look at screen 121.
【0038】続いて、銃口16の向きの検出のための構
成について説明する。図8はプレイヤからの入力操作を
受け付けるコントローラの一例としてガンユニット10
(ガンユニット20についても同様)の構成を示す図で
あり、図9はスクリーン121に対する銃口16の向き
を、ガンユニット10中のCCDカメラ13とともに検
出するための、マーカ6〜9の配置を示す図である。図
9(a)は平面上に引き伸ばしたスクリーン121の正
面図を示しており、図9(b)は本ゲーム機に設置され
たスクリーン121の側面図を示している。図9におい
て、マーカ6〜9は同一形状を有し、スクリーン121
表面の左右中央位置であって縦方向に、好ましくは等間
隔を有して配設される所定数の、本実施形態においては
4個配設されている。マーカ6〜9のそれぞれのスクリ
ーン121に対する取り付け位置情報は、図13に示す
本体制御部100のROM105等に格納されている。
マーカの配置位置は、スクリーン形状等に応じて設定可
能であり、本実施形態ではスクリーン121の上下近傍
及びその間を3等分した2カ所に設けられている。ま
た、マーカの個数はスクリーンの大きさ、CCDカメラ
13の視野角に応じて適宜設定される。Next, a configuration for detecting the direction of the muzzle 16 will be described. FIG. 8 shows a gun unit 10 as an example of a controller that receives an input operation from a player.
FIG. 9 is a diagram showing the configuration (same for the gun unit 20), and FIG. 9 shows the arrangement of the markers 6 to 9 for detecting the orientation of the muzzle 16 with respect to the screen 121 together with the CCD camera 13 in the gun unit 10. It is a figure. FIG. 9A shows a front view of the screen 121 stretched on a plane, and FIG. 9B shows a side view of the screen 121 installed in the game machine. In FIG. 9, the markers 6 to 9 have the same shape, and the screen 121
A predetermined number, preferably four, are arranged in the vertical direction at the right and left center position on the surface, preferably at equal intervals. The mounting position information of each of the markers 6 to 9 on the screen 121 is stored in the ROM 105 or the like of the main body control unit 100 shown in FIG.
The positions where the markers are arranged can be set according to the shape of the screen and the like, and in the present embodiment, they are provided near the top and bottom of the screen 121 and in two places that divide the space between them into three equal parts. Further, the number of markers is appropriately set according to the size of the screen and the viewing angle of the CCD camera 13.
【0039】ガンユニット10は、図8に示すように、
ポンプアクション銃を模したものであり、プレイヤが矢
印A8の向きにトリガー14を引くことによりオンされ
るマイクロスイッチであるトリガースイッチ11と、プ
レイヤが矢印A9の向きにスライド部15をスライドさ
せることによりオンされるマイクロスイッチであるポン
プトリガースイッチ12と、スクリーン121に対する
銃口16の向き、すなわち銃口16の向き(視線ベクト
ル)がスクリーン121と交差する点を検出するため、
マーカ6〜9のうちの少なくとも1個、本実施形態では
2個までを撮像可能にする視野角を有するCCDカメラ
13とを有している。The gun unit 10 is, as shown in FIG.
It is a model of a pump action gun, and the trigger switch 11 is a micro switch that is turned on by the player pulling the trigger 14 in the direction of arrow A 8 , and the player slides the slide portion 15 in the direction of arrow A 9 . In order to detect the direction of the muzzle 16 with respect to the screen 121 and the pump trigger switch 12 that is a micro switch that is turned on by this, that is, the point where the direction (line-of-sight vector) of the muzzle 16 intersects the screen 121,
It has at least one of the markers 6 to 9, and in the present embodiment, a CCD camera 13 having a viewing angle that allows imaging of up to two.
【0040】これらトリガースイッチ11、ポンプトリ
ガースイッチ12、および、CCDカメラ13からの信
号はガンケーブル17を介して本体制御部100へと伝
送され、トリガースイッチ11がオンされることにより
仮想的な射撃が指示され、また、ポンプトリガースイッ
チ12がオンされることによりガンユニット10への仮
想的な所定個数の銃弾の装填が指示される。Signals from the trigger switch 11, the pump trigger switch 12, and the CCD camera 13 are transmitted to the main body control section 100 via the gun cable 17, and the trigger switch 11 is turned on to virtually shoot. When the pump trigger switch 12 is turned on, loading of a virtual predetermined number of bullets into the gun unit 10 is instructed.
【0041】CCDカメラ13の視野431によって
は、図9(a)に示すように、スクリーン121の一部
のみが撮像されるものであり、また、図9(b)に示す
ように、(ガンユニット10中の)CCDカメラ13と
スクリーン121との間の距離は、ゲーム進行中プレイ
ヤの操作に応じて変化されるため、CCDカメラ13の
視野431内に収まるスクリーン121の部分の大きさ
は変化する。Depending on the visual field 431 of the CCD camera 13, only a part of the screen 121 is imaged as shown in FIG. 9A, and as shown in FIG. Since the distance between the CCD camera 13 (in the unit 10) and the screen 121 is changed according to the operation of the player during the game progress, the size of the part of the screen 121 that fits within the visual field 431 of the CCD camera 13 is changed. To do.
【0042】本ゲーム機では、視野431に対応するC
CD画像中の、(後述するようにして)マーカ6〜9の
取り付け位置情報を利用して発光されている1個のマー
カの像の配置及び回転角度の情報が検出されて、プレイ
ヤが銃口16をスクリーン121上のどの部分に向けて
いるか、その交点が検知される。In this game machine, C corresponding to the visual field 431
The information on the arrangement and the rotation angle of the image of one marker which is emitted by using the attachment position information of the markers 6 to 9 (as described later) in the CD image is detected, and the player is in the muzzle 16 The intersection on which part of the screen 121 is directed is detected.
【0043】図10(a)はマーカの形態を示し、図1
0(b)(c)はスクリーン121への取り付け構造を
示す。マーカ6〜9は同一形状を有することから、ここ
ではマーカ6について説明する。マーカ6は外光による
誤検知の防止用として赤外光を発光する点光源(発光
体)としてのLED6A〜LED6Dの4個が採用され
る。LED6A〜LED6Cは所定の等間隔を有して直
線(主軸)上に配置され、LED6DはLED6Aから
前記所定の間隔と同一間隔を有し、かつ前記主軸に対し
て直交する線(副軸)上に設けられる。マーカの形状が
L字状をなすことから、以下、マーカの形状をいうとき
は、「Lフレーム」という。マーカ6の取り付け位置情
報は、各LED毎に規定されて格納されており、本実施
形態ではLED6Aが基準位置とされる。LED6A〜
LED6Dのそれぞれの間隔は、等間隔であることが好
ましいが、これに限定されない。なお、LED6DがL
ED6A〜LED6Cの配列と直交する位置とすること
が、後述する撮像画像中でのマーカ位置及び回転角度を
基に行われる算定処理上好ましい。FIG. 10A shows the shape of the marker, and FIG.
Reference numerals 0 (b) and (c) show a mounting structure to the screen 121. Since the markers 6 to 9 have the same shape, the marker 6 will be described here. As the marker 6, four LEDs 6A to 6D are adopted as point light sources (light emitters) that emit infrared light to prevent erroneous detection due to external light. The LEDs 6A to 6C are arranged on a straight line (main axis) with a predetermined equal interval, and the LED 6D is on the line (secondary axis) that has the same interval as the predetermined interval from the LED 6A and is orthogonal to the main axis. It is provided in. Since the shape of the marker is L-shaped, the shape of the marker is hereinafter referred to as “L frame”. The mounting position information of the marker 6 is defined and stored for each LED, and in the present embodiment, the LED 6A is the reference position. LED6A ~
The respective intervals of the LEDs 6D are preferably equal intervals, but are not limited to this. In addition, LED6D is L
The position orthogonal to the arrangement of the ED 6A to the LED 6C is preferable for the calculation process performed based on the marker position and the rotation angle in the captured image described later.
【0044】図10(b)はLED6Dの取り付け構造
を示す。LED6Dは例えばLED点灯ドライブ回路等
が搭載される所定サイズの基板611の略中央に立直姿
勢で取り付けられている。スクリーン121にはLED
6Dの発光部が露出する孔121aが穿設されている。
孔121aにはスクリーン121の表(おもて)面に向
けて幅広となる円錐状(すり鉢状)に形成されており、
LED6Dからの発光光が広角度にて照射されるように
してある。また、金属薄板612には左右2カ所に所定
高さを有するスタッドナット613が溶接、または(金
属薄板612に形成された図略の孔への)圧入等によっ
て立設されており、このナット613に基板611を載
せて反対面からボルト614で締め付けることで基板6
11と金属薄板612とが一体化されている。金属薄板
612のさらに両端位置には孔612aが形成されてお
り、スクリーン121の対応するすり鉢状孔121bか
ら、図では示していないが、三角ビスを貫通させてスク
リーン121と金属薄板612とを介してボルト締めに
より両者を一体結合している。FIG. 10B shows the mounting structure of the LED 6D. The LED 6D is mounted in an upright posture at a substantially center of a board 611 of a predetermined size on which an LED lighting drive circuit and the like are mounted. LED on the screen 121
A hole 121a is formed to expose the 6D light emitting portion.
The hole 121a is formed in a conical shape (mortar shape) that widens toward the front (front) surface of the screen 121,
Light emitted from the LED 6D is emitted at a wide angle. Further, stud nuts 613 having predetermined heights are provided at two places on the left and right sides of the metal thin plate 612 by welding or press fitting (into holes (not shown) formed in the metal thin plate 612). The board 611 is placed on the board and tightened with bolts 614 from the opposite surface.
11 and the metal thin plate 612 are integrated. Holes 612a are formed at both end positions of the metal thin plate 612, and although not shown in the drawing from the corresponding mortar-shaped holes 121b of the screen 121, a triangular screw is passed through the screen 121 and the metal thin plate 612. Both are integrally connected by bolting.
【0045】図10(c)はLED6A〜6Cの取り付
け構造を示し、基本的にはLED6Dの取り付け構造と
同一である。すなわち、LED6A〜6Cはそれぞれの
所定サイズの基板621の略中央に立直姿勢で取り付け
られている。スクリーン121にはLED6A〜6Cの
発光部が露出する3個の孔121aが対応位置となるよ
うに穿設されている。孔121aにはスクリーン121
の表(おもて)面に向けて幅広となる円錐状に形成され
ており、LED6A〜6Cからの発光光が広角度で照射
されるようにしてある。また、金属薄板622はLED
6A〜6Cの3個分を含むサイズを有し、所要の3箇所
に所定高さを有するスタッドナット623が溶接、また
は(金属薄板622に形成された図略の孔への)圧入等
によって立設されており、このナット623に基板62
1を載せて反対面からボルト締めすることで基板621
と金属薄板622とが一体化されている。金属薄板62
2のさらに適所には孔622aが形成されており、スク
リーン121の対応するすり鉢状孔121bから、図で
は示していないが、三角ビスを貫通させてスクリーン1
21と金属薄板622とを介してボルト締めにより両者
を一体結合している。FIG. 10C shows the mounting structure of the LEDs 6A to 6C, which is basically the same as the mounting structure of the LED 6D. That is, the LEDs 6A to 6C are mounted in a substantially upright posture on the substrate 621 of a predetermined size. The screen 121 is provided with three holes 121a through which the light emitting portions of the LEDs 6A to 6C are exposed so as to be at corresponding positions. The screen 121 is provided in the hole 121a.
It is formed in a conical shape that widens toward the front (front) surface of the device, and the light emitted from the LEDs 6A to 6C is emitted at a wide angle. The thin metal plate 622 is an LED.
A stud nut 623 having a size including 3 pieces of 6A to 6C and having a predetermined height at three required places is erected by welding or press fitting (into a hole (not shown) formed in the thin metal plate 622). This nut 623 is installed on the substrate 62.
Board 621 by placing 1 and bolting from the opposite side
And the metal thin plate 622 are integrated. Thin metal plate 62
2, a hole 622a is formed at a more appropriate position, and a triangular screw is penetrated through the corresponding mortar-shaped hole 121b of the screen 121 to allow the screen 1 to pass therethrough.
21 and the metal thin plate 622 are integrally coupled by bolting.
【0046】次に、ミラー43の回転等の保護のための
構成に関して説明する。図11はミラー43の回転、プ
ロジェクタ31からの画像の投射を保護するために設置
されるアクリル板142を示す模式的断面図であり、図
12はアクリル板保持部材141(図(a))およびア
クリル板142(図(b))の構成を示す図である。Next, a structure for protecting the mirror 43 against rotation will be described. FIG. 11 is a schematic cross-sectional view showing an acrylic plate 142 installed to protect the rotation of the mirror 43 and the projection of an image from the projector 31, and FIG. 12 is an acrylic plate holding member 141 (FIG. (A)) and It is a figure which shows the structure of the acrylic plate 142 (FIG. (B)).
【0047】アクリル板案内溝143(図11(a))
中に端部が通された状態でミラー43、プロジェクタ3
1等を覆うように設置されるアクリル板142(図11
(b))は、図11に示すように、プロジェクタ31か
らの画像を透過させつつ、外部から、ミラー43、プロ
ジェクタ31等が置かれる内部を保護するものであり、
さらに実像がスクリーン121上部に投射される際、ア
クリル板142、ミラー43等から反射される光によっ
て、虚像がスクリーン121外部に結ばれるように水平
方向から10度前後の傾斜がつけられている。Acrylic plate guide groove 143 (FIG. 11 (a))
The mirror 43 and the projector 3 with the end part passed through the inside.
The acrylic plate 142 (see FIG. 11) installed so as to cover the first and the like.
As shown in FIG. 11, (b)) is for protecting the inside where the mirror 43, the projector 31, etc. are placed from the outside while transmitting the image from the projector 31.
Further, when the real image is projected on the upper part of the screen 121, the light reflected from the acrylic plate 142, the mirror 43, etc. is inclined about 10 degrees from the horizontal direction so that the virtual image is formed outside the screen 121.
【0048】以上のような構成の本ゲーム機の制御につ
いて図13〜図30を用いて説明する。図13は本ゲー
ム機の制御部のハードウェア構成を示すブロック図であ
り、図14はゲーム制御部(CPU)103にて実行さ
れる射撃ビデオゲーム処理(射撃ビデオゲームプログラ
ム)の手順を示すフローチャートである。The control of the game machine having the above-mentioned structure will be described with reference to FIGS. FIG. 13 is a block diagram showing a hardware configuration of a control unit of the game machine, and FIG. 14 is a flowchart showing a procedure of a shooting video game process (shooting video game program) executed by the game control unit (CPU) 103. Is.
【0049】図13に示すように、基台110(図6)
内に設置される本体制御部100(のゲーム制御部10
3)には、先述のようなトリガースイッチ11、21、
ポンプトリガースイッチ12、22、CCDカメラ1
3、23、マーカ6〜9、プレイヤ感知センサ51〜5
4、スタートボタン36、プロジェクタ31、ステッピ
ングモータ41およびスピーカ32〜35、ならびに、
コイン投入口38からのコインの投入を検知するコイン
スイッチ37、(電源投下時等に)ミラー軸45上に取
り付けられた半円状板とによってミラー43の回転基準
位置を定めるための位置センサ42が接続されており、
ゲーム制御部103が回転基準位置からの回転角度を指
定することによりスクリーン121(図7)上の投射画
像124の表示位置が連続的に指定される。As shown in FIG. 13, the base 110 (FIG. 6)
The main body control section 100 (the game control section 10 of the main body control section 100 installed therein
In 3), the trigger switches 11, 21, and
Pump trigger switches 12, 22, CCD camera 1
3, 23, markers 6-9, player detection sensors 51-5
4, start button 36, projector 31, stepping motor 41 and speakers 32 to 35, and
The position sensor 42 for determining the rotation reference position of the mirror 43 by the coin switch 37 for detecting the insertion of coins from the coin insertion slot 38 and the semi-circular plate mounted on the mirror shaft 45 (when the power is dropped, etc.). Is connected,
The display position of the projection image 124 on the screen 121 (FIG. 7) is continuously designated by the game control unit 103 designating the rotation angle from the rotation reference position.
【0050】本体制御部100には、後述する射撃ビデ
オゲーム処理のためのプログラム、画像データ、音声デ
ータなどを格納するROM105と、ROM105から
読み出されるプログラムおよびプログラムにて使用され
るデータ等を一時的に格納するRAM106と、RAM
106上にロードされたプログラムに基づきゲームの全
体的な進行を制御するゲーム制御部103と、ゲーム空
間内にて3D形状を有する物体の座標に合わせてポリゴ
ン描画、テクスチャマッピング等の画像特有の処理を行
いつつプロジェクタ31の投射画像に対応する画像デー
タをフレームバッファ102に書き込む描画制御部(画
像描画プロセッサ)101と、ADPCM音源を備え音
声データから音声を再生する音声制御部(音声制御プロ
セッサ)104とが含まれる。The main body control section 100 temporarily stores a ROM 105 for storing a program for shooting video game processing, image data, sound data, etc., which will be described later, a program read from the ROM 105, data used in the program, and the like. RAM 106 to be stored in
A game control unit 103 that controls the overall progress of the game based on a program loaded on 106, and image-specific processing such as polygon drawing and texture mapping in accordance with the coordinates of an object having a 3D shape in the game space. The drawing control unit (image drawing processor) 101 that writes the image data corresponding to the projection image of the projector 31 in the frame buffer 102 while performing the above, and the audio control unit (audio control processor) 104 that includes an ADPCM sound source and reproduces audio from the audio data. And are included.
【0051】ゲーム制御部103にて実行される射撃ビ
デオゲーム処理では、図14に示すように、コインスイ
ッチ37によりコインの投入が検知されなければ(ST
2にてNO)、デモ用の画像データが読み出されデモ画
面表示が行われている(ST1)。In the shooting video game process executed by the game control section 103, as shown in FIG. 14, if the coin switch 37 does not detect the insertion of a coin (ST
No in 2), the demo image data is read out and the demo screen is displayed (ST1).
【0052】コインの投入が検知されると(ST2にて
YES)、スタート画面が表示され(ST3)、(さら
にスタートボタン36の押下が検知されると)ステージ
により異なる、画像データ、音声データ、および、敵キ
ャラクタ(上記の恐竜、また、他の射撃対象物)の攻
撃、移動、プレイヤの移動などを特徴付ける他のゲーム
データが読み込まれた(ST4)後、ゲーム開始処理が
実行されて(ST5)、ゲームがスタートされる。When the insertion of a coin is detected (YES in ST2), the start screen is displayed (ST3), and the image data, the audio data, which are different depending on the stage (when the pressing of the start button 36 is detected), Also, after the other game data characterizing the attack, movement, movement of the player, etc. of the enemy character (the above-mentioned dinosaur or other shooting target) is read (ST4), the game start processing is executed (ST5). ), The game starts.
【0053】本ゲーム機では、従来の格闘ゲーム機と同
様、ゲームの制限時間、および、敵キャラクタからの攻
撃に応じて減少される仮想的なプレイヤのライフが設定
されており、ゲーム進行中に時間切れとなるか(ST6
にてYES)、ライフがなくなれば(ST7にてN
O)、ゲームが終了して、ゲームオーバーを告げる画面
が表示される(ST13)。時間切れでなく(ST6に
てNO)、かつ、ライフが残っていれば(ST7にてY
ES)、ゲーム処理本体(ST8、後に図16等にて詳
細を示す)にてゲームの進行が続けられる。In this game machine, as in the conventional fighting game machine, the time limit of the game and the life of the virtual player, which is reduced in response to the attack from the enemy character, are set. Will it run out of time (ST6
YES), if life is exhausted (N at ST7)
O), the game ends, and a screen notifying that the game is over is displayed (ST13). If the time has not expired (NO in ST6) and there is remaining life (Y in ST7)
ES) and the game processing main body (ST8, details of which will be shown later in FIG. 16 and the like) continue the game.
【0054】図2〜図4に示す大型恐竜を倒す等して、
1ステージがクリアされると(ST9にてYES)、ク
リアされたステージが最終ステージでないときには(S
T10にてNO)、新たなステージに対し、ST4から
の処理が繰り返される。By defeating the large dinosaurs shown in FIGS. 2 to 4,
When one stage is cleared (YES in ST9), the cleared stage is not the final stage (S
(NO at T10), the process from ST4 is repeated for the new stage.
【0055】クリアされたステージが最終ステージであ
るときには(ST10にてYES)、続いてマーカ6〜
9が消灯され(ST11)、エンディング画面、ゲーム
オーバー画面が表示されて(ST12、ST13)、S
T1へと処理が戻される。When the cleared stage is the final stage (YES in ST10), the markers 6-
9 is turned off (ST11), the ending screen and the game over screen are displayed (ST12, ST13), S
The process is returned to T1.
【0056】図15は図14のST8のゲーム処理本体
での処理を行うゲーム処理部400(射撃ビデオゲーム
プログラムの一部)の主要部の構成を示すブロック図で
あり、図16はST8のゲーム処理本体での処理の詳細
な手順を示すフローチャートである。図17、図18は
プレイヤ感知センサ51〜54によるプレイエリア13
0上のプレイヤ300の位置の検知(1Pプレイヤのみ
の1人プレイ時)を説明するための図である。FIG. 15 is a block diagram showing a configuration of a main part of a game processing section 400 (a part of a shooting video game program) for performing processing in the game processing main body of ST8 of FIG. 14, and FIG. 16 is a game of ST8. It is a flow chart which shows a detailed procedure of processing in a processing body. 17 and 18 show the play area 13 by the player detection sensors 51 to 54.
It is a figure for demonstrating the detection of the position of the player 300 above 0 (at the time of one player only 1P player play).
【0057】図15に示すように、ゲーム処理部400
は、プレイヤ(仮想視点、また、ゲーム空間内の仮想プ
レイヤ)に関する処理を行う処理部として、投射画像1
24が表示されるスクリーン121位置に対応してマー
カ6〜9のいずれを点灯させるかを決定するマーカ点灯
処理部400aと、CCDカメラ13に捕らえられる画
像に基づき、銃口16の向けられているスクリーン12
1上の位置を検出するための銃口向き検出部401と、
ポンプトリガースイッチ12、トリガースイッチ11が
オンされたこと、および、プレイヤ感知センサ51〜5
4の検知状態を入力するI/O入力部402と、ポンプ
トリガースイッチ12がオンされたとき、仮想的な所定
個数の銃弾の装填を処理する銃弾装填処理部403と、
トリガースイッチ11のオンに応じゲーム空間内で仮想
視点近傍から銃口16の向きに応じた方向に銃弾を移動
させるように座標を設定する銃弾位置算出部404と、
ゲーム空間内にて仮想視点を(あらかじめ指定された移
動幅にて)通常移動させるように、また、プレイヤ感知
センサ51〜54がプレイエリア130上でのプレイヤ
の移動を検知した際、仮想視点が恐竜から遠ざかるよう
に回避移動させるように、仮想視点の座標を設定する視
点位置移動部405と、敵からプレイヤへの仮想的な攻
撃がヒットしたか否かを判定する当たり判定部406と
を含んでいる。As shown in FIG. 15, the game processing section 400
Is a projection image 1 as a processing unit that performs processing related to the player (virtual viewpoint and virtual player in the game space).
Based on the image captured by the CCD camera 13, the marker lighting processing unit 400a that determines which of the markers 6 to 9 is to be lighted corresponding to the position of the screen 121 on which 24 is displayed, and the screen to which the muzzle 16 is directed. 12
1, a muzzle direction detecting unit 401 for detecting the position on 1,
The pump trigger switch 12 and the trigger switch 11 are turned on, and the player detection sensors 51 to 5
4, an I / O input unit 402 for inputting the detection state of 4, and a bullet loading processing unit 403 for loading a virtual predetermined number of bullets when the pump trigger switch 12 is turned on.
A bullet position calculation unit 404 that sets coordinates so as to move the bullet in the game space in the direction corresponding to the direction of the muzzle 16 in the game space when the trigger switch 11 is turned on,
The virtual viewpoint is moved normally within the game space (with a predetermined movement width), and when the player detection sensors 51 to 54 detect the movement of the player on the play area 130, the virtual viewpoint is changed to the virtual viewpoint. A viewpoint position moving unit 405 that sets the coordinates of the virtual viewpoint so as to avoid the dinosaur and move away from the dinosaur, and a hit determination unit 406 that determines whether or not a virtual attack from the enemy to the player is hit. I'm out.
【0058】さらに、ゲーム処理部400は、敵キャラ
クタに関する処理を行う処理部として、敵キャラクタが
プレイヤに十分近付いてきたとき(乱数等を用い)プレ
イヤへの攻撃を発生させる敵攻撃設定部407と、ゲー
ム空間内でプレイヤを追いかけるように敵キャラクタの
座標を設定して敵キャラクタを移動させる敵移動処理部
408と、プレイヤから敵への仮想的な攻撃がヒットし
たか否かを判定する敵当たり判定部409とを含んでお
り、加えて、ゲーム空間でのこれらプレイヤ、敵キャラ
クタの座標の設定に基づき描画を行うように描画制御部
101に指示するデータを設定し、プロジェクタ31に
よる投射画像をスクリーン121の上部に表示するか下
部に表示するかに応じてステッピングモータ41を回転
させる画像処理部410と、ゲーム進行に応じた音声
(音楽を含む)を選択的に再生するように音声制御部1
04に指示するデータを設定する音声処理部411とを
含んでいる。Further, the game processing section 400 serves as a processing section for performing processing relating to the enemy character, and an enemy attack setting section 407 for causing an attack to the player when the enemy character comes close enough to the player (using random numbers or the like). , An enemy movement processing unit 408 that sets the coordinates of the enemy character and moves the enemy character so as to follow the player in the game space, and an enemy hit that determines whether a virtual attack from the player to the enemy has hit In addition to the above, the determination unit 409 is included, and in addition, data for instructing the drawing control unit 101 to perform drawing based on the setting of the coordinates of the player and the enemy character in the game space is set, and the image projected by the projector 31 is displayed. An image processing unit that rotates the stepping motor 41 depending on whether the screen 121 is displayed at the upper part or the lower part. 10, the voice control unit 1 so as selectively reproducing sound (including music) in accordance with the game progress
Audio processing unit 411 for setting data instructing 04.
【0059】これらの各処理部を含むゲーム処理部40
0にて実行されるゲーム処理本体では、図16に示すよ
うに、まず、投射画像124が表示されるスクリーン1
21上の位置に対応したマーカ6〜9のいずれかの点灯
がマーカ点灯処理にて行われ(ST80)、次いで銃口
向き検出処理が銃口向き検出部401にて行われ(ST
81、後に図20等を用いて詳細を説明する)、ポンプ
トリガースイッチ12、トリガースイッチ11、プレイ
ヤ感知センサ51〜54の反応状態がI/O入力部40
2にて取得される(ST82)。Game processing unit 40 including these processing units
In the game processing main body executed at 0, as shown in FIG. 16, first, the projection image 124 is displayed on the screen 1
The lighting of any of the markers 6 to 9 corresponding to the position on 21 is performed in the marker lighting process (ST80), and then the muzzle direction detection process is performed in the muzzle direction detection unit 401 (ST.
81, which will be described later in detail with reference to FIG. 20 and the like), the reaction states of the pump trigger switch 12, the trigger switch 11, and the player detection sensors 51 to 54 are I / O input section 40.
2 is acquired (ST82).
【0060】ポンプトリガースイッチ12が反応してい
れば(ST83にてYES)、銃弾装填処理部403に
て仮想的に銃弾が装填され(ST84)、トリガースイ
ッチ11が反応していれば(ST85にてYES)、銃
口向き検出部401にて検出されたスクリーン121に
対する銃口16の向きに応じて、ゲーム空間内での銃弾
の弾道を示す座標が銃弾位置算出部404にて計算され
る(ST86)。If the pump trigger switch 12 has responded (YES in ST83), a bullet is virtually loaded in the bullet loading processing unit 403 (ST84), and if the trigger switch 11 has responded (in ST85). And YES), the coordinates indicating the trajectory of the bullet in the game space are calculated by the bullet position calculation unit 404 according to the orientation of the muzzle 16 with respect to the screen 121 detected by the muzzle orientation detection unit 401 (ST86). .
【0061】プレイヤ感知センサ51〜54の反応状態
が、プレイエリア130上のプレイヤ300の移動を示
す所定パターンとなっていれば(ST87にてYE
S)、視点位置移動部405により、仮想視点の回避移
動が設定され(ST88)、プレイヤ感知センサ51〜
54の反応状態が所定パターンとなっていなければ(S
T87にてNO)、仮想視点の通常移動が設定される
(ST89)。If the reaction state of the player detection sensors 51 to 54 has a predetermined pattern indicating the movement of the player 300 on the play area 130 (YE in ST87).
S), the avoidance movement of the virtual viewpoint is set by the viewpoint position moving unit 405 (ST88), and the player detection sensors 51 to 51
If the reaction state of 54 is not the predetermined pattern (S
(NO at T87), normal movement of the virtual viewpoint is set (ST89).
【0062】より詳細に、プレイヤ感知センサ51〜5
4は、超音波、赤外線などを用いて障害物までの距離を
検知し、障害物までが所定の距離(プレイエリア130
上のプレイヤ300に対応する距離)以下であるときに
信号をオンにする測距センサ(正確な距離の測定は必須
ではない)である。図17、図18に示すように、1P
プレイヤが、通常時の、左内側プレイヤ感知センサ52
前方の基準位置から、左外側プレイヤ感知センサ51の
前方へと移動したことが検知されたとき、プレイヤが恐
竜の左側への回り込みを指示したものとして、ゲーム空
間内にて仮想視点の座標が設定される。More specifically, the player detection sensors 51 to 5
4 detects the distance to the obstacle using ultrasonic waves, infrared rays, etc., and the obstacle is located at a predetermined distance (play area 130).
A distance measuring sensor that turns on a signal when the distance is equal to or less than the distance corresponding to the player 300 above (accurate distance measurement is not essential). As shown in FIGS. 17 and 18, 1P
When the player is in the normal state, the left inner player detection sensor 52
When it is detected that the player moves to the front of the left outer player detection sensor 51 from the front reference position, the coordinates of the virtual viewpoint are set in the game space as if the player has instructed the dinosaur to wrap around to the left side. To be done.
【0063】特に、ここでは、合わせて2個のプレイヤ
感知センサを用いて左側への移動を検知するものとして
いるため、図18に示すように、移動以外に、”誰もプ
レイしていない状態”、”プレイヤ以外のギャラリーを
誤認識しているという状態”を検知させることができ、
より正確にプレイヤの移動を検知することができるとい
える。In particular, in this case, since the movement to the left is detected by using the two player detection sensors in total, as shown in FIG. It is possible to detect "," a state in which a gallery other than the player is erroneously recognized ",
It can be said that the movement of the player can be detected more accurately.
【0064】さらに、1Pプレイヤの右側への移動につ
いては(図17)、右内側プレイヤ感知センサ53(も
しくは右外側プレイヤ感知センサ54)の前方へとプレ
イヤが移動したことが検知されたとき、プレイヤが恐竜
の右側への回り込みを指示したものとして、仮想視点の
座標が設定される。Furthermore, regarding the movement of the 1P player to the right side (FIG. 17), when it is detected that the player has moved in front of the right inside player detection sensor 53 (or the right outside player detection sensor 54), The coordinates of the virtual viewpoint are set as an instruction to turn around the dinosaur to the right.
【0065】また、基準位置を右内側プレイヤ感知セン
サ53前方とすることができる。この際には、右外側プ
レイヤ感知センサ54の前方へとプレイヤが移動したこ
とが検知されたとき、プレイヤが恐竜の右側への回り込
みを指示したものとし、左内側プレイヤ感知センサ52
(もしくは左外側プレイヤ感知センサ51)の前方へと
プレイヤが移動したことが検知されたとき、プレイヤが
恐竜の左側への回り込みを指示したものとして、ゲーム
空間内での仮想視点の座標を設定することができる。Further, the reference position may be in front of the right inner player detection sensor 53. At this time, when it is detected that the player has moved in front of the right outer player detection sensor 54, it is assumed that the player has instructed the dinosaur to wrap around to the right side, and the left inner player detection sensor 52.
When it is detected that the player has moved in front of (or the left outer player detection sensor 51), it is assumed that the player has instructed the dinosaur to wrap around to the left side, and the coordinates of the virtual viewpoint in the game space are set. be able to.
【0066】敵キャラクタからプレイヤへの攻撃がヒッ
トしたものと当たり判定部406にて判定されると(図
16のST90にてYES)、自己ライフが減少され、
(画面上で自己ライフの値を棒状に表す)自己ライフゲ
ージの表示が更新される(ST91)。When the hit determination unit 406 determines that the enemy character has hit the player with a hit (YES in ST90 of FIG. 16), the self-life is reduced,
The display of the self-life gauge (representing the self-life value in a bar shape on the screen) is updated (ST91).
【0067】敵キャラクタからプレイヤへの攻撃が敵攻
撃設定部407にて発生されると(ST92にてYE
S)、口、腕、脚、尻尾などの敵キャラクタが攻撃を発
生する部位からプレイヤに対する攻撃が発生されるよう
に各部位のゲーム空間内での座標が設定され(ST9
3)、敵キャラクタの移動が敵移動処理部408にて設
定されれば(ST94にてYES)、ゲーム空間での敵
キャラクタの座標が移動される(ST95)。続いて、
プレイヤから敵キャラクタへの攻撃がヒットしたものと
敵当たり判定部409にて判定されると(ST96にて
YES)、敵ライフが減少され、敵ライフゲージの表示
が更新される(ST97)。When an attack from the enemy character to the player occurs in the enemy attack setting section 407 (YE in ST92).
S), the coordinates in the game space of each part are set so that the enemy character such as the mouth, arms, legs, and tail attacks the player from the part where the attack occurs (ST9).
3) If the movement of the enemy character is set by the enemy movement processing unit 408 (YES in ST94), the coordinates of the enemy character in the game space are moved (ST95). continue,
If the enemy hit determination unit 409 determines that the player has hit the enemy character with an attack (YES in ST96), the enemy life is reduced and the display of the enemy life gauge is updated (ST97).
【0068】ゲーム空間には1または2以上の敵キャラ
クタが存在することを想定することができ、対象となる
敵キャラクタが更新されつつ、すべての敵キャラクタに
関しST92〜ST97の処理が繰り返される(ST9
8にてNO)。すべての敵キャラクタに対してのST9
2〜ST97の処理が終了すると(ST98にてYE
S)、画像処理部410での画像表示処理(ST9
9)、音声処理部411での音声出力処理(ST10
0)が行われ、ゲーム処理本体の処理はリターンされる
こととなる。It is possible to assume that one or more enemy characters exist in the game space, and while the target enemy character is being updated, the processes of ST92 to ST97 are repeated for all enemy characters (ST9).
8 NO). ST9 against all enemy characters
When the processing of 2 to ST97 is completed (YE in ST98
S), image display processing in the image processing unit 410 (ST9
9), voice output processing in the voice processing unit 411 (ST10
0) is performed, and the processing of the game processing body is returned.
【0069】図19は図16のST80のマーカ点灯処
理を行うマーカ点灯処理部400a(射撃ビデオゲーム
プログラムの一部)の主要部の構成を示すブロック図で
ある。マーカ点灯処理部400aには、描画処理を行う
画像処理部410から投射画像124が表示されている
スクリーン121の位置情報を受け取って、現投射位置
を判断する投射画像位置判断部4001と、この投射位
置情報とマーカ6〜9の予め規定されている位置情報と
から投射範囲に含まれるマーカ中から1個のマーカを後
述するようにして特定(決定)する対応マーカ決定部4
002と、決定された対応マーカを構成する4個のLE
Dに点灯指示を行う対応マーカ点灯指示部4003とが
含まれる。なお、投射画像の表示範囲が2個のマーカを
含む状態では、投射画像の表示範囲のより中央に近い方
のマーカが決定され、また双方のマーカが中心から同程
度離れているときは投射画像のスクリーン上での移動方
向に対応したマーカ(すなわち画像処理部410からの
位置情報を複数回分記憶しておき、今回の位置情報と比
較する等して、中央に向かう方のマーカ)が決定される
ようにしている。FIG. 19 is a block diagram showing the arrangement of the main part of a marker lighting processing section 400a (a part of the shooting video game program) for performing the marker lighting processing of ST80 of FIG. The marker lighting processing unit 400a receives position information of the screen 121 on which the projection image 124 is displayed from the image processing unit 410 that performs drawing processing, and determines the current projection position, and the projection image position determination unit 4001. Corresponding marker determination unit 4 that specifies (determines) one marker from the markers included in the projection range based on the position information and the predetermined position information of markers 6 to 9 as described later.
002 and the four LEs that make up the determined corresponding marker
A corresponding marker lighting instruction unit 4003 that gives a lighting instruction to D is included. In the state where the display range of the projection image includes two markers, the marker closer to the center of the display range of the projection image is determined, and when both markers are approximately the same distance from the center, the projection image Of the marker corresponding to the moving direction on the screen (that is, the position information from the image processing unit 410 is stored a plurality of times and compared with the position information of this time, and the marker toward the center) is determined. I am trying to do it.
【0070】図20は図16のST81での銃口向き検
出処理を行う銃口向き検出部401の主要部の構成を示
すブロック図であり、図21はST81での銃口向き検
出処理の詳細な手順を示すフローチャート、図22はS
T815での「Lフレーム」の摘出処理の詳細な手順を
示すフローチャートである。FIG. 20 is a block diagram showing the configuration of the main part of the muzzle direction detecting section 401 which performs the muzzle direction detecting process in ST81 of FIG. 16, and FIG. 21 shows the detailed procedure of the muzzle direction detecting process in ST81. The flowchart shown in FIG. 22 is S.
It is a flow chart which shows the detailed procedure of the extraction processing of "L frame" in T815.
【0071】図20に示すように、銃口向き検出部40
1には、CCDカメラ13の撮像画像であるCCD画像
(画素ごとのデータがRAM106上の所定の領域に格
納される)の取り込みを行う撮像処理部4011と、撮
像した画素ごとのデータを所定の閾値で2値化して輝点
データとしてRAM106上の所定の領域に格納し、乃
至は一旦格納後に2値化処理する2値化処理部4012
と、2値化された輝点データの存在する座標データの抽
出及び所定のデータ整理を行う座標データ抽出部401
3と、抽出された輝点データのうちから順次3点の組み
合わせを選定し、該3点が直線上に存在するか否か及び
それらが略等間隔か否かを判定する直線判定部4013
と、直線(主軸)上に存在する3点に対して、その一端
の輝点の近傍に輝点が存在するか否かを判定する近傍判
定部4015と、両判定部での判定によって「Lフレー
ム」の特定を行うLフレーム特定部4016と、特定さ
れたLフレームからカメラの向き、すなわち視線ベクト
ルを算定する視線ベクトル算定部4017と、算定され
た視線ベクトルのスクリーン121との交点(着弾位
置)を算定する交点(H、V)算定部4018とを含
む。CCD画像中には、自然光に含まれる赤外線や室内
等の場合における蛍光灯、放電灯などに含まれる赤外線
によってLED以外の輝点すなわちノイズが存すること
になる。そこで、直線判定部4013及び近傍判定部4
014では全ての組み合わせについて判定処理を行うこ
とでノイズを除去するようにしている。As shown in FIG. 20, the muzzle direction detector 40
1, an image pickup processing unit 4011 for fetching a CCD image (data for each pixel is stored in a predetermined area on the RAM 106) which is an image picked up by the CCD camera 13, and a predetermined data for each pixel taken A binarization processing unit 4012 that binarizes with a threshold value and stores it as bright spot data in a predetermined area on the RAM 106, or once stores the binarized data.
And a coordinate data extraction unit 401 that extracts coordinate data in which binarized bright spot data exists and organizes predetermined data.
3, and a straight line determination unit 4013 that sequentially selects a combination of 3 points from the extracted bright spot data and determines whether or not the 3 points are on a straight line and whether or not they are at substantially equal intervals.
Then, with respect to the three points existing on the straight line (main axis), the proximity determination unit 4015 that determines whether or not there is a bright spot near one of the bright spots at one end, and “L” is determined by both determination units. The intersection of the L frame specifying unit 4016 for specifying the "frame", the line-of-sight vector calculating unit 4017 for calculating the direction of the camera from the specified L frame, that is, the line-of-sight vector, and the screen 121 of the calculated line-of-sight vector (the landing position). ) Is calculated, and an intersection (H, V) calculation unit 4018 is included. In the CCD image, there are bright spots other than LEDs, that is, noise due to infrared rays contained in natural light and infrared rays contained in fluorescent lamps, discharge lamps, etc. in the case of indoors. Therefore, the straight line determination unit 4013 and the proximity determination unit 4
In 014, noise is removed by performing determination processing for all combinations.
【0072】ここで、視線ベクトル算定部4017、交
点(H、V)算定部4018について付記説明する。ス
クリーン121上を平面としたときのマーカのLED.
A〜Dは、A(0,0)、B(1,0)、C(2,
0)、D(0,1)となり、これを3次元空間に拡張し
て定義すると、0a(0,0,0)、0b(1,0,
0)、0c(2,0,0)、0d(0,1,0)あるいは
0d(0,−1,0)となる。一方、この定義した座標
をCCDカメラ13から見た各点の座標は、Ca(tx,
ty,tz)、Cb(tx+r00,ty+r01,tz+r0
2)、Cc(tx+2×r00,ty+2×r01,tz+2×
r02)、Cd(tx+r10,ty+r11,tz+r12)のよ
うな3次元行列を加味した値として表せる。一方、CC
Dカメラ13の視野と実際のスクリーン121との水
平、垂直方向における寸法比率ph、pv、およびCC
D画像中の各点の座標LED.A(Ah,Av)、LED.
B(Bh,Bv)、LED.C(Ch,Cv)、LED.D
(Dh,Dv)はいずれも既知となるものである。従っ
て、これらの既知データと前記CCDカメラ13から見
た各点の座標とから、変数tx、ty、tz、r00〜r12
が算出でき、CCDカメラ13の視線ベクトルの要素が
決定されることとなる。なお、座標Ccの2項に含まれ
る値をr00,r01,r02の2倍の値、すなわち比例させ
たのは、スクリーンを平面化して(擬似)表現したため
であり、実際、スクリーン121が曲面であることを考
慮すれば、各座標に対して該曲面の曲率を考慮した3次
元行列を定義させればよい。そして、得られた視線ベク
トルの要素から、例えば、det=r00×r11−r01×r1
0、H=(r11×(-tx)−r01×(-ty))×det、V=(-
r10×tx−r00×(-ty))×detのようにして、視線ベ
クトルdetと交点(H、V)とが求まることとなる。The line-of-sight vector calculation unit 4017 and the intersection (H, V) calculation unit 4018 will be additionally described. Marker LED when the screen 121 is flat.
A to D are A (0,0), B (1,0), C (2,
0) and D (0,1), which are expanded and defined in a three-dimensional space, 0a (0,0,0), 0b (1,0,
0), 0c (2,0,0), 0d (0,1,0) or 0d (0, -1,0). On the other hand, the coordinates of each point when the defined coordinates are viewed from the CCD camera 13 are Ca (tx,
ty, tz), Cb (tx + r00, ty + r01, tz + r0
2), Cc (tx + 2 × r00, ty + 2 × r01, tz + 2 ×
r02) and Cd (tx + r10, ty + r11, tz + r12) can be expressed as a value considering a three-dimensional matrix. On the other hand, CC
Dimension ratios ph, pv, and CC in the horizontal and vertical directions between the field of view of the D camera 13 and the actual screen 121.
Coordinate LED.A (Ah, Av), LED of each point in D image.
B (Bh, Bv), LED.C (Ch, Cv), LED.D
Both (Dh, Dv) are known. Therefore, from these known data and the coordinates of each point viewed from the CCD camera 13, the variables tx, ty, tz, r00 to r12.
Can be calculated, and the element of the line-of-sight vector of the CCD camera 13 is determined. The reason that the value included in the second term of the coordinate Cc is twice the value of r00, r01, and r02, that is, proportional, is because the screen is flattened and expressed (pseudo). Actually, the screen 121 is a curved surface. Considering that there is, a three-dimensional matrix that considers the curvature of the curved surface may be defined for each coordinate. Then, from the elements of the obtained line-of-sight vector, for example, det = r00 × r11−r01 × r1
0, H = (r11 x (-tx) -r01 x (-ty)) x det, V = (-
The line-of-sight vector det and the intersection point (H, V) are obtained as r10 × tx−r00 × (−ty)) × det.
【0073】なお、LED6A、LED6B、LED6
Cは前述のとおり、一定ピッチに限定されないが、この
場合でも、各ピッチ情報を有していれば、計算可能であ
る。また、ゲーム制御部103には、交点(H、V)算
定部4018にて得られた情報、又は視線ベクトル算定
部4017及び交点(H、V)算定部4018にて得ら
れた情報を基に、スクリーン121上の着弾位置からゲ
ーム空間内へ飛翔する銃弾の弾道を計算する弾道計算部
を含む。LED6A, LED6B, LED6
As described above, C is not limited to a constant pitch, but even in this case, it can be calculated if it has each pitch information. In addition, the game control unit 103 is based on the information obtained by the intersection (H, V) calculation unit 4018 or the information obtained by the line-of-sight vector calculation unit 4017 and the intersection (H, V) calculation unit 4018. , A trajectory calculation unit that calculates the trajectory of a bullet flying from the landing position on the screen 121 into the game space.
【0074】図21では、先ず所定周期、例えば1/6
0秒毎の垂直同期(V-sync、V-blank)等のトリガー条
件によりCCDカメラ13を作動させて撮像(CCD)
データの取り込みが行われ(ST811)、次いで取り
込んだデータが2値化処理部4012にて2値化され、
輝点の抽出が行われる(ST812)。ここで、輝点と
して扱われる2値化データの座標を取り込み、それぞれ
に識別符号を付す(ラベリング)と共に、座標データが
分散して存在する態様では適宜のグルーピング処理が施
される(ST813)。そして、輝点の位置データ、グ
ループ情報、(必要に応じて作成された)形状情報を基
に、輝点の粗い特定が行われる(ST814)。続い
て、輝点位置から「Lフレーム」を構成する輝点群の摘
出が行われ、摘出した輝点の配置状態を基にそれぞれ
A,B、C、Dの符号化(例えばマーカ6ではLED6
A、6B、6C、6Dに対応)が施される(ST81
5)。In FIG. 21, first, a predetermined period, for example, 1/6
The CCD camera 13 is operated by the trigger condition such as vertical synchronization (V-sync, V-blank) every 0 seconds to take an image (CCD).
Data is captured (ST811), and the captured data is binarized by the binarization processing unit 4012.
Bright spots are extracted (ST812). Here, the coordinates of the binarized data treated as the bright spots are taken in, the identification codes are attached to each of them (labeling), and appropriate grouping processing is performed in a mode in which the coordinate data are dispersed (ST813). Then, based on the position data of the bright spots, the group information, and the shape information (created as necessary), the rough identification of the bright spots is performed (ST814). Subsequently, the bright spot group forming the “L frame” is extracted from the bright spot positions, and A, B, C, and D are encoded based on the arrangement state of the extracted bright spots (for example, the LED 6 in the marker 6).
(Corresponding to A, 6B, 6C, 6D) is applied (ST81
5).
【0075】次いで、LED.A〜Dに対して、マーカ
6〜9のいずれのマーカによってCCDカメラ13のス
クリーン121面に対する撮像範囲に対応する係数が乗
算される(ST816)。本実施形態では前述したよう
にスクリーン121の上部から下部に亘ってCCDカメ
ラ13からの距離が順次異なる(遠くなる)ようになっ
ており、その距離差の比率に応じた係数を乗算すること
で、CCD画像と実際のスクリーン121上での距離と
の対応(比率)を一定化している。次いで、LED.
A、B、Cの座標データより「Lフレーム」を原点とし
たCCDカメラ13のz成分の座標tzが算出され(S
T817)、次いでカメラ座標tzからx成分tx、y成
分ty、r00、r01、r02が算出され(ST818)、
次いでLED.Dの座標データtx、ty、tzを基にr1
0、r11、r12が算出され(ST819)、次いでtx、
ty、tz、r00、r01、r02、r10、r11、r12から
「Lフレーム」を平面とみなした場合のカメラの視線ベ
クトルとの交点(H、V)が計算される(ST82
0)。計算が終了すると、算出結果である交点(H、
V)などがCPU103側に転送され、敵キャラクタに
対する射撃の当たり判定処理等(着弾演出等も考えられ
る)に適用される。また、複数のマーカが点灯されてい
る状態の場合には、残りの「Lフレーム」から交点
(H、V)を算出するようにして、妥当な方の交点デー
タを採用する等すればよい。Next, the LEDs A to D are multiplied by the coefficient corresponding to the image pickup range of the screen 121 surface of the CCD camera 13 by any of the markers 6 to 9 (ST816). In the present embodiment, as described above, the distance from the CCD camera 13 is sequentially different (distance) from the upper part to the lower part of the screen 121, and by multiplying by the coefficient according to the ratio of the distance difference. , The correspondence (ratio) between the CCD image and the actual distance on the screen 121 is made constant. Then the LED.
From the coordinate data of A, B, and C, the coordinate tz of the z component of the CCD camera 13 with the "L frame" as the origin is calculated (S
T817), and then the x component tx, y component ty, r00, r01, r02 are calculated from the camera coordinate tz (ST818),
Then, based on the coordinate data tx, ty, tz of LED.D, r1
0, r11, r12 are calculated (ST819), and then tx,
From ty, tz, r00, r01, r02, r10, r11, r12, the intersection (H, V) with the line-of-sight vector of the camera when the "L frame" is regarded as a plane is calculated (ST82).
0). When the calculation is completed, the intersection (H,
V) and the like are transferred to the CPU 103 side, and are applied to the hit determination processing of the enemy character and the like (possibly including landing effect). Further, when a plurality of markers are lit, the intersection (H, V) may be calculated from the remaining “L frame” and appropriate intersection data may be adopted.
【0076】図22はST815の詳細のサブルーチン
で、先ず、存在する輝点位置をベクトルと距離とからな
るグラフの構成(作成)を行う(ST831)。グラフ
内の輝点位置データは前述のグルーピングに従って、又
ある種のソートされた状態で整頓され、データ解析を容
易にしている。次いでベクトルを利用して、例えば隣接
する2点ずつの内積を演算して3つの輝点が直線関係に
あるか否かが調べられる(ST832)。直線関係が存
在しなければ(ST833でNo)、全ての組み合わせ
について処理が終了したか否かが判断され(ST83
4)、途中であればST832に戻り、全て終了であれ
ばST821にスキップする。一方、ST833で直線
関係が存在すれば、輝点間の距離から知識(配置されて
いる状況)すなわち主軸上において3点が略等間隔に並
んでいるか否かの確認が行われる(ST835)。実質
的な等間隔の組み合わせが存在しなければST832に
戻り、存在すれば、続いて3点の輝点の両端に対して近
傍(Lフレームを構成するLED.Dが存在すると見な
される距離)の輝点を調べる(ST837)。このと
き、近傍に輝点が存在しなければ(ST838でN
o)、ST832に戻り、存在すれば、近傍の輝点と主
軸を構成する輝点の関係を調べ、どのような形状の「L
フレーム」かの推測が行われる(ST839)。近傍の
有無の条件によって、その輝点をLED.Dとして扱う
のは、カメラの向きによっては、LED.Aとの直交
性、等距離の関係も成立しない場合があるからである。
続いて、各輝点の位置関係から、A,B、C、Dの符号
化を行って配置の確定が行われる(ST840)。FIG. 22 is a detailed subroutine of ST815. First, the existing bright spot positions are constructed (created) with a vector and a distance (ST831). The bright spot position data in the graph is organized according to the grouping described above and in some sort of sorted state to facilitate data analysis. Then, using the vector, for example, an inner product of two adjacent points is calculated to check whether or not the three bright points have a linear relationship (ST832). If there is no linear relationship (No in ST833), it is determined whether or not the processing has been completed for all combinations (ST83).
4) If it is in the middle, return to ST832, and if all are finished, skip to ST821. On the other hand, if there is a linear relationship in ST833, knowledge (a situation where they are arranged) based on the distance between the bright points, that is, it is confirmed whether or not the three points are arranged at substantially equal intervals on the main axis (ST835). If there is no combination of substantially equal intervals, the process returns to ST832, and if there is a combination, it is in the vicinity (distance that LED.D constituting the L frame is considered to exist) to both ends of the three bright points. Check the bright spots (ST837). At this time, if there is no bright spot in the vicinity (N in ST838,
o), returning to ST832, if there is any, the relation between the bright points in the vicinity and the bright points forming the main axis is investigated, and the shape of "L"
It is estimated whether or not it is a "frame" (ST839). The reason why the bright spot is treated as LED.D depending on the presence / absence of the vicinity is that the orthogonality with LED.A and the equidistant relation may not hold depending on the orientation of the camera.
Then, A, B, C, and D are coded from the positional relationship of each bright point to confirm the arrangement (ST840).
【0077】以上のような銃口向き検出処理により、C
CD画像中のマーカの像の位置関係の特徴により、銃口
16がスクリーン121のどの部分に向いているか、す
なわちCCD画像中心に対応するスクリーン上の位置が
算出されることとなり、このスクリーン上の位置からゲ
ーム空間内での銃口から目標物に向けて発射される銃弾
の仮想的な弾道の位置が算出可能となる。By the above-described muzzle direction detection processing, C
The position of the muzzle 16 on the screen 121, that is, the position on the screen corresponding to the center of the CCD image is calculated based on the characteristic of the positional relationship of the marker images in the CD image. The position of the virtual trajectory of the bullet fired from the muzzle toward the target object in the game space can be calculated from.
【0078】図23は図16のST99での画像表示処
理を行う画像処理部410の主要部の構成を示すブロッ
ク図であり、図24はST99での画像表示処理の詳細
な手順を示すフローチャートである。FIG. 23 is a block diagram showing the configuration of the main part of the image processing section 410 which performs the image display processing in ST99 of FIG. 16, and FIG. 24 is a flowchart showing the detailed procedure of the image display processing in ST99. is there.
【0079】また、図25は本ゲーム機での補正された
画像の表示を示す図であり、図26は通常の画像の表示
を示す図であり、図27は本ゲーム機にて設定される画
像補正パラメータを説明するための図である。FIG. 25 is a diagram showing the display of a corrected image on this game machine, FIG. 26 is a diagram showing the display of a normal image, and FIG. 27 is set on this game machine. It is a figure for demonstrating an image correction parameter.
【0080】図26(a)のような通常の画像をプロジ
ェクタ31(図7)から投射すると、スクリーン121
の湾曲により、本ゲーム機前方プレイエリア130上の
プレイヤ300の基準視点からの距離は、投射画像12
4の上部と下部との間で異なったものとなるため、プレ
イヤ300の目には図26(b)に示すような画像が捕
らえられることとなる。When a normal image as shown in FIG. 26A is projected from the projector 31 (FIG. 7), the screen 121
Due to the curvature of the projected image 12, the distance from the reference viewpoint of the player 300 on the game machine front play area 130 is
Since the difference between the upper part and the lower part of 4 is different, an image as shown in FIG.
【0081】これらに対し、本ゲーム機では、プロジェ
クタ31から投射される画像は、図25(a)のように
投射前に補正されており、この補正によって、図25
(b)のようなひずみのない画像がプレイヤ300の目
に映ることとなる。さらに、投射画像124がスクリー
ン121の下部に映されるとき(図7の点線に対応)と
上部に映されるとき(図7の実線に対応)とでは、基準
視点から投射画像124の上部、下部への距離の差が異
なるため、補正の度合はミラーの回転角度に応じて異な
っている。On the other hand, in this game machine, the image projected from the projector 31 is corrected before projection as shown in FIG. 25 (a).
An image without distortion as shown in (b) will be seen by the player 300. Furthermore, when the projection image 124 is projected on the lower part of the screen 121 (corresponding to the dotted line in FIG. 7) and when it is projected on the upper part (corresponding to the solid line in FIG. 7), the upper part of the projection image 124 from the reference viewpoint, Since the difference in the distance to the bottom is different, the degree of correction differs depending on the rotation angle of the mirror.
【0082】本画像表示処理では、矩形状の視野を有す
る仮想カメラ(仮想視点)により捕らえられた、ゲーム
空間内にて3D形状を有する表示対象物を含む画像が、
ミラーの回転角度に応じ、画像の下端が仮想カメラに近
付くように傾斜させるようにして得られる画像へと補正
され、補正された画像がプロジェクタ31から投射され
る。In this image display process, an image including a display object having a 3D shape in the game space, which is captured by a virtual camera (virtual viewpoint) having a rectangular field of view,
According to the rotation angle of the mirror, the lower end of the image is corrected so as to be tilted so as to approach the virtual camera, and the corrected image is projected, and the corrected image is projected from the projector 31.
【0083】これらの補正を伴いつつ画像を表示するた
めの画像処理部410は、図23に示すように、対象物
位置データ421(ゲーム空間内射撃対象物の位置を示
すデータ)などに応じ視線仰角(水平面に対し上側に視
線を傾ける角度、後に示す図35のEYE_R)を設定
するための視線仰角設定部4101と、視線仰角に応じ
てミラーの回転角度を指定し、ステッピングモータ41
を制御するミラー傾斜制御部4102と、画像補正テー
ブル422(視線仰角EYE_Rに対し、仮想カメラの
傾斜角度CAM_R、画像の上端を指定する角度CAM
_FT、画像の下端を指定する角度CAM_FBを対応
付けるテーブル)を参照して、視線仰角に対応する画像
補正パラメータを読み出し設定して、描画制御部101
に画像の生成を指示する画像生成指示部4103とを含
んでいる。As shown in FIG. 23, the image processing unit 410 for displaying an image while performing these corrections changes the line of sight according to the object position data 421 (data indicating the position of the shooting target in the game space) and the like. A line-of-sight elevation angle setting unit 4101 for setting an elevation angle (an angle at which the line of sight is tilted upward with respect to the horizontal plane, EYE_R shown in FIG. 35 described later) and a rotation angle of the mirror are specified according to the line-of-sight elevation angle, and the stepping motor 41
And the image correction table 422 (with respect to the line-of-sight elevation angle EYE_R, the tilt angle CAM_R of the virtual camera and the angle CAM that specifies the upper end of the image).
_FT, a table associating the angle CAM_FB that specifies the lower end of the image) and reads and sets the image correction parameter corresponding to the line-of-sight elevation angle, and the drawing control unit 101
And an image generation instruction unit 4103 for instructing the generation of an image.
【0084】実際、視線仰角EYE_Rからは、次に図
27のような手順で、仮想カメラの傾斜角度CAM_
R、画像上端角度CAM_FTおよび画像下端角度CA
M_FBを指定することができ、これらの対応付けが画
像補正テーブル422中に保持される。Actually, from the line-of-sight elevation angle EYE_R, the inclination angle CAM_ of the virtual camera is next calculated as shown in FIG.
R, image upper end angle CAM_FT and image lower end angle CA
M_FB can be designated, and these correspondences are held in the image correction table 422.
【0085】本ゲーム機では、プレイヤと恐竜との距
離、また、近接時にプレイヤに対し攻撃を発生させる恐
竜の部位に応じて注視想定位置VIEW_Pが設定され
る。図27(a)に示すように、この注視想定位置VI
EW_Pに応じ、仮想視点位置EYE_Pから注視想定
位置VIEW_Pへの直線q0と水平線(基準線)と間
の角度である視線仰角EYE_Rを定める。In the present game machine, the estimated gaze position VIEW_P is set according to the distance between the player and the dinosaur and the part of the dinosaur that causes an attack on the player when approaching. As shown in FIG. 27A, this gaze assumed position VI
According to EW_P, a line-of-sight elevation angle EYE_R, which is an angle between the straight line q 0 from the virtual viewpoint position EYE_P to the gaze assumed position VIEW_P and the horizontal line (reference line), is determined.
【0086】続いて、図27(b)に示すように、プロ
ジェクタ31の位置、傾斜角度、投射画角とミラー43
の位置等を考慮し、この視線仰角EYE_Rを中心とし
て、仮想カメラの上方への画角EYE_FUと下方への
画角EYE_FDとが等しくなるように、ミラー回転角
度MIRROR_Rを定め、投射映像の上端SCREE
N_U、下端SCREEN_Dを求める。(仮想カメラ
は矩形状の撮像範囲を有し、上端SCREEN_U、下
端SCREEN_Dは仮想カメラの縦方向の画角に対応
するものであるが、横方向の画角については、EYE_
PからSCREEN_Dまでの距離と投射画像の幅とか
ら適宜求められる。)図27(c)に示すように、これ
ら投射映像上端SCREEN_U、投射映像下端SCR
EEN_Dを通る直線q3と、仮想視点位置EYE_P
からこの直線q3への垂線q4との交点をCAM_VPと
して求め、直線q4と水平線との間の角度(仰角)を、
仮想カメラの傾斜角度CAM_Rとする。また、投射画
像の上端の位置を定める直線q4と直線q1との間の角度
をCAM_FTとし、投射画像の下端の位置を(CAM
_FTとともに)定める直線q1と直線q2との間の角度
をCAM_FBとする。Subsequently, as shown in FIG. 27B, the position, the tilt angle, the projection angle of view and the mirror 43 of the projector 31.
, The mirror rotation angle MIRROR_R is determined so that the upward angle of view EYE_FU of the virtual camera and the downward angle of view EYE_FD are equal to each other with the line-of-sight elevation angle EYE_R as the center, and the upper end SCREE of the projected image is determined.
Find N_U, bottom SCREEN_D. (The virtual camera has a rectangular imaging range, and the upper end SCREEN_U and the lower end SCREEN_D correspond to the vertical angle of view of the virtual camera, but regarding the horizontal angle of view, EYE_
It is appropriately calculated from the distance from P to SCREEN_D and the width of the projected image. ) As shown in FIG. 27 (c), the projected image upper end SCREEN_U and the projected image lower end SCR
A straight line q 3 passing through EEN_D and a virtual viewpoint position EYE_P
CAM_VP is the intersection of the line q 3 and the perpendicular q 4 to the line q 3 , and the angle (elevation angle) between the line q 4 and the horizontal line is
The inclination angle of the virtual camera is CAM_R. Further, the angle between the straight line q 4 and the straight line q 1 that determines the position of the upper end of the projected image is CAM_FT, and the position of the lower end of the projected image is (CAM
Let CAM_FB be the angle between the straight line q 1 and the straight line q 2 defined (with _FT).
【0087】これらのような手順にて、ゲーム進行中に
設定された視線仰角EYE_P(またこれに応じて設定
されるミラー回転角度MIRROR_R)に応じた、画
像補正パラメータである仮想カメラ傾斜角度CAM_
R、CAM_FT、CAM_FBが算出されることとな
る。ここでは、算出され一部調整のため増減されたCA
M_R、CAM_FT、CAM_FBが、画像補正テー
ブル422にて、視線仰角EYE_Rに対し対応付けら
れているものとしているが、ミラーの回転角度MIRR
OR_Rに対し、これらの補正パラメータを対応付ける
ものとすることができる。With the procedure as described above, the virtual camera tilt angle CAM_ which is an image correction parameter corresponding to the line-of-sight elevation angle EYE_P (and the mirror rotation angle MIRROR_R set accordingly) set during the game progress.
R, CAM_FT, and CAM_FB will be calculated. Here, CA calculated and increased / decreased for partial adjustment
It is assumed that M_R, CAM_FT, and CAM_FB are associated with the line-of-sight elevation angle EYE_R in the image correction table 422, but the rotation angle MIRR of the mirror
These correction parameters can be associated with OR_R.
【0088】これらの画像補正パラメータを用いる画像
表示処理では、図24に示すように、まず、(仮想視点
に対する恐竜の位置、また、近接時の攻撃を発生させる
恐竜の部位等に応じて)視線仰角が視線仰角設定部41
01にて設定され(ST991)、ミラー傾斜制御部4
102では、この視線仰角に応じたミラー回転角度が指
定され(ST992)、ステッピングモータ41が制御
されミラー43が回転される(ST993)。In the image display processing using these image correction parameters, as shown in FIG. 24, first, the line of sight is determined (according to the position of the dinosaur with respect to the virtual viewpoint, the part of the dinosaur that causes an attack when approaching, etc.). The elevation angle is the line-of-sight elevation angle setting unit 41
01 (ST991), mirror tilt control unit 4
At 102, the mirror rotation angle according to the line-of-sight elevation angle is designated (ST992), the stepping motor 41 is controlled, and the mirror 43 is rotated (ST993).
【0089】続いて、画像生成指示部4104では、設
定された視線仰角に対して画像補正パラメータ(CAM
_R、CAM_FT、CAM_FBなど)が指定され
(ST994)、これら画像補正パラメータに基づく描
画制御部101での仮想視点から捕らえられた画像の描
画が指示され(ST995)、本処理はリターンされ
る。描画の指示に応じて、描画制御部101では、(3
次元)ゲーム空間内でのポリゴンに関するデータが演算
されて視線EYE_Rに対して傾斜した2D画像に対応
する画像データが生成され、画像データがフレームバッ
ファ102に書き込まれていき、フレームバッファ10
2上の画像データに応じスクリーン121上に画像が投
射される。Subsequently, in the image generation instructing section 4104, the image correction parameter (CAM) is set with respect to the set line-of-sight elevation angle.
_R, CAM_FT, CAM_FB, etc.) is designated (ST994), the drawing control unit 101 is instructed to draw an image captured from the virtual viewpoint based on these image correction parameters (ST995), and the process is returned. In response to the drawing instruction, the drawing control unit 101 (3
(Dimension) Data regarding polygons in the game space is calculated to generate image data corresponding to a 2D image inclined with respect to the line of sight EYE_R, and the image data is written into the frame buffer 102, and the frame buffer 10
An image is projected on the screen 121 according to the image data on the screen 2.
【0090】本画像表示処理によると、上下に湾曲した
スクリーン上の表示が行われる部分の位置に応じて適切
に画像が補正されることとなり、プレイヤはひずみのな
い画像を見つつ、射撃ビデオゲームを楽しむことができ
ることとなる。According to this image display processing, the image is appropriately corrected in accordance with the position of the vertically curved display portion on the screen, so that the player can see the image without distortion while shooting the video game. You will be able to enjoy it.
【0091】以上の射撃ビデオゲーム機の全体構成とそ
の構成からもたらされる効果とについては、次のように
要約することができる。The overall structure of the shooting video game machine and the effects provided by the structure can be summarized as follows.
【0092】本射撃ビデオゲーム機は、プレイヤの基準
視点位置にゲーム空間での位置が対応する仮想視点(仮
想カメラ)から捕らえられる画像を表示しつつ、プレイ
ヤにゲームを行わせるものであり、本ゲーム機では、基
準視点位置のほぼ前方の下部から基準視点位置のほぼ上
方の上部へと連続的に湾曲するスクリーン内の一部分
に、プロジェクタからミラーを介して投射される画像
を、仮想視点の向きに対応させて少なくとも上下方向に
移動させるように、前記ミラーが回転される。This shooting video game machine allows a player to play a game while displaying an image captured from a virtual viewpoint (virtual camera) whose position in the game space corresponds to the reference viewpoint position of the player. In a game machine, an image projected from a projector through a mirror is displayed on a part of the screen that curves continuously from the lower part in front of the reference viewpoint position to the upper part in the upper part of the reference viewpoint position. The mirror is rotated so as to move at least in the up-and-down direction corresponding to.
【0093】本ゲーム機によると、プレイヤの視線はゲ
ーム進行に伴い上下方向に移動されるため、プレイヤは
従来にない斬新なゲームを楽しむことができ、さらに、
これらは簡便な構成によるものといえる。また、スクリ
ーンが円筒内面状に湾曲しているため、投影距離はほぼ
一定に保たれ、投影画像の大きさ、フォーカスはほぼ一
定に保たれる。According to this game machine, the player's line of sight is moved in the vertical direction as the game progresses, so that the player can enjoy a novel game that has never existed before.
It can be said that these have a simple configuration. Further, since the screen is curved in the inner surface of the cylinder, the projection distance is kept substantially constant, and the size and focus of the projected image are kept substantially constant.
【0094】特に、スクリーンを、基準視点位置から上
部までの距離が、基準視点位置から下部までの距離より
小さくなるように湾曲させるものとすることができ、こ
れによると、プレイヤのスクリーン上部の画像ほど近く
に迫って感ぜられるため、独特の緊迫感を醸し出すこと
ができる。In particular, the screen may be curved so that the distance from the reference viewpoint position to the upper portion is smaller than the distance from the reference viewpoint position to the lower portion. It is possible to create a unique sense of urgency because it is felt so close.
【0095】さらに、ガンユニットにより、スクリーン
上に表示され近接時にほぼスクリーンの大きさに対応す
る恐竜への仮想的な射撃をプレイヤに行わせ、恐竜がプ
レイヤに対して仮想的な攻撃を発生させようとしてい
る、口、腕、脚等の部位をスクリーンに表示させるもの
とすることにより、プレイヤは、斬新な独特の緊迫感を
有効に醸し出す射撃ゲームを楽しむことができることと
なる。Furthermore, the gun unit causes the player to virtually shoot a dinosaur which is displayed on the screen and corresponds to the size of the screen when approaching, and the dinosaur causes a virtual attack on the player. By displaying the parts such as the mouth, arms, and legs that are about to be displayed on the screen, the player can enjoy a shooting game that effectively produces a novel and unique sense of tension.
【0096】また、仮想視点から遠方の飛行恐竜(また
飛行しない恐竜)をスクリーン下部に表示させるよう
に、かつ、仮想視点に近接する飛行恐竜(飛行しない恐
竜の上部)をスクリーン上部に表示させるように、ミラ
ーを回転させるものとすることができ、これにより、遠
方からプレイヤ近傍に向かって迫ってくる飛行恐竜(飛
行しない恐竜)を、迫力豊かに遠近感をもって表現する
ことができる。Also, a flying dinosaur far away from the virtual viewpoint (also a dinosaur that does not fly) is displayed at the bottom of the screen, and a flying dinosaur close to the virtual viewpoint (the upper part of the dinosaur that does not fly) is displayed at the top of the screen. In addition, the mirror can be rotated, whereby a flying dinosaur (a dinosaur that does not fly) approaching from the distance to the vicinity of the player can be expressed with a powerful perspective.
【0097】本ゲーム機では、ミラーの回転等を保護す
るアクリル板が、実像がスクリーン上部に投射される際
虚像をスクリーン外に向けて透過させるように傾けて設
けられているため、ゲーム進行中のプレイヤが、無用に
スクリーン上に現れる虚像に気を取られるようなことが
ない。In this game machine, the acrylic plate for protecting the rotation of the mirror is provided so as to incline the virtual image to the outside of the screen when the real image is projected on the upper part of the screen. Player will not be distracted by the virtual image appearing on the screen unnecessarily.
【0098】加えて、プレイヤ感知センサが所定の検知
状態となったとき、ゲーム空間内で、恐竜の周囲を回り
込むように仮想視点を移動させるものとすることによ
り、プレイヤの左右への動きを自然にゲーム空間に伝
え、ゲームの興趣性をより豊かにすることができる。In addition, when the player detection sensor is in a predetermined detection state, the virtual viewpoint is moved so as to wrap around the dinosaur in the game space, whereby the player's left and right movements are naturally performed. It can be communicated to the game space and enrich the interest of the game.
【0099】また、特に銃口の向きの検出に関して、上
述の射撃ビデオゲーム機の構成と効果とについて、次の
ように要約することができる。Further, regarding the detection of the direction of the muzzle, the structure and effect of the shooting video game machine described above can be summarized as follows.
【0100】本射撃ビデオゲーム機は、画面上に表示さ
れている恐竜への射撃に対応する入力を、ガンユニット
中のトリガーの操作により受け付けるものであり、ガン
ユニットの銃口近傍のCCDカメラにて、スクリーンの
一部分に対応する撮像範囲のCCD画像を生成し、少な
くともトリガーを引いた際に、所定の位置関係を持つよ
うにスクリーン上配置される複数のマーカのうちの1つ
のマーカの像を、生成されたCCD画像中で識別し、マ
ーカの像の位置と回転角度とから、撮像範囲の中心にほ
ぼ対応するスクリーン上の射撃位置を算定する。This shooting video game machine accepts the input corresponding to the shooting to the dinosaur displayed on the screen by the operation of the trigger in the gun unit, and the CCD camera near the muzzle of the gun unit. , A CCD image of an imaging range corresponding to a part of the screen is generated, and at least when a trigger is pulled, an image of one of the plurality of markers arranged on the screen so as to have a predetermined positional relationship, The shooting position on the screen, which substantially corresponds to the center of the imaging range, is calculated from the position of the marker image and the rotation angle by identifying in the generated CCD image.
【0101】本ゲーム機によると、CCD画像中のマー
カの像の位置、角度関係から、スクリーン上のどの部分
を撮像しているかが識別され、射撃位置が算定されるた
め、(CCD画像中に収まりきらない)スクリーンに対
し、ガンユニットの向きを円滑に検出することができ
る。According to this game machine, it is possible to identify which part on the screen is being imaged and to calculate the shooting position from the position and angle relationship of the marker image in the CCD image. The orientation of the gun unit can be detected smoothly with respect to the screen that does not fit.
【0102】これらのガンユニットの向きの検出を、円
筒内面状のスクリーンに対して行い、スクリーンの上下
一部分に射撃の対象とする画像を表示させ、画像を仮想
視点の向きに合わせて上下に移動させるものとすること
により、興趣性および迫力のあふれる射撃ゲームを実現
することができる。The directions of these gun units are detected on the screen having the inner surface of the cylinder, the images to be shot are displayed on the upper and lower parts of the screen, and the images are moved up and down according to the direction of the virtual viewpoint. By doing so, it is possible to realize a shooting game full of interest and power.
【0103】さらに、特に画像の補正に関し、上述の射
撃ビデオゲーム機の構成と効果とについて、次のように
要約することができる。Further, regarding the image correction, in particular, the configuration and effects of the shooting video game machine described above can be summarized as follows.
【0104】本射撃ビデオゲーム機は、プレイヤの基準
視点位置にゲーム空間での位置が対応する仮想視点から
捕らえられる画像を表示しつつ、プレイヤにゲームを行
わせるものであり、本ゲーム機では、基準視点位置のほ
ぼ前方の下部から基準視点位置のほぼ上方の上部へと連
続的に湾曲するスクリーン内の一部分に、プロジェクタ
からミラーを介して投射される画像が、ミラーを回転さ
せることにより、仮想視点の向きに対応して上下方向に
移動され、かつ、仮想視点から捕らえられるほぼ鉛直面
上の画像を、下側が仮想視点に近づく向きへと、スクリ
ーン上部に移動されるほど大きく傾斜させて得られる画
像に補正することにより、生成される。This shooting video game machine allows the player to play the game while displaying an image captured from a virtual viewpoint corresponding to the position of the player in the game space at the reference viewpoint position of the player. The image projected from the projector via the mirror onto the part of the screen that curves continuously from the lower part in front of the reference viewpoint position to the upper part in the upper part of the reference viewpoint position, the virtual image is generated by rotating the mirror. An image that is vertically moved according to the direction of the viewpoint and is captured from the virtual viewpoint is obtained by inclining the image so that the lower side is closer to the virtual viewpoint and moved to the top of the screen. It is generated by correcting the displayed image.
【0105】特に、この傾斜の角度を、スクリーン上で
の投射画像の回転角度にほぼ等しい角度分とすることが
できる。In particular, the angle of this inclination can be made substantially equal to the rotation angle of the projected image on the screen.
【0106】本ゲーム機によると、ミラーの回転に合わ
せて適切な補正が行われるため、スクリーン上に投射さ
れる画像はプレイヤの視点から見てひずみがない。According to this game machine, since the appropriate correction is made in accordance with the rotation of the mirror, the image projected on the screen is not distorted from the viewpoint of the player.
【0107】さらに、ミラーの回転(またゲーム進行中
に設定される視線仰角)に応じて仮想カメラの回転を指
示する画像補正パラメータを、画像描画プロセッサに対
して設定することにより、これらの画像の補正を行うも
のとすることによって、有効な画像の補正が簡素な制御
にて実現されることとなる。Further, image correction parameters for instructing the rotation of the virtual camera according to the rotation of the mirror (and the line-of-sight elevation angle set during the progress of the game) are set in the image drawing processor so that these images can be displayed. By performing the correction, effective image correction can be realized by simple control.
【0108】上記の実施の形態の射撃ビデオゲーム機に
ついて、さらに以下に示すような変形例を想定すること
ができる。With regard to the shooting video game machine of the above-described embodiment, the following modifications can be envisioned.
【0109】図28は第1の変形例の射撃ビデオゲーム
機での1ステージを分割する2つのエリアにそれぞれ対
応付けられたミラーの回転制御を説明するための図であ
る。FIG. 28 is a view for explaining rotation control of mirrors respectively associated with two areas dividing one stage in the shooting video game machine of the first modification.
【0110】本変形例のゲーム機では、1ステージの前
半に対応するエリア501と後半に対応するエリア50
2を想定し、前半エリア501にて小型恐竜および飛行
恐竜(通常の敵キャラクタ)への射撃を行わせ、後半エ
リア502にて上述のような大型恐竜(ボスキャラクタ
に対応する敵キャラクタ)への射撃を行わせる。In the game machine of this modification, the area 501 corresponding to the first half of the stage and the area 50 corresponding to the second half of the stage.
2 is assumed, the small dinosaur and the flying dinosaur (normal enemy character) are shot in the first half area 501, and the large dinosaur (enemy character corresponding to the boss character) as described above is shot in the second half area 502. Let's shoot.
【0111】ゲーム空間内のエリア501では、仮想プ
レイヤ(仮想視点)はあらかじめ指定された速度で矢印
B1の向きに移動する。仮想プレイヤが所定の位置51
1〜514を通過したときに敵キャラクタが発生し、こ
れら敵キャラクタの表示に対し、プレイヤはガンユニッ
ト10を用いての仮想的な射撃を行う。プレイヤ感知セ
ンサ51〜54の反応に際しては、ゲーム空間内にて、
左または右への敵キャラクタの攻撃をかわせる程度の比
較的小さな幅の移動を行わせ、スクリーン上への投射画
像の位置を定めるミラーをあらかじめ指定されたデータ
に基づき回転させる。In the area 501 in the game space, the virtual player (virtual viewpoint) moves in the direction of arrow B 1 at a speed designated in advance. Virtual player is in place 51
An enemy character is generated when passing 1 to 514, and the player performs virtual shooting using the gun unit 10 with respect to the display of these enemy characters. When the player detection sensors 51 to 54 react, in the game space,
A relatively small width movement is performed to the extent of avoiding the enemy character's attack to the left or right, and the mirror that determines the position of the projected image on the screen is rotated based on pre-specified data.
【0112】ゲーム空間内のエリア502では、ゲーム
空間内にて仮想プレイヤ521に近付いてくるボスキャ
ラクタ522の攻撃を、プレイヤ感知センサ51〜54
を反応させることにより矢印B2または矢印B3の向きに
回避しつつ、プレイヤはボスキャラクタの表示に対しガ
ンユニットを操作して射撃を行う。移動する仮想プレイ
ヤ521を追うように、ボスキャラクタ522は矢印B
4または矢印B5の向きに移動していく。In the area 502 in the game space, the player detection sensors 51 to 54 detect the attack of the boss character 522 approaching the virtual player 521 in the game space.
The player operates the gun unit in response to the display of the boss character to shoot while avoiding in the direction of the arrow B 2 or the arrow B 3 by reacting. As if following the moving virtual player 521, the boss character 522 shows an arrow B.
4 or move in the direction of arrow B 5 .
【0113】ここでは、プレイヤ感知センサ51〜54
の反応に際して比較的大きな幅の移動(恐竜の左もしく
は右に回り込むような移動で、5メートル、20メート
ル、・・・、とステージに応じて異なる移動幅が設定さ
れた移動)を行わせ、また、上述のように、ボスキャラ
クタと仮想視点との距離、もしくは、ボスキャラクタが
攻撃を発生させる部位に応じてミラーが回転される。Here, the player detection sensors 51 to 54
In the reaction of, a relatively large movement (a movement that goes around to the left or right of the dinosaur, such as 5 meters, 20 meters, ... with different movement widths set depending on the stage) is performed, Further, as described above, the mirror is rotated according to the distance between the boss character and the virtual viewpoint or the part where the boss character causes an attack.
【0114】本変形例のゲーム機では、プレイヤ感知セ
ンサ51〜54の反応に際しての移動幅の大小、ミラー
の回転制御の方法を異ならせているため、プレイヤは、
より変化に富んだ飽きの来ない射撃ゲームを楽しむこと
ができるといえる。In the game machine of this modification, since the size of the movement width of the player detection sensors 51 to 54 upon reaction and the method of controlling the rotation of the mirror are different, the player
It can be said that you can enjoy a more varied and timeless shooting game.
【0115】図29は第2の変形例の射撃ビデオゲーム
機でのプレイヤ感知センサ51〜54によるプレイヤ3
00の位置の検知(1Pプレイヤおよび2Pプレイヤの
二人プレイ時)を説明するための図である。FIG. 29 shows the player 3 using the player detection sensors 51 to 54 in the shooting video game machine of the second modification.
It is a figure for demonstrating the detection of the position of 00 (at the time of two-player play of a 1P player and a 2P player).
【0116】本変形例のゲーム機では、2人プレイ時、
ゲーム空間内の2人の仮想プレイヤは、一蓮托生であ
り、ともに同一の向きに動かされる。1Pプレイヤ(左
側プレイヤ)が左内側プレイヤ感知センサ52前方の基
準位置から、左外側プレイヤ感知センサ51の前方へと
移動したことが検知されたとき、プレイヤが恐竜の左側
への回り込みを指示したものとして、ゲーム空間内にて
2人の仮想プレイヤの座標が設定される。また、2Pプ
レイヤ(右側プレイヤ)が右内側プレイヤ感知センサ5
3前方の基準位置から、右外側プレイヤ感知センサ54
の前方へと移動したことが検知されたとき、プレイヤが
恐竜の右側への回り込みを指示したものとして、ゲーム
空間内にて2人の仮想プレイヤの座標が設定される。In the game machine of this modification, when two players play,
The two virtual players in the game space are Ikuren, and both are moved in the same direction. When the 1P player (left player) is detected to move from the reference position in front of the left inner player detection sensor 52 to the front of the left outer player detection sensor 51, the player instructs the dinosaur to wrap around to the left. As, the coordinates of two virtual players are set in the game space. In addition, the 2P player (right player) is the right inner player detection sensor 5
3 from the reference position in front of the right outer player detection sensor 54
When it is detected that the virtual dinosaur has moved forward, the coordinates of the two virtual players are set in the game space as if the player had instructed the dinosaur to wrap around to the right.
【0117】本変形例の射撃ビデオゲーム機では、2人
のプレイヤの動きに合わせて仮想プレイヤの座標が設定
されるため、互いに協力し合ってのゲームの進行に独特
の興趣性を見出すことができる。In the shooting video game machine of this modification, the coordinates of the virtual players are set in accordance with the movements of the two players, so that it is possible to find a unique interest in the progress of the game in cooperation with each other. it can.
【0118】図30は第3の変形例の射撃ビデオゲーム
機にて設定される画像補正パラメータを示す図である。FIG. 30 is a diagram showing image correction parameters set in the shooting video game machine of the third modification.
【0119】本変形例のゲーム機では、図27(c)に
示したq1の延長線上にSCREEN_U’を指定し、
SCREEN_DとSCREEN_U’とを通る直線q
5上にCAM_VPを定めているので、CAM_Rはよ
り小さなものとなる。これらのようにCAM_Rを小さ
くし、また、反対にCAM_Rを大きくするようにCA
M_Rの大きさを適宜調整して設定することにより、プ
レイヤの基準視点位置に合わせ、違和感のない画像を生
成し、また、より迫力を醸し出す画像を生成することが
できる。In the game machine of this modification, SCREEN_U 'is designated on the extension line of q 1 shown in FIG. 27 (c),
A straight line q passing through SCREEN_D and SCREEN_U '
Since CAM_VP is defined above 5 , CAM_R will be smaller. As in these cases, CAM_R should be reduced, and conversely, CAM_R should be increased.
By appropriately adjusting and setting the size of M_R, it is possible to generate an image that is comfortable with the player's reference viewpoint position and that is more dynamic.
【0120】これらに加えて、以下のような変形例を想
定することができる。
(1)上記の実施の形態の射撃ビデオゲーム機では、プ
ロジェクタからの画像はミラーにより反射されてスクリ
ーン上に投影されるものとしたが、ミラーを用いること
なくプロジェクタの傾斜角度を変化させつつプロジェク
タからの画像を直接スクリーン上に表示するものとする
ことができ、これらはより簡素な構成であるといえる。
(2)上記の実施の形態の射撃ビデオゲーム機では、こ
れらプレイヤ感知センサを左右に2個ずつ設けるものと
したが、1個ずつもしくは3個以上ずつ設けるものとす
ることができる。各ステージをクリアして次のステージ
へと進む際、あらかじめ設定されている複数のルート
(恐竜、背景などゲーム設定が異なる)のうちのいずれ
かをプレイヤに選択させるとき、これらのプレイヤ感知
センサにより、選択を入力させるものとすることができ
る。
(3)また、プレイヤ感知センサによる回避移動につい
ては、左右への移動のみばかりではなく、下、または、
右斜め下、左斜め下に伏せるような移動とすることがで
きる。これは、敵キャラクタの攻撃として、腕もしくは
尻尾を横方向に振る動作をさせるときには、プレイヤは
左右にかわしても攻撃を回避することができないことに
よるものである。たとえば左外側プレイヤ感知センサが
オンとなれば、下にしゃがんで攻撃を回避する動作をす
るように、場面に応じ自動的に切り替えられる。
(4)上記の実施の形態の射撃ビデオゲーム機のスクリ
ーンを、プレイエリア上のプレイヤの上方にまで延長
し、プレイヤを覆い被すように設置するものとすること
により、プレイヤは上部の画像を見る際には見上げるよ
うな体勢になるため、より強い緊迫感が醸し出されるこ
ととなる。また、スクリーンには、円弧状部分以外に直
線部分を含めるものとすることができる。
(5)また、上記の実施の形態の射撃ビデオゲーム機の
アクリル板の傾斜角度は10°前後としたが、ミラー、
プロジェクタ、スクリーンの位置に応じて虚像がスクリ
ーン外部に投射されるように適宜調整することができ
る。
(6)上記の実施の形態の射撃ビデオゲーム機では、画
像表示に際して、視線仰角に対してミラー回転角度があ
らかじめ対応付けられており、また、画像補正パラメー
タをあらかじめ記憶されているものとしたが、図27に
示す手順にて順次パラメータを演算していくものとする
ことができる。さらに、補正の対象とする画像の投射さ
れるスクリーンの全部または一部は、上下に傾斜するも
のとし、左右または斜めに湾曲また傾斜するものとし、
また、半球状などとすることができる。加えて、(上
下、左右、半球状などに)湾曲するスクリーン全体への
投射の際に、スクリーン全体をいくつかの領域に分割
し、各領域につき位置に応じ、上述と同様の補正を行う
ものとすることができる。さらに、正面の画面および
(プレイヤから見て)斜め方向に傾斜する少なくとも2
つの画面を、プレイヤを囲うように左右、上下等に並
べ、これら3つの画面に連続した表示を行う際、斜め方
向に傾斜する2つの画面への表示に対し、上述と同様の
補正を行うものとすることができる。
(7)また、上記の実施の形態の射撃ビデオゲーム機で
は、仮想視点に近接時、攻撃を発生させる恐竜の部位を
部分的に表示させるものとしたが、ゲーム空間内の仮想
視点の向きに合わせつつ、ゲーム進行上プレイヤに注目
させたい箇所を表示させるものとすることができる。
(8)さらに、上記の実施の形態の射撃ビデオゲーム機
では、ミラーを回転させるミラー軸を1軸としてスクリ
ーン上で上下方向に投射画像を移動させるものとした
が、たとえば、ミラー軸を2軸設け、スクリーン上で上
下および左右方向に投射画像を移動させるものとするこ
とができる。
(9)上記の実施の形態は射的ゲーム機に適用した例を
示したが、本発明はこれに限定されず、指定する対象は
画像(文字画像含む)などの画面に対して指示をするこ
とで、例えば双方向の情報伝達の一助とすることも可能
である。さらに、画像表示面に限定されず、指定対象と
なる領域の面の所望する位置を指定する態様にも適用可
能である。これらの場合、コントローラは模擬銃の他、
目的に沿った形態のものが採用可能である。
(10)対象領域面は投射用スクリーンに限らず、種々
の表示面、例えばテレビジョンのモニタ、液晶モニタ、
パーソナルコンピュータのモニタ画面等に対しても同様
に適用可能である。
(11)本実施の形態で示したように、2Pプレイを可
能とし、さらに複数のコントローラに対しても同時に向
きを算定することが可能となり、汎用性の高い向き検出
装置を提供し得る。
(12)3次元行列を用いて解析した構成としたので、
コントローラが3次元空間で移動する態様にも充分適用
可能である。従って、適用範囲を勢い広げることができ
る。
(13)本発明では、マーカの大きさ、サイズは特に問
題とならない。適用するスクリーン、対象領域面のサイ
ズを考慮して種々の大きさのものが採用可能である。ま
た、マーカの形状、形態も点状体の集合物に限定され
ず、棒状体であってもよい。特に、マーカの各LEDの
寸法データは考慮していない。すなわちCCDカメラ1
3が基準位置にあるときに対するLEDの間隔データが
基準データとして予め格納されておれば、その後の測定
においては基準データとの比率によって計算処理が可能
となる。棒状体としては微小蛍光管などが採用でき、反
射体の場合には種々の物が採用可能である。また、点状
体と棒状体とを併用する態様でもよい。Lフレームつい
ては、それぞれ所定寸法の、好ましくは同寸法の2本の
棒状体を互いの一端を一致又は近接させて直交する向き
に配設すると共に、その一方の棒状体の他端の延長上に
所定距離だけ離間して点状体を少なくとも1個配置する
ことで、Lフレームを作製できる。上記において、2本
の棒状体を、互いの一端を近接すなわち所定距離離間さ
せて配設した態様では、点状体は必ずしも必要ではな
い。棒状体に対する認識位置はその端部と屈曲部であ
り、CCDカメラ213で撮像された撮像画像中から抽
出される。また、CCDカメラ13としてカラーCCD
を用いた場合において、2本の棒状体を、互いの一端を
一致させて配設した態様において、一方の軸の棒状体と
してその途中で異なる色を出射するものを繋いだものを
採用すれば、2個の端部、屈曲部、及び発光色の異なる
部位の4点が認識でき、Lフレームとして有効となる。
(14)本実施の形態に示すLフレームはゲーム画面や
表示画面の形状、サイズなどの影響を受けず、解析手法
は1通りであるため、汎用性が高い。
(15)本実施の形態では、スクリーン121上に4個
のマーカ6〜9を配設したが、これはスクリーンのサイ
ズ、CCDカメラ13の視野などによって1個又は2個
以上配設すればよく、また、等間隔に配設する必然性も
ない。
(16)本実施の形態に採用可能なマーカとしては、鏡
面関係(縦軸又は横軸)にあるL字状の2種類を採用す
ることが可能であり、この場合、個々に識別可能すなわ
ち配置位置の識別が可能であるため、本実施の形態のよ
うに個別の点灯制御は不要となる。また、回転範囲が1
80度以下のコントローラの態様では、縦軸に対する鏡
面関係と横軸に対する鏡面関係の4種類のLフレームが
採用可能であり、個々の識別が可能すなわち配置位置の
識別が可能なことから、4個を採用する場合にあっても
個別の点灯制御は全く不要となる。すなわち、2軸方向
の一方の軸に対して他方の軸が互いに逆向きの軸情報を
含む形態(前述の鏡面関係に該当)を有する異種(2種
又は4種)の指向位置検出用マーカを対象領域面(スク
リーン等)に対してそれぞれ所定の位置関係を有して配
設する態様が可能となる。これによれば、(主軸と副軸
とが直交するという)基本形態を共通にする、異種の指
向位置検出用マーカを採用することで、同種のマーカを
利用する際の個々の判別のための処理が不要となる。In addition to these, the following modifications can be envisioned. (1) In the shooting video game machine according to the above-described embodiment, the image from the projector is reflected by the mirror and projected on the screen. However, the projector is used while changing the tilt angle of the projector without using the mirror. Images from can be displayed directly on the screen, which can be said to be a simpler configuration. (2) In the shooting video game machine according to the above-described embodiment, two player detection sensors are provided on the left and right, but one or three or more may be provided. When clearing each stage and proceeding to the next stage, when the player selects one of a plurality of preset routes (different game settings such as dinosaur and background), these player detection sensors are used. , The selection can be entered. (3) Regarding the avoidance movement by the player detection sensor, not only the movement to the left and right but also the bottom or
The movement can be made to lie down diagonally to the right and diagonally down to the left. This is because, as an attack of the enemy character, when the player swings the arm or the tail in the lateral direction, the player cannot avoid the attack even if the player flies right and left. For example, if the left outer player detection sensor is turned on, it can be automatically switched depending on the scene so as to squat down and avoid the attack. (4) By extending the screen of the shooting video game machine according to the above-mentioned embodiment to a position above the player in the play area and installing the screen so as to cover and cover the player, the player can display the upper image. When you look at it, you will be looking up, creating a stronger sense of urgency. Further, the screen may include a linear portion other than the arcuate portion. (5) Further, although the inclination angle of the acrylic plate of the shooting video game machine of the above-mentioned embodiment is set to about 10 °, the mirror,
The virtual image can be appropriately adjusted so as to be projected to the outside of the screen according to the positions of the projector and the screen. (6) In the shooting video game machine according to the above-described embodiment, when the image is displayed, the mirror rotation angle is associated with the line-of-sight elevation angle in advance, and the image correction parameter is stored in advance. The parameters can be sequentially calculated in the procedure shown in FIG. Furthermore, all or part of the screen onto which the image to be corrected is projected is assumed to be tilted up and down, and curved or tilted left and right or diagonally,
Further, it may have a hemispherical shape or the like. In addition, when projecting onto a curved screen (up, down, left, right, hemisphere, etc.), the entire screen is divided into several areas, and the same correction as above is performed according to the position of each area. Can be Furthermore, the front screen and at least 2 slantingly (from the player's perspective)
When three screens are arranged side by side so as to surround the player, and the three screens are continuously displayed, the same correction as described above is applied to the display on the two screens inclined in the oblique direction. Can be (7) In addition, in the shooting video game machine according to the above-described embodiment, the part of the dinosaur that causes an attack is partially displayed when approaching the virtual viewpoint, but the direction of the virtual viewpoint in the game space is changed. In addition, it is possible to display a portion that the player wants to pay attention in the progress of the game. (8) Furthermore, in the shooting video game machine of the above-described embodiment, the projection image is moved in the vertical direction on the screen with the mirror axis for rotating the mirror as one axis. The projection image may be provided on the screen and moved in the vertical and horizontal directions. (9) The above embodiment has shown an example applied to a shooting game machine, but the present invention is not limited to this, and the object to be designated is an instruction on a screen such as an image (including a character image). Thus, for example, it is possible to assist in bidirectional information transmission. Further, the present invention is not limited to the image display surface, but can be applied to a mode in which a desired position on the surface of the area to be specified is specified. In these cases, the controller is a simulated gun,
A form suitable for the purpose can be adopted. (10) The target area surface is not limited to the projection screen, but various display surfaces such as a television monitor, a liquid crystal monitor,
The same applies to a monitor screen of a personal computer. (11) As shown in the present embodiment, it is possible to perform 2P play, and it is also possible to simultaneously calculate orientations for a plurality of controllers, and thus it is possible to provide a highly versatile orientation detection device. (12) Since the structure is analyzed using a three-dimensional matrix,
It can be sufficiently applied to a mode in which the controller moves in a three-dimensional space. Therefore, the application range can be expanded. (13) In the present invention, the size and size of the marker does not matter. Various sizes can be adopted in consideration of the size of the screen to be applied and the surface of the target area. Further, the shape and form of the markers are not limited to the aggregate of dots and may be rods. In particular, the dimension data of each LED of the marker is not considered. That is, CCD camera 1
If the LED interval data for when 3 is at the reference position is stored in advance as reference data, the calculation process can be performed in the subsequent measurement according to the ratio with the reference data. A micro fluorescent tube or the like can be adopted as the rod-shaped body, and various materials can be adopted in the case of the reflector. Further, a mode in which a point body and a rod body are used together may be used. For the L frame, two rod-shaped bodies each having a predetermined size, preferably the same size, are arranged in a direction orthogonal to each other with their one ends aligned or close to each other, and on the extension of the other end of the one bar-shaped body. An L frame can be manufactured by arranging at least one point-like body at a predetermined distance. In the above, in the aspect in which the two rod-shaped bodies are arranged such that one ends thereof are close to each other, that is, separated by a predetermined distance, the point-shaped bodies are not always necessary. The recognition positions for the rod-shaped body are the end portion and the bent portion, which are extracted from the captured image captured by the CCD camera 213. Also, as the CCD camera 13, a color CCD
In the case where the two rod-shaped bodies are arranged such that one ends thereof are aligned with each other, the rod-shaped bodies of one shaft connected with ones emitting different colors in the middle are used. Four points, that is, two end portions, a bent portion, and a portion having different emission colors can be recognized, which is effective as an L frame. (14) The L frame shown in the present embodiment is not affected by the shapes and sizes of the game screen and the display screen, and has only one analysis method, and thus has high versatility. (15) In the present embodiment, four markers 6 to 9 are arranged on the screen 121, but one or more markers may be arranged depending on the size of the screen, the field of view of the CCD camera 13, and the like. Also, there is no need to arrange them at equal intervals. (16) As the markers that can be adopted in the present embodiment, it is possible to adopt two types of L-shapes having a mirror surface relationship (vertical axis or horizontal axis), and in this case, they can be individually identified, that is, arranged. Since it is possible to identify the position, it is not necessary to perform individual lighting control as in the present embodiment. Also, the rotation range is 1
In the aspect of the controller of 80 degrees or less, four types of L frames having a mirror surface relationship with respect to the vertical axis and a mirror surface relationship with respect to the horizontal axis can be adopted. Even when adopting, the individual lighting control is completely unnecessary. That is, a different type (2 types or 4 types) of directional position detection markers having a form (corresponding to the above-described mirror surface relationship) in which the other axis includes axis information in which the other axis is opposite to the one axis in the two axis directions. It is possible to adopt an aspect in which the target area surface (screen or the like) is arranged so as to have a predetermined positional relationship. According to this, by adopting different types of directional position detecting markers having the same basic form (that the main axis and the sub axis are orthogonal to each other), it is possible to use the same type of marker for individual determination. No processing is required.
【0121】更に、マーカの他の配置態様として、本実
施形態の配置(スクリーンの左右中央で縦方向に4箇
所)を例に説明すれば、縦方向の4箇所のそれぞれにつ
いて、例えば縦軸に対する鏡面関係にある(又は前記4
種類のうちの)2種類のLフレームのマーカをスクリー
ンの左右対称位置に配設するようにしてもよい。また、
2種類のLフレームのマーカを上下方向の4箇所に交互
に配設してもよい。この場合、上下方向に隣接する2段
分のマーカは互いに異なる種類のマーカであるため、1
段目と2段目との組、2段目と3段目との組、3段目と
4段目との組という3つの組単位で点灯制御するように
できる。このことは同様に、3種類のLフレームを、さ
らには4種類のLフレームを種類数単位で、互いに異な
る種類のLフレームが隣接して配列する場合にも適用し
得る。
(17)本実施の形態では、光源として発光体としての
LEDを採用したが、これに代えて、前方からの入射光
を反射可能な反射体を採用してもよい。この構成は、対
象領域面の前方から(所定位置に、あるいはコントロー
ラに装備された)発光体等により光を照射し、反射体か
らの反射(出射)光を撮像手段で受光する態様とするも
のである。これにより、対象領域面側に直接発光体を装
備する必要がないため構成が容易で汎用性も高い。好ま
しくは、反射体の形状は例えば半円球等が所要幅の反射
光を生成する点で好ましく、撮像手段の、すなわちコン
トローラの移動範囲がいたずらに制約されず、汎用性が
高くなる。反射面に対する表面処理により乱反射を生じ
させて反射範囲を拡張する構成でもよい。
(18)光源(発光体、反射体)は赤外光に限定され
ず、所要の色の光を採用したものでもよい。例えばR
(赤)や、G(緑)、B(青)でもよく、更には他の色
の光でもよい。3つのマーカを採用する場合、それぞれ
異なる色のマーカを使用するとともに、CCDカメラと
して各色毎の受光を可能にするカラーCCDであれば、
各マーカの配置を認識し得るので、本実施形態で示した
ような個別の点灯制御は不要となり、常時点灯状態にで
きるという利点がある。もちろん、3色分を同時に使用
する必要はなく、用途に応じて所望する色のマーカを採
用するようにしてもよい。
(19)マーカは固設タイプに限定されない。例えば本
実施形態において、スクリーン121の上下方向に亘る
スリットを1本設け、このスリットにマーカが臨むよう
に配置すると共に、該マーカをスリットに沿ってスライ
ドさせるガイドレール等を設け、モータなどの駆動手段
でマーカを上下方向に位置管理しながら移動可能に構成
しておき、投射画像の位置を追尾するように、モータ駆
動させるようにすれば、1つのマーカで本実施形態にお
ける4個分を実現でき、更にはそれ以上の多数位置に存
在しているかのように扱うこともできる。従って、使用
個数を低減できる。
(20)本実施の形態では、スクリーン121の前面に
投射画像を描画したが、スクリーンの形状によっては表
裏面の双方にそれぞれのプロジェクタから画像を投射し
たゲーム画像を描画する態様とすることもできる。この
場合、マーカをスクリーンの表裏面で兼用してCCDカ
メラで撮像し得るように、例えば各LEDを備えたマー
カを一体的に、あるいは個々のLEDをスクリーンの肉
厚を貫通した孔に、好ましくは面一状に取り付け、かつ
LEDの発光部からの光がスクリーンの表裏面の双方に
射出し得るように構成するなどしておけばよい(反射体
の場合も同様で、例えば反射面が球体の部材を両面側に
半分づつ露出するように肉厚内に取り付ければよい)。
このようにすれば、スクリーンの表裏両面を利用しての
ゲームが行えるようになり、例えば表面では恐竜の正面
からの画像が、スクリーンの裏面に回り込めば恐竜の背
面からの画像が表示されることとなり、臨場感ある興趣
性の高いゲームが提供できる。しかも、マーカはスクリ
ーンの表面と裏面とでは、そのままで縦軸に対して鏡面
関係となる3種類の形状となるので、CCDカメラから
の画像を認識するのみでスクリーンの表裏のいずれ側か
を自動検出することが可能となり、プレイヤ自身の回り
込み動作を検出する人体センサを付設する必要がない。
(21)また、マーカの形状は種々のものが考えられる
が、基本的にLフレームの要素を包括するものは、Lフ
レームの概念に含まれる。Further, as another arrangement mode of the markers, the arrangement of the present embodiment (four positions in the vertical direction at the left-right center of the screen) will be described as an example. For each of the four vertical positions, for example, with respect to the vertical axis. There is a mirror surface relationship (or the above 4
Two types (of types) of L frame markers may be arranged at symmetrical positions on the screen. Also,
The two types of L frame markers may be alternately arranged at four positions in the vertical direction. In this case, since the markers for two stages vertically adjacent to each other are markers of different types,
Lighting control can be performed in units of three groups, that is, a group of the second and third rows, a group of the second and third rows, and a group of the third and fourth rows. This can also be applied to the case where three types of L frames, and further four types of L frames are arranged adjacent to each other in units of the number of types. (17) In the present embodiment, the LED as the light emitting body is adopted as the light source, but instead of this, a reflector capable of reflecting incident light from the front may be adopted. In this configuration, light is emitted from the front of the target area surface (at a predetermined position or provided in the controller) by a light emitting body or the like, and the reflected (emitted) light from the reflector is received by the imaging means. Is. With this, it is not necessary to directly equip the surface of the target area with the light-emitting body, so that the configuration is easy and versatility is high. Preferably, the shape of the reflector is preferably, for example, a hemispherical sphere or the like in that it generates reflected light with a required width, and the range of movement of the image pickup means, that is, the controller is not unnecessarily restricted and the versatility becomes high. A structure may be employed in which diffused reflection is generated by surface treatment on the reflection surface to expand the reflection range. (18) The light source (light emitter, reflector) is not limited to infrared light, and may use light of a desired color. For example R
It may be (red), G (green), B (blue), or light of another color. When three markers are adopted, if the color CCDs use markers of different colors and enable the CCD camera to receive light of each color,
Since the arrangement of each marker can be recognized, there is an advantage that the individual lighting control as shown in the present embodiment is not necessary and the lighting state can be kept constant. Of course, it is not necessary to use three colors at the same time, and a marker of a desired color may be adopted according to the application. (19) The marker is not limited to the fixed type. For example, in the present embodiment, one slit extending in the vertical direction of the screen 121 is provided, the slit is arranged so that the marker faces, and a guide rail or the like for sliding the marker along the slit is provided to drive a motor or the like. If the marker is configured to be movable while controlling the position in the vertical direction and the motor is driven so as to track the position of the projected image, one marker realizes four markers in the present embodiment. It can also be treated as if it were present in many more positions. Therefore, the number used can be reduced. (20) In the present embodiment, the projection image is drawn on the front surface of the screen 121. However, depending on the shape of the screen, it is also possible to draw a game image in which images are projected from both projectors on both the front and back surfaces. . In this case, for example, a marker provided with each LED is integrally formed, or each LED is preferably formed in a hole penetrating the thickness of the screen so that the front and back surfaces of the screen can also be used for image pickup by a CCD camera. May be mounted flush with each other, and configured so that light from the light emitting portion of the LED can be emitted to both the front and back surfaces of the screen (the same applies to a reflector, for example, the reflective surface is a sphere). It should be attached within the wall thickness so that the members are exposed half on each side).
By doing this, it becomes possible to play games using both front and back sides of the screen, for example, the image from the front of the dinosaur is displayed on the front side, and the image from the back side of the dinosaur is displayed if it goes around the back side of the screen. As a result, a highly entertaining and highly entertaining game can be provided. Moreover, the marker has three types of shapes on the front surface and the back surface of the screen, which are mirror-like with respect to the vertical axis as they are, so that only the image from the CCD camera is recognized and either side of the screen is automatically detected. It is possible to detect, and it is not necessary to additionally provide a human body sensor for detecting the turning movement of the player himself. (21) Although various shapes of the marker are possible, those that basically include the elements of the L frame are included in the concept of the L frame.
【0122】[0122]
【発明の効果】請求項1記載の発明によれば、対象領域
面内に対する撮像画像中に、コントローラの位置情報の
みならずコントローラの傾き(回転角度)情報を含めた
内容を提供できる。従って、この位置情報及び回転角度
情報から撮像画像の中心、すなわちコントローラが向け
られた対象領域面上の位置、すなわち交点の算定を可能
にする指向位置検出用マーカが提供できる。取り付け位
置も制限を受けないため、所望する位置に配設できる。According to the first aspect of the present invention, it is possible to provide the contents including not only the position information of the controller but also the inclination (rotation angle) information of the controller in the captured image in the plane of the target area. Therefore, it is possible to provide a directional position detection marker that enables calculation of the center of the captured image, that is, the position on the surface of the target area to which the controller is directed, that is, the intersection from the position information and the rotation angle information. Since the mounting position is not limited, it can be arranged at a desired position.
【0123】請求項2記載の発明によれば、対象領域面
と同一面であるため、演算式を容易にでき、従って演算
処理を高速化できる。According to the second aspect of the present invention, since it is on the same plane as the target area surface, the arithmetic expression can be facilitated and therefore the arithmetic processing can be speeded up.
【0124】請求項3記載の発明によれば、2軸方向の
情報を識別可能に点状光源から構成することで、指向位
置検出用マーカを容易、安価に作成できる。According to the third aspect of the present invention, the pointing position detecting marker can be easily and inexpensively formed by using the point light source so that the information in the two axial directions can be identified.
【0125】請求項4記載の発明によれば、最小の点状
光源で2軸方向の情報を提示する物が作成できる。According to the fourth aspect of the present invention, it is possible to create an object that presents information in two axial directions with the smallest point light source.
【0126】請求項5記載の発明によれば、点状光源の
間隔を一定とすることで、演算式を容易にできる。According to the fifth aspect of the present invention, the arithmetic expression can be facilitated by keeping the distance between the point light sources constant.
【0127】請求項6記載の発明によれば、自身が発光
する発光素子(LED)等が採用可能であり、しかも取
り付け構造も簡易で、作業も容易にできる。According to the invention described in claim 6, a light emitting element (LED) or the like that emits light itself can be adopted, and furthermore, the mounting structure is simple and the work can be facilitated.
【0128】請求項7記載の発明によれば、対象領域面
の前方から発光体等により光を照射し、反射体からの反
射(出射)光を撮像手段で受光する態様とすることも可
能となり、対象領域面側に直接発光体を装備する必要が
なく、構成が容易で汎用性も高い物を提供できる。According to the seventh aspect of the invention, it is possible to adopt a mode in which the light is emitted from the front side of the target area surface by the light emitting body and the reflected (emitted) light from the reflector is received by the image pickup means. It is not necessary to equip the surface of the target area directly with the light-emitting body, and it is possible to provide a product having a simple structure and high versatility.
【0129】請求項8記載の発明によれば、自然光の影
響を受けにくいという利点があり、自然光に含まれる波
長光を採用する場合に比して、操作環境を暗室状とする
等の付加物が不要にできる。According to the invention described in claim 8, there is an advantage that it is not easily affected by natural light, and as compared with the case where the wavelength light included in natural light is adopted, an additional object such as a dark room operation environment is added. Can be unnecessary.
【0130】請求項9記載の発明によれば、利用目的に
応じて所望する色の光を出射するマーカが採用できる。According to the ninth aspect of the invention, it is possible to employ a marker that emits light of a desired color according to the purpose of use.
【0131】請求項10記載の発明によれば、位置情報
及び回転角度情報から撮像画像の中央、すなわちコント
ローラが向けられた対象領域面上の位置、すなわち交点
を算定することができる。According to the tenth aspect of the invention, the center of the picked-up image, that is, the position on the surface of the target area where the controller is directed, that is, the intersection can be calculated from the position information and the rotation angle information.
【0132】請求項11記載の発明によれば、基本形態
を共通にする、異種の指向位置検出用マーカを採用する
ことで、同種のマーカを利用する際の個々の判別のため
の処理を不要とでき、処理の簡易化が図れる。According to the eleventh aspect of the present invention, by adopting different types of pointing position detecting markers having the same basic form, it is not necessary to perform a process for individual discrimination when using the same type of markers. Therefore, the processing can be simplified.
【0133】請求項12記載の発明によれば、画像中の
所望する位置を指定することができ、さらに請求項13
記載の発明によれば、スクリーン上の所望の位置の指定
ができることとなる。According to the twelfth aspect of the present invention, it is possible to specify a desired position in the image, and the thirteenth aspect is further provided.
According to the described invention, a desired position on the screen can be designated.
【0134】請求項14記載の発明によれば、簡易な構
成でありながら、位置情報及び回転角度情報から撮像画
像の中央、すなわちコントローラが向けられた対象領域
面上の位置、すなわち交点を算定することが可能とな
る。According to the fourteenth aspect of the present invention, the position of the center of the picked-up image, that is, the position on the surface of the target area to which the controller is directed, that is, the intersection point is calculated from the position information and the rotation angle information although the structure is simple. It becomes possible.
【0135】請求項15記載の発明によれば、ゲーム画
面に登場する射的対象画像に対する射的操作を受けて、
その射的が射的対象画像に当たったか否かを判定できる
ため、それに従って以降のゲーム進行を制御できる。ま
た、種々のコントローラに採用できることから、種々の
ゲームへの適用が可能となる。しかも、簡易な演算方法
で交点位置を算定し得るので、ゲームという高速(1/
60秒)で画面書き換えを行うタイプの表示装置にも適
用し得る。According to the fifteenth aspect of the invention, in response to the shooting operation on the shooting target image appearing on the game screen,
Since it is possible to determine whether or not the shooting hits the shooting target image, it is possible to control the subsequent game progress according to the judgment. Further, since it can be adopted in various controllers, it can be applied to various games. Moreover, since the intersection point position can be calculated by a simple calculation method, a high speed game (1 /
It can also be applied to a display device of the type that rewrites the screen in 60 seconds.
【図1】本発明の実施の形態の1つである射撃ビデオゲ
ーム機のスクリーンでの投射画像の移動を示す図であ
る。FIG. 1 is a diagram showing movement of a projection image on a screen of a shooting video game machine which is one of embodiments of the present invention.
【図2】投射画像の第1の例を示す図である。FIG. 2 is a diagram showing a first example of a projected image.
【図3】投射画像の例を示す図である。FIG. 3 is a diagram showing an example of a projected image.
【図4】投射画像の第2の例を示す図である。FIG. 4 is a diagram showing a second example of a projected image.
【図5】プレイヤの左右への移動に伴う表示画像の変化
を示す図である。FIG. 5 is a diagram showing a change in a display image due to a player moving to the left and right.
【図6】本ゲーム機の外観を示す図である。FIG. 6 is a diagram showing an appearance of the game machine.
【図7】スクリーン上の投射画像の移動を説明するため
の模式的断面図である。FIG. 7 is a schematic cross-sectional view for explaining movement of a projection image on a screen.
【図8】ガンユニットの構成を示す図である。FIG. 8 is a diagram showing a configuration of a gun unit.
【図9】スクリーンに対する銃口の向きを、ガンユニッ
ト中のCCDカメラとともに検出するための、マーカの
配置を示す図である。FIG. 9 is a diagram showing the arrangement of markers for detecting the orientation of the muzzle with respect to the screen together with the CCD camera in the gun unit.
【図10】(a)はマーカの形態を示し、(b)、
(c)はスクリーンへの取り付け構造を示す。FIG. 10 (a) shows the shape of a marker, and FIG.
(C) shows a mounting structure to the screen.
【図11】ミラーの回転、プロジェクタからの画像の投
射を保護するために設置されるアクリル板を示す模式的
断面図である。FIG. 11 is a schematic cross-sectional view showing an acrylic plate installed to protect rotation of a mirror and projection of an image from a projector.
【図12】(a)はアクリル板保持部材の構成を示す
図、(b)はアクリル板の構成を示す図である。FIG. 12A is a diagram showing a configuration of an acrylic plate holding member, and FIG. 12B is a diagram showing a configuration of an acrylic plate.
【図13】本ゲーム機の制御部のハードウェア構成を示
すブロック図である。FIG. 13 is a block diagram showing a hardware configuration of a control unit of the game machine.
【図14】ゲーム制御部(CPU)にて実行される射撃
ビデオゲーム処理の手順を示すフローチャートである。FIG. 14 is a flowchart showing the procedure of a shooting video game process executed by the game control unit (CPU).
【図15】ゲーム処理本体での処理を行うゲーム処理部
の主要部の構成を示すブロック図である。FIG. 15 is a block diagram showing a configuration of a main part of a game processing unit that performs processing in the game processing main body.
【図16】ゲーム処理本体での処理の詳細な手順を示す
フローチャートである。FIG. 16 is a flowchart showing a detailed procedure of processing in the game processing main body.
【図17】プレイヤ感知センサによるプレイエリア上の
プレイヤの位置の検知を説明するための第1の図であ
る。FIG. 17 is a first diagram for explaining detection of the position of the player on the play area by the player detection sensor.
【図18】プレイヤ感知センサによるプレイエリア上の
プレイヤの位置の検知を説明するための第2の図であ
る。FIG. 18 is a second diagram for explaining the detection of the position of the player on the play area by the player detection sensor.
【図19】ST80のマーカ点灯処理を行うマーカ点灯
処理部の主要部の構成を示すブロック図である。FIG. 19 is a block diagram showing a configuration of a main part of a marker lighting processing unit that performs marker lighting processing in ST80.
【図20】ST81での銃口向き検出処理を行う銃口向
き検出部401の主要部の構成を示すブロック図であ
る。FIG. 20 is a block diagram showing a configuration of a main part of a muzzle direction detection unit 401 that performs a muzzle direction detection process in ST81.
【図21】ST81での銃口向き検出処理の詳細な手順
を示すフローチャートである。FIG. 21 is a flowchart showing a detailed procedure of a muzzle direction detection process in ST81.
【図22】ST815の詳細のサブルーチンを示す図で
ある。FIG. 22 is a diagram showing a detailed subroutine of ST815.
【図23】ST99での画像表示処理を行う画像処理部
の主要部の構成を示すブロック図である。FIG. 23 is a block diagram showing a configuration of a main part of an image processing unit that performs image display processing in ST99.
【図24】ST99での画像表示処理の詳細な手順を示
すフローチャートである。FIG. 24 is a flowchart showing a detailed procedure of image display processing in ST99.
【図25】本ゲーム機での補正された画像の表示を示す
図である。FIG. 25 is a diagram showing a display of a corrected image on this game machine.
【図26】通常の画像の表示を示す図である。FIG. 26 is a diagram showing a normal image display.
【図27】本ゲーム機にて設定される画像補正パラメー
タを説明するための図である。FIG. 27 is a diagram for explaining image correction parameters set in this game machine.
【図28】第1の変形例の射撃ビデオゲーム機での1ス
テージを分割する2つのエリアにそれぞれ対応付けられ
たミラーの回転制御を説明するための図である。FIG. 28 is a diagram for explaining rotation control of mirrors respectively associated with two areas dividing one stage in the shooting video game machine of the first modified example.
【図29】第2の変形例の射撃ビデオゲーム機でのプレ
イヤ感知センサによるプレイヤの位置の検知を説明する
ための図である。FIG. 29 is a diagram for explaining detection of the position of the player by the player detection sensor in the shooting video game machine of the second modified example.
【図30】第3の変形例の射撃ビデオゲーム機にて設定
される画像補正パラメータを示す図である。FIG. 30 is a diagram showing image correction parameters set in the shooting video game machine of the third modified example.
6〜9 マーカ
6A〜6D、7A〜7D、8A〜8D、9A〜9D L
ED(光源)
10、20 ガンユニット
11、21 トリガースイッチ
13、23 CCDカメラ
14 トリガー
16 銃口
17 ガンケーブル
31 プロジェクタ
40 ミラー駆動部
51〜54 プレイヤ感知センサ
100 本体制御部
101 描画制御部
102 フレームバッファ
103 ゲーム制御部(CPU)
104 音声制御部
105 ROM
106 RAM
110 基台
120 スクリーン保持台
121、610 スクリーン
122 スクリーン121下部への投射画像
123 スクリーン121上部への投射画像
124 投射画像
130 プレイエリア
131 CCD画像
400 ゲーム処理部
400a マーカ点灯処理部
4001 投射画像位置判断部
4002 対応マーカ決定部
4003 対応マーカ点灯指示部
401 銃口向き検出部
4011 撮像処理部
4012 2値化処理部
4013 座標データ抽出部
4014 直線判定部
4015 近傍判定部
4016 Lフレーム特定部
4017 カメラ視線ベクトル算定部
4018 交点(H、V)算定部
404 銃弾位置算出部
405 視点位置移動部
406 当たり判定部
410 画像処理部
421 対象物位置データ
422 画像補正テーブル
431 CCDカメラ13の視野6-9 Markers 6A-6D, 7A-7D, 8A-8D, 9A-9D L
ED (light source) 10, 20 Gun unit 11, 21 Trigger switch 13, 23 CCD camera 14 Trigger 16 Muzzle 17 Gun cable 31 Projector 40 Mirror driving unit 51-54 Player detection sensor 100 Main body control unit 101 Drawing control unit 102 Frame buffer 103 Game control unit (CPU) 104 Voice control unit 105 ROM 106 RAM 110 Base 120 Screen holding base 121, 610 Screen 122 Projected image on the lower part of screen 123 Projected image on the upper part of screen 121 124 Projected image 130 Play area 131 CCD image 400 game processing unit 400a marker lighting processing unit 4001 projected image position determination unit 4002 corresponding marker determination unit 4003 corresponding marker lighting instruction unit 401 muzzle orientation detection unit 4011 imaging processing unit 40 2 binarization processing unit 4013 coordinate data extraction unit 4014 straight line determination unit 4015 neighborhood determination unit 4016 L frame identification unit 4017 camera line-of-sight vector calculation unit 4018 intersection (H, V) calculation unit 404 bullet position calculation unit 405 viewpoint position movement unit 406 Hit determination unit 410 Image processing unit 421 Object position data 422 Image correction table 431 Field of view of CCD camera 13
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 AA00 AA07 BA01 BA05 BB01 BB03 CA01 CA08 CB01 CC03 CC06 CC08 2C014 CA12 CA16 5B087 AA02 AB09 AE00 BC12 BC13 BC26 BC32 DE03 ─────────────────────────────────────────────────── ─── Continued front page F-term (reference) 2C001 AA00 AA07 BA01 BA05 BB01 BB03 CA01 CA08 CB01 CC03 CC06 CC08 2C014 CA12 CA16 5B087 AA02 AB09 AE00 BC12 BC13 BC26 BC32 DE03
Claims (15)
り対象領域面内の指向方向の撮像画像を生成し、該撮像
画像から撮像範囲の中央に対応する対象領域面内の位置
を算定するための情報を撮像画像中に提供するための指
向位置検出用マーカであって、対象領域面に対して所定
の位置関係を有して配設可能に構成され、2軸方向の情
報を含む形態を有する光源を有してなることを特徴とす
る指向位置検出用マーカ。1. Information for calculating a position in the target area plane corresponding to the center of the imaging range from the captured image by generating an imaged image in the directional direction in the target area plane by the image pickup means provided in the controller. Is a marker for detecting a directional position for providing a captured image in a captured image, the light source having a configuration that can be arranged in a predetermined positional relationship with respect to a target area surface, and has a form including information in two axis directions. A marker for detecting a directional position, characterized by comprising:
能であることを特徴とする請求項1記載の指向位置検出
用マーカ。2. The marker for detecting a pointing position according to claim 1, wherein the light source can be arranged on the surface of the target area.
とを特徴とする請求項1又は2記載の指向位置検出用マ
ーカ。3. The directional position detecting marker according to claim 1, wherein the light source comprises a plurality of point light sources.
隔を有する3個の点状光源と、一端の点状光源から前記
直線に直交する方向に所定間隔離間した1個の点状光源
とからなることを特徴とする請求項3記載の指向位置検
出用マーカ。4. The plurality of point light sources are three point light sources having a predetermined distance on a straight line and one point light source spaced from the point light source at one end by a predetermined distance in a direction orthogonal to the straight line. The marker for detecting the directional position according to claim 3, comprising a light source.
する請求項4記載の指向位置検出用マーカ。5. The marker for detecting a pointing position according to claim 4, wherein the predetermined interval is constant.
する請求項1〜5のいずれかに記載の指向位置検出用マ
ーカ。6. The marker for detecting a pointing position according to claim 1, wherein the light source is a light emitting body.
能な反射体であることを特徴とする請求項1〜5のいず
れかに記載の指向位置検出用マーカ。7. The marker for detecting a pointing position according to claim 1, wherein the light source is a reflector capable of reflecting incident light from the front.
ることを特徴とする請求項1〜7のいずれかに記載の指
向位置検出用マーカ。8. The marker for detecting a pointing position according to claim 1, wherein the light source emits infrared light.
であることを特徴とする請求項1〜7のいずれかに記載
の指向位置検出用マーカ。9. The directional position detection marker according to claim 1, wherein the light source emits light of a specific color.
ラからの遠隔的な入力操作を受けて、指向された対象領
域面内の位置を検出する装置であって、対象領域面に対
して所定の位置関係を有して配設された、少なくとも1
個以上の請求項1〜9のいずれかに記載の指向位置検出
用マーカと、コントローラに設けられ、その向きに対応
した方向の撮像画像を生成する撮像手段と、少なくとも
前記入力の際に生成された撮像画像中の指向位置検出用
マーカの像を識別する識別手段と、識別された指向位置
検出用マーカの像の位置及び回転角度情報から撮像範囲
の中央に対応する対象領域面内の位置を算定する算定手
段とを備えたことを特徴とする指向位置検出装置。10. An apparatus for detecting a position in the target area surface, which has been directed, in response to a remote input operation from a controller directed in the target area surface, the device being configured to detect a predetermined position in the target area surface. At least one arranged in a positional relationship
A plurality of or more directional position detection markers according to any one of claims 1 to 9, and an image pickup means which is provided in the controller and generates a picked-up image in a direction corresponding to the direction, and is generated at least at the time of the input. The identifying means for identifying the image of the directional position detecting marker in the captured image, and the position in the target area plane corresponding to the center of the image capturing range from the position of the image of the identified directional position detecting marker and the rotation angle information. A pointing position detecting device comprising a calculating means for calculating.
一方の軸に対して他方の軸が互いに逆向きの軸情報を含
む形態を有する異種の指向位置検出用マーカを含み、こ
れら異種の指向位置検出用マーカが対象領域面に対して
それぞれ所定の位置関係を有して配設されていることを
特徴とする請求項10記載の指向位置検出装置。11. The directional position detecting marker includes different types of directional position detecting markers having a configuration in which one axis in the two-axis direction includes axis information in which the other axis is opposite to each other. The directional position detecting device according to claim 10, wherein the directional position detecting markers are arranged in a predetermined positional relationship with respect to the target area surface.
を含むことを特徴とする請求項10又は11記載の指向
位置検出装置。12. The pointing position detecting device according to claim 10, wherein the target area surface includes a screen on which an image is displayed.
画像が表示されるスクリーンであることを特徴とする請
求項12記載の指向位置検出装置。13. The pointing position detecting device according to claim 12, wherein the screen is a screen on which an image projected from the projector is displayed.
源からなり、前記複数の点状光源は、直線上で所定間隔
を有する3個の点状光源と、一端の点状光源から前記直
線に直交する方向に所定間隔離間した1個の点状光源と
からなるもので、算定手段は、4個の点状光源の位置情
報と前記撮像画像中の4個の点状光源の像の位置及び回
転角度とから前記撮像手段の前記対象領域面に対する向
きを表す視線ベクトルを算定すると共に該視線ベクトル
の対象領域面との交点を算定するものであることを特徴
とする請求項10〜13のいずれかに記載の指向位置検
出装置。14. The pointing position detecting marker comprises a plurality of point light sources, and the plurality of point light sources include three point light sources having a predetermined interval on a straight line, and one point light source to the straight line. The calculation means is composed of one point-like light source spaced apart by a predetermined distance in a direction orthogonal to the position information, and the calculating means calculates the position information of the four point-like light sources and the positions of the images of the four point-like light sources in the captured image. And a rotation angle to calculate a line-of-sight vector representing a direction of the imaging means with respect to the target-region surface, and an intersection of the line-of-sight vector with the target-region surface. The pointing position detecting device according to any one of claims.
指向位置検出装置と、射的対象画像が含まれるゲーム画
像を生成するゲーム制御手段と、生成されたゲーム画像
を画面に表示する画像表示手段とを備え、コントローラ
は表示された射的対象画像の表示位置を指向して射的指
示に対応する入力操作を行うものであり、算定手段は、
入力操作の際に画面内の指向位置を算定するものであ
り、ゲーム制御手段は、算定された指向位置と射的対象
画像の画面内での表示位置との一致の有無を判定し、判
定結果に従ってゲーム進行を制御するものであることを
特徴とする射的ゲーム装置。15. The pointing position detecting device according to claim 10, a game control means for generating a game image including a shooting target image, and an image for displaying the generated game image on a screen. Display means, the controller directs the display position of the displayed shooting target image to perform an input operation corresponding to the shooting instruction, the calculation means,
This is to calculate the pointing position on the screen during the input operation, and the game control means judges whether or not the calculated pointing position and the display position on the screen of the shooting target image match, and the judgment result A shooting game device characterized by controlling the progress of a game according to.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001242819A JP3626711B2 (en) | 2001-08-09 | 2001-08-09 | Marker for directional position detection, directional position detection apparatus, and shooting game apparatus |
US10/213,248 US7084888B2 (en) | 2001-08-09 | 2002-08-05 | Orientation detection marker, orientation detection device and video game device |
EP02017810A EP1287864A3 (en) | 2001-08-09 | 2002-08-07 | Orientation detection marker, orientation detection device and video game device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001242819A JP3626711B2 (en) | 2001-08-09 | 2001-08-09 | Marker for directional position detection, directional position detection apparatus, and shooting game apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003058317A true JP2003058317A (en) | 2003-02-28 |
JP3626711B2 JP3626711B2 (en) | 2005-03-09 |
Family
ID=19073033
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001242819A Expired - Lifetime JP3626711B2 (en) | 2001-08-09 | 2001-08-09 | Marker for directional position detection, directional position detection apparatus, and shooting game apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3626711B2 (en) |
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007071403A (en) * | 2005-09-02 | 2007-03-22 | Realviz:Kk | Firing simulator |
WO2007037227A1 (en) * | 2005-09-27 | 2007-04-05 | Tamura Corporation | Position information detection device, position information detection method, and position information detection program |
JP2007330534A (en) * | 2006-06-15 | 2007-12-27 | Namco Bandai Games Inc | Program, information storage medium, and image generating system |
JP2008125666A (en) * | 2006-11-17 | 2008-06-05 | Nintendo Co Ltd | Adjustment program for pointing device and pointing device |
JP2009093612A (en) * | 2007-04-17 | 2009-04-30 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | System and method for labeling feature clusters in frames of image data for optical navigation |
JP2009116701A (en) * | 2007-11-07 | 2009-05-28 | Sharp Corp | Display system, and method for detecting pointed position |
JP2009116700A (en) * | 2007-11-07 | 2009-05-28 | Sharp Corp | Display system and method for detecting pointed position |
JP2011041712A (en) * | 2009-08-21 | 2011-03-03 | Taito Corp | Shooting game apparatus |
US8154513B2 (en) | 2007-10-10 | 2012-04-10 | Sharp Kabushiki Kaisha | Display system and method for detecting pointed position |
US8439733B2 (en) | 2007-06-14 | 2013-05-14 | Harmonix Music Systems, Inc. | Systems and methods for reinstating a player within a rhythm-action game |
US8444464B2 (en) | 2010-06-11 | 2013-05-21 | Harmonix Music Systems, Inc. | Prompting a player of a dance game |
US8449360B2 (en) | 2009-05-29 | 2013-05-28 | Harmonix Music Systems, Inc. | Displaying song lyrics and vocal cues |
US8456419B2 (en) | 2002-02-07 | 2013-06-04 | Microsoft Corporation | Determining a position of a pointing device |
US8465366B2 (en) | 2009-05-29 | 2013-06-18 | Harmonix Music Systems, Inc. | Biasing a musical performance input to a part |
US8550908B2 (en) | 2010-03-16 | 2013-10-08 | Harmonix Music Systems, Inc. | Simulating musical instruments |
US8663013B2 (en) | 2008-07-08 | 2014-03-04 | Harmonix Music Systems, Inc. | Systems and methods for simulating a rock band experience |
US8678896B2 (en) | 2007-06-14 | 2014-03-25 | Harmonix Music Systems, Inc. | Systems and methods for asynchronous band interaction in a rhythm action game |
US8686269B2 (en) | 2006-03-29 | 2014-04-01 | Harmonix Music Systems, Inc. | Providing realistic interaction to a player of a music-based video game |
US8702485B2 (en) | 2010-06-11 | 2014-04-22 | Harmonix Music Systems, Inc. | Dance game and tutorial |
JP2015037601A (en) * | 2014-10-23 | 2015-02-26 | 株式会社カプコン | Game machine and game program |
JP2015044000A (en) * | 2014-10-23 | 2015-03-12 | 株式会社カプコン | Game machine and game program |
US9024166B2 (en) | 2010-09-09 | 2015-05-05 | Harmonix Music Systems, Inc. | Preventing subtractive track separation |
US9358456B1 (en) | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
JP2017140151A (en) * | 2016-02-09 | 2017-08-17 | 株式会社ユニバーサルエンターテインメント | Game machine and method of manufacturing game machine |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
KR20190001728A (en) * | 2017-06-28 | 2019-01-07 | 주식회사 한화 | Apparatus and Method for measuring pose based on augmented reality |
US10357714B2 (en) | 2009-10-27 | 2019-07-23 | Harmonix Music Systems, Inc. | Gesture-based user interface for navigating a menu |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101803432B1 (en) * | 2015-12-07 | 2017-11-30 | 주식회사 엔씨이에스 | Apparatus for recognizing coordinate of camera image |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0871252A (en) * | 1994-09-05 | 1996-03-19 | Taito Corp | Method and device for detecting relative position between video screen and gun on firing game device |
JPH08226793A (en) * | 1995-02-21 | 1996-09-03 | Konami Co Ltd | Shooting game device |
JP2961097B2 (en) * | 1997-01-10 | 1999-10-12 | コナミ株式会社 | Shooting video game device |
JPH11305935A (en) * | 1998-04-24 | 1999-11-05 | Image Tec Kk | Position detection system |
JP2001208511A (en) * | 2000-01-27 | 2001-08-03 | Univ Nagoya | Position display/data transmission apparatus, position measuring/data receiving apparatus and position measuring/data communication system |
JP2001511275A (en) * | 1997-02-09 | 2001-08-07 | ラビブ,ロニ | Display pointing device |
-
2001
- 2001-08-09 JP JP2001242819A patent/JP3626711B2/en not_active Expired - Lifetime
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0871252A (en) * | 1994-09-05 | 1996-03-19 | Taito Corp | Method and device for detecting relative position between video screen and gun on firing game device |
JPH08226793A (en) * | 1995-02-21 | 1996-09-03 | Konami Co Ltd | Shooting game device |
JP2961097B2 (en) * | 1997-01-10 | 1999-10-12 | コナミ株式会社 | Shooting video game device |
JP2001511275A (en) * | 1997-02-09 | 2001-08-07 | ラビブ,ロニ | Display pointing device |
JPH11305935A (en) * | 1998-04-24 | 1999-11-05 | Image Tec Kk | Position detection system |
JP2001208511A (en) * | 2000-01-27 | 2001-08-03 | Univ Nagoya | Position display/data transmission apparatus, position measuring/data receiving apparatus and position measuring/data communication system |
Cited By (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8707216B2 (en) | 2002-02-07 | 2014-04-22 | Microsoft Corporation | Controlling objects via gesturing |
US8456419B2 (en) | 2002-02-07 | 2013-06-04 | Microsoft Corporation | Determining a position of a pointing device |
US10488950B2 (en) | 2002-02-07 | 2019-11-26 | Microsoft Technology Licensing, Llc | Manipulating an object utilizing a pointing device |
US9454244B2 (en) | 2002-02-07 | 2016-09-27 | Microsoft Technology Licensing, Llc | Recognizing a movement of a pointing device |
US10331228B2 (en) | 2002-02-07 | 2019-06-25 | Microsoft Technology Licensing, Llc | System and method for determining 3D orientation of a pointing device |
JP2007071403A (en) * | 2005-09-02 | 2007-03-22 | Realviz:Kk | Firing simulator |
US8441440B2 (en) | 2005-09-27 | 2013-05-14 | Tamura Corporation | Position information detection device, position information detection method, and position information detection program |
WO2007037227A1 (en) * | 2005-09-27 | 2007-04-05 | Tamura Corporation | Position information detection device, position information detection method, and position information detection program |
JP4885867B2 (en) * | 2005-09-27 | 2012-02-29 | 株式会社タムラ製作所 | POSITION INFORMATION DETECTING DEVICE, POSITION INFORMATION DETECTING METHOD, AND POSITION INFORMATION DETECTING PROGRAM |
US8686269B2 (en) | 2006-03-29 | 2014-04-01 | Harmonix Music Systems, Inc. | Providing realistic interaction to a player of a music-based video game |
JP2007330534A (en) * | 2006-06-15 | 2007-12-27 | Namco Bandai Games Inc | Program, information storage medium, and image generating system |
JP2008125666A (en) * | 2006-11-17 | 2008-06-05 | Nintendo Co Ltd | Adjustment program for pointing device and pointing device |
JP2009093612A (en) * | 2007-04-17 | 2009-04-30 | Avago Technologies Ecbu Ip (Singapore) Pte Ltd | System and method for labeling feature clusters in frames of image data for optical navigation |
US8094937B2 (en) | 2007-04-17 | 2012-01-10 | Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. | System and method for labeling feature clusters in frames of image data for optical navigation |
US8439733B2 (en) | 2007-06-14 | 2013-05-14 | Harmonix Music Systems, Inc. | Systems and methods for reinstating a player within a rhythm-action game |
US8444486B2 (en) | 2007-06-14 | 2013-05-21 | Harmonix Music Systems, Inc. | Systems and methods for indicating input actions in a rhythm-action game |
US8678895B2 (en) | 2007-06-14 | 2014-03-25 | Harmonix Music Systems, Inc. | Systems and methods for online band matching in a rhythm action game |
US8678896B2 (en) | 2007-06-14 | 2014-03-25 | Harmonix Music Systems, Inc. | Systems and methods for asynchronous band interaction in a rhythm action game |
US8690670B2 (en) | 2007-06-14 | 2014-04-08 | Harmonix Music Systems, Inc. | Systems and methods for simulating a rock band experience |
US8154513B2 (en) | 2007-10-10 | 2012-04-10 | Sharp Kabushiki Kaisha | Display system and method for detecting pointed position |
JP2009116700A (en) * | 2007-11-07 | 2009-05-28 | Sharp Corp | Display system and method for detecting pointed position |
JP2009116701A (en) * | 2007-11-07 | 2009-05-28 | Sharp Corp | Display system, and method for detecting pointed position |
US8663013B2 (en) | 2008-07-08 | 2014-03-04 | Harmonix Music Systems, Inc. | Systems and methods for simulating a rock band experience |
US8449360B2 (en) | 2009-05-29 | 2013-05-28 | Harmonix Music Systems, Inc. | Displaying song lyrics and vocal cues |
US8465366B2 (en) | 2009-05-29 | 2013-06-18 | Harmonix Music Systems, Inc. | Biasing a musical performance input to a part |
JP2011041712A (en) * | 2009-08-21 | 2011-03-03 | Taito Corp | Shooting game apparatus |
US10421013B2 (en) | 2009-10-27 | 2019-09-24 | Harmonix Music Systems, Inc. | Gesture-based user interface |
US10357714B2 (en) | 2009-10-27 | 2019-07-23 | Harmonix Music Systems, Inc. | Gesture-based user interface for navigating a menu |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
US8568234B2 (en) | 2010-03-16 | 2013-10-29 | Harmonix Music Systems, Inc. | Simulating musical instruments |
US8550908B2 (en) | 2010-03-16 | 2013-10-08 | Harmonix Music Systems, Inc. | Simulating musical instruments |
US8636572B2 (en) | 2010-03-16 | 2014-01-28 | Harmonix Music Systems, Inc. | Simulating musical instruments |
US8874243B2 (en) | 2010-03-16 | 2014-10-28 | Harmonix Music Systems, Inc. | Simulating musical instruments |
US9278286B2 (en) | 2010-03-16 | 2016-03-08 | Harmonix Music Systems, Inc. | Simulating musical instruments |
US8702485B2 (en) | 2010-06-11 | 2014-04-22 | Harmonix Music Systems, Inc. | Dance game and tutorial |
US9358456B1 (en) | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
US8444464B2 (en) | 2010-06-11 | 2013-05-21 | Harmonix Music Systems, Inc. | Prompting a player of a dance game |
US8562403B2 (en) | 2010-06-11 | 2013-10-22 | Harmonix Music Systems, Inc. | Prompting a player of a dance game |
US9024166B2 (en) | 2010-09-09 | 2015-05-05 | Harmonix Music Systems, Inc. | Preventing subtractive track separation |
JP2015044000A (en) * | 2014-10-23 | 2015-03-12 | 株式会社カプコン | Game machine and game program |
JP2015037601A (en) * | 2014-10-23 | 2015-02-26 | 株式会社カプコン | Game machine and game program |
JP2017140151A (en) * | 2016-02-09 | 2017-08-17 | 株式会社ユニバーサルエンターテインメント | Game machine and method of manufacturing game machine |
KR20190001728A (en) * | 2017-06-28 | 2019-01-07 | 주식회사 한화 | Apparatus and Method for measuring pose based on augmented reality |
KR102005504B1 (en) * | 2017-06-28 | 2019-10-08 | 주식회사 한화 | Apparatus and Method for measuring pose based on augmented reality |
Also Published As
Publication number | Publication date |
---|---|
JP3626711B2 (en) | 2005-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3626711B2 (en) | Marker for directional position detection, directional position detection apparatus, and shooting game apparatus | |
US7084888B2 (en) | Orientation detection marker, orientation detection device and video game device | |
JP3470119B2 (en) | Controller, controller attitude telemetry device, and video game device | |
US8674937B2 (en) | Storage medium having stored thereon program for adjusting pointing device, and pointing device | |
US7059962B2 (en) | Gun shooting game device, method of controlling computer and program | |
JP3611807B2 (en) | Video game apparatus, pseudo camera viewpoint movement control method and program in video game | |
US6417841B1 (en) | Information extraction apparatus and method | |
JP5063930B2 (en) | GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME CONTROL METHOD | |
JP2002233665A (en) | Game system, game method, and variable recording medium | |
JP2012059011A (en) | Program, information storage medium and image generation device | |
US20060256072A1 (en) | Information processing device, information processing system, operating article, information processing method, information processing program, and game system | |
JP3443415B2 (en) | Game device | |
JP2002233665A5 (en) | ||
US20080076498A1 (en) | Storage medium storing a game program, game apparatus and game controlling method | |
TW201941807A (en) | Device for putting guide, virtual golf simulation apparatus using the same and control method of the same | |
EP1900403A1 (en) | Network game system, game machine, game machine control method, and information storage medium | |
JP3443414B2 (en) | Game device | |
JP3443416B2 (en) | Shooting game apparatus and shooting game control method | |
JP3068487B2 (en) | Shooting video game equipment | |
JP4900914B2 (en) | Program, information storage medium, and image generation system | |
US6964607B2 (en) | Game system and game method | |
JP2007267850A (en) | Program, information storage medium, and image generating system | |
JP3577065B2 (en) | Controller, controller attitude telemetry device, and video game device | |
JP2007267849A (en) | Program, information storage medium, and image generating system | |
JP2003199972A (en) | View point control method of pseudo camera in 3d video game and 3d video game device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20040601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20040824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20041130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20041203 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 3626711 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081210 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091210 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101210 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111210 Year of fee payment: 7 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121210 Year of fee payment: 8 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131210 Year of fee payment: 9 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |