[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2011255114A - Program, information storage medium, and image generation system - Google Patents

Program, information storage medium, and image generation system Download PDF

Info

Publication number
JP2011255114A
JP2011255114A JP2010134498A JP2010134498A JP2011255114A JP 2011255114 A JP2011255114 A JP 2011255114A JP 2010134498 A JP2010134498 A JP 2010134498A JP 2010134498 A JP2010134498 A JP 2010134498A JP 2011255114 A JP2011255114 A JP 2011255114A
Authority
JP
Japan
Prior art keywords
marker
program
control unit
predicted position
player
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010134498A
Other languages
Japanese (ja)
Inventor
Natsuki Izaki
夏樹 井崎
Kazunori Imoto
一史 井本
Yoshitaka Inoue
佳高 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2010134498A priority Critical patent/JP2011255114A/en
Publication of JP2011255114A publication Critical patent/JP2011255114A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program for changing the behavior of a marker to an object according to the behavior of the object, and to provide an information storage medium, and an image generation system.SOLUTION: When an enemy plane NPC as a non-player character chases a player's plane PC, a predicted position of the player's plane PC after a predetermined time period, is located based on the moving history of the player's plane PC, the display of a marker MK to the player's plane PC is controlled based on the predicted position and the position of the enemy plane, and game operation is executed based on the positional relashionship between the marker MK and the player's plane PC. The size of the marker MK is changed based on the distance between the player's plane PC and the enemy plane NPC.

Description

本発明は、プログラム、情報記憶媒体及び画像生成システムに関する。   The present invention relates to a program, an information storage medium, and an image generation system.

従来から、プレーヤが入力操作を行いオブジェクト空間における機体(自機)を移動させて、敵の機体(敵機)を射撃するフライトシューティングゲームが知られている。このようなフライトシューティングゲームでは、プレーヤが操作レバーによりゲーム画面に表示される照準カーソルを移動させて敵機に目標を定め、操作ボタンによりミサイル等を発射して敵機を攻撃するものが知られている(例えば、特許文献1)。   2. Description of the Related Art Conventionally, a flight shooting game is known in which a player performs an input operation to move an airframe (self-machine) in an object space to shoot an enemy airframe (enemy aircraft). In such a flight shooting game, it is known that the player moves the aiming cursor displayed on the game screen with the operation lever to set a target on the enemy aircraft and launches a missile or the like with the operation button to attack the enemy aircraft. (For example, Patent Document 1).

特開2007−44396号公報JP 2007-44396 A

しかしながら、従来のゲームは、プレーヤ自身がカーソルを移動させるものであり、敵機の挙動に応じてカーソルの動きが変化するものではなかった。   However, in the conventional game, the player himself moves the cursor, and the movement of the cursor does not change according to the behavior of the enemy aircraft.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、オブジェクトの挙動に応じてオブジェクトに対するマーカーの挙動を変化させることが可能なプログラム、情報記憶媒体及び画像生成システムを提供することにある。   The present invention has been made in view of the above-described problems, and an object thereof is a program, an information storage medium, and an image that can change the behavior of a marker relative to an object according to the behavior of the object. To provide a generation system.

(1)本発明に係るプログラムは、
画像を生成するためのプログラムであって、
第1及び第2のオブジェクトをオブジェクト空間内で移動させる移動制御を行う移動制御部と、
前記第1のオブジェクトの移動履歴に基づき所与の時間経過後の前記第1のオブジェクトの予測位置を求め、前記予測位置と前記第2のオブジェクトの位置とに基づいて、前記第1のオブジェクトに対するマーカーを表示する制御を行うマーカー表示制御部と、
前記マーカーと前記第1のオブジェクトの位置関係に基づいて、ゲーム演算を行うゲーム演算部と、
オブジェクト空間を所与の視点からみた画像を生成する画像生成部としてコンピュータを機能させることを特徴とする。
(1) The program according to the present invention is:
A program for generating an image,
A movement control unit for performing movement control for moving the first and second objects in the object space;
Based on the movement history of the first object, a predicted position of the first object after a given time has elapsed, and based on the predicted position and the position of the second object, the predicted position of the first object A marker display control unit for performing control to display a marker;
A game calculation unit for performing a game calculation based on the positional relationship between the marker and the first object;
The computer is caused to function as an image generation unit that generates an image of the object space viewed from a given viewpoint.

また本発明は、コンピュータ読み取り可能な情報記憶媒体であって、上記各部としてコンピュータを機能させるためのプログラムを記憶した情報記憶媒体に関する。また本発明は、上記各部を含む画像生成システムに関する。   The present invention also relates to an information storage medium that can be read by a computer and stores a program for causing the computer to function as each of the above-described units. The present invention also relates to an image generation system including the above-described units.

本発明によれば、第1のオブジェクトの挙動に応じて第1のオブジェクトに対するマーカーの挙動を変化させることができ、例えば、第1のオブジェクトが予測位置に近い位置を通過するように移動した場合と、予測位置から離れた位置を通過するように移動した場合とで、第1のオブジェクトとマーカーの位置関係を変化させることができ、それによってゲームの進行や結果を変化させることができる。   According to the present invention, the behavior of the marker with respect to the first object can be changed according to the behavior of the first object. For example, when the first object moves so as to pass a position close to the predicted position And when it moves so that it may pass through the position away from the prediction position, the positional relationship between the first object and the marker can be changed, and thereby the progress and result of the game can be changed.

(2)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記第1のオブジェクトは、プレーヤキャラクタであり、前記第2のオブジェクトは、ノンプレーヤキャラクタであってもよい。
(2) In the program, information storage medium, and image generation system according to the present invention,
The first object may be a player character, and the second object may be a non-player character.

本発明によれば、例えば、プレーヤに、マーカーを避けながら第1のオブジェクトを移動させるといったゲームプレイを行わせることができる。   According to the present invention, for example, it is possible to cause the player to play a game such as moving the first object while avoiding the marker.

(3)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
前記第1のオブジェクトと前記第2のオブジェクト間の距離に基づいて、前記マーカーの大きさ、形状及び色の少なくとも1つを変化させるようにしてもよい。
(3) In the program, information storage medium, and image generation system according to the present invention,
The marker display control unit
You may make it change at least 1 of the magnitude | size of the said marker, a shape, and a color based on the distance between the said 1st object and the said 2nd object.

(4)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
所与の時間間隔毎に前記予測位置を求め、時刻tにおける前記第1のオブジェクトの位置と、時刻tについて求めた前記予測位置とに基づいて、前記予測位置を求める時間間隔を変化させるようにしてもよい。
(4) In the program, information storage medium, and image generation system according to the present invention,
The marker display control unit
The predicted position is obtained for each given time interval, and the time interval for obtaining the predicted position is changed based on the position of the first object at time t and the predicted position obtained for time t. May be.

本発明によれば、位置予測の当否によって、以降の位置予測をより当たり易くしたり、当たり難くしたりすることができる。   According to the present invention, it is possible to make the subsequent position prediction easier to hit or hard to hit depending on whether or not the position prediction is correct.

(5)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
前記第2のオブジェクトの座標を通る仮想線分であって前記予測位置に基づきその向きが決定される仮想線分と、前記視点の向きと前記第1のオブジェクトの位置とに基づき決定される仮想平面との交点の座標に基づいて、前記マーカーの表示位置を決定するようにしてもよい。
(5) In the program, information storage medium, and image generation system according to the present invention,
The marker display control unit
A virtual line segment passing through the coordinates of the second object, the direction of which is determined based on the predicted position, and the virtual line determined based on the direction of the viewpoint and the position of the first object You may make it determine the display position of the said marker based on the coordinate of the intersection with a plane.

(6)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
前記仮想線分と前記仮想平面の交点の3次元座標を2次元座標に変換し、得られた前記交点の2次元座標に基づいて、前記マーカーの表示位置を決定するようにしてもよい。
(6) In the program, the information storage medium, and the image generation system according to the present invention,
The marker display control unit
The three-dimensional coordinate of the intersection of the virtual line segment and the virtual plane may be converted into a two-dimensional coordinate, and the display position of the marker may be determined based on the obtained two-dimensional coordinate of the intersection.

(7)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
前記仮想線分と前記仮想平面の交点の3次元座標に基づいて、前記マーカーを示すオブジェクトをオブジェクト空間に配置するようにしてもよい。
(7) In the program, the information storage medium, and the image generation system according to the present invention,
The marker display control unit
An object indicating the marker may be arranged in the object space based on the three-dimensional coordinates of the intersection of the virtual line segment and the virtual plane.

(8)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
前記マーカーを示すオブジェクトを、前記第1のオブジェクトと前記第2のオブジェクトの間に配置するようにしてもよい。
(8) In the program, information storage medium, and image generation system according to the present invention,
The marker display control unit
An object indicating the marker may be disposed between the first object and the second object.

本発明によれば、見た目に違和感のないマーカーの表現を行うことができる。   According to the present invention, it is possible to express a marker without a sense of incongruity in appearance.

(9)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記ゲーム演算部が、
前記仮想線分と前記仮想平面の交点の座標と、前記第1のオブジェクトの座標とに基づいて、前記マーカーと前記第1のオブジェクトの位置関係が所定の条件を満たすか否かを判定し、判定結果に基づきゲーム演算を行うようにしてもよい。
(9) In the program, information storage medium, and image generation system according to the present invention,
The game calculation unit is
Based on the coordinates of the intersection of the virtual line segment and the virtual plane, and the coordinates of the first object, determine whether the positional relationship between the marker and the first object satisfies a predetermined condition, You may make it perform game calculation based on a determination result.

(10)また本発明に係るプログラム、情報記憶媒体及び画像生成システムでは、
前記マーカー表示制御部が、
前記第1のオブジェクトと前記第2のオブジェクトの位置関係が所定の条件を満たす場合に、前記マーカーを表示する制御を行うようにしてもよい。
(10) In the program, the information storage medium, and the image generation system according to the present invention,
The marker display control unit
When the positional relationship between the first object and the second object satisfies a predetermined condition, control for displaying the marker may be performed.

本実施形態のゲーム装置(画像生成システム)の機能ブロック図の一例を示す図。The figure which shows an example of the functional block diagram of the game device (image generation system) of this embodiment. 図2(A)〜図2(C)は、逃げ側近接戦闘モード時に生成されるゲーム画面の一例を示す図。FIG. 2A to FIG. 2C are diagrams showing an example of a game screen generated in the escape side proximity battle mode. 図3(A)、図3(B)は、距離に基づくマーカーの大きさの変化について説明するための図。FIG. 3A and FIG. 3B are diagrams for explaining a change in the size of the marker based on the distance. 図4(A)、図4(B)は、距離に基づくマーカーの形状の変化について説明するための図。4A and 4B are diagrams for explaining changes in the shape of the marker based on the distance. 自機の位置予測の当否判定について説明するための図。The figure for demonstrating the propriety determination of the position prediction of an own machine. 図6(A)、図6(B)は、位置予測の時間間隔について説明するための図。6A and 6B are diagrams for explaining a time interval of position prediction. 図7(A)、図7(B)は、自機の予測位置の算出について説明するための図。7A and 7B are diagrams for explaining calculation of the predicted position of the own device. 仮想線分の向きの算出について説明するための図。The figure for demonstrating calculation of the direction of a virtual line segment. マーカーの表示位置の算出について説明するための図。The figure for demonstrating calculation of the display position of a marker. 2次元座標系におけるマーカーの描画と、自機とマーカーの位置関係の判定について説明するための図。The figure for demonstrating drawing of the marker in a two-dimensional coordinate system, and determination of the positional relationship of an own machine and a marker. 追う側近接戦闘モードにおける、マーカーの表示制御について説明するための図。The figure for demonstrating the display control of the marker in the chasing side proximity battle mode. 自機と敵機の位置関係の判定について説明するための図。The figure for demonstrating the determination of the positional relationship of an own aircraft and enemy aircraft. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment. 本実施形態の処理の流れを示すフローチャート図。The flowchart figure which shows the flow of the process of this embodiment. 図15(A)〜図15(C)は、変形例について説明するための図。FIGS. 15A to 15C are diagrams for describing a modification. 変形例について説明するための図。The figure for demonstrating a modification. 変形例について説明するための図。The figure for demonstrating a modification.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.機能ブロック図
図1に本実施形態のゲーム装置(画像生成システム、ゲームシステム、携帯端末)の機能ブロック図の一例を示す。なお本実施形態のゲーム装置は図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Functional Block Diagram FIG. 1 shows an example of a functional block diagram of the game device (image generation system, game system, portable terminal) of this embodiment. Note that the game device of this embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

操作部160は、プレーヤが操作情報(操作データ)を入力するためのものであり、ユーザの操作情報を処理部100に出力する。操作部160の機能は、ボタン(Aボタン、Bボタンなど)、方向キー(十字キー)、方向入力可能なコントロールスティック(アナログキー)、レバー、キーボード、マウス、タッチパネル型ディスプレイ、加速度センサや傾きセンサ等を内蔵するコントローラなどのハードウェアにより実現することができる。   The operation unit 160 is for a player to input operation information (operation data), and outputs user operation information to the processing unit 100. The functions of the operation unit 160 are buttons (A button, B button, etc.), direction keys (cross keys), control sticks (analog keys) that can input directions, levers, keyboards, mice, touch panel displays, acceleration sensors, and tilt sensors. Etc. can be realized by hardware such as a controller having a built-in controller.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部170は、ワーク領域として使用される主記憶部172と、最終的な表示画像等が記憶されるフレームバッファ174と、オブジェクトのモデルデータが記憶されるオブジェクトデータ記憶部176と、各オブジェクトデータ用のテクスチャが記憶されるテクスチャ記憶部178と、オブジェクトの画像の生成処理時にZ値が記憶されるZバッファ179とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 170 of the present embodiment includes a main storage unit 172 used as a work area, a frame buffer 174 that stores final display images and the like, and an object data storage unit that stores model data of objects. 176, a texture storage unit 178 that stores textures for each object data, and a Z buffer 179 that stores Z values during object image generation processing. Note that some of these may be omitted.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、或いはタッチパネル型ディスプレイなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, or the like.

通信部196は他のゲーム装置やサーバとの間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with other game devices and servers, and the function can be realized by hardware such as various processors or a communication ASIC, a program, or the like.

処理部100(プロセッサ)は、操作部160からの操作データ、他のゲーム装置から通信部196を介して受信したデータやプログラムなどに基づいて、ゲーム処理、描画処理などの処理を行う。この処理部100は主記憶部172をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs processing such as game processing and drawing processing based on operation data from the operation unit 160 and data or programs received from other game devices via the communication unit 196. The processing unit 100 performs various processes using the main storage unit 172 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、オブジェクト空間設定部110、移動・動作処理部112、マーカー表示制御部114、ゲーム演算部116、仮想カメラ制御部118、描画部120、音生成部130を含む。   The processing unit 100 includes an object space setting unit 110, a movement / motion processing unit 112, a marker display control unit 114, a game calculation unit 116, a virtual camera control unit 118, a drawing unit 120, and a sound generation unit 130.

オブジェクト空間設定部110は、キャラクタ(プレーヤキャラクタ、ノンプレーヤキャラクタ)、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object space setting unit 110 includes various objects (polygons, free-form surfaces or subdivision surfaces) representing display objects such as characters (player characters, non-player characters), buildings, stadiums, cars, trees, pillars, walls, maps (terrain). The object is configured to place and set in the object space. For example, the position and rotation angle (synonymous with the direction and direction of the object in the world coordinate system, for example, rotation when rotating clockwise when viewed from the positive direction of each axis of the X, Y, and Z axes in the world coordinate system. The angle is determined, and the object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axis).

特に本実施形態のオブジェクト空間設定部は、プレーヤキャラクタである第1のオブジェクトと、ノンプレーヤキャラクタ(NPC)である第2のオブジェクトとをオブジェクト空間に設定する。ここで、第1及び第2のオブジェクトは、例えば飛行機や車等でもよい。   In particular, the object space setting unit of the present embodiment sets a first object that is a player character and a second object that is a non-player character (NPC) in the object space. Here, the first and second objects may be, for example, an airplane or a car.

移動・動作処理部112(移動制御部)は、オブジェクト(キャラクタ等)の移動・動作演算(移動・動作シミュレーション)を行う。すなわち操作部160によりプレーヤが入力した操作データや、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)、物理法則などに基づいて、オブジェクトをオブジェクト空間(ゲーム空間)内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、オブジェクトの移動情報(位置、回転角度、速度、或いは加速度)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(1/60秒又は1/30秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、オブジェクトの移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。また移動・動作処理部112は、ネットワークを介して接続された他のゲーム装置から通信部196を介して受信したオブジェクト(他のプレーヤに対応するオブジェクト)の移動情報や動作情報に基づき当該オブジェクトの移動情報や動作情報を更新する処理を行うようにしてもよい。また移動・動作処理部112は、他のゲーム装置から通信部196を介して受信した操作データ等に基づき、当該オブジェクトの移動・動作演算を行うようにしてもよい。   The movement / motion processing unit 112 (movement control unit) performs movement / motion calculation (movement / motion simulation) of an object (such as a character). That is, an object is moved in the object space (game space) based on operation data input by the player through the operation unit 160, a program (movement / motion algorithm), various data (motion data), a physical law, etc. Performs processing to move the object (motion, animation). Specifically, object movement information (position, rotation angle, speed, or acceleration) and motion information (position or rotation angle of each part constituting the object) are stored in one frame (1/60 seconds or 1/30). The simulation process is sequentially performed every second). A frame is a unit of time for performing object movement / motion processing (simulation processing) and image generation processing. In addition, the movement / motion processing unit 112 is based on movement information and motion information of an object (an object corresponding to another player) received from another game device connected via a network via the communication unit 196. Processing for updating movement information and operation information may be performed. Further, the movement / motion processing unit 112 may perform movement / motion calculation of the object based on operation data received from another game device via the communication unit 196.

特に本実施形態の移動・動作処理部112は、プレーヤによって操作入力された操作データ等に基づき第1のオブジェクト(プレーヤキャラクタ)をオブジェクト空間内で移動させる移動制御を行い、プログラム等に基づいて第2のオブジェクト(NPC)をオブジェクト空間内で移動させる移動制御を行う。   In particular, the movement / motion processing unit 112 according to the present embodiment performs movement control for moving the first object (player character) in the object space based on operation data input by the player, and performs first control based on a program or the like. Movement control for moving the second object (NPC) in the object space is performed.

また移動・動作処理部112は、第1のオブジェクトの過去の移動情報(移動履歴)に基づいて、第2のオブジェクトに第1のオブジェクトを追従させる追従制御を行うようにしてもよい。第1のオブジェクトの移動情報とは、例えば第1のオブジェクトの位置、姿勢、移動ベクトル(速度ベクトル)等である。過去の移動情報として第1のオブジェクトのリプレイデータを使用してもよい。例えば、第2のオブジェクトの移動方向に対して前方を移動する第1のオブジェクトが所定時間前(フレーム単位でゲーム時間を管理している場合には所定フレーム前)に通過した位置(座標)又はその近傍位置を第2のオブジェクトが通過するように第2のオブジェクトの位置を制御してもよい。   Further, the movement / motion processing unit 112 may perform follow-up control for causing the second object to follow the first object based on past movement information (movement history) of the first object. The movement information of the first object is, for example, the position, posture, movement vector (speed vector), etc. of the first object. The replay data of the first object may be used as past movement information. For example, the position (coordinates) at which the first object that moves forward with respect to the moving direction of the second object passes a predetermined time before (a predetermined frame when the game time is managed in units of frames) or The position of the second object may be controlled so that the second object passes through the vicinity position.

また移動・動作処理部112は、第1のオブジェクトの移動情報に基づき、第1のオブジェクトの直近の移動軌跡に対応した移動可能範囲をリアルタイムに設定し、第2のオブジェクトに移動可能範囲を移動させる制御を行ってもよい。移動可能範囲は、平面的な領域でもよいし、空間的な領域でもよく、第1のオブジェクトの直近の移動軌跡に対してある程度の幅を持った領域でもよい。例えば移動可能範囲は、第1のオブジェクトの移動軌跡を通るチューブ状の空間でもよい。第2のオブジェクトは、移動可能範囲内において第1のオブジェクトの移動軌跡に対してランダムに上下左右にずれた位置を移動するようにしてもよい。   Further, the movement / motion processing unit 112 sets a movable range corresponding to the latest movement locus of the first object based on the movement information of the first object in real time, and moves the movable range to the second object. Control may be performed. The movable range may be a planar area, a spatial area, or an area having a certain width with respect to the most recent movement locus of the first object. For example, the movable range may be a tubular space passing through the movement locus of the first object. The second object may move at a position that is randomly shifted vertically and horizontally with respect to the movement trajectory of the first object within the movable range.

マーカー表示制御部114は、前記第1のオブジェクトの移動履歴(過去の移動情報)に基づき所与の時間経過後の前記第1のオブジェクトの予測位置を求め、前記予測位置と前記第2のオブジェクトの位置とに基づいて、前記第1のオブジェクトに対するマーカー(第1のオブジェクトの第2のオブジェクトに対する状況(例えば、攻撃状況)を示すマーカー、第2のオブジェクトによる第1のオブジェクトに対する攻撃の目安となるマーカー)を表示する制御を行う。   The marker display control unit 114 obtains a predicted position of the first object after a given time based on a movement history (past movement information) of the first object, and calculates the predicted position and the second object. And a marker for the first object (a marker indicating a situation (for example, an attack situation) of the first object with respect to the second object), a measure of an attack on the first object by the second object, and Control to display the marker.

またマーカー表示制御部114は、第1のオブジェクトの所定時間前の位置(第1のオブジェクトが所定時間前に通過した位置)と、第1のオブジェクトの現在の位置とに基づき前記予測位置を求めるようにしてもよい。   In addition, the marker display control unit 114 obtains the predicted position based on the position of the first object before a predetermined time (the position at which the first object has passed before the predetermined time) and the current position of the first object. You may do it.

またマーカー表示制御部114は、前記第1のオブジェクトと前記第2のオブジェクト間の距離(オブジェクト空間における距離)に基づいて、前記マーカーの大きさ、形状及び色の少なくとも1つを変化させるようにしてもよい。例えば、前記第1のオブジェクトと前記第2のオブジェクト間の距離が長いほど、前記マーカーのサイズを大きくし(又は、前記マーカーの面積が大きくなるように前記マーカーの形状を変更し)、前記第1のオブジェクトと前記第2のオブジェクト間の距離が短いほど、前記マーカーのサイズを小さくする(又は、前記マーカーの面積が小さくなるように前記マーカーの形状を変更する)ようにしてもよい。   Further, the marker display control unit 114 changes at least one of the size, shape, and color of the marker based on the distance between the first object and the second object (distance in the object space). May be. For example, as the distance between the first object and the second object is longer, the size of the marker is increased (or the shape of the marker is changed so that the area of the marker is increased), and the first As the distance between one object and the second object is shorter, the size of the marker may be reduced (or the shape of the marker is changed so that the area of the marker is reduced).

またマーカー表示制御部114は、所与の時間間隔毎に前記予測位置を求め、時刻tにおける前記第1のオブジェクトの位置と、時刻tについて求めた前記予測位置とに基づいて、前記予測位置を求める時間間隔を変化させるようにしてもよい。   The marker display control unit 114 obtains the predicted position at given time intervals, and determines the predicted position based on the position of the first object at time t and the predicted position obtained for time t. The required time interval may be changed.

またマーカー表示制御部114は、前記第2のオブジェクトの座標を通る線分であって前記予測位置に基づきその向きが決定される仮想線分と、前記視点の向きと前記第1のオブジェクトの位置とに基づき決定される仮想平面との交点の座標に基づいて、前記マーカーの表示位置を決定するようにしてもよい。例えば、前記仮想平面は、前記視点の向きと直交し、且つ前記第1のオブジェクトの座標が存在する平面でもよい。   The marker display control unit 114 also includes a virtual line segment that passes through the coordinates of the second object and whose direction is determined based on the predicted position, the viewpoint direction, and the position of the first object. The display position of the marker may be determined based on the coordinates of the intersection with the virtual plane determined based on the above. For example, the virtual plane may be a plane that is orthogonal to the direction of the viewpoint and in which the coordinates of the first object exist.

またマーカー表示制御部114は、前記仮想線分と前記仮想平面の交点の3次元座標を2次元座標(例えば、スクリーン座標系における座標)に変換し、得られた前記交点の2次元座標に基づいて、前記マーカーの表示位置を決定するようにしてもよい。例えば、前記交点の2次元座標を前記マーカーの中心座標とするようにしてもよい。   The marker display control unit 114 converts the three-dimensional coordinates of the intersection of the virtual line segment and the virtual plane into two-dimensional coordinates (for example, coordinates in the screen coordinate system), and based on the obtained two-dimensional coordinates of the intersection. Then, the display position of the marker may be determined. For example, the two-dimensional coordinates of the intersection may be used as the center coordinates of the marker.

またマーカー表示制御部114は、前記仮想線分と前記仮想平面の交点の3次元座標に基づいて、前記マーカーを示すオブジェクトをオブジェクト空間に配置するための処理を行うようにしてもよい。例えば、前記交点の3次元座標に前記マーカーを示すオブジェクトを配置するようにしてもよい。   The marker display control unit 114 may perform processing for arranging an object indicating the marker in the object space based on the three-dimensional coordinates of the intersection of the virtual line segment and the virtual plane. For example, you may make it arrange | position the object which shows the said marker in the three-dimensional coordinate of the said intersection.

またマーカー表示制御部114は、前記マーカーを示すオブジェクトを、前記第1のオブジェクトと前記第2のオブジェクトの間に配置するようにしてもよい。   The marker display control unit 114 may arrange an object indicating the marker between the first object and the second object.

またマーカー表示制御部114は、前記第1のオブジェクトと前記第2のオブジェクトの位置関係が所定の条件を満たすか否かを判定し、所定の条件を満たすと判定した場合に、前記マーカーを表示する制御を行うようにしてもよい。   The marker display control unit 114 determines whether the positional relationship between the first object and the second object satisfies a predetermined condition, and displays the marker when it is determined that the predetermined condition is satisfied. You may make it perform control to perform.

ゲーム演算部116は、種々のゲーム演算処理を行う。例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲームステージ毎のクリア条件を満たすか否かを判定する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理、最終ステージをクリアした場合にはエンディングを進行させる処理などを行う。   The game calculation unit 116 performs various game calculation processes. For example, a process for starting a game when a game start condition is satisfied, a process for advancing the game, a process for determining whether or not a clear condition for each game stage is satisfied, or a game when a game end condition is satisfied The process which completes ending, and the process which advances an ending when the last stage is cleared are performed.

特に本実施形態のゲーム演算部116は、前記マーカーと前記第1のオブジェクトの位置関係に基づいて、ゲーム演算を行う。   In particular, the game calculation unit 116 of the present embodiment performs a game calculation based on the positional relationship between the marker and the first object.

またゲーム演算部116は、前記仮想線分と前記仮想平面の交点の座標と、前記第1のオブジェクトの座標(例えば、第1のオブジェクトの代表点の座標、中心点の座標)とに基づいて、前記マーカーと前記第1のオブジェクトの位置関係が所定の条件を満たすか否かを判定し、判定結果に基づきゲーム演算を行うようにしてもよい。例えば、前記マーカーの座標に対応する所定の範囲内(例えば、前記マーカーの表示範囲内)に前記第1のオブジェクトの座標が位置するか否かを判定するようにしてもよいし、前記第1のオブジェクトの座標に対応する所定の範囲内に前記マーカーが位置するか否かを判定するようにしてもよいし、前記マーカーと前記第1のオブジェクトが交差するか否かを判定するようにしてもよい。また、判定結果に基づいて、前記第2のオブジェクトが前記第1のオブジェクトに対して攻撃動作(例えば、ミサイル、機関砲等の発射)を行うゲーム演算を行うようにしてもよいし、第2のオブジェクトに所定のアイテム(例えば、特殊武器)を使用可能にさせるゲーム演算を行うようにしてもよい。   Further, the game calculation unit 116 is based on the coordinates of the intersection of the virtual line segment and the virtual plane, and the coordinates of the first object (for example, the coordinates of the representative point of the first object, the coordinates of the center point). , It may be determined whether the positional relationship between the marker and the first object satisfies a predetermined condition, and a game calculation may be performed based on the determination result. For example, it may be determined whether or not the coordinates of the first object are located within a predetermined range corresponding to the coordinates of the marker (for example, within the display range of the marker). Whether the marker is located within a predetermined range corresponding to the coordinates of the object may be determined, or whether the marker and the first object intersect is determined. Also good. Further, based on the determination result, the second object may perform a game calculation in which an attack action (for example, launching a missile, a machine gun, etc.) is performed on the first object. A game calculation for making a predetermined item (for example, a special weapon) usable for the object may be performed.

仮想カメラ制御部118は、オブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、操作部160によりプレーヤが入力した操作データ或いはプログラム(移動・動作アルゴリズム)等に基づいて、ワールド座標系における仮想カメラの位置(X、Y、Z)又は回転角度(例えば、X、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を制御する処理を行う。要するに、視点位置、視線方向、画角を制御する処理を行う。   The virtual camera control unit 118 performs a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in the object space. Specifically, based on operation data or a program (movement / motion algorithm) input by the player through the operation unit 160, the position (X, Y, Z) or rotation angle (for example, X of the virtual camera in the world coordinate system). , Y, and Z axes, the rotation angle when rotating clockwise as viewed from the positive direction is performed. In short, processing for controlling the viewpoint position, the line-of-sight direction, and the angle of view is performed.

特に本実施形態の仮想カメラ制御部118は、第1のオブジェクトの移動経路に基づいて、仮想カメラの位置、向き、画角の少なくとも1つを制御する処理を行う。例えば、第1のオブジェクトの移動経路に基づいて、仮想カメラに第1のオブジェクトを追従させる制御を行うようにしてもよい。   In particular, the virtual camera control unit 118 of the present embodiment performs processing for controlling at least one of the position, orientation, and angle of view of the virtual camera based on the movement path of the first object. For example, control for causing the virtual camera to follow the first object may be performed based on the movement path of the first object.

描画部120(画像生成部)は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。   The drawing unit 120 (image generation unit) performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190.

いわゆる3次元画像を生成する場合には、まずオブジェクトの各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   When generating a so-called three-dimensional image, first, object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object is input. Based on the vertex data included in the input object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、射影変換(透視変換、投影変換)、ビューポート変換(スクリーン座標変換)、光源計算等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。ジオメトリ処理後のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、オブジェクトデータ記憶部176に保存される。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, projective transformation (perspective transformation) , Projection conversion), viewport conversion (screen coordinate conversion), light source calculation, and other geometric processing are performed, and based on the processing results, the vertex data given to the vertex group constituting the object is changed (updated, adjusted). To do. Object data after the geometry processing (position coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) is stored in the object data storage unit 176.

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed.

ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を描画バッファ174(ピクセル単位で画像情報を記憶できるバッファ。VRAM)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to a drawing buffer 174 (a buffer capable of storing image information in units of pixels; VRAM). That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

そして描画部120は、オブジェクトを描画する際に、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs texture mapping, hidden surface removal processing, α blending, and the like when drawing the object.

テクスチャマッピングは、記憶部170のテクスチャ記憶部178に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170のテクスチャ記憶部178からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the texture storage unit 178 of the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the texture storage unit 178 of the storage unit 170 using the texture coordinates set (given) at the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ179(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファ179に格納されるZ値を参照する。そして参照されたZバッファ179のZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファ179のZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing by a Z buffer method (depth comparison method, Z test) using a Z buffer 179 (depth buffer) in which a Z value (depth information) of a drawing pixel is stored may be performed. it can. That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer 179 is referred to. Then, the Z value of the referenced Z buffer 179 is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is the front side when viewed from the virtual camera (for example, a small Z value). If it is, the drawing process of the drawing pixel is performed and the Z value of the Z buffer 179 is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。例えば、通常αブレンディングでは、α値を合成の強さとして線形補間を行うことにより2つの色を合成した色を求める処理を行う。なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えばRGBの各色成分の輝度を表す色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value). For example, in normal α blending, a process for obtaining a color obtained by combining two colors by performing linear interpolation with the α value as the strength of synthesis is performed. The α value is information that can be stored in association with each pixel (texel, dot), and is, for example, plus alpha information other than color information indicating the luminance of each RGB color component. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound generation unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates game sounds such as BGM, sound effects, or sounds, and outputs the game sounds to the sound output unit 192.

なお、本実施形態の端末は、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他のゲーム装置とデータを送受信してゲーム処理を行うようにしてもよいし、1つのゲーム装置が、複数の操作部からの操作情報に基づいて処理を行うようにしてもよい。   Note that the terminal according to the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. For example, when controlling in the multiplayer mode, data processing may be performed by transmitting / receiving data to / from other game devices via a network, or one game device may be operated by a plurality of operation units. Processing may be performed based on the information.

2.本実施形態の手法
次に本実施形態の手法について図面を用いて説明する。
2. Next, the method of this embodiment will be described with reference to the drawings.

2−1.ゲームの概要
本実施形態は、シューティングゲームのための画像生成処理に関するものである。例えば、本実施形態は、プレーヤの操作対象の自機(第1のオブジェクト、プレーヤキャラクタ)と、コンピュータオブジェクトである敵機(第2のオブジェクト、NPC)、或いは他のプレーヤのオブジェクトである敵機とが、互いに誘導ミサイルや機関砲などで攻撃し合うフライトシューティングゲームに関するものである。
2-1. Game Overview This embodiment relates to an image generation process for a shooting game. For example, in this embodiment, the player's operation target own machine (first object, player character) and enemy machine (second object, NPC) that is a computer object, or enemy machine that is an object of another player Are related to flight shooting games that attack each other with guided missiles and machine guns.

本実施形態では、自機と敵機が互いに相手をターゲットオブジェクト(標的)とし、互いにオブジェクト空間を移動しながら誘導ミサイルや機関砲を発射してターゲットオブジェクトを撃墜させるゲーム処理を行う。したがって、自機を操作するプレーヤは、自機から発射されるミサイルや機関砲を敵機にヒットさせるように攻撃操作を行い、敵機から発射される誘導ミサイル等の攻撃から回避するように自機を移動させる操作を行う。   In the present embodiment, a game process is performed in which the own aircraft and the enemy aircraft set their opponents as target objects (targets) and fire a guided missile or a cannon while moving through the object space to shoot down the target object. Therefore, a player who operates the aircraft performs an attack operation so that a missile or a machine gun launched from the aircraft hits the enemy aircraft, and avoids an attack such as a guided missile launched from the enemy aircraft. Perform the operation to move the machine.

また本実施形態では、自機と敵機のオブジェクト空間における位置関係が所定の条件を満たした場合に、自機と敵機とが近接して移動しながら戦闘を行う近接戦闘モードとなる。近接戦闘モードには、敵機がターゲットとなり自機が敵機を追尾する「追う側近接戦闘モード」と、自機がターゲットとなり敵機が自機を追尾する「逃げ側近接戦闘モード」がある。追う側近接戦闘モードでは、敵機の過去の移動軌跡に基づき自機を敵機に追従させる追従制御が行われ、逃げ側近接戦闘モードでは、自機の過去の移動軌跡に基づき敵機を自機に追従させる追従制御が行われる。   Further, in the present embodiment, when the positional relationship between the own aircraft and the enemy aircraft in the object space satisfies a predetermined condition, the proximity battle mode is performed in which the own aircraft and the enemy aircraft perform a battle while moving close to each other. There are two types of melee combat modes: the "tracking side melee battle mode" where the enemy aircraft is the target and the enemy aircraft tracks the enemy aircraft, and the "flank side combat battle mode" where the enemy aircraft is the target and the enemy aircraft tracks the own aircraft. . In the chasing side close combat mode, follow-up control is performed to make the own aircraft follow the enemy aircraft based on the past movement trajectory of the enemy aircraft. In the escape side close combat mode, the enemy aircraft automatically moves based on the past movement trajectory of the own aircraft. Follow-up control is performed to follow the machine.

2−2.マーカーの概要
図2(A)〜図2(C)は、敵機NPCが自機PCを追尾する逃げ側近接戦闘モード時に生成されるゲーム画面の一例を示す図である。
2-2. Outline of Markers FIGS. 2A to 2C are diagrams showing an example of a game screen generated in an escape side proximity battle mode in which an enemy aircraft NPC tracks its own PC.

図2(A)に示すように、逃げ側近接戦闘モード時には、自機PCに対するマーカーMKが表示される。本実施形態では、マーカーMKの形状を円形(輪状)としているが、マーカーMKの形状は任意であり、楕円形状、或いは三角形や矩形等の多角形形状としてもよいし、その他の形状としてもよい。   As shown in FIG. 2A, in the escape side close combat mode, a marker MK for the own machine PC is displayed. In the present embodiment, the shape of the marker MK is circular (annular), but the shape of the marker MK is arbitrary, and may be an elliptical shape, a polygonal shape such as a triangle or a rectangle, or other shapes. .

図2(B)に示すように、自機PCの位置(例えば、自機PCの中心点又は代表点の位置)がマーカーMKの表示範囲内に入ると、マーカーMKの内周側にゲージGAが表示される。ゲージGAは、自機PCがマーカーMK内に位置する時間の経過に従ってその値が増加するように表示され、自機PCがマーカーMK内に位置しなくなった場合にリセットされる(ゲージGAの値が0になる)。なお、自機PCがマーカーMK内に位置しなくなった場合にゲージGAの値を所定値だけ減少させるようにしてもよい。また、自機PCがマーカーMK内に位置しない時間の経過に従ってゲージGAの値を減少させるようにしてもよい。   As shown in FIG. 2B, when the position of own machine PC (for example, the position of the center point or representative point of own machine PC) falls within the display range of marker MK, gauge GA is placed on the inner periphery side of marker MK. Is displayed. The gauge GA is displayed so that the value thereof increases as time elapses when the own machine PC is located in the marker MK, and is reset when the own machine PC is no longer located in the marker MK (the value of the gauge GA). Becomes 0). Note that when the own machine PC is no longer positioned within the marker MK, the value of the gauge GA may be decreased by a predetermined value. Further, the value of the gauge GA may be decreased with the passage of time when the own machine PC is not located in the marker MK.

図2(C)に示すように、自機PCがマーカーMK内に位置する時間が所定時間(例えば、0.5秒)に達してゲージGAの値が最大値となると、自機PCが敵機NPCにロックオンされるロックオン状態となる。このロックオン状態になると、敵機NPCから通常の誘導ミサイルよりも誘導性能の高い誘導ミサイル(特殊武器)が発射され、発射された誘導ミサイルは、高確率で自機PCに着弾することになる。   As shown in FIG. 2C, when the time when the host PC is located in the marker MK reaches a predetermined time (for example, 0.5 seconds) and the value of the gauge GA reaches the maximum value, the host PC becomes the enemy. It becomes a lock-on state in which the machine NPC is locked on. In this lock-on state, an enemy missile NPC launches a guided missile (special weapon) with higher guidance performance than a normal guided missile, and the launched missile will land on its own PC with a high probability. .

なお、ロックオン状態において、誘導ミサイルが発射された場合、及び、自機PCがマーカーMK内に位置しなくなった場合には、ゲージGAの値はリセット(又は減少)され、ロックオン状態は解除される。また、マーカーMKにゲージGAを表示させずに、自機PCがマーカーMKの表示範囲内に入ったときに、敵機NPCから自機PCに向けてミサイルや機関砲が発射されるようにしてもよい。   When a guided missile is launched in the lock-on state and when the aircraft PC is no longer positioned within the marker MK, the value of the gauge GA is reset (or decreased) and the lock-on state is released. Is done. Also, without displaying the gauge GA on the marker MK, when the aircraft PC enters the display range of the marker MK, a missile or a cannon is launched from the enemy aircraft NPC toward the aircraft PC. Also good.

プレーヤは、自機PCに対するマーカーMKによって、自機PCが敵機NPCの誘導ミサイルに狙われている様子を視覚的に把握することができ、また、マーカーMKに表示されるゲージGAによって、ロックオン状態になるタイミングを視覚的に把握することができる。   The player can visually grasp the situation where the player's PC is being targeted by the guided missile of the enemy aircraft NPC by the marker MK with respect to the player's own PC, and can lock by the gauge GA displayed on the marker MK. It is possible to visually grasp the timing of turning on.

またプレーヤは、自機PCがマーカーMK内に入らないように自機PCを移動させる操作を行うことで、或いは自機PCがマーカーMK内に入っている場合には、マーカーMKのゲージGAが最大値に達するまで(ロックオン状態になる前)に自機PCをマーカーMK外に移動させる操作を行うことで、敵機NPCから誘導性能の高い誘導ミサイルが発射される事態を回避することができる。   Further, the player performs an operation of moving the personal computer PC so that the personal computer PC does not enter the marker MK, or when the personal computer PC is in the marker MK, the gauge GA of the marker MK is set. By performing an operation to move the aircraft PC out of the marker MK until the maximum value is reached (before entering the lock-on state), it is possible to avoid a situation where a guided missile with high guidance performance is launched from the enemy aircraft NPC. it can.

2−3.マーカーの大きさ制御
本実施形態のマーカーMKは、オブジェクト空間における自機PCと敵機NPCの距離に基づいてその大きさが変化する。
2-3. Marker Size Control The size of the marker MK of this embodiment changes based on the distance between the own machine PC and the enemy machine NPC in the object space.

すなわち、図3(A)に示すように、自機PCと敵機NPCの距離が近いほどマーカーMKのサイズ(半径)が大きくなり、自機PCが敵機NPCから狙われ易くなる(マーカーMKを回避し難くなる)。一方、図3(B)に示すように、自機PCと敵機NPCの距離が遠いほどマーカーMKのサイズ(半径)が小さくなり、自機PCが敵機NPCから狙われ難くなる(マーカーMKを回避し易くなる)。   That is, as shown in FIG. 3A, the closer the distance between the own aircraft PC and the enemy aircraft NPC, the larger the size (radius) of the marker MK, and the easier the aircraft PC is targeted from the enemy aircraft NPC (marker MK). Is difficult to avoid). On the other hand, as shown in FIG. 3B, as the distance between the aircraft PC and the enemy aircraft NPC increases, the size (radius) of the marker MK decreases, and the aircraft PC becomes difficult to be targeted from the enemy aircraft NPC (marker MK). Is easier to avoid).

プレーヤは、例えば、自機PCを加速させる等の操作を行って自機PCと敵機NPCの距離を長くすることで、マーカーMKのサイズを小さくし、敵機NPCから誘導性能の高い誘導ミサイルが発射される事態を回避することができる。   The player, for example, increases the distance between the player PC and the enemy aircraft NPC by performing an operation such as accelerating the player PC, thereby reducing the size of the marker MK and guiding missiles with high guidance performance from the enemy aircraft NPC. Can be avoided.

なお、オブジェクト空間における自機PCと敵機NPCの距離に基づいてマーカーMKの形状、色、透明度を変化させるようにしてもよい。例えば、自機PCと敵機NPCの距離が近いほど、自機PCがマーカーMKを回避し難いような形状とし、自機PCと敵機NPCの距離が遠いほど、自機PCがマーカーMKを回避し易いような形状とするようにしてもよい。   Note that the shape, color, and transparency of the marker MK may be changed based on the distance between the own machine PC and the enemy machine NPC in the object space. For example, the closer the distance between the aircraft PC and the enemy aircraft NPC is, the more difficult it is to avoid the marker MK. The longer the distance between the aircraft PC and the enemy aircraft NPC is, the larger the distance between the aircraft PC and the enemy aircraft NPC is. A shape that can be easily avoided may be used.

図4(A)、図4(B)に示す例では、自機PCの敵機NPCの距離が遠いほど、矩形のマーカーMKの一辺が短くなるようにマーカーMKの形状を変化させている。また、自機PCの敵機NPCの距離が近いほど、マーカーMKの一部又は全部の色を、プレーヤに危険を感知させる色(例えば、青色から赤色)に変化させるようにしてもよい。また、自機PCと敵機NPCの距離が遠いほど、マーカーMKの透明度を上げ、自機PCと敵機NPCの距離が近いほど、マーカーMKの透明度を下げる(不透明にする)ようにしてもよい。   In the example shown in FIGS. 4A and 4B, the shape of the marker MK is changed such that one side of the rectangular marker MK becomes shorter as the distance between the enemy aircraft NPC of the own PC increases. Further, as the distance between the enemy aircraft NPC of the own machine PC is closer, the color of a part or all of the marker MK may be changed to a color (for example, from blue to red) that causes the player to sense danger. Further, the transparency of the marker MK is increased as the distance between the own machine PC and the enemy machine NPC is increased, and the transparency of the marker MK is decreased (opaque) as the distance between the own machine PC and the enemy machine NPC is closer. Good.

また、自機PCに設定された機体パラメータに基づき自機PCに対するマーカーMKの大きさを変化させるようにしてもよい。例えば、自機PCの機体の特性に応じて、予めマーカーMKのデフォルトサイズ(例えば半径)や、マーカーMKの変動率(自機PCと敵機NPCの距離の変化量に対するマーカーMKの大きさの変化量の比率)を機体パラメータとして自機PCに設定しておき、設定されたデフォルトサイズを自機PCに対するマーカーMKのデフォルトサイズとし、設定された変動率に従ってマーカーMKの大きさを変化させるようにしてもよい。例えば、自機PCがステルス性能の高い種類の機体である場合には、マーカーMKのデフォルトサイズや変動率を小さい値に設定しておき、自機PCと敵機NPCの距離が近くなっても自機PCに対するマーカーMKのサイズがあまり大きくならないようにして、自機PCがマーカーMKを回避し易くするようにしてもよい。   Further, the size of the marker MK for the own machine PC may be changed based on the machine parameter set for the own machine PC. For example, the default size (for example, radius) of the marker MK or the variation rate of the marker MK (the size of the marker MK relative to the amount of change in the distance between the own machine PC and the enemy aircraft NPC) according to the characteristics of the aircraft of the own machine PC. The ratio of the change amount) is set in the own PC as a machine parameter, the set default size is set as the default size of the marker MK for the own PC, and the size of the marker MK is changed according to the set variation rate. It may be. For example, if the aircraft PC is a type of aircraft with high stealth performance, the default size and variation rate of the marker MK are set to a small value so that the distance between the aircraft PC and the enemy aircraft NPC is close. The size of the marker MK with respect to the own machine PC may not be so large so that the own machine PC can easily avoid the marker MK.

また、マーカーMKのゲージGAの値が最大値に達するまでの時間(チャージ時間)を機体パラメータとして自機PCに設定してもよい。例えば、自機PCがステルス性能の高い種類の機体である場合には、チャージ時間を長く設定しておき、自機PCがマーカーMK内に位置していてもロックオン状態になるまでに時間がかかるようにして、自機PCがマーカーMKを回避し易くするようにしてもよい。   Further, the time until the value of the gauge GA of the marker MK reaches the maximum value (charge time) may be set in the own PC as a machine parameter. For example, if your PC is a type of aircraft with high stealth performance, set a long charge time, and even if your PC is located in the marker MK, it takes time to enter the lock-on state. In this way, the own PC may be made to easily avoid the marker MK.

また、プレーヤが所定の操作を行った場合、又は所定のゲームアイテムを使用した場合に、マーカーMKの大きさや、変動率、ゲージGAのチャージ時間を変化させるようにしてもよい。例えば、プレーヤが、誘導ミサイルの命中を回避するためのチャフを散布させる操作や、フレアを放出させる操作を行った場合には、所定時間だけ自機PCに対するマーカーMKのデフォルトサイズや変動率を小さくし(又は、ゲージGAのチャージ時間を長くし)、自機PCがマーカーMKを回避し易くするようにしてもよい。   When the player performs a predetermined operation or uses a predetermined game item, the size of the marker MK, the rate of change, and the charge time of the gauge GA may be changed. For example, when the player performs an operation of spraying a chaff for avoiding a hit of a guided missile or an operation of releasing a flare, the default size or variation rate of the marker MK for the own PC is reduced for a predetermined time. However (or by increasing the charging time of the gauge GA), the own PC may make it easier to avoid the marker MK.

また、プレーヤによって設定されたゲームの難易度や、プレーヤの経験値に基づいて、マーカーMKの大きさや、変動率、ゲージGAの変動率を制御するようにしてもよい。例えば、設定された難易度が高い場合には、マーカーMKのデフォルトサイズや変動率を大きくし(又は、ゲージGAのチャージ時間を短くし)て自機PCがマーカーMKを回避し難くし、設定された難易度が低い場合には、マーカーMKのサイズや変動率を小さく(又は、ゲージGAのチャージ時間を長く)して自機PCがマーカーMKを回避し易くするようにしてもよい。また、プレーヤの経験値が高い場合には、マーカーMKのデフォルトサイズや変動率を大きく(又は、ゲージGAのチャージ時間を短く)するようにしてもよい。   Further, the size of the marker MK, the rate of change, and the rate of change of the gauge GA may be controlled based on the difficulty level of the game set by the player and the experience value of the player. For example, when the set difficulty level is high, the default size and variation rate of the marker MK are increased (or the charge time of the gauge GA is shortened) so that the own PC does not easily avoid the marker MK and is set. When the difficulty level is low, the size and variation rate of the marker MK may be reduced (or the charge time of the gauge GA may be increased) so that the own PC can easily avoid the marker MK. Further, when the experience value of the player is high, the default size and variation rate of the marker MK may be increased (or the charging time of the gauge GA is shortened).

2−4.自機の予測位置の算出
また本実施形態では、逃げ側近接戦闘モード時の自機PCに対するマーカーMKは、敵機NPCを始点とする仮想線分の向きに表示される。仮想線分の向きは敵機NPCの向き(敵機NPCの機首方向)とは関係なく、所与の時間経過後の自機PCの予測位置に基づき求められる。
2-4. Calculation of Predicted Position of Own Aircraft In the present embodiment, the marker MK for the own aircraft PC in the escape side close combat mode is displayed in the direction of the virtual line segment starting from the enemy aircraft NPC. The direction of the imaginary line segment is determined based on the predicted position of the own aircraft PC after a given time has elapsed, regardless of the orientation of the enemy aircraft NPC (the nose direction of the enemy aircraft NPC).

予測位置の算出は所与の時間間隔毎に行われ、時刻tにおける自機PCの位置と時刻tについて算出した予測位置とに基づき予測の当否を判定し、判定結果に基づき予測位置を算出する時間間隔を変化させる。   The calculation of the predicted position is performed at given time intervals. The prediction position is determined based on the position of the own PC at time t and the predicted position calculated for time t, and the predicted position is calculated based on the determination result. Change the time interval.

具体的には、図5に示すように、前回予測時の自機PCの位置P1を始点とし、現在の自機PCの位置P2(時刻tにおける自機PCの位置)を終点とするベクトルV1と、前回予測時の自機PCの位置P1を始点とし、前回予測した予測位置P3(時刻tについて算出した予測位置)を終点とするベクトルV2とを求め、ベクトルV1とベクトルV2のなす角度θに基づいて予測の当否を判定する。   Specifically, as shown in FIG. 5, a vector V <b> 1 starting from the position P <b> 1 of the own machine PC at the previous prediction and having the current position P <b> 2 of the own machine PC (position of the own machine PC at time t) as the end point. And a vector V2 having the predicted position P3 (predicted position calculated for time t) predicted last time as the start point and the end point of the predicted position P3 of the own PC at the time of the previous prediction, and the angle θ formed by the vector V1 and the vector V2 Whether the prediction is correct or not is determined based on the above.

すなわち、角度θが所定の第1の角度θ以下である場合には、予測が当たっていたと判定し、予測の時間間隔を所定時間だけ短くする。また、角度θが所定の第2の角度θ(θ<θ)以上である場合には、予測が外れていたと判定し、予測の時間間隔をデフォルト値(最大値)に設定する(リセットする)。また、角度θが第1の角度θより大きく第2の角度θより小さい場合には、予測の時間間隔を変更しない。なお、角度θが第2の角度θ以上である場合には、予測の時間間隔を所定時間だけ長くし、角度θが第1の角度θ以下である場合には、予測の時間間隔をデフォルト値(最小値)にリセットするようにしてもよい。 That is, when the angle θ is equal to or smaller than the predetermined first angle θ 1, it is determined that the prediction has been made, and the prediction time interval is shortened by a predetermined time. When the angle θ is equal to or larger than the predetermined second angle θ 212 ), it is determined that the prediction has been missed, and the prediction time interval is set to a default value (maximum value) ( Reset). Further, when the angle θ is larger than the first angle θ 1 and smaller than the second angle θ 2 , the prediction time interval is not changed. When the angle θ is equal to or larger than the second angle θ 2 , the prediction time interval is lengthened by a predetermined time, and when the angle θ is equal to or smaller than the first angle θ 1 , the prediction time interval is increased. You may make it reset to a default value (minimum value).

図6は、自機PCの実際の移動軌跡MLと自機PCの予測位置を示す図である。図6(A)は、予測の時間間隔が短い場合を示し、図6(B)は、予測の時間間隔が長い場合を示す。   FIG. 6 is a diagram showing the actual movement trajectory ML of the own machine PC and the predicted position of the own machine PC. 6A shows a case where the prediction time interval is short, and FIG. 6B shows a case where the prediction time interval is long.

図6(A)に示すように、予測の時間間隔が短くなると、予測位置FPと実際の位置(移動軌跡ML)との誤差は小さくなり予測は当たり易くなる。一方、図6(B)に示すように、予測の時間間隔が長くなると、予測位置FPと実際の位置(移動軌跡ML)との誤差は大きくなり予測は外れ易くなる。従って、位置予測が当たっていたと判定された場合には、予測の時間間隔が短くなるため以降の位置予測が当たり易くなり、予測が外れていたと判定された場合には、予測の時間間隔が長くなるため以降の位置予測が外れ易くなる。   As shown in FIG. 6A, when the prediction time interval is shortened, the error between the predicted position FP and the actual position (movement trajectory ML) becomes smaller and the prediction becomes easier to hit. On the other hand, as shown in FIG. 6B, when the prediction time interval becomes longer, the error between the predicted position FP and the actual position (movement trajectory ML) increases, and the prediction is likely to be missed. Therefore, when it is determined that the position prediction is correct, the prediction time interval is shortened, so that the subsequent position prediction is easy to hit. When it is determined that the prediction is not correct, the prediction time interval is long. Therefore, the subsequent position prediction is easily missed.

また、位置予測の時間間隔のデフォルト値を、機体パラメータとして自機PCに設定してもよい。例えば、自機PCがステルス性能の高い種類の機体である場合には、予測の時間間隔のデフォルト値を大きい値に設定しておき、位置予測が外れ易くなる(予測位置と自機PCの実際の位置との誤差が大きくなる)ようにしてもよい。   Further, a default value of the time interval for position prediction may be set in the own PC as a machine parameter. For example, if the own PC is a type of aircraft with high stealth performance, the default value of the prediction time interval is set to a large value, and the position prediction is likely to deviate (the predicted position and the actual PC's actuality). The error with the position of (2) may be increased).

また、プレーヤが所定の操作を行った場合、又は所定のゲームアイテムを使用した場合に、位置予測の時間間隔を変化させるようにしてもよい。例えば、プレーヤが、誘導ミサイルの命中を回避するためのチャフを散布させる操作や、フレアを放出させる操作を行った場合には、所定時間だけ予測の時間間隔を長くして、位置予測が外れ易くなるようにしてもよい。   Further, when the player performs a predetermined operation or uses a predetermined game item, the time interval for position prediction may be changed. For example, when a player performs an operation of spraying a chaff to avoid a hit of a guided missile or an operation of releasing a flare, the prediction time interval is easily increased by a predetermined time and the position prediction is likely to be lost. It may be made to become.

また、設定されたゲームの難易度や、プレーヤの経験値に基づいて、位置予測の時間間隔を変化させるようにしてもよい。例えば、設定された難易度が高い場合には、予測の時間間隔のデフォルト値を小さく(短く)して位置予測が当たり易くなるようにし、設定された難易度が低い場合には、予測の時間間隔のデフォルト値を大きく(長く)して位置予測が外れ易くなるようにしてもよい。プレーヤの経験値が高い場合には、予測の時間間隔のデフォルト値を小さくするようにしてもよい。   Further, the position prediction time interval may be changed based on the set difficulty level of the game and the experience value of the player. For example, when the set difficulty level is high, the default value of the prediction time interval is made small (short) so that the position prediction is easy to hit, and when the set difficulty level is low, the prediction time is The default value of the interval may be increased (lengthened) so that the position prediction is easily lost. When the experience value of the player is high, the default value of the prediction time interval may be reduced.

本実施形態では、自機PCの予測位置は、自機PCが前回の動き(前回位置予測時から現在までの動き)と同じ動きをすると仮定して予測され、自機PCの移動履歴(過去の移動情報)に基づき算出される。   In the present embodiment, the predicted position of the own machine PC is predicted on the assumption that the own machine PC performs the same movement as the previous movement (movement from the previous position prediction time to the present time), and the movement history of the own machine PC (past The movement information) is calculated.

具体的には、図7(A)に示すように、前回予測時の自機PCのワールド座標における位置P1と現在の自機PCのワールド座標における位置P2とに基づき、自機PCのローカル座標における移動ベクトルV3を算出する(図7(B)参照)。図7に示す例では、自機PCが、前回予測時の姿勢(向き)を基準として、ローカル座標において、左方向(−X軸方向)に30、前方(+Z軸方向)に100だけ移動したとして移動ベクトルV3を算出している。   Specifically, as shown in FIG. 7A, based on the position P1 in the world coordinates of the own machine PC at the time of the previous prediction and the position P2 in the world coordinates of the current machine PC, the local coordinates of the own machine PC are used. The movement vector V3 at is calculated (see FIG. 7B). In the example shown in FIG. 7, the own machine PC has moved by 30 in the left direction (−X axis direction) and 100 in the forward direction (+ Z axis direction) in local coordinates with reference to the posture (orientation) at the time of the previous prediction. The movement vector V3 is calculated as follows.

そして、算出した移動ベクトルV3を現在の自機PCの位置P2と姿勢に適用して移動ベクトルV4を算出し、次回予測時(所与の時間経過後)の自機PCのワールド座標における予測位置P4を算出する。図7に示す例では、自機PCが、現在の姿勢(向き)を基準として、ローカル座標において、左方向(−X軸方向)に30、前方(+Z軸方向)に100だけ移動すると予測して、予測位置P4を算出している。   Then, the movement vector V4 is calculated by applying the calculated movement vector V3 to the current position P2 and posture of the own PC, and the predicted position in the world coordinates of the own PC at the next prediction (after a given time). P4 is calculated. In the example shown in FIG. 7, it is predicted that own PC moves by 30 in the left direction (−X axis direction) and 100 in the forward direction (+ Z axis direction) in the local coordinates with reference to the current posture (orientation). Thus, the predicted position P4 is calculated.

このようにすると、自機PCが同一の速度(速さと向き)で移動し続けた場合(例えば、同一の速さで直進し続けた場合、同一方向に旋回、上昇、又は下降し続けた場合)には、時刻tについて予測した予想位置と、時刻tにおける自機PCの実際の位置との誤差が小さくなり、自機PCが速度を変更して移動した場合(例えば、旋回方向を変更した場合)には、予想位置と自機PCの実際の位置との誤差が大きくなる。   In this way, when the machine PC continues to move at the same speed (speed and direction) (for example, when it continues to go straight at the same speed, it continues to turn, ascend or descend in the same direction) ), The error between the predicted position predicted for the time t and the actual position of the own PC at the time t becomes small, and the own PC moves at a different speed (for example, the turning direction is changed). Case), the error between the predicted position and the actual position of the own PC increases.

2−5.仮想線分の向きの決定
次に、自機PCの予測位置に基づき、敵機NPCを始点とする仮想線分の向きを決定する。具体的には、図8に示すように、前回予測した予測位置P3を始点とし、今回予測した予測位置P4を終点として、時間経過に応じて線形補間することで仮想線分の向きDSを算出する。
2-5. Next, the direction of the virtual line segment starting from the enemy aircraft NPC is determined based on the predicted position of the own machine PC. Specifically, as shown in FIG. 8, the direction DS of the imaginary line segment is calculated by performing linear interpolation according to the passage of time with the predicted position P3 predicted last time as the start point and the predicted position P4 predicted this time as the end point. To do.

すなわち、今回の予測時(時刻T1)においては、仮想線分の向きDSは前回の予測位置P3(時刻T1から所与の時間過去の時刻T0において、時刻T1について予測した予測位置)を向く方向となり、所与の時間経過後の次回の予測時(時刻T1から所与の時間経過後の時刻T2)においては、仮想線分の向きDSは今回の予測位置P4(時刻T1において、時刻T2について予測した予測位置)を向く方向となり、今回と次回の間(時刻T1と時刻T2の間)は、位置P3と位置P4を結ぶ線上の点を向く方向となる。例えば、予測の時間間隔(時刻T1から時刻T2までの時間)が1秒である場合には、直近の予測時(時刻T1)から0.5秒後の仮想線分は、位置P3と位置P4の中間点(位置P3と位置P4を1:1の比率で補間した位置)を向くことになる。このようにすると、仮想線分の向きDSを時間経過とともになめらかに変化させることができる。   That is, at the time of the current prediction (time T1), the direction DS of the virtual line segment is the direction toward the previous predicted position P3 (the predicted position predicted for time T1 at a time T0 past a given time from time T1). Then, at the next prediction time after the lapse of the given time (time T2 after the lapse of the given time from the time T1), the direction DS of the virtual line segment is the current predicted position P4 (at the time T1, at the time T2). (Predicted predicted position), and the direction between the current time and the next time (between time T1 and time T2) is the direction toward the point on the line connecting the position P3 and the position P4. For example, when the prediction time interval (time from time T1 to time T2) is 1 second, the virtual line segment 0.5 seconds after the most recent prediction time (time T1) is the position P3 and the position P4. (The position obtained by interpolating the position P3 and the position P4 at a ratio of 1: 1). In this way, the direction DS of the virtual line segment can be changed smoothly with time.

2−6.マーカーの表示位置の決定
次に、仮想線分の向きDSからマーカーMKの表示位置を決定する。具体的には、図9に示すように、自機PCの座標P3Dが存在し、且つ仮想カメラVCの視線ベクトルEVと直交する(視線ベクトルEVが法線となる)仮想平面VPを算出する。そして、始点を敵機NPCの座標とし、終点を仮想線分の向きDSに所定距離離れた座標とする仮想線分VSを算出する。
2-6. Determination of Marker Display Position Next, the display position of the marker MK is determined from the direction DS of the virtual line segment. Specifically, as shown in FIG. 9, a virtual plane VP that has the coordinate P 3D of its own PC and is orthogonal to the line-of-sight vector EV of the virtual camera VC (the line-of-sight vector EV is a normal line) is calculated. . Then, a virtual line segment VS is calculated with the start point as the coordinates of the enemy aircraft NPC and the end point as coordinates at a predetermined distance in the direction DS of the virtual line segment.

そして、仮想線分VSと仮想平面VPの交点ISの座標(ワールド座標系における3次元座標)を算出し、この交点ISの3次元座標を2次元座標に変換する。具体的には、交点ISの3次元座標を仮想平面VPを投影面とするスクリーン座標系(2次元座標系)における2次元座標に変換する。この交点ISの2次元座標がマーカーMKの中心座標となる。ここで、自機PCと敵機の距離が大きく離れているために、仮想線分VSと仮想平面VPが交差しない場合には、マーカーMKは表示されない。   Then, the coordinates of the intersection IS between the virtual line segment VS and the virtual plane VP (three-dimensional coordinates in the world coordinate system) are calculated, and the three-dimensional coordinates of the intersection IS are converted into two-dimensional coordinates. Specifically, the three-dimensional coordinates of the intersection point IS are converted into two-dimensional coordinates in a screen coordinate system (two-dimensional coordinate system) having the virtual plane VP as a projection plane. The two-dimensional coordinate of this intersection point IS becomes the center coordinate of the marker MK. Here, the marker MK is not displayed when the virtual line segment VS and the virtual plane VP do not intersect with each other because the distance between the own PC and the enemy aircraft is greatly separated.

図10に、仮想線分VSと仮想平面VPの交点ISの2次元座標を含むスクリーン座標系を示す。本実施形態では、自機PCと敵機NPCの距離に基づきマーカーの半径r(rは、スクリーン座標系における長さ)を算出し、交点ISの2次元座標を中心座標とする半径rの円形のマーカーMKの画像を描画する。ここで、マーカーの半径rに代えて直径を算出するようにしてもよい。すなわち、自機PCと敵機NPCの距離に基づきマーカーMKの大きさを特定するための情報を算出すればよい。   FIG. 10 shows a screen coordinate system including the two-dimensional coordinates of the intersection IS of the virtual line segment VS and the virtual plane VP. In this embodiment, the radius r of the marker (r is the length in the screen coordinate system) is calculated based on the distance between the own aircraft PC and the enemy aircraft NPC, and the circle with the radius r having the two-dimensional coordinate of the intersection IS as the central coordinate. An image of the marker MK is drawn. Here, the diameter may be calculated instead of the marker radius r. That is, information for specifying the size of the marker MK may be calculated based on the distance between the own aircraft PC and the enemy aircraft NPC.

次に、オブジェクト空間を仮想カメラから見た画像(ジオメトリ処理後のオブジェクト(自機PC、敵機NPC等のオブジェクト)をフレームバッファに描画することで生成された画像)に、マーカーMKの画像を合成(例えば、α合成)することで、図2に示すようなゲーム画像を生成する。   Next, an image of the marker MK is displayed on an image of the object space viewed from a virtual camera (an image generated by drawing an object after geometry processing (object such as own machine PC, enemy machine NPC) in the frame buffer). By combining (for example, α combination), a game image as shown in FIG. 2 is generated.

2−7.自機とマーカーの位置関係の判定
また、自機PCの位置がマーカーMK内に入っているか否かの判定(自機PCとマーカーMKの位置関係が所定の条件を満たすか否かの判定)もスクリーン座標系において行う。すなわち、自機PCの3次元座標P3Dを、交点ISの座標と同様に、仮想平面VPを投影面とするスクリーン座標系における2次元座標P2D(図10参照)に変換し、この自機PCの2次元座標P2D交点ISの2次元座標(マーカーMKの中心座標)、半径rに基づいて、自機PCの2次元座標P2DがマーカーMKの表示範囲内にあるか否かを判定する。
2-7. Determination of the positional relationship between the own device and the marker Further, it is determined whether or not the position of the own device PC is within the marker MK (determination whether the positional relationship between the own device PC and the marker MK satisfies a predetermined condition). Is also performed in the screen coordinate system. That is, the three-dimensional coordinate P 3D of the own machine PC is converted into a two-dimensional coordinate P 2D (see FIG. 10) in the screen coordinate system having the virtual plane VP as the projection plane in the same manner as the coordinates of the intersection IS. a two-dimensional coordinate P 2D of PC, 2-dimensional coordinates of the intersection point iS (center coordinates of the marker MK), based on the radius r, whether 2-dimensional coordinates P 2D of its own PC is within the display range of the marker MK Determine.

そして、判定結果に基づいて、マーカーMKにゲージGAを表示する処理、ゲージGAの値を増加又は減少させる処理、ゲージGAの値をリセットする処理、ゲージGAの値に基づきロックオン状態となったか否かを判定する処理、ロックオン状態になった場合に敵機NPCから誘導ミサイルを発射する処理等のゲーム演算を行う。   Then, based on the determination result, the process of displaying the gauge GA on the marker MK, the process of increasing or decreasing the value of the gauge GA, the process of resetting the value of the gauge GA, whether the lock-on state has been reached based on the value of the gauge GA A game calculation such as a process for determining whether or not, a process for launching a guided missile from the enemy aircraft NPC when the lock-on state occurs is performed.

このように、2次元座標系において自機PCとマーカーMKの位置関係の判定を行うことで、3次元座標系において位置関係の判定を行う場合に比べて処理負荷を抑えることができる。   In this way, by determining the positional relationship between the own machine PC and the marker MK in the two-dimensional coordinate system, the processing load can be suppressed as compared with the case of determining the positional relationship in the three-dimensional coordinate system.

また、マーカーMKの描画と、自機PCとマーカーMKの位置関係の判定とを同じ2次元座標系において行うことで、自機PCとマーカーのMKの視覚上の位置関係と位置関係の判定結果とを一致させることができ(ゲーム画面上で自機PCがマーカーMK内に位置する場合には、必ず、自機PCの位置がマーカーMK内に入っていると判定される)、見た目に違和感のないゲーム画像を生成することができる。   In addition, by performing the drawing of the marker MK and the determination of the positional relationship between the own machine PC and the marker MK in the same two-dimensional coordinate system, the determination result of the visual positional relationship and the positional relation between the own machine PC and the marker MK. (If your PC is located within the marker MK on the game screen, it is always determined that the position of your PC is within the marker MK). It is possible to generate a game image without any.

また、本実施形態では、自機PCが前回位置予測時から現在までの動きと同じ動きをすると仮定して自機PCの予測位置を算出し、算出された予測位置に基づき仮想線分VSの向きを算出し、算出された仮想線分VSの向きにマーカーMKが表示される。   Further, in the present embodiment, the predicted position of the own machine PC is calculated on the assumption that the own machine PC performs the same movement as the previous position prediction to the present time, and the virtual line segment VS is calculated based on the calculated predicted position. The direction is calculated, and the marker MK is displayed in the direction of the calculated virtual line segment VS.

従って、プレーヤが、自機PCを同一の速度(速さ、向き)で移動させる操作(例えば、自機PCを同一の速さで直進させ続ける操作、自機PCを同一方向に旋回、上昇、又は下降させ続ける操作)を行った場合には、予測位置と自機PCの位置の誤差が小さくなる(且つ、位置予測の時間間隔が短くなることで予測が更に当たり易くなる)ため、マーカーMKが自機PCに近づき、自機PCがマーカーMK内に捉えられることになる。   Accordingly, an operation in which the player moves his / her PC at the same speed (speed, direction) (for example, an operation in which the player's PC continues to go straight at the same speed, and the player's PC turns, rises in the same direction, Or an operation that keeps moving down), the error between the predicted position and the position of the own machine PC becomes small (and the prediction becomes even easier because the time interval of position prediction becomes shorter), so the marker MK Approaches the own PC, and the own PC is captured in the marker MK.

一方、プレーヤが、自機PCの速度(速さ、向き)を変更する操作(例えば、自機PCが直進している場合に自機PCを旋回、上昇、下降、加速させる操作、又は自機PCの旋回方向を変更する操作)を継続して行った場合には、予測位置と自機PCの位置の誤差が大きくなる(且つ、位置予測の時間間隔が長くなることで予測が更に外れやすくなる)ため、マーカーMKは自機PCから遠ざかり、自機PCはマーカーMKによる捕捉を回避することができる。   On the other hand, an operation in which the player changes the speed (speed, direction) of the player PC (for example, an operation of turning, raising, lowering, or accelerating the player PC when the player PC is moving straight, When the operation of changing the turning direction of the PC is continuously performed, the error between the predicted position and the position of the own machine PC becomes large (and the prediction is more easily deviated because the time interval of position prediction becomes longer). Therefore, the marker MK moves away from its own PC, and the own PC can avoid capturing by the marker MK.

すなわち、本実施形態によれば、プレーヤの操作に基づき変化する自機PCの挙動に応じて、自機PCに対するマーカーMKの挙動を変化させることができ、プレーヤは、自機PCを急旋回させる等の操作を行うことで、自機PCがマーカーMK内に捉えられることを避けるといったゲームプレイを楽しむことができる。   That is, according to the present embodiment, the behavior of the marker MK with respect to the player PC can be changed according to the behavior of the player PC that changes based on the operation of the player, and the player turns the player PC suddenly. By performing such operations as described above, it is possible to enjoy a game play in which the own PC is avoided from being captured in the marker MK.

なお本実施形態では、自機PCが敵機NPCを追尾する「追う側近接戦闘モード」時には、敵機NPCに対するマーカーが表示されるが、敵機NPCの位置予測は行われず、図11に示すように、仮想線分VSの向きは、自機PCの向き(機首方向)となり、この仮想線分VSの向きにマーカーMKが表示される。すなわち、自機PCの向きに延びる仮想線分VSと仮想平面VPの交点ISの座標(2次元座標)がマーカーMKの中心座標となる。   In the present embodiment, when the own aircraft PC tracks the enemy aircraft NPC, the marker for the enemy aircraft NPC is displayed, but the position prediction of the enemy aircraft NPC is not performed, as shown in FIG. Thus, the direction of the virtual line segment VS is the direction of the own machine PC (the nose direction), and the marker MK is displayed in the direction of the virtual line segment VS. That is, the coordinate (two-dimensional coordinate) of the intersection IS of the virtual line segment VS extending in the direction of the own machine PC and the virtual plane VP becomes the center coordinate of the marker MK.

ここで、敵機NPCが自機PCを追尾する「逃げ側近接戦闘モード」時においても、「追う側近接戦闘モード」時と同様に、自機PCの位置予測を行わずに、ノンプレーヤキャラクタである敵機NPCの向き(機首方向)にマーカーMKを表示させようとすると、ゲーム画面内にマーカーMKが表示される可能性(自機PCがマーカーMK内に位置する可能性)が非常に低く、自機PCがマーカーMK内に捉えられることを避けるというゲームプレイを提供できないことがわかった。   Here, even when the enemy aircraft NPC tracks the own PC, the non-player character is not predicted for the position of the own PC, similarly to the “following side close combat mode”. If an attempt is made to display the marker MK in the direction of the enemy aircraft NPC (the nose direction), there is a possibility that the marker MK will be displayed in the game screen (the possibility that the own machine PC is located in the marker MK) It was found that it is not possible to provide a game play that avoids being caught in the marker MK.

そこで、本実施形態では、「逃げ側近接戦闘モード」時においては、敵機NPCの向きとは関係なく、自機PCの予測位置に基づき求められた仮想線分VSの向きにマーカーMKを表示するように制御している。これにより、自機PCがノンプレーヤキャラクタである敵機NPCに追尾される状況において、自機PCがマーカーMK内に捉えられることを避けるというゲームプレイを提供することができる。   Therefore, in the present embodiment, in the “flank side combat mode”, the marker MK is displayed in the direction of the virtual line segment VS obtained based on the predicted position of the own aircraft PC, regardless of the orientation of the enemy aircraft NPC. You are in control. Accordingly, it is possible to provide a game play in which the player PC is prevented from being caught in the marker MK in a situation where the player PC is being tracked by an enemy aircraft NPC that is a non-player character.

2−8.近接戦闘モードの発動条件
本実施形態では、自機PCと敵機NPCの位置関係が所定のモード発動条件を満たしたか否かを判定し、所定のモード発動条件を満たしたと判定された場合に、近接戦闘モードが発動される。
2-8. In the present embodiment, it is determined whether or not the positional relationship between the own machine PC and the enemy aircraft NPC satisfies a predetermined mode activation condition, and when it is determined that the predetermined mode activation condition is satisfied, Close combat mode is activated.

図12に示すように、自機PCには、円錐形状の第1の判定領域JA1と、球形状の第2の判定領域JA2が設定されている。同様に、敵機NPCには、円錐形状の第1の判定領域JA1と、球形状の第2の判定領域JA2が設定されている。第1の判定領域JA1、JA1は、機体(自機PC、敵機NPC)の前方に広がるように設定され、第2の判定領域JA2、JA2は、球形状の領域の中心が機体の後方に位置するように設定されている。自機PCと敵機NPCに設定される各判定領域は、各機体の特性(属性)によって、機体に対する設定位置や形状が異なるようにしてもよい。 As shown in FIG. 12, a conical first determination area JA1 P and a spherical second determination area JA2 P are set in the own PC. Similarly, for the enemy aircraft NPC, a conical first determination area JA1 N and a spherical second determination area JA2 N are set. The first determination areas JA1 P and JA1 N are set so as to extend in front of the aircraft (the own PC and the enemy aircraft NPC), and the second determination areas JA2 P and JA2 N have the center of the spherical area. It is set to be located behind the aircraft. Each determination area set for the own machine PC and the enemy machine NPC may have different setting positions and shapes with respect to the aircraft depending on characteristics (attributes) of the aircraft.

本実施形態では、自機PCの第2の判定領域JA2内に敵機NPCが位置し、且つ敵機NPCの第1の判定領域JA1内に自機PCが位置する場合(図12に示す場合)には、自機PCの後方に敵機NPCが接近していると判定され、「逃げ側近接戦闘モード」が発動される。一方、敵機NPCの第2の判定領域JA2内に自機PCが位置し、且つ自機PCの第1の判定領域JA1内に敵機NPCが位置する場合には、自機PCの前方に敵機NPCが接近していると判定され、「追う側近接戦闘モード」が発動される。 In this embodiment, the position enemy NPC in the second determination area JA2 in P of its own PC, and if the first determination area JA1 N ship PC within the enemy NPC is located (in FIG. 12 In the case shown), it is determined that the enemy aircraft NPC is approaching behind the aircraft PC, and the “escape side proximity battle mode” is activated. On the other hand, when the own aircraft PC is located in the second determination area JA2 N of the enemy aircraft NPC and the enemy aircraft NPC is located in the first determination area JA1 P of the own aircraft PC, It is determined that the enemy aircraft NPC is approaching forward, and the “following side proximity battle mode” is activated.

ここでは、自機PCに設定された判定領域と敵機NPCに設定された判定領域とを用いて位置関係の判定を行っているが、自機PCと敵機NPCのいずれか一方に設定された判定領域のみを用いて位置関係の判定を行うようにしてもよい。   Here, the positional relationship is determined using the determination region set for the own aircraft PC and the determination region set for the enemy aircraft NPC, but is set to one of the own aircraft PC and the enemy aircraft NPC. The positional relationship may be determined using only the determined region.

また自機PCと敵機NPCの距離が所定の値以下になった場合に、モード発動条件を満たしたと判定するようにしてもよい。また、自機PCと敵機NPCとがオブジェクト空間に設定された所定の領域(特殊なエリア)に入った場合に、モード発動条件を満たしたと判定するようにしてもよい。また、プレーヤによって所定の操作入力が行われた場合又は所定のゲームアイテムが使用された場合に、モード発動条件を満たしたと判定するようにしてもよい。   Further, it may be determined that the mode activation condition is satisfied when the distance between the own machine PC and the enemy machine NPC becomes a predetermined value or less. Further, when the own machine PC and the enemy machine NPC enter a predetermined area (special area) set in the object space, it may be determined that the mode activation condition is satisfied. Further, it may be determined that the mode activation condition is satisfied when a predetermined operation input is performed by the player or when a predetermined game item is used.

3.処理
次に、本実施形態のゲーム装置の処理の一例について図13、図14のフローチャートを用いて説明する。ここでは、「逃げ側近接戦闘モード」における、自機PCに対するマーカーMKの表示制御について説明する。
3. Processing Next, an example of processing of the game device according to the present embodiment will be described with reference to the flowcharts of FIGS. Here, the display control of the marker MK with respect to the own machine PC in the “flank side combat mode” will be described.

まず、マーカー表示制御部114は、自機PCの位置予測用のタイマーを更新する(図13のステップS10)。次に、タイマーの値に基づき位置予測のタイミングになったか否か(タイマーの値tが、位置予測の時間間隔Tに達したか否か)を判断する(ステップS12)。   First, the marker display control unit 114 updates the position prediction timer of the own PC (step S10 in FIG. 13). Next, based on the timer value, it is determined whether or not the position prediction timing has come (whether or not the timer value t has reached the position prediction time interval T) (step S12).

ステップS12の処理において、位置予測のタイミングになったと判断した場合には、
マーカー表示制御部114は、前回予測時の自機PCの位置を始点とし、現在の自機PCの位置を終点とするベクトルV1と、前回予測時の自機PCの位置P1を始点とし、前回の予測位置を終点とするベクトルV2とのなす角度θを算出する(ステップS14)。ここで、タイマーの値tがTに達した場合にはタイマーの値tはリセット(t=0)される。また、ステップS12の処理において、位置予測のタイミングになっていないと判断した場合には、ステップS24の処理に進む。
In the process of step S12, if it is determined that the position prediction timing has come,
The marker display control unit 114 uses the position of the own PC at the time of the previous prediction as the start point, the vector V1 having the current position of the own PC as the end point, and the position P1 of the own PC at the previous prediction as the start point. The angle θ formed with the vector V2 having the predicted position as the end point is calculated (step S14). When the timer value t reaches T, the timer value t is reset (t = 0). If it is determined in step S12 that the position prediction timing is not reached, the process proceeds to step S24.

次に、マーカー表示制御部114は、ステップS14の処理において算出した角度θが所定の第1の角度θ以下であるか否かを判断し(ステップS16)、第1の角度θ以下であると判断した場合には、位置予測の時間間隔Tを所定時間ΔTだけ短くする(ステップS18)。ここで、時間間隔Tを短くした結果、時間間隔Tが所定の最小値TMIN以下となる場合には、時間間隔Tに最小値TMINをセットする。 Then, the marker display control unit 114, an angle calculated in the processing in step S14 theta is determined whether a first angle theta 1 following a predetermined (step S16), and at a first angle theta 1 below If it is determined that there is, the position prediction time interval T is shortened by a predetermined time ΔT (step S18). Here, when the time interval T becomes equal to or smaller than the predetermined minimum value T MIN as a result of shortening the time interval T, the minimum value T MIN is set to the time interval T.

ステップS16の処理において第1の角度θ以下でないと判断した場合には、角度θが所定の第2の角度θ(θ<θ)以上であるか否かを判断し(ステップS19)、第2の角度θ以上であると判断した場合には、位置予測の時間間隔Tに所定の最大値TMAX(デフォルト値)をセットすることで時間間隔Tをリセットする(ステップS20)。第2の角度θ以上でないと判断した場合には、時間間隔Tを変更せずにステップS22の処理に進む。 When the processing of step S16 is determined that the first angle theta not 1 or less, the angle theta is determined whether a second angle θ 2 (θ 1 <θ 2 ) or more predetermined (step S19 ), when it is determined that the second angle theta 2 or resets the time interval T by setting a predetermined maximum value T MAX (the default value) in the time interval T of the position prediction (step S20) . If it is determined that not the second angle theta 2 or more, the processing proceeds to step S22 without changing the time interval T.

次に、マーカー表示制御部114は、前回予測時の自機PCの位置及び向きと現在の自機PCの位置とに基づき自機PCのローカル座標における移動ベクトルV3を算出し、算出した移動ベクトルV3と現在の自機PCの位置及び向きに基づいて自機PCの予測位置を算出する(ステップS22)。   Next, the marker display control unit 114 calculates the movement vector V3 in the local coordinates of the own machine PC based on the position and orientation of the own machine PC at the time of the previous prediction and the current position of the own machine PC, and calculates the calculated movement vector. Based on V3 and the current position and orientation of own PC, the predicted position of own PC is calculated (step S22).

次に、マーカー表示制御部114は、今回算出された予測位置と前回算出された予測位置とをタイマーの値tに応じて線形補間することで、敵機NPCの位置を始点とする仮想線分の向きDSを算出する(ステップS24)。   Next, the marker display control unit 114 linearly interpolates the predicted position calculated this time and the previously calculated predicted position according to the timer value t, so that a virtual line segment starting from the position of the enemy aircraft NPC is used. Direction DS is calculated (step S24).

次に、マーカー表示制御部114は、自機PCの座標が存在し、仮想カメラVCの視線ベクトルEVが法線となる仮想平面VPを算出し(ステップS26)、敵機NPCの位置を始点とし仮想線分の向きDSに所定距離延びる仮想線分VSを算出する(ステップS28)。   Next, the marker display control unit 114 calculates a virtual plane VP in which the coordinates of the own aircraft PC exist and the line-of-sight vector EV of the virtual camera VC is a normal line (step S26), and the position of the enemy aircraft NPC is the starting point. A virtual line segment VS extending a predetermined distance in the direction DS of the virtual line segment is calculated (step S28).

次に、マーカー表示制御部114は、仮想平面VPと仮想線分VSの交点ISの3次元座標を算出し、(ステップS30)、交点ISの3次元座標と自機PCの3次元座標とを、それぞれ、仮想平面VPを投影面とするスクリーン座標系(2次元座標系)における2次元座標に変換する(ステップS32)。   Next, the marker display control unit 114 calculates the three-dimensional coordinates of the intersection IS between the virtual plane VP and the virtual line segment VS (step S30), and calculates the three-dimensional coordinates of the intersection IS and the three-dimensional coordinates of the own machine PC. Each is converted into two-dimensional coordinates in a screen coordinate system (two-dimensional coordinate system) with the virtual plane VP as a projection plane (step S32).

次に、マーカー表示制御部114は、オブジェクト空間における自機PCと敵機NPC間の距離に基づいて、2次元座標系におけるマーカーMKの半径rを算出する(図14のステップS34)。ここで、自機PCに設定された機体パラメータや、プレーヤによる操作、或いはゲームの難易度、プレーヤの経験値に基づき半径rを算出してもよい。   Next, the marker display control unit 114 calculates the radius r of the marker MK in the two-dimensional coordinate system based on the distance between the own machine PC and the enemy machine NPC in the object space (step S34 in FIG. 14). Here, the radius r may be calculated based on the machine parameters set in the own PC, the operation by the player, the difficulty level of the game, and the experience value of the player.

次に、ゲーム演算部116は、ステップS32の処理で算出された交点IS及び自機PCの2次元座標と、ステップS34の処理で算出された半径rに基づいて、2次元座標系において、自機PCの2次元座標が、交点ISの2次元座標を中心座標とする半径rのマーカーMK内に入っているか否かを判定する(ステップS36)。   Next, the game calculation unit 116 determines that the two-dimensional coordinate system is based on the intersection IS calculated in the process of step S32 and the two-dimensional coordinates of the own machine PC and the radius r calculated in the process of step S34. It is determined whether or not the two-dimensional coordinates of the machine PC are within the marker MK having a radius r centered on the two-dimensional coordinates of the intersection IS (step S36).

ステップS36の処理において、自機PCの座標がマーカーMK内に入っていると判定された場合には、ゲーム演算部116は、ゲージGAの値を所定の値だけ増加させる処理を行い(ステップS38)、ゲージGAの値が所定の値(最大値)に達したか否かを判断し(ステップS42)、所定の値に達したと判断した場合には、敵機NPCから特殊な誘導ミサイルを発射させる(特殊武器を発動する)ためのゲーム演算を行うステップS44。なお、ゲージGAの値が最大値に達した場合には、ゲージGAの値はリセットされる。ステップS36の処理において、自機PCの座標がマーカーMK内に入っていないと判断した場合には、ゲージGAの値をリセットし(又はゲージGAの値を所定値だけ減少させ)(ステップS40)、ステップS46の処理に進む。   If it is determined in step S36 that the coordinates of the player PC are within the marker MK, the game calculation unit 116 performs a process of increasing the value of the gauge GA by a predetermined value (step S38). ), It is determined whether the value of the gauge GA has reached a predetermined value (maximum value) (step S42). If it is determined that the value has reached the predetermined value, a special guided missile is sent from the enemy aircraft NPC. Step S44 for performing a game calculation for firing (activating a special weapon). When the gauge GA value reaches the maximum value, the gauge GA value is reset. If it is determined in step S36 that the coordinates of the own PC are not within the marker MK, the value of the gauge GA is reset (or the value of the gauge GA is decreased by a predetermined value) (step S40). The process proceeds to step S46.

次に、マーカー表示制御部114は、交点ISの2次元座標を中心座標とする半径rのマーカーMKを描画するための処理を行う(ステップS46)。また、ゲージの値がリセットされていない場合には、マーカーMKにゲージGAを表示するための処理を行う。   Next, the marker display control unit 114 performs a process for drawing the marker MK having the radius r with the two-dimensional coordinate of the intersection point IS as the center coordinate (step S46). Further, when the gauge value is not reset, processing for displaying the gauge GA on the marker MK is performed.

次に、処理を続けるか否かを判断し(ステップS48)、処理を続ける場合には、ステップS10の処理に進み、ステップS10以降の処理を繰り返す。   Next, it is determined whether or not to continue the process (step S48). When the process is continued, the process proceeds to step S10, and the processes after step S10 are repeated.

4.変形例
なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
4). Modifications The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

例えば、上記実施形態では、仮想線分と仮想平面の交点の3次元座標を2次元座標に変換して、この交点に2次元座標に基づきマーカーの表示位置を決定する場合について説明したが、仮想線分と仮想平面の交点の3次元座標に基づいて、マーカーを示すマーカーオブジェクトをオブジェクト空間に配置するようにしてもよい。   For example, in the above embodiment, a case has been described in which the three-dimensional coordinates of the intersection of the virtual line segment and the virtual plane are converted into two-dimensional coordinates, and the marker display position is determined based on the two-dimensional coordinates at this intersection. A marker object indicating a marker may be placed in the object space based on the three-dimensional coordinates of the intersection of the line segment and the virtual plane.

例えば、図15(A)に示すように、リング形状の複数のポリゴンからなるオブジェクトを、マーカーオブジェクトMOとしてオブジェクト空間に配置するようにしてもよい。また、図15(B)に示すように、板状のポリゴンからなるオブジェクトにリング状のマーカーを表すテクスチャTEXをマッピングしたオブジェクトを、マーカーオブジェクトMOとしてオブジェクト空間に配置するようにしてもよい。この場合には、自機PCと敵機NPCの距離等に基づきマーカーオブジェクトMOを拡縮処理することで、距離等に基づくマーカーの大きさ制御を行えばよい。   For example, as shown in FIG. 15A, an object composed of a plurality of ring-shaped polygons may be arranged as a marker object MO in the object space. Further, as shown in FIG. 15B, an object obtained by mapping a texture TEX representing a ring-shaped marker to an object composed of plate-shaped polygons may be arranged in the object space as a marker object MO. In this case, the marker size may be controlled based on the distance or the like by subjecting the marker object MO to enlargement / reduction processing based on the distance or the like between the own machine PC and the enemy aircraft NPC.

ここで、マーカーオブジェクトMOを、仮想線分と仮想平面の交点の3次元座標が、マーカーオブジェクトMOの中心座標となり、且つ仮想平面とマーカーオブジェクトMOとが平行になるように(マーカーオブジェクトMOが仮想カメラに対して正面を向くように)配置するようにしてもよい。この場合においても、自機PCとマーカーの位置関係の判定は、上記実施形態と同様に、2次元座標系における交点ISの2次元座標と自機PCの2次元座標とに基づき行うようにしてもよい。   Here, the marker object MO is set so that the three-dimensional coordinate of the intersection of the virtual line segment and the virtual plane becomes the center coordinate of the marker object MO, and the virtual plane and the marker object MO are parallel (the marker object MO is virtual). You may arrange | position so that it may face the front with respect to a camera. Even in this case, the determination of the positional relationship between the own machine PC and the marker is performed based on the two-dimensional coordinates of the intersection IS in the two-dimensional coordinate system and the two-dimensional coordinates of the own machine PC, as in the above embodiment. Also good.

また、図16に示すように、マーカーオブジェクトMOを、仮想平面VPから仮想カメラVCに向けて垂直に所与の距離dだけオフセットして配置するようにしてもよい。このように、マーカーオブジェクトMOを、ターゲットとなる自機PCと敵機NPCと間に配置することで、自機PCが背後から迫る敵機NPCの誘導ミサイルに狙われている様子を見た目に違和感なく表現することができる。   Further, as shown in FIG. 16, the marker object MO may be arranged so as to be vertically offset from the virtual plane VP toward the virtual camera VC by a given distance d. In this way, by placing the marker object MO between the target aircraft PC and the enemy aircraft NPC, it is strange to see how the aircraft PC is being targeted by the enemy missile NPC that is approaching from behind. It can be expressed without.

また、図15(C)に示すように、ゲージGAを示すゲージオブジェクトGOを、マーカーオブジェクトMOとともにオブジェクト空間に配置するようにしてもよい。マーカーオブジェクトMOとゲージオブジェクトGOとをオブジェクト空間に配置する際には、ゲージオブジェクトGOを、マーカーオブジェクトMOよりも仮想カメラVCから見て手前側に配置するようにしてもよい。このようにすると、特に立体視の手法(左目用のゲーム画像と右目用の画像を生成する手法)を用いてゲーム画像を生成する場合に、ゲージオブジェクトGOを視認し易くすることができる。   Further, as shown in FIG. 15C, a gauge object GO indicating the gauge GA may be arranged in the object space together with the marker object MO. When the marker object MO and the gauge object GO are arranged in the object space, the gauge object GO may be arranged on the near side as viewed from the virtual camera VC with respect to the marker object MO. In this way, it is possible to make the gauge object GO easy to see, particularly when a game image is generated using a stereoscopic technique (a technique for generating a left-eye game image and a right-eye image).

また、マーカーオブジェクトMOを、自機PCと敵機NPCとの間に配置した場合には、仮想カメラVCの位置によっては、マーカーオブジェクトMOの全部又は一部が敵機NPCに隠れてしまう。そこで、図17に示すように、マーカーオブジェクトMOが敵機NPCと重なった場合には、敵機NPCのマーカーオブジェクトMOと重なる部分PTについては半透明で描画し、敵機NPCの奥側にあるマーカーオブジェクトが透けて見えるようにしてもよい。また、マーカーオブジェクトMOの重なる部分PTについて、その他の部分とは異なる色で描画するようにしてもよい。また、マーカーオブジェクトMOについては、敵機NPCによって陰面消去されないように描画するようにしてもよい。このようにすると、マーカーオブジェクトMOが敵機NPCと重なる状況であっても、プレーヤは自機PCに対するマーカーMOを確実に視認することができる。   When the marker object MO is arranged between the own machine PC and the enemy machine NPC, depending on the position of the virtual camera VC, all or part of the marker object MO is hidden by the enemy machine NPC. Therefore, as shown in FIG. 17, when the marker object MO overlaps with the enemy aircraft NPC, the portion PT overlapping with the marker object MO of the enemy aircraft NPC is rendered translucent and is located behind the enemy aircraft NPC. The marker object may be seen through. Further, the portion PT where the marker object MO overlaps may be drawn in a color different from the other portions. Further, the marker object MO may be drawn so as not to be hidden by the enemy aircraft NPC. In this way, even if the marker object MO overlaps the enemy aircraft NPC, the player can surely see the marker MO with respect to the player's own PC.

また、上記実施形態では、プレーヤキャラクタである自機を第1のオブジェクトとし、NPCである敵機を第2のオブジェクトとする場合について説明したが、NPC又は他のプレーヤキャラクタである敵機を第1のオブジェクトとし、プレーヤキャラクタである自機を第2のオブジェクトとするようにしてもよい。すなわち、敵機の予測位置を算出し、この予測位置に基づき仮想線分の向きを算出し、この仮想線分の向きに敵機に対するマーカーを表示するようにしてもよい。このようにすると、初心者等のプレーヤでも敵機をマーカー内に捉え易くすることができる。   In the above-described embodiment, the case where the player character is the first object is the player object and the enemy aircraft is the second object is the NPC. However, the enemy aircraft is the NPC or another player character. One object may be used, and the player's own character may be the second object. That is, a predicted position of the enemy aircraft may be calculated, a virtual line segment direction may be calculated based on the predicted position, and a marker for the enemy aircraft may be displayed in the virtual line segment direction. In this way, even a player such as a beginner can easily capture the enemy aircraft in the marker.

100 処理部、110 オブジェクト空間設定部、112 移動・動作処理部(移動制御部)、114 マーカー表示制御部、116 ゲーム演算部、118 仮想カメラ制御部、120 描画部(画像生成部)、160 操作部、170 記憶部、180 情報記憶媒体、190 表示部、192 音出力部、196 通信部 100 processing unit, 110 object space setting unit, 112 movement / motion processing unit (movement control unit), 114 marker display control unit, 116 game calculation unit, 118 virtual camera control unit, 120 drawing unit (image generation unit), 160 operation Unit, 170 storage unit, 180 information storage medium, 190 display unit, 192 sound output unit, 196 communication unit

Claims (12)

画像を生成するためのプログラムであって、
第1及び第2のオブジェクトをオブジェクト空間内で移動させる移動制御を行う移動制御部と、
前記第1のオブジェクトの移動履歴に基づき所与の時間経過後の前記第1のオブジェクトの予測位置を求め、前記予測位置と前記第2のオブジェクトの位置とに基づいて、前記第1のオブジェクトに対するマーカーを表示する制御を行うマーカー表示制御部と、
前記マーカーと前記第1のオブジェクトの位置関係に基づいて、ゲーム演算を行うゲーム演算部と、
オブジェクト空間を所与の視点からみた画像を生成する画像生成部としてコンピュータを機能させることを特徴とするプログラム。
A program for generating an image,
A movement control unit for performing movement control for moving the first and second objects in the object space;
Based on the movement history of the first object, a predicted position of the first object after a given time has elapsed, and based on the predicted position and the position of the second object, the predicted position of the first object A marker display control unit for performing control to display a marker;
A game calculation unit for performing a game calculation based on the positional relationship between the marker and the first object;
A program that causes a computer to function as an image generation unit that generates an image of an object space viewed from a given viewpoint.
請求項1において、
前記第1のオブジェクトは、プレーヤキャラクタであり、前記第2のオブジェクトは、ノンプレーヤキャラクタであることを特徴とするプログラム。
In claim 1,
The program according to claim 1, wherein the first object is a player character, and the second object is a non-player character.
請求項1又は2において、
前記マーカー表示制御部が、
前記第1のオブジェクトと前記第2のオブジェクト間の距離に基づいて、前記マーカーの大きさ、形状及び色の少なくとも1つを変化させることを特徴とするプログラム。
In claim 1 or 2,
The marker display control unit
A program that changes at least one of a size, a shape, and a color of the marker based on a distance between the first object and the second object.
請求項1乃至3のいずれかにおいて、
前記マーカー表示制御部が、
所与の時間間隔毎に前記予測位置を求め、時刻tにおける前記第1のオブジェクトの位置と、時刻tについて求めた前記予測位置とに基づいて、前記予測位置を求める時間間隔を変化させることを特徴とするプログラム。
In any one of Claims 1 thru | or 3,
The marker display control unit
Obtaining the predicted position for each given time interval, and changing the time interval for obtaining the predicted position based on the position of the first object at time t and the predicted position determined for time t. A featured program.
請求項1乃至4のいずれかにおいて、
前記マーカー表示制御部が、
前記第2のオブジェクトの座標を通る仮想線分であって前記予測位置に基づきその向きが決定される仮想線分と、前記視点の向きと前記第1のオブジェクトの位置とに基づき決定される仮想平面との交点の座標に基づいて、前記マーカーの表示位置を決定することを特徴とするプログラム。
In any one of Claims 1 thru | or 4,
The marker display control unit
A virtual line segment passing through the coordinates of the second object, the direction of which is determined based on the predicted position, and the virtual line determined based on the direction of the viewpoint and the position of the first object A program for determining a display position of the marker based on coordinates of an intersection with a plane.
請求項5において、
前記マーカー表示制御部が、
前記仮想線分と前記仮想平面の交点の3次元座標を2次元座標に変換し、得られた前記交点の2次元座標に基づいて、前記マーカーの表示位置を決定することを特徴とするプログラム。
In claim 5,
The marker display control unit
A program characterized by converting a three-dimensional coordinate of an intersection of the virtual line segment and the virtual plane into a two-dimensional coordinate, and determining a display position of the marker based on the obtained two-dimensional coordinate of the intersection.
請求項5において、
前記マーカー表示制御部が、
前記仮想線分と前記仮想平面の交点の3次元座標に基づいて、前記マーカーを示すオブジェクトをオブジェクト空間に配置することを特徴とするプログラム。
In claim 5,
The marker display control unit
A program that arranges an object indicating the marker in an object space based on a three-dimensional coordinate of an intersection of the virtual line segment and the virtual plane.
請求項7において、
前記マーカー表示制御部が、
前記マーカーを示すオブジェクトを、前記第1のオブジェクトと前記第2のオブジェクトの間に配置することを特徴とするプログラム。
In claim 7,
The marker display control unit
The program which arrange | positions the object which shows the said marker between the said 1st object and the said 2nd object.
請求項5乃至8のいずれかにおいて、
前記ゲーム演算部が、
前記仮想線分と前記仮想平面の交点の座標と、前記第1のオブジェクトの座標とに基づいて、前記マーカーと前記第1のオブジェクトの位置関係が所定の条件を満たすか否かを判定し、判定結果に基づきゲーム演算を行うことを特徴とするプログラム。
In any of claims 5 to 8,
The game calculation unit is
Based on the coordinates of the intersection of the virtual line segment and the virtual plane, and the coordinates of the first object, determine whether the positional relationship between the marker and the first object satisfies a predetermined condition, A program characterized by performing a game operation based on a determination result.
請求項1乃至9のいずれかにおいて、
前記マーカー表示制御部が、
前記第1のオブジェクトと前記第2のオブジェクトの位置関係が所定の条件を満たす場合に、前記マーカーを表示する制御を行うことを特徴とするプログラム。
In any one of Claims 1 thru | or 9,
The marker display control unit
A program for controlling display of the marker when a positional relationship between the first object and the second object satisfies a predetermined condition.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1乃至10のいずれかに記載のプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 10 is stored. 第1及び第2のオブジェクトをオブジェクト空間内で移動させる移動制御を行う移動制御部と、
前記第1のオブジェクトの移動履歴に基づき所与の時間経過後の前記第1のオブジェクトの予測位置を求め、前記予測位置と前記第2のオブジェクトの位置とに基づいて、前記第1のオブジェクトに対するマーカーを表示する制御を行うマーカー表示制御部と、
前記マーカーと前記第1のオブジェクトの位置関係に基づいて、ゲーム演算を行うゲーム演算部と、
オブジェクト空間を所与の視点からみた画像を生成する画像生成部とを含むことを特徴とする画像生成システム。
A movement control unit for performing movement control for moving the first and second objects in the object space;
Based on the movement history of the first object, a predicted position of the first object after a given time has elapsed, and based on the predicted position and the position of the second object, the predicted position of the first object A marker display control unit for performing control to display a marker;
A game calculation unit for performing a game calculation based on the positional relationship between the marker and the first object;
An image generation system comprising: an image generation unit configured to generate an image of the object space viewed from a given viewpoint.
JP2010134498A 2010-06-11 2010-06-11 Program, information storage medium, and image generation system Withdrawn JP2011255114A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010134498A JP2011255114A (en) 2010-06-11 2010-06-11 Program, information storage medium, and image generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010134498A JP2011255114A (en) 2010-06-11 2010-06-11 Program, information storage medium, and image generation system

Publications (1)

Publication Number Publication Date
JP2011255114A true JP2011255114A (en) 2011-12-22

Family

ID=45471956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010134498A Withdrawn JP2011255114A (en) 2010-06-11 2010-06-11 Program, information storage medium, and image generation system

Country Status (1)

Country Link
JP (1) JP2011255114A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018792A (en) * 2018-08-03 2020-02-06 株式会社コーエーテクモゲームス Information processing device, position estimation method and position estimation program
CN110960849A (en) * 2019-11-28 2020-04-07 腾讯科技(深圳)有限公司 Interactive property control method, device, terminal and storage medium
JP2023048792A (en) * 2021-09-28 2023-04-07 株式会社Cygames Information processing apparatus, program, and drawing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018792A (en) * 2018-08-03 2020-02-06 株式会社コーエーテクモゲームス Information processing device, position estimation method and position estimation program
JP7175124B2 (en) 2018-08-03 2022-11-18 株式会社コーエーテクモゲームス Information processing device, position prediction method and position prediction program
CN110960849A (en) * 2019-11-28 2020-04-07 腾讯科技(深圳)有限公司 Interactive property control method, device, terminal and storage medium
CN110960849B (en) * 2019-11-28 2021-10-26 腾讯科技(深圳)有限公司 Interactive property control method, device, terminal and storage medium
JP2023048792A (en) * 2021-09-28 2023-04-07 株式会社Cygames Information processing apparatus, program, and drawing method
JP7352603B2 (en) 2021-09-28 2023-09-28 株式会社Cygames Information processing device, program and drawing method

Similar Documents

Publication Publication Date Title
JP5614956B2 (en) Program, image generation system
JP5390115B2 (en) Program, game system
JP5161256B2 (en) Program, information storage medium, and image generation apparatus
JP5597837B2 (en) Program, information storage medium, and image generation apparatus
JP5300777B2 (en) Program and image generation system
US9345972B2 (en) Information storage medium, image generation system, and image generation method
JP2012210243A (en) Program, information storage medium, terminal, and server
JP2011053838A (en) Program, information storage medium, and image generation device
JP5443129B2 (en) Program and network system
JP6725248B2 (en) Game device and program
JP2023115237A (en) Game system, program, and game providing method
JP2012215934A (en) Program, information storage medium, terminal, and server
JP7223530B2 (en) Program, server device, game device, and game providing method
JP4363595B2 (en) Image generating apparatus and information storage medium
JP3747050B1 (en) Program, information storage medium, and image generation system
JP2011255114A (en) Program, information storage medium, and image generation system
JP4114825B2 (en) Image generating apparatus and information storage medium
JP2012252659A (en) Program, information storage medium, and server
JP2011096017A (en) Program, information storage medium and terminal
JP4420729B2 (en) Program, information storage medium, and image generation system
JP2008067853A (en) Program, information storage medium and image generation system
JP5597869B2 (en) Program, information storage medium, and image generation apparatus
JP2006263321A (en) Program, information storage medium, and image generation system
JP2006288951A (en) Game device and game control method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130903