[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2012178061A - Program, information storage medium and stereoscopic image generation device - Google Patents

Program, information storage medium and stereoscopic image generation device Download PDF

Info

Publication number
JP2012178061A
JP2012178061A JP2011040942A JP2011040942A JP2012178061A JP 2012178061 A JP2012178061 A JP 2012178061A JP 2011040942 A JP2011040942 A JP 2011040942A JP 2011040942 A JP2011040942 A JP 2011040942A JP 2012178061 A JP2012178061 A JP 2012178061A
Authority
JP
Japan
Prior art keywords
marker
parallax
cushion
game
marker body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011040942A
Other languages
Japanese (ja)
Other versions
JP5698028B2 (en
Inventor
Motohisa Ishii
源久 石井
Hiroshi Otsuka
裕 大塚
Shinobu Futamura
忍 二村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011040942A priority Critical patent/JP5698028B2/en
Publication of JP2012178061A publication Critical patent/JP2012178061A/en
Application granted granted Critical
Publication of JP5698028B2 publication Critical patent/JP5698028B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve a new image generation method for suppressing "the deviation of parallax" and "depth/concealment inconsistency" which is suitable for a stereoscopic image.SOLUTION: A target marker 10 is composed of a marker body 12, and a parallax cushion 14 which has a size larger than that of the marker body 12 and which is higher in transparency as it goes to an outer edge. The marker body 12 is arranged just before an instruction target object 4 to which the target marker 10 is applied. When the instruction target object 4 is hidden by virtual cameras C1 and C2 by another object 2, the parallax cushion 14 is arranged behind the marker body 12. Then, the contour section of the marker body 12 is shaded off by the parallax cushion 14 so that the contour can be made vague on a stereoscopic image. Thus, it is possible to suppress "depth/concealment inconsistency".

Description

本発明は、コンピュータに、所与の視点から見た仮想三次元空間の立体視用画像を生成させるためのプログラム等に関する。   The present invention relates to a program for causing a computer to generate a stereoscopic image in a virtual three-dimensional space viewed from a given viewpoint.

近年、立体視画像を表示できるディスプレイ(テレビを含む)が普及しつつある。それに伴い、ビデオゲームを立体視に対応させるための技術が提案されるようになった。
例えば、左眼用立体視画像及び右眼用立体視画像を生成するための左右の仮想カメラの距離を調整可能とし、立体視の迫力ある映像をそのままに、長時間立体視した場合の疲労感を低減する手法などが提案されている(例えば、特許文献1参照)。
In recent years, displays (including televisions) capable of displaying stereoscopic images are becoming popular. Along with this, a technique for making a video game compatible with stereoscopic vision has been proposed.
For example, it is possible to adjust the distance between the left and right virtual cameras for generating the left-eye stereoscopic image and the right-eye stereoscopic image, and the fatigue feeling when viewing stereoscopic images for a long time without changing the powerful stereoscopic image. A technique for reducing the above has been proposed (see, for example, Patent Document 1).

特開2011−24637号公報JP 2011-24637 A

さて、平面視画像(非立体視画像の意;左右両眼に共通に見せる画像)をベースとしたビデオゲームでは通用していた手法を立体視画像にそのまま適用しようとすると、必ずしも適当とは言い難いケースが散見される。例えば、2つの表示物の「表示の優先度」と「奥行き位置」が矛盾していて、どちらの条件も変更したくない場合には、「奥行・隠蔽矛盾」による見にくさの問題が発生する。より具体的にはシューティングゲームなどにおけるターゲットマーカがその一つである。   Now, it is not always appropriate to apply a technique that has been used in video games based on planar images (meaning non-stereoscopic images; images shared by both left and right eyes) to stereoscopic images. Difficult cases are seen. For example, if the “priority of display” and “depth position” of two display objects are inconsistent and you do not want to change either condition, the problem of difficulty in viewing due to “depth and concealment conflict” will occur. . More specifically, a target marker in a shooting game or the like is one of them.

例えば、シューティングゲームなどでは、ゲーム画面内に映っているキャラクタの内、目標物にターゲットマーカが表示されるのが一般的である。ターゲットマーカは、ゲームを進める上で重要な情報を表示するものであるから、表示優先度は一番高く、ゲーム画面内にどれにも隠されることなく最も手前に表示されてきた。つまり、隠蔽処理におけるプライオリティが最も高く、常に見えている状態にされる。平面視画像をベースとしたビデオゲームであれば、ターゲットマーカはゲーム画面の目標物(指示対象オブジェクト)の像と同じ上下左右位置に配置したり、当該像の近傍に配置すればその目的を果たすことができた。   For example, in a shooting game or the like, a target marker is generally displayed on a target among characters reflected in a game screen. Since the target marker displays information important for advancing the game, it has the highest display priority, and has been displayed in the foreground without being hidden in the game screen. That is, the priority in the concealment process is the highest and is always visible. In the case of a video game based on a planar view image, the target marker serves its purpose if it is placed in the same vertical and horizontal positions as the image of the target object (instruction target object) on the game screen or in the vicinity of the image. I was able to.

一方、両眼視差が生じる立体視画像の場合、当然のことながらゲーム画面を生成するための視点となる左右の仮想カメラから目標物(指示対象オブジェクト)まで固有の奥行が存在することになる。ターゲットマーカの役割からすると、表示の優先度は平面画像のゲームと同様に一番高くあって、なお且つ、目標物(指示対象オブジェクト)と同じ或いは近い奥行情報を持っているのが望ましい。しかし、平面視画像をベースとしたビデオゲームにおけるターゲットマーカ10の表示の考え方をそのまま踏襲したのでは、ターゲットマーカ10に求められる役割を十分に果たせなくなる。   On the other hand, in the case of a stereoscopic image in which binocular parallax occurs, as a matter of course, a unique depth exists from the left and right virtual cameras serving as viewpoints for generating the game screen to the target (instruction target object). In view of the role of the target marker, it is desirable that the display priority is the highest as in the case of a planar image game, and that the depth information is the same as or close to that of the target (instruction target object). However, if the concept of displaying the target marker 10 in a video game based on a planar view image is followed as it is, the role required for the target marker 10 cannot be fulfilled sufficiently.

例えば、図14は、戦闘機を駆って仮想の空中戦を楽しむフライトシューティングゲームにおける仮想三次元空間の様子の俯瞰概念図である。左仮想カメラC1及び右仮想カメラC2が自機2のオブジェクトの後方に相対位置固定に配置される、いわゆる「三人称視点」の位置にある画面レイアウトを示している。なお、左仮想カメラC1及び右仮想カメラC2と、自機2とについては、相対位置関係が分りやすいように大きく図示しているが、ターゲットマーカが目標物として指示する指示対象オブジェクト4については、図面サイズの関係上、小さく図示している。   For example, FIG. 14 is an overhead view conceptual view of a virtual three-dimensional space in a flight shooting game in which a fighter plane is driven to enjoy a virtual air battle. The screen layout in the position of the so-called “third-person viewpoint” in which the left virtual camera C1 and the right virtual camera C2 are arranged in a fixed relative position behind the object of the own device 2 is shown. Note that the left virtual camera C1, the right virtual camera C2, and the own device 2 are illustrated in a large size so that the relative positional relationship can be easily understood. Due to the size of the drawing, it is shown small.

平面視画像をベースとしたビデオゲームにおけるターゲットマーカの扱い、つまり単純に『表示の優先度が最も高いモノは、最も手前に描けばよい』をそのまま踏襲して立体視画像におけるターゲットマーカ10を扱うと、図14(1)に示すように、ターゲットマーカ10に、左仮想カメラC1及び右仮想カメラC2に最も近い仮想面7、(例えば前方クリップ面や、その直ぐ後の仮想面)の奥行情報を与えることになる。すなわち、指示対象オブジェクト4(4a,4b)よりもカメラ座標系Zc軸方向(仮想カメラに基づく奥行方向)手前側にターゲットマーカ10(10a,10b)が配置される。勿論、最終的なゲーム画面の生成に当ってはターゲットマーカ10の表示優先度は一番高く設定される。なお、ターゲットマーカのみに注目すれば、奥行位置を表示画面位置にするのが最も見やすいが、そのようにする場合には、その他のオブジェクトは、すべて表示画面よりも奥側に表示することとなる。この考え方では、ターゲットマーカの奥行位置が、その他のオブジェクトの奥行位置よりも手前側にあることを前提にしているからである。   Handling of the target marker in a video game based on a plane view image, that is, simply follow the target marker 10 in a stereoscopic image by following “the object with the highest display priority should be drawn first”. 14 (1), the depth information of the virtual surface 7 closest to the left virtual camera C1 and the right virtual camera C2 (for example, the front clip surface or the virtual surface immediately after it) is placed on the target marker 10 as shown in FIG. Will give. That is, the target marker 10 (10a, 10b) is arranged in front of the instruction target object 4 (4a, 4b) in the camera coordinate system Zc axis direction (depth direction based on the virtual camera). Of course, in generating the final game screen, the display priority of the target marker 10 is set highest. Note that if you focus only on the target marker, it is easiest to set the depth position to the display screen position, but in that case, all other objects will be displayed on the back side of the display screen. . This is because it is assumed that the depth position of the target marker is in front of the depth positions of other objects.

この考え方に基づくターゲットマーカ10の表示制御は、実装が簡単である。従来の平面視画像をベースとした手法をそのまま適用すれば済むからである。しかし、指示対象オブジェクト4(4a、4b)の奥行情報と、それぞれに対応するターゲットマーカ10(10a、10b)の奥行情報とは大きな隔たりが生じ得る。つまり「視差の乖離」が生じ、ターゲットマーカ10が指示対象オブジェクト4と離れたところにあって見づらくなる。但し、右のターゲットマーカ10bは、対応する右の指示対象オブジェクト4bが自機2に隠される。そのため、「視差の乖離」が問題となることは少ない。   The display control of the target marker 10 based on this concept is easy to implement. This is because a conventional method based on a planar view image may be applied as it is. However, there may be a large gap between the depth information of the instruction target object 4 (4a, 4b) and the depth information of the corresponding target marker 10 (10a, 10b). That is, a “parallax divergence” occurs, and the target marker 10 is located away from the instruction target object 4 and is difficult to see. However, in the right target marker 10b, the corresponding right instruction target object 4b is hidden by the own device 2. Therefore, “parallax deviation” is rarely a problem.

では、ターゲットマーカ10の奥行情報を、指示対象オブジェクト4に合わせれば良いかというとそうとは言えない。左右の仮想カメラとターゲットマーカが付される指示対象オブジェクトとの間に他のオブジェクトが配置され、目標物の一部又は全部をカメラから隠してしまうケースで不具合が生じる。
そうしたケースとしては、例えば、フライトシューティングゲームにおける三人称視点による画面レイアウトでは、目標物(この場合敵機)と、左右の仮想カメラとの間に自機が存在し、目標物をその背後に隠してしまう例が挙げられる。また、狙撃手役のプレーヤが、NPC(ノンプレーヤキャラクタ)の目標物を狙撃するFPS(ファースト・パーソン・シューティング)ゲームにおいて、プレーヤの視点(左右の仮想カメラ)と、目標物との間に、自動車や他の人間などの障害物が移動・通過するシーンなども該当する。
Then, it cannot be said that the depth information of the target marker 10 should be matched with the instruction target object 4. Another object is arranged between the left and right virtual cameras and the instruction target object to which the target marker is attached, and a problem occurs when a part or all of the target is hidden from the camera.
In such a case, for example, in a screen layout from a third person perspective in a flight shooting game, there is an own aircraft between the target (in this case, enemy aircraft) and the left and right virtual cameras, and the target is hidden behind it. An example is given. Also, in an FPS (First Person Shooting) game in which a player who is a sniper player snips a target of an NPC (non-player character), between the player's viewpoint (left and right virtual cameras) and the target, This also applies to scenes where obstacles such as cars and other humans move and pass.

ターゲットマーカ10の奥行情報を、指示対象オブジェクト4に合わせる手法について図14(2)を参照して具体的に説明する。図14(2)において、自機2に隠されない左のターゲットマーカ10aについては、指示対象オブジェクト4(4a)とほぼ同じ奥行位置のマーカ配置面8(8a)に配置されているため、ターゲットマーカ10aと指示対象オブジェクト4(4a)との「視差の乖離」は極めて小さく問題にならない。一方、自機2に隠されてしまう右のターゲットマーカ10bについては、指示対象オブジェクト4(4b)とほぼ同じ奥行き位置であるため、こちらも問題無いように思える。しかし、「視差の乖離」ではなく「奥行・隠蔽矛盾」の点で問題が生じる。すなわち、ターゲットマーカ10の表示優先度、つまり隠蔽処理におけるプライオリティは最も高く、ゲーム画面上最も手前に表示されるために、あたかもターゲットマーカ10bが自機2に埋まって見える。しかも、片方の目には、埋まっているように見える部分が、他方の眼には、埋まっていないように見える、といった「視野闘争」が生じ、結果として、実際にはありえないような不自然な埋まり方に見える。これが「奥行・隠蔽矛盾」であり、見にくさの原因となる。   A method of matching the depth information of the target marker 10 with the instruction target object 4 will be specifically described with reference to FIG. In FIG. 14 (2), the left target marker 10a that is not hidden by the own device 2 is arranged on the marker arrangement surface 8 (8a) at substantially the same depth position as the instruction target object 4 (4a). The “parallax deviation” between 10a and the instruction target object 4 (4a) is extremely small and does not cause a problem. On the other hand, the right target marker 10b which is hidden by the own device 2 is almost the same depth position as the instruction target object 4 (4b), so this also seems to have no problem. However, a problem arises in terms of “depth and concealment contradiction” rather than “parallax divergence”. That is, the display priority of the target marker 10, that is, the priority in the concealment process is the highest, and the target marker 10 b appears to be buried in the own device 2 because it is displayed in the forefront on the game screen. Moreover, a “field-of-view struggle” occurs in which one eye appears to be buried, while the other eye appears to be unfilled. It looks like it ’s buried. This is a “depth / concealment contradiction”, which is difficult to see.

フライトシューティングゲームにおけるターゲットマーカの具体例を挙げて説明したが、この問題は、この例に限られるわけではない。シューティングゲームの銃口の方向を示す照準や、医用や建築用などの三次元画像上の部位をポインティングデバイスで示すためのポインターといったマーカ体全般に同様に発生する問題である。   Although a specific example of the target marker in the flight shooting game has been described, this problem is not limited to this example. This is a problem that occurs in the same way for all marker bodies such as a sight indicating the direction of the muzzle of a shooting game and a pointer for indicating a part on a three-dimensional image for medical or architectural purposes with a pointing device.

また、このように2つの表示物の「表示の優先度」と「奥行き位置」が矛盾している場合で、どちらの条件も変更したくない場合に、「奥行・隠蔽矛盾」による見にくさの問題が発生するケースは、ターゲットマーカやポインターに限らない。
例えば、ゲームに登場するキャラクタの発言をテキスト表示するケースも同様である。発言内容と発言するキャラクタの2つの表示物について見ると、発言内容(ターゲットマーカに相当)はゲーム進行上重要な要素であるから「表示の優先度」を高くして最も手前側に表示したいが、発言するキャラクタが画面奧に存在するといった場合なども、上述のターゲットマーカと同様の問題が生じ得る。
In addition, when the “display priority” and the “depth position” of the two display objects are inconsistent in this way and neither of the conditions is to be changed, it is difficult to see due to the “depth / concealment contradiction”. Cases where problems occur are not limited to target markers and pointers.
For example, the same applies to the case in which the remarks of characters appearing in the game are displayed in text. Looking at the two display objects of the comment content and the character to speak, the comment content (corresponding to the target marker) is an important element in the game progress, so I want to increase the "display priority" and display it on the front side. The same problem as that of the above-described target marker can also occur when a character to speak is present on the screen.

そこで、本発明は、立体視画像に適合する、「視差の乖離」と「奥行・隠蔽矛盾」とを抑制できる新しい画像生成手法を実現することを目的とする。   Therefore, an object of the present invention is to realize a new image generation method capable of suppressing “parallax divergence” and “depth / concealment contradiction” that are suitable for a stereoscopic image.

以上の課題を解決するための第1の形態は、コンピュータに、所与の視点から見た仮想三次元空間の立体視用画像を生成させるためのプログラムであって、
前記仮想三次元空間の中から指示対象オブジェクトを判定する指示対象物判定手段(例えば、図5の処理部200、ゲーム演算部210、ターゲットマーカ配置制御部218、マーカ本体配置制御部220、図8のステップS30)、
前記指示対象オブジェクトを指示する所定のマーカ体(例えば、図3のマーカ本体12)を、前記指示対象オブジェクトの位置或いは前記視点から見て前記指示対象オブジェクトの直近手前側に配置するマーカ体配置手段(例えば、図5の処理部200、ゲーム演算部210、ターゲットマーカ配置制御部218、マーカ本体配置制御部220、図8のステップS32〜S38)、
前記指示対象オブジェクト及び前記他のオブジェクトの描画の後に所定のぼかし処理を施して前記マーカ体を描画することで、前記マーカ体の輪郭の視認性を低下させて前記マーカ体を現出させた立体視画像を生成する隠蔽時画像生成手段(例えば、図5の処理部200、ゲーム演算部210、マーカ本体配置制御部220、ぼかし処理部222、立体視画像生成部261、図8のステップS52〜ステップS78、図7のステップS100)、として前記コンピュータを機能させるためのプログラムである。
A first mode for solving the above problem is a program for causing a computer to generate a stereoscopic image in a virtual three-dimensional space viewed from a given viewpoint,
An instruction target determining means for determining an instruction target object from the virtual three-dimensional space (for example, the processing unit 200, the game calculation unit 210, the target marker arrangement control unit 218, the marker main body arrangement control unit 220 in FIG. Step S30),
Marker body disposing means for disposing a predetermined marker body (for example, the marker body 12 in FIG. 3) indicating the instruction target object in front of the instruction target object when viewed from the position of the instruction target object or the viewpoint. (For example, the processing unit 200 in FIG. 5, the game calculation unit 210, the target marker arrangement control unit 218, the marker main body arrangement control unit 220, steps S32 to S38 in FIG. 8),
A three-dimensional object in which the marker body is displayed by reducing the visibility of the contour of the marker body by rendering the marker body by performing a predetermined blurring process after drawing the instruction target object and the other object. Concealment image generation means for generating a visual image (for example, the processing unit 200 in FIG. 5, the game calculation unit 210, the marker main body arrangement control unit 220, the blur processing unit 222, the stereoscopic image generation unit 261, and steps S52 to S52 in FIG. 8). A program for causing the computer to function as Step S78 and Step S100 in FIG.

また、別形態として、所与の視点から見た仮想三次元空間の立体視用画像を生成する立体視画像生成装置であって、
前記仮想三次元空間の中から指示対象オブジェクトを判定する指示対象物判定手段と、
前記指示対象オブジェクトを指示する所定のマーカ体を、前記指示対象オブジェクトの位置或いは前記視点から見て前記指示対象オブジェクトの直近手前側に配置するマーカ体配置手段と、
前記指示対象オブジェクト及び前記他のオブジェクトの描画の後に所定のぼかし処理を施して前記マーカ体を描画することで、前記マーカ体の輪郭の視認性を低下させて前記マーカ体を現出させた立体視画像を生成する隠蔽時画像生成手段と、を備えた立体視画像生成装置(例えば、図1の家庭用ゲーム装置1200)を構成することができる。
Further, as another embodiment, a stereoscopic image generation device that generates a stereoscopic image of a virtual three-dimensional space viewed from a given viewpoint,
An instruction target determining means for determining an instruction target object from the virtual three-dimensional space;
Marker body placement means for placing a predetermined marker body that points to the pointing target object on a position in front of the pointing target object as viewed from the position of the pointing target object or the viewpoint;
A three-dimensional object in which the marker body is displayed by reducing the visibility of the contour of the marker body by rendering the marker body by performing a predetermined blurring process after drawing the instruction target object and the other object. A stereoscopic image generation device (for example, the home game device 1200 in FIG. 1) including a concealment-time image generation unit that generates a visual image can be configured.

第1の形態及びその別形態によれば、立体視用画像を生成する際に、指示対象オブジェクト及びこれを仮想カメラから隠す他のオブジェクトを描画した後に、輪郭がぼかされたマーカ体を描画することで、当該マーカ体の輪郭の視認性を低下させることができる。そもそも、立体感の認識には輪郭部分の情報が非常に重要である。人間は、輪郭がはっきりしている方が、すなわち境界が明確である方が視差を感じやすい。そこで、マーカ体の輪郭を意図的にあいまいにすることにより、マーカ体が指示対象オブジェクト又はマーカ体そのものを隠す他オブジェクトの上に重なって表示されるシーンであっても、当該他オブジェクトにマーカ体が不自然に埋没して見える「奥行・隠蔽矛盾」を大幅に抑制することができる。   According to the first mode and the other mode, when generating the stereoscopic image, after the target object and the other object that hides the pointing target object from the virtual camera are drawn, the marker body with the blurred outline is drawn. By doing so, the visibility of the outline of the marker body can be reduced. In the first place, the information on the outline is very important for the recognition of the three-dimensional effect. Humans tend to feel parallax when the outline is clear, that is, when the boundary is clear. Therefore, even if the marker body is overlaid on another object that hides the instruction target object or the marker body itself by intentionally blurring the outline of the marker body, the marker body is displayed on the other object. Can greatly suppress the “depth / concealment contradiction” that appears to be buried unnaturally.

ぼかし処理について着目すれば、第2の形態のように、前記隠蔽時画像生成手段が、前記立体視画像において前記マーカ体の描画部分を含む前記ぼかし処理の対象範囲を判定する対象範囲判定手段(例えば、図5の処理部200、ゲーム演算部210、マーカ本体配置制御部220、ぼかし処理部222、視差座布団配置制御部224、図8のステップS66,S68)と、前記対象範囲に前記ぼかし処理を施すぼかし処理手段(例えば、図5の処理部200、ゲーム演算部210、マーカ本体配置制御部220、ぼかし処理部222、視差座布団カラー設定部226、図8のステップS74,S76)と、を有する、ように前記コンピュータを機能させるための第1の形態のプログラムを構成するとしてもよい。   If attention is paid to the blurring process, as in the second embodiment, the concealment-time image generating unit is a target range determining unit that determines the target range of the blurring process including the drawing portion of the marker body in the stereoscopic image ( For example, the processing unit 200, the game calculation unit 210, the marker main body arrangement control unit 220, the blurring processing unit 222, the parallax cushion layout control unit 224 in FIG. 5 and steps S66 and S68 in FIG. Blur processing means (for example, the processing unit 200 in FIG. 5, the game calculation unit 210, the marker body arrangement control unit 220, the blur processing unit 222, the parallax cushion color setting unit 226, and steps S74 and S76 in FIG. 8). The program of the 1st form for making the said computer function may be comprised so that it may have.

更には、第3の形態として、前記ぼかし処理手段が、前記対象範囲内であって且つ前記他のオブジェクトの描画部分に前記ぼかし処理を施すように前記コンピュータを機能させるための第2の形態のプログラムを構成することができる。   Furthermore, as a third mode, a second mode for causing the computer to function so that the blur processing unit performs the blur processing on the drawing portion of the other object that is within the target range. A program can be configured.

また、「ぼかし」を施す範囲の判定について着目すれば、第4の形態として、前記ぼかし処理の対象範囲を定めるための対象範囲決定体(例えば、図3の視差座布団14)を、前記視点と前記マーカ体との間に配置する対象範囲決定体配置手段(例えば、図5の処理部200、ゲーム演算部210、マーカ本体配置制御部220、ぼかし処理部222、視差座布団配置制御部224、図8のステップS66,S68)として前記コンピュータを機能させ、前記対象範囲判定手段が、前記対象範囲決定体を用いて前記ぼかし処理の対象範囲を判定するように前記コンピュータを機能させる、ための第2又は第3の形態のプログラムを構成することができる。   If attention is paid to the determination of the range to be subjected to “blur”, as a fourth embodiment, a target range determining body (for example, the parallax cushion 14 in FIG. 3) for determining the target range of the blur processing is defined as the viewpoint. Target range determining body placement means to be placed between the marker bodies (for example, the processing unit 200, the game calculation unit 210, the marker body placement control unit 220, the blur processing unit 222, the parallax cushion placement control unit 224, FIG. Second step for causing the computer to function as Steps S66 and S68 of FIG. 8, and for causing the target range determination means to determine the target range of the blurring process using the target range determining body. Or the program of the 3rd form can be constituted.

また、「ぼかし」の範囲に着目すれば、第5の形態として、前記対象範囲決定体配置手段が、前記対象範囲決定体のサイズを可変に設定するサイズ設定手段(例えば、図5の処理部200、視差座布団配置制御部224、図8のステップS66,S68)を有する、ように前記コンピュータを機能させるための第4の形態のプログラムを構成することができる。   Focusing on the range of “blurring”, as a fifth embodiment, the target range determining body arranging means sets the size of the target range determining body variably (for example, the processing unit in FIG. 5). 200, the parallax cushion layout control unit 224, and steps S66 and S68 in FIG. 8, the fourth form of the program for causing the computer to function can be configured.

また、対象範囲決定体の色の扱いに着目すれば、第6の形態として、前記ぼかし処理手段が、前記対象範囲決定体の色を用いて半透明合成処理することで前記ぼかし処理を行う、ように前記コンピュータを機能させるための第4又は第5の形態のプログラムを構成することができる。   Further, if attention is paid to the handling of the color of the target range determining body, as the sixth form, the blurring processing unit performs the blurring process by performing a translucent synthesis process using the color of the target range determining body. As described above, the fourth or fifth form program for causing the computer to function can be configured.

また更に「ぼかし」の手法そのものに着目すれば、第7の形態として、前記隠蔽時画像生成手段が、前記マーカ体の色を半透明合成処理することで前記マーカ体にぼかし処理を施して描画するマーカ体半透明合成処理手段(例えば、図5の処理部200、ゲーム演算部210、ターゲットマーカ配置制御部218、図10のステップS44〜S46)を有する、ように前記コンピュータを機能させるための第1〜第6の何れかの形態のプログラムを構成することができる。   Further, focusing on the “blurring” technique itself, as a seventh form, the concealed image generation means performs a blurring process on the marker body by rendering the color of the marker body semi-transparent and performs drawing. And a marker body translucent synthesis processing means (for example, the processing unit 200 in FIG. 5, the game calculation unit 210, the target marker arrangement control unit 218, and steps S44 to S46 in FIG. 10). The program in any one of the first to sixth forms can be configured.

また、「ぼかし」を施す条件に着目すれば、第8の形態として、前記隠蔽判定手段により隠れないと判定された場合に、前記指示対象オブジェクトの描画の後に前記隠蔽時画像生成手段による前記ぼかし処理と同様のぼかし処理を施してマーカ体を描画して立体視画像を生成する非隠蔽時画像生成手段として前記コンピュータを更に機能させるための第1〜第7の何れかの形態のプログラムを構成することができる。   Focusing on the conditions for performing “blurring”, as an eighth mode, when the concealment determining unit determines that the target object is not hidden, the blurring by the concealed image generation unit after drawing of the instruction target object is performed. A program according to any one of the first to seventh forms for further causing the computer to function as a non-hidden image generation unit that performs a blur process similar to the process and draws a marker body to generate a stereoscopic image can do.

第9の形態は、第1〜第8の何れかの形態のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第9の発明によれば、第1〜第8の何れかの形態のプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第8の形態の何れかと同様の効果を発揮させることができる。   The ninth form is a computer-readable information storage medium storing the program of any one of the first to eighth forms. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the ninth aspect, by causing the computer to read and execute the program of any one of the first to eighth forms, causing the computer to exert the same effect as any of the first to eighth forms. Can do.

立体視画像生成装置である据置型の家庭用ゲーム装置のシステム構成の一例を示す図。The figure which shows an example of the system configuration | structure of the stationary household game device which is a stereoscopic vision image generation apparatus. 第1実施形態におけるゲーム画面例を示す図。The figure which shows the example of a game screen in 1st Embodiment. ターゲットマーカの構成例を示す図。The figure which shows the structural example of a target marker. ターゲットマーカの表示方法の原理を説明するための概念図。The conceptual diagram for demonstrating the principle of the display method of a target marker. 第1実施形態における機能構成の一例を示す機能ブロック図。The functional block diagram which shows an example of the function structure in 1st Embodiment. プレイデータのデータ構成の一例を示す図。The figure which shows an example of the data structure of play data. 第1実施形態における主たる処理の流れを説明するためのフローチャートThe flowchart for demonstrating the flow of the main processes in 1st Embodiment. 第1実施形態におけるターゲットマーカ配置処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the target marker arrangement | positioning process in 1st Embodiment. 第2実施形態におけるゲーム画面例を示す図。The figure which shows the example of a game screen in 2nd Embodiment. 第2実施形態における発言イベントを説明するための図。The figure for demonstrating the speech event in 2nd Embodiment. 第2実施形態における発言イベント処理の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the speech event process in 2nd Embodiment. 視差座布団の設定の変形例を示す概念図。The conceptual diagram which shows the modification of the setting of a parallax cushion. ターゲットマーカ配置処理の変形例の流れを説明するためのフローチャート。The flowchart for demonstrating the flow of the modification of a target marker arrangement | positioning process. ターゲットマーカの配置の考え方を示す概念図。The conceptual diagram which shows the view of the arrangement | positioning of a target marker.

〔第1実施形態〕
本発明を適用した第1実施形態として、立体視画像生成装置の1つである据置型の家庭用ゲーム装置において、仮想三次元空間でオブジェクトを移動制御する様子を描画した画像(3DCG:3次元コンピュータグラフィックス)を生成してフライトシューティングゲームを実行する例を挙げる。
なお、ゲームジャンルはフライトシューティングゲームに限る物ではなく、左右の仮想カメラとターゲットマーカで目標物として指示される指示対象オブジェクトとの間に、他オブジェクトが配置され得るゲームであれば、FPSや、RPG(ロールプレイングゲーム)、アクションゲーム、音楽ゲームなどその他のジャンルでも良い。
[First Embodiment]
As a first embodiment to which the present invention is applied, an image (3DCG: three-dimensional) depicting a state in which movement control of an object is performed in a virtual three-dimensional space in a stationary home game device that is one of stereoscopic image generating devices. An example of executing a flight shooting game by generating computer graphics) will be given.
Note that the game genre is not limited to the flight shooting game, but FPS or any other game can be used as long as other objects can be placed between the left and right virtual cameras and the target object indicated by the target marker as the target. Other genres such as RPG (role playing game), action game, and music game may be used.

[ゲーム装置の構成]
図1は、本実施形態における立体視画像生成装置である据置型の家庭用ゲーム装置のシステム構成の一例を示す図である。据置型の家庭用ゲーム装置1200は、ゲーム装置本体1201と、立体視画像を表示できるビデオモニタ1220と、ゲームコントローラ1230とを備える。
[Configuration of game device]
FIG. 1 is a diagram illustrating an example of a system configuration of a stationary home-use game device that is a stereoscopic image generation device according to the present embodiment. The stationary home game device 1200 includes a game device main body 1201, a video monitor 1220 that can display a stereoscopic image, and a game controller 1230.

ゲーム装置本体1201は、例えば制御ユニット1210と、光学ディスク1202やメモリカード1204といった情報記憶媒体の読み取り装置1206,1208とを備える。そして、家庭用ゲーム装置1200は、光学ディスク1202やメモリカード1204からゲームプログラム及び各種設定データを読み出し、ゲームコントローラ1230に為される操作入力等に基づいて制御ユニット1210が各種のゲーム演算を実行してビデオゲームを実行する。   The game apparatus main body 1201 includes, for example, a control unit 1210 and information storage medium reading devices 1206 and 1208 such as an optical disk 1202 and a memory card 1204. Then, the home game device 1200 reads the game program and various setting data from the optical disk 1202 and the memory card 1204, and the control unit 1210 executes various game operations based on operation inputs made by the game controller 1230. Run video games.

制御ユニット1210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子機器を備え家庭用ゲーム装置1200の各部を制御する。   The control unit 1210 includes various microprocessors such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and a DSP (Digital Signal Processor), and electrical and electronic devices such as an ASIC (Application Specific Integrated Circuit) and an IC memory. Each part of the game apparatus 1200 is controlled.

また、制御ユニット1210は、通信装置1212と、近距離無線通信モジュール1214とを備える。
通信装置1212は、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と有線又は無線接続し、外部装置との間でデータ通信を実現する。近距離無線通信モジュール1214は、近距離無線を介して複数のゲームコントローラ1230との間でデータの送受信を実現する。近距離無線の形式としては、例えばBluetooth(登録商標)やUWB(超広帯域無線)、無線LANなどが適宜適用可能である。
The control unit 1210 includes a communication device 1212 and a short-range wireless communication module 1214.
The communication device 1212 is wired or wirelessly connected to a communication line 1 such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network) to realize data communication with an external device. The short-range wireless communication module 1214 implements data transmission / reception with a plurality of game controllers 1230 via short-range wireless. As a short-range wireless format, for example, Bluetooth (registered trademark), UWB (ultra-wide band wireless), wireless LAN, or the like can be applied as appropriate.

そして、制御ユニット1210は、ゲームコントローラ1230から受信した操作入力信号に基づいて左眼用の3DCGと右眼用の3DCGとを元にして、それらに各種情報表示体を付加した左眼用立体視画像と右眼用立体視画像を生成し、またゲーム音を生成してビデオゲームを実行する。
生成された立体視画像に基づく映像信号やゲーム音に基づく音信号は、信号ケーブル1209で接続されたビデオモニタ1220(ディスプレイモニタ、音声信号やビデオ信号などの外部入力が可能なテレビを含む意)に出力される。なお、ゲーム画面は、ビデオモニタ1220で採用される立体視方式に適合した画像として生成されるものとする。
Then, based on the operation input signal received from the game controller 1230, the control unit 1210 is based on the left-eye 3DCG and the right-eye 3DCG, and adds various information display bodies to the left-eye stereoscopic view. An image and a right-eye stereoscopic image are generated, and a game sound is generated to execute a video game.
The video signal based on the generated stereoscopic image and the sound signal based on the game sound are connected to a video monitor 1220 connected via a signal cable 1209 (including a display monitor and a television capable of external input such as an audio signal and a video signal). Is output. It is assumed that the game screen is generated as an image that conforms to the stereoscopic method adopted by the video monitor 1220.

ビデオモニタ1220は、立体視画像(一般に「3次元映像」とも呼ばれる立体感を与える映像)を所定の原理に基づいて表示する画像表示装置である。
本実施形態では、ビデオモニタ1220には、画像を表示するフラットパネルディスプレイ1222と、音声を放音出力するスピーカ1224と、偏光メガネ方式又は液晶シャッター方式に分類される立体視メガネ1226と、当該メガネに制御信号を送信するためのIRエミッター1228とを備える。
The video monitor 1220 is an image display device that displays a stereoscopic image (a video that gives a stereoscopic effect generally called “three-dimensional video”) based on a predetermined principle.
In this embodiment, the video monitor 1220 includes a flat panel display 1222 that displays an image, a speaker 1224 that emits and outputs sound, stereoscopic glasses 1226 that are classified into a polarized glasses method or a liquid crystal shutter method, and the glasses. And an IR emitter 1228 for transmitting a control signal.

プレーヤは、立体視メガネ1226を装着し、ビデオモニタ1220のフラットパネルディスプレイ1222に表示される左眼用立体視画像や右眼用立体視画像を見つつ、スピーカ1224から放音されるゲーム音を聞きながらゲームコントローラ1230で各種操作を入力してゲームを楽しむ。なお、ビデオモニタ1220が裸眼立体視方式を採用する場合には、立体視メガネ1226及びIRエミッター1228を省略することができる。   The player wears stereoscopic glasses 1226, and plays the game sound emitted from the speaker 1224 while viewing the left-eye stereoscopic image and the right-eye stereoscopic image displayed on the flat panel display 1222 of the video monitor 1220. While listening, the game controller 1230 inputs various operations to enjoy the game. Note that when the video monitor 1220 adopts the autostereoscopic method, the stereoscopic glasses 1226 and the IR emitter 1228 can be omitted.

ゲームコントローラ1230は、内蔵するコントローラ制御ユニット1260を中心に、各種入力デバイス及び出力デバイスをローカルバス回路によって接続しており、コントローラ制御ユニット1260によって各デバイス間の入出力を制御する。   The game controller 1230 connects various input devices and output devices by a local bus circuit with a built-in controller control unit 1260 as a center, and the controller control unit 1260 controls input / output between the devices.

入力デバイスとしては、例えば選択の決定やキャンセル、タイミングの入力などに用いられるプッシュボタン1232と、図で言うところの上下左右の各方向を単独入力するための方向入力キー1234と、操作方向と操作量とを同時に入力することのできる右アナログレバー1236及び左アナログレバー1238とを備える。   As input devices, for example, push buttons 1232 used for selection decision and cancellation, timing input, and the like, direction input keys 1234 for individually inputting each of the up, down, left and right directions in the figure, the operation direction and the operation A right analog lever 1236 and a left analog lever 1238 capable of inputting the amount simultaneously.

コントローラ制御ユニット1260は、例えば、CPUやローカルバス回路におけるデータ通信を制御するバスコントローラICなどの各種マイクロチップやICメモリなどの電子部品、及びゲーム装置本体1201の近距離無線通信モジュール1214と無線通信を実現する近距離無線通信モジュール1262、などを搭載する。   The controller control unit 1260 wirelessly communicates with various microchips such as a bus controller IC that controls data communication in a CPU or a local bus circuit, an electronic component such as an IC memory, and the short-range wireless communication module 1214 of the game apparatus main body 1201. A short-range wireless communication module 1262 that realizes the above is mounted.

そして、コントローラ制御ユニット1260は、ローカルバス回路を介して各種入力デバイスから送信された信号に基づいて操作入力信号を生成し、生成した操作入力信号を近距離無線通信モジュール1262でゲーム装置本体1201へ送信する。また、スピーカやバイブレータなどの出力デバイスを搭載する構成では、近距離無線通信モジュール1262によって、ゲーム装置本体1201から送出された出力信号を受信した場合には、受信した出力信号に対応づけられている出力デバイスへ制御信号を生成、送出することができる。なお、コントローラ制御ユニット1260及び各部が必要とする電力は、ゲームコントローラ1230に内蔵されたバッテリー(非図示)から供給される。   Then, the controller control unit 1260 generates an operation input signal based on signals transmitted from various input devices via the local bus circuit, and the generated operation input signal is transmitted to the game apparatus main body 1201 by the short-range wireless communication module 1262. Send. Further, in a configuration in which an output device such as a speaker or a vibrator is mounted, when an output signal sent from the game apparatus main body 1201 is received by the short-range wireless communication module 1262, the output signal is associated with the received output signal. A control signal can be generated and sent to the output device. Note that power required by the controller control unit 1260 and each unit is supplied from a battery (not shown) built in the game controller 1230.

なお、ゲーム実行に必要なプログラム及び各種設定データは、通信装置1212を介して通信回線1に接続し、外部装置からダウンロードして取得する構成であっても良い。ここで言う、通信回線とは、データ授受が可能な通信路を意味する。すなわち、通信回線とは、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLAN(Local Area Network)の他、電話通信網やケーブル網、インターネット等の通信網を含む意味であり、また、通信方法については有線/無線を問わない。   Note that the program and various setting data necessary for game execution may be connected to the communication line 1 via the communication device 1212 and downloaded from an external device. Here, the communication line means a communication path through which data can be exchanged. That is, the communication line includes a dedicated line (dedicated cable) for direct connection, a LAN (Local Area Network) such as Ethernet (registered trademark), and a communication network such as a telephone communication network, a cable network, and the Internet. In addition, the communication method may be wired or wireless.

[ターゲットマーカの表示手法の説明]
図2は、本実施形態におけるゲーム画面例を示す図であって、左眼用のゲーム画面つまり左眼用立体視画像の例を示している。
[Description of target marker display method]
FIG. 2 is a diagram illustrating an example of a game screen in the present embodiment, and illustrates an example of a left-eye game screen, that is, a left-eye stereoscopic image.

本実施形態は、仮想三次元空間に背景オブジェクト(例えば、地面の凹凸を構成する地面オブジェクトと、空を描いたテクスチャが内面に適用される半球状の天球オブジェクト)が配置されゲーム空間が形成される。ゲーム空間内には、プレーヤキャラクタに相当する自機2や、NPC(ノンプレーヤキャラクタ)に相当する複数の敵機3(3c,3d)となるキャラクタオブジェクト、および、ターゲットマーカ10(10c,10d)を構成するオブジェクトが配置される。そして、プレーヤキャラクタである自機2の斜め後方所定位置には、左眼用立体視画像を生成する際の視点となる左仮想カメラと、右眼用立体視画像を生成する際の視点となる右仮想カメラとが配置される。   In the present embodiment, a background space (for example, a ground object that forms an uneven surface of the ground and a hemispherical celestial object to which a texture depicting the sky is applied to the inner surface) is arranged in a virtual three-dimensional space to form a game space. The In the game space, the own object 2 corresponding to the player character, a character object serving as a plurality of enemy aircraft 3 (3c, 3d) corresponding to the NPC (non-player character), and the target marker 10 (10c, 10d) Are arranged. Then, at a predetermined position obliquely behind the player's character 2 as the player character, the left virtual camera serving as the viewpoint for generating the left-eye stereoscopic image and the viewpoint for generating the right-eye stereoscopic image are provided. A right virtual camera is arranged.

左仮想カメラ及び右仮想カメラで撮影された自機2を含む画像は、それぞれ左眼用ゲーム空間画像、右眼用ゲーム空間画像となる。そして、それぞれの所定位置に、自機2が向いている方位を示す方位メータ20や、プレイ開始からの経過時間表示21、自機2の飛行速度22や飛行高度23、レーダー画面24、残弾数などを示す兵装ステータス表示25や、耐久値表示26などが合成されて、左眼用立体視画像(左眼用ゲーム画面)と、右眼用立体視画像(右眼用ゲーム画面)となり、ビデオモニタ1220にて表示される。   Images including the own device 2 photographed by the left virtual camera and the right virtual camera are a left-eye game space image and a right-eye game space image, respectively. At each predetermined position, an azimuth meter 20 indicating the direction in which the aircraft 2 is facing, an elapsed time display 21 from the start of play, a flight speed 22 and a flight altitude 23 of the aircraft 2, a radar screen 24, a remaining bullet The weapon status display 25 indicating the number and the durability value display 26 are combined to form a left-eye stereoscopic image (left-eye game screen) and a right-eye stereoscopic image (right-eye game screen). Are displayed on the video monitor 1220.

図3は、本実施形態におけるターゲットマーカ10の構成例を示す図である。ターゲットマーカ10は、マーカ本体12と、視差座布団14との2つから構成される。   FIG. 3 is a diagram illustrating a configuration example of the target marker 10 in the present embodiment. The target marker 10 is composed of a marker body 12 and a parallax cushion 14.

マーカ本体12は、透明な板ポリゴンの上に、所定色の十字文様や矩形枠など指示対象物の視認性を高めるための図形が描画された表示体である。図形のデザインは図示された例に限らず、六角形や、三角形、矢印など適宜設定することができる。   The marker main body 12 is a display body in which a graphic for enhancing the visibility of the pointing object such as a cross pattern or a rectangular frame of a predetermined color is drawn on a transparent plate polygon. The design of the graphic is not limited to the illustrated example, and a hexagon, a triangle, an arrow, or the like can be set as appropriate.

視差座布団14は、マーカ本体12よりも一回り大きい板ポリゴンである。基本となる色を、マーカ本体12の色に類似(近似)する色、例えばマーカ本体12の色の彩度をやや落とした色とし、中央から外周に向けて透明度が高くなるように設定される。なお、仮想カメラから見たターゲットマーカ10の指し示す指示対象オブジェクトの方向の背景色の類似色、より具体的には背景色の近似色相の色に設定することとしても良い。また、例えば、仮想三次元空間の背景色の平均色などを基準に決めることもできる。例えば、背景の平均色の色相と同じ或いは近似した色相とすると、少ない描画負荷で、あたかも背景が透けて見えているかのような表現とすることができる。また、明度を下げたり、灰色、青色等、いわゆる「後退色」にする或いは「後退色」に近似する色にすることで、引っ込んでいる感じをより効果的に演出することができる。
なお、マーカ本体12や視差座布団14を、ポリゴンではなく、所与のプリミティブ面やパーティクルで構成することとしてもよい。
The parallax cushion 14 is a plate polygon that is slightly larger than the marker body 12. The basic color is a color that is similar (approximate) to the color of the marker main body 12, for example, a color in which the saturation of the color of the marker main body 12 is slightly reduced, and is set so that the transparency increases from the center toward the outer periphery. . Note that it may be set to a similar color of the background color in the direction of the instruction target object pointed to by the target marker 10 as viewed from the virtual camera, more specifically, an approximate hue color of the background color. Further, for example, it can be determined based on the average background color of the virtual three-dimensional space. For example, if the hue is the same as or close to the hue of the average color of the background, it can be expressed as if the background is seen through with a small drawing load. Further, by lowering the brightness or using a so-called “backward color” such as gray or blue, or a color similar to the “backward color”, it is possible to produce the feeling of being retracted more effectively.
Note that the marker body 12 and the parallax cushion 14 may be configured by a given primitive surface or particles instead of polygons.

中央部分の透明度に関して、より詳しく述べると、表示優先度、つまり隠蔽処理におけるプライオリティについては、マーカ本体12が最も高く、前述の方位メータ20や経過時間表示21と同じとされる。次の優先度は視差座布団14に設定され、それより下位の優先度には自機2や敵機3、背景などのオブジェクトが設定される。
視差座布団14の中央部分、立体視画像においてマーカ本体12の像と重なる部分の透明度(図3のt)は、最終的な立体視画像において、ターゲットマーカ10の背後に表示されるであろう指示対象オブジェクトを隠す他オブジェクト(例えば自機2)の配色が、視差座布団14の色と混じり合い、ターゲットマーカ10の輪郭がぼやけて見えるように設定すると、視差座布団14とターゲットマーカ10の間にも、視差を和らげる効果が発生し、より見やすい立体視画像とすることができる。ただし、それに限定されるものではなく、例えば、実装の手間や描画負荷を軽減させたい場合や、(視差座布団14の奥行位置は不明瞭にするが)ターゲットマーカ10の奥行位置は明確に示したい場合などには、任意に設定してかまわない。
More specifically, regarding the transparency of the central portion, the display priority, that is, the priority in the concealment process, is the highest in the marker main body 12 and is the same as the direction meter 20 and the elapsed time display 21 described above. The next priority is set to the parallax cushion 14, and objects such as the own aircraft 2, the enemy aircraft 3, and the background are set to lower priorities.
The transparency of the central portion of the parallax cushion 14 and the portion of the stereoscopic image that overlaps the image of the marker body 12 (t in FIG. 3) is an instruction that will be displayed behind the target marker 10 in the final stereoscopic image. If the color scheme of the other object that hides the target object (for example, its own device 2) is mixed with the color of the parallax cushion 14 and the outline of the target marker 10 appears to be blurred, the parallax cushion 14 and the target marker 10 are also displayed. Thus, an effect of reducing parallax occurs, and a stereoscopic image that is easier to view can be obtained. However, the present invention is not limited to this. For example, when it is desired to reduce mounting effort or drawing load, or the depth position of the target marker 10 should be clearly indicated (although the depth position of the parallax cushion 14 is obscured). In some cases, it may be set arbitrarily.

次に、ターゲットマーカ10の具体的な表示方法について説明する。
図4は、本実施形態におけるターゲットマーカの表示方法の原理を説明するための概念図であって、左仮想カメラC1及び右仮想カメラC2が自機2のオブジェクトの後方の所定相対位置、いわゆる「三人称視点」に固定される場合を示している。
なお、左仮想カメラC1及び右仮想カメラC2と自機2とについては、相対位置関係が分りやすいように大きく図示しているが、ターゲットマーカ10が付与される指示対象オブジェクト4については、図面サイズの関係上、小さく図示している。
Next, a specific method for displaying the target marker 10 will be described.
FIG. 4 is a conceptual diagram for explaining the principle of the target marker display method according to the present embodiment, in which the left virtual camera C1 and the right virtual camera C2 have a predetermined relative position behind the object of the own device 2, that is, so-called “ This shows the case of being fixed to the “third-person viewpoint”.
Note that the left virtual camera C1, the right virtual camera C2, and the own device 2 are illustrated in a large size so that the relative positional relationship can be easily understood, but the instruction target object 4 to which the target marker 10 is attached is illustrated in the drawing size. Because of this, it is shown small.

図4では、左仮想カメラC1及び右仮想カメラC2から見ると、ターゲットマーカ10が付与される指示対象オブジェクト4(図2の敵機3に相当)が、自機2によって一部又は全部が隠されている。つまり、自機2が指示対象オブジェクト4を隠す遮蔽オブジェクトとなっている。   In FIG. 4, when viewed from the left virtual camera C <b> 1 and the right virtual camera C <b> 2, the instruction target object 4 (corresponding to the enemy aircraft 3 in FIG. 2) to which the target marker 10 is attached is partially or entirely hidden by the own device 2. Has been. That is, the own device 2 is a shielding object that hides the instruction target object 4.

ターゲットマーカ10のマーカ本体12は、指示対象オブジェクト4よりも仮想カメラ側に、つまりカメラ座標系Zc軸マイナス方向へ、僅かに距離L1だけ離した位置に設定されるマーカ配置面6に配置される。なお、マーカ配置面6は指示対象オブジェクト4上に設定することとしてもよい。すなわち、指示対象オブジェクト4の位置或いは視点から見て指示対象オブジェクト4の直近手前側にマーカ本体12は配置される。よって、マーカ本体12、ひいてはターゲットマーカ10と指示対象オブジェクト4との間に基本的には「視差の乖離」は生じない。また、マーカ本体12の色は適宜設定可能である。   The marker main body 12 of the target marker 10 is arranged on the marker arrangement surface 6 set at a position slightly separated from the instruction target object 4 by the distance L1 toward the virtual camera side, that is, in the minus direction of the camera coordinate system Zc axis. . The marker arrangement surface 6 may be set on the instruction target object 4. That is, the marker main body 12 is arranged on the closest front side of the instruction target object 4 when viewed from the position or viewpoint of the instruction target object 4. Therefore, basically no “parallax divergence” occurs between the marker main body 12 and consequently the target marker 10 and the instruction target object 4. Moreover, the color of the marker main body 12 can be set as appropriate.

一方、視差座布団14は、左仮想カメラC1と右仮想カメラC2の少なくとも何れか一方から見て当該指示対象オブジェクトの一部又は全部が他のオブジェクト(自機2)の背後に隠れる場合に、左仮想カメラC1用の左視差座布団141と、右仮想カメラC2用の右視差座布団142として配置される。   On the other hand, the parallax cushion 14 is left when a part or all of the instruction target object is hidden behind another object (own device 2) when viewed from at least one of the left virtual camera C1 and the right virtual camera C2. The left parallax cushion 141 for the virtual camera C1 and the right parallax cushion 142 for the right virtual camera C2 are arranged.

その際、左視差座布団141及び右視差座布団142の配置位置は、座布団配置面8上とされる。座布団配置面8は、隠蔽オブジェクトとなっている自機2の代表点P2から仮想カメラ側に、つまりカメラ座標系Zc軸マイナス方向へ、所定距離L2だけ仮想カメラ寄りに有って、カメラ座標系Zc軸と垂直な面とされる。そして、左視差座布団141のサイズは、左仮想カメラC1から見たマーカ本体12を左視差座布団141の表示範囲で包含し、右視差座布団142のサイズは、右仮想カメラC2から見たマーカ本体12を右視差座布団142の表示範囲で包含するように設定される。   At this time, the arrangement positions of the left parallax cushion 141 and the right parallax cushion 142 are on the cushion arrangement surface 8. The cushion placement surface 8 is located closer to the virtual camera by a predetermined distance L2 from the representative point P2 of the own device 2 serving as the concealment object to the virtual camera side, that is, in the minus direction of the camera coordinate system Zc axis. The surface is perpendicular to the Zc axis. The size of the left parallax cushion 141 includes the marker body 12 viewed from the left virtual camera C1 in the display range of the left parallax cushion 141, and the size of the right parallax cushion 142 is the marker body 12 viewed from the right virtual camera C2. Is included in the display range of the right parallax cushion 142.

より具体的には、左仮想カメラC1及び右仮想カメラC2から見たマーカ本体12の四隅の座標をそれぞれの視差座布団配置面8上で算出し、それらが視差座布団の範囲内に収まるように、左視差座布団141及び右視差座布団142の配置サイズを決定する。また、視差座布団の色については、上述した通り例えば背景色に近い色を適宜決定する。   More specifically, the coordinates of the four corners of the marker body 12 viewed from the left virtual camera C1 and the right virtual camera C2 are calculated on the respective parallax cushion layout surfaces 8 so that they are within the range of the parallax cushion. The arrangement sizes of the left parallax cushion 141 and the right parallax cushion 142 are determined. Further, as described above, for example, a color close to the background color is appropriately determined as the color of the parallax cushion.

そして、決定された配置サイズ及び色の左視差座布団141及び右視差座布団142を、それぞれ左仮想カメラC1及び右仮想カメラC2から見たマーカ本体12の中心位置(又は指示対象オブジェクト4の代表点)と座布団配置面8との交差位置に、視差座布団14(141,142)の中心位置を合わせるように配置する。   Then, the center position of the marker body 12 (or the representative point of the instruction target object 4) when the left parallax cushion 141 and the right parallax cushion 142 of the determined arrangement size and color are viewed from the left virtual camera C1 and the right virtual camera C2, respectively. Are arranged so that the center position of the parallax cushions 14 (141, 142) is aligned with the intersecting position of the cushion cushion placement surface 8.

前述のように、表示優先度、つまり隠蔽処理におけるプライオリティについては、マーカ本体12が最も高く、前述の方位メータ20や経過時間表示21と同じとされる。次の優先度は、視差座布団14に設定され、それより下位の優先度には自機2や敵機3、背景などのオブジェクトが設定される。   As described above, the display priority, that is, the priority in the concealment process, is the highest in the marker body 12 and is the same as the direction meter 20 and the elapsed time display 21 described above. The next priority is set to the parallax cushion 14, and objects such as the own aircraft 2, the enemy aircraft 3, and the background are set to lower priorities.

結果、視差座布団14は、マーカ本体12の輪郭をあいまいにするためのぼかし処理の対象範囲を定めるための対象範囲決定体としての意味を持ち、ターゲットマーカ10がマーカ本体12に類似(近似)した色でうっすらと着色されて「ぼかし処理」されたのと同じ状態になり、ターゲットマーカ10の輪郭があいまいとなる。一見すると、あたかも自機2を透過してマーカ本体12或いはそのマーカ本体12が指示する指示対象オブジェクト4が透けて見えているかのように感じることとなる。   As a result, the parallax cushion 14 has a meaning as a target range determining body for determining a target range of blurring processing for blurring the outline of the marker main body 12, and the target marker 10 is similar (approximate) to the marker main body 12. It becomes the same state as being slightly colored and “blurred”, and the outline of the target marker 10 becomes ambiguous. At first glance, the user feels as if the marker body 12 or the instruction target object 4 indicated by the marker body 12 is seen through the own device 2.

そもそも、人間は、物体の輪郭をはっきり視認でき、境界が明確であるほうが視差を感じやすい。従って、ターゲットマーカ10の輪郭があいまいとなることにより、ターゲットマーカ10が自機2の上に重なって表示されるシーンであっても(図2参照)、自機2にターゲットマーカ10が埋没して見えたりする「奥行・隠蔽矛盾」を大幅に抑制することができる。   In the first place, human beings can clearly see the outline of an object, and it is easier to feel parallax when the boundary is clear. Accordingly, the target marker 10 is buried in the own device 2 even when the target marker 10 is displayed on the own device 2 because the outline of the target marker 10 is ambiguous (see FIG. 2). It is possible to greatly suppress “depth / concealment contradiction” that can be seen.

[機能ブロックの説明]
図5は、本実施形態における機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、家庭用ゲーム装置1200は、操作入力部100と、処理部200と、音出力部350と、立体視画像表示部361と、通信部370と、記憶部500とを備える。
[Description of functional block]
FIG. 5 is a functional block diagram illustrating an example of a functional configuration according to the present embodiment. As shown in the figure, in this embodiment, the consumer game device 1200 includes an operation input unit 100, a processing unit 200, a sound output unit 350, a stereoscopic image display unit 361, a communication unit 370, and a storage unit. 500.

操作入力部100は、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。図1では、コントローラ1230が操作入力部100に該当する。   The operation input unit 100 outputs an operation input signal to the processing unit 200 in accordance with various operation inputs made by the player. In FIG. 1, the controller 1230 corresponds to the operation input unit 100.

処理部200は、例えばマイクロプロセッサやASIC(特定用途向け集積回路)、ICメモリなどの電子部品によって実現され、操作入力部100や記憶部500をはじめ各機能部との間でデータの入出力を行うとともに、所定のプログラムやデータ、操作入力部100からの操作入力信号に基づいて各種の演算処理を実行して、据置型家庭用ゲーム装置1200の動作を制御する。図1では、ゲーム装置本体1201に内蔵された制御ユニット1210が処理部200に該当する。
そして本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、立体視画像生成部261と、通信制御部270とを備える。
The processing unit 200 is realized by electronic components such as a microprocessor, an ASIC (application specific integrated circuit), and an IC memory, and inputs / outputs data to / from each functional unit such as the operation input unit 100 and the storage unit 500. At the same time, various arithmetic processes are executed based on predetermined programs and data and operation input signals from the operation input unit 100 to control the operation of the stationary home game apparatus 1200. In FIG. 1, the control unit 1210 built in the game apparatus main body 1201 corresponds to the processing unit 200.
The processing unit 200 in this embodiment includes a game calculation unit 210, a sound generation unit 250, a stereoscopic image generation unit 261, and a communication control unit 270.

ゲーム演算部210は、ビデオゲームを実行するための各種処理を実行する。例えば、ゲーム空間設定部212を備え、仮想3次元空間内に背景オブジェクトを配置してゲーム空間を形成し、そこにプレーヤキャラクタである自機2やNPCである敵機3のキャラクタオブジェクトを配置する処理をする。   The game calculation unit 210 executes various processes for executing a video game. For example, the game space setting unit 212 is provided, a background object is arranged in a virtual three-dimensional space to form a game space, and a character object of the player's own device 2 that is a player character or an enemy device 3 that is an NPC is arranged there. Process.

また、キャラクタ動作制御部214を備え、プレーヤキャラクタのオブジェクトを操作入力部100からの操作入力に応じて動作させる処理、及びNPCのオブジェクトを自動的に移動及び動作させるいわゆるAI制御をする処理を実行する。   In addition, a character motion control unit 214 is provided, and a process for moving the player character object in accordance with an operation input from the operation input unit 100 and a so-called AI control process for automatically moving and moving the NPC object are executed. To do.

また、仮想カメラ制御部216を備え、プレーヤキャラクタ及びNPCの様子を撮影する仮想カメラの位置や姿勢、画角など撮影パラメータを自動制御する処理を実行する。
その他、ゲーム演算部210は、プレーヤキャラクタとNPCの攻撃や接触の判定処理、攻撃によるダメージの反映処理、勝敗の判定処理などを実行する。また、適宜カウンタ、タイマーに係る計時処理、フラグ設定などビデオゲームの実行に必要な各種処理を実行することができる。なお、ビデオゲームの進行制御に関する処理は、公知のフライトシューティングゲームのそれと同様にして実現できる。
In addition, a virtual camera control unit 216 is provided to execute processing for automatically controlling shooting parameters such as the position, posture, and angle of view of the virtual camera that captures the player character and the NPC.
In addition, the game calculation unit 210 executes an attack / contact determination process between the player character and the NPC, an attack damage reflection process, a win / loss determination process, and the like. In addition, various processes necessary for the execution of the video game, such as a counter, a timer process relating to a timer, and a flag setting, can be executed as appropriate. Note that the processing related to the progress control of the video game can be realized in the same manner as that of a known flight shooting game.

そして、本実施形態のゲーム演算部210は、更にターゲットマーカ配置制御部218を備える。ターゲットマーカ配置制御部218は、仮想三次元空間の中からターゲットマーカ10を付与すべき指示対象オブジェクトを抽出し、抽出した指示対象オブジェクト4毎についてターゲットマーカ10の表示制御を行う。
具体的には、ターゲットマーカ配置制御部218は、マーカ本体配置制御部220と、ぼかし処理部222とを含む。
And the game calculating part 210 of this embodiment is further provided with the target marker arrangement | positioning control part 218. FIG. The target marker arrangement control unit 218 extracts an instruction target object to which the target marker 10 should be added from the virtual three-dimensional space, and performs display control of the target marker 10 for each extracted instruction target object 4.
Specifically, the target marker arrangement control unit 218 includes a marker main body arrangement control unit 220 and a blur processing unit 222.

マーカ本体配置制御部220は、ゲーム空間内に配置されているオブジェクトの中からターゲットマーカ10で指示されるべき指示対象オブジェクト4を判定し、マーカ本体12を指示対象オブジェクト4の位置或いは視点から見て指示対象オブジェクト4の直近手前側に配置する。指示対象オブジェクト4の判定は、例えば、いわゆるロックオンする敵機を抽出する公知の方法と同様にして実施可能である。   The marker main body arrangement control unit 220 determines the instruction target object 4 to be instructed by the target marker 10 from the objects arranged in the game space, and sees the marker main body 12 from the position or viewpoint of the instruction target object 4. Are arranged in front of the instruction target object 4. The determination of the instruction target object 4 can be performed, for example, in the same manner as a known method for extracting a so-called enemy aircraft to be locked on.

ぼかし処理部222は、ターゲットマーカ10の輪郭部を対応するマーカ本体12の色となじむようにするべくマーカ本体12の周囲に「ぼかし」が施されたかのような処理をする。   The blur processing unit 222 performs processing as if “blurring” has been applied to the periphery of the marker body 12 so that the contour of the target marker 10 matches the color of the corresponding marker body 12.

具体的には、ぼかし処理部222は視差座布団配置制御部224を含み、指示対象オブジェクト4毎に、当該指示対象オブジェクト4及び他のオブジェクト(自機2)の位置関係に基づいて、左仮想カメラC1及び右仮想カメラC2の少なく何れか一方の視点から見て当該指示対象オブジェクト4の一部又は全部を背後に隠す他オブジェクト(隠蔽オブジェクト)の有無を判定する。なお、左仮想カメラC1及び右仮想カメラC2の少なく何れか一方の視点から見てマーカ本体12の一部又は全部を背後に隠す他オブジェクトを隠蔽オブジェクトとして判定してもよい。   Specifically, the blur processing unit 222 includes a parallax cushion placement control unit 224, and for each instruction target object 4, based on the positional relationship between the instruction target object 4 and another object (own device 2), the left virtual camera The presence / absence of another object (hidden object) that hides part or all of the instruction target object 4 behind as viewed from at least one of the viewpoints of C1 and the right virtual camera C2 is determined. Note that another object that hides part or all of the marker main body 12 behind as viewed from at least one of the left virtual camera C1 and the right virtual camera C2 may be determined as a hidden object.

そして、該当する他オブジェクト(隠蔽オブジェクト)が有る場合には、ターゲットマーカ10の輪郭をぼかす対象範囲を定めるための対象範囲決定体となる左視差座布団141及び右視差座布団142を、対応する視点(左仮想カメラC1、右仮想カメラC2)とマーカ本体12との間に配置する。この際、各視差座布団のサイズを、対応する視点から見たマーカ本体12を包含するように一回り大きく設定する。換言すると、立体視画像におけるマーカ本体12の描画部分を含むぼかし処理の対象範囲を判定し、当該対象範囲を視差座布団14のサイズとする。   When there is a corresponding other object (hidden object), the left parallax cushion 141 and the right parallax cushion 142, which are target range determining bodies for determining the target range to blur the outline of the target marker 10, are displayed on the corresponding viewpoint ( The left virtual camera C1 and the right virtual camera C2) are arranged between the marker body 12 and the left virtual camera C1. At this time, the size of each parallax cushion is set to be slightly larger so as to include the marker body 12 viewed from the corresponding viewpoint. In other words, the target range of the blurring process including the drawing portion of the marker main body 12 in the stereoscopic image is determined, and the target range is set as the size of the parallax cushion 14.

また、ぼかし処理部222は視差座布団カラー設定部226を含む。視差座布団カラー設定部226は、対象範囲決定体(左視差座布団141、右視差座布団142)の基本色を、例えば背景色を基準に設定する。なお、ここで言う基本色は、必ずしも一色という意味ではなく、例えば視点(左仮想カメラC1、右仮想カメラC2)から見て視差座布団14に重なる指示対象オブジェクト4の背景となる部分(必ずしも、背景としてのオブジェクトに限らず、他のキャラクタオブジェクトなどがそこに含まれるのも可)の配色をそのまま抜き出して視差座布団用のテクスチャを生成し、利用する構成としてもよい。また、遠景を描画した画像をテクスチャに保持しておき、その配色を利用する構成としても良い。また、マーカ本体12をよりぼかすために、マーカ本体12の色と所定の近似色条件を満たす色(例えば明度及び/又は彩度を下げた色)としてもよい。   Further, the blur processing unit 222 includes a parallax cushion color setting unit 226. The parallax cushion color setting unit 226 sets the basic colors of the target range determining bodies (the left parallax cushion 141 and the right parallax cushion 142) based on the background color, for example. Note that the basic color here does not necessarily mean a single color, for example, a portion (not necessarily a background) that is the background of the instruction target object 4 that overlaps the parallax cushion 14 when viewed from the viewpoint (left virtual camera C1, right virtual camera C2). It is also possible to generate a texture for the parallax cushion and extract and use the color scheme of other character objects and the like. Moreover, it is good also as a structure which hold | maintains the image which drawn the distant view in the texture, and uses the color scheme. In addition, in order to further blur the marker body 12, the color of the marker body 12 and a color that satisfies a predetermined approximate color condition (for example, a color with reduced brightness and / or saturation) may be used.

そして、視差座布団カラー設定部226は、「ぼかし」を施す対象範囲決定体(左視差座布団141、右視差座布団142)の透明度を、立体視画像においてマーカ本体12が描画される部分を所定の透明度t(図3参照)に設定し、外縁に向かうにつれて透明度が高くなり所定の透明度(例えば100%)に至るように設定する。   Then, the parallax cushion color setting unit 226 sets the transparency of the target range determining body (the left parallax cushion 141 and the right parallax cushion 142) to be “blurred”, and the predetermined transparency of the portion where the marker body 12 is drawn in the stereoscopic image. It is set to t (see FIG. 3), and the transparency increases as it goes to the outer edge so as to reach a predetermined transparency (for example, 100%).

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)などのプロセッサやその制御プログラムによって実現され、本実施形態で示すようなワーム状キャラクタWをゲーム内に登場させる場合には、ゲームに係る効果音やBGM、各種操作音の音信号を生成し音出力部350に出力する。   The sound generation unit 250 is realized by a processor such as a digital signal processor (DSP) or its control program, for example. When the worm-like character W as shown in the present embodiment appears in the game, the sound effect related to the game Sound signals of BGM and various operation sounds are generated and output to the sound output unit 350.

音出力部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力するための装置である。図1ではビデオモニタ1220のスピーカ1224がこれに該当する。   The sound output unit 350 is a device for outputting sound effects, BGM, and the like based on the sound signal input from the sound generation unit 250. In FIG. 1, the speaker 1224 of the video monitor 1220 corresponds to this.

立体視画像生成部261は、例えば、デジタルシグナルプロセッサ(DSP)などのプロセッサ、その制御プログラム、フレームバッファ等の描画フレーム用ICメモリ等によって実現される。立体視画像生成部261は、所定の画像生成タイミング(例えば1/240秒)で左仮想カメラC1を視点とするゲーム空間の画像を元にした左眼用立体視画像と、右仮想カメラC2を視点とするゲーム空間の画像を元にした右眼用立体視画像を生成し、生成した立体視画像の画像信号を立体視画像表示部361に出力する。   The stereoscopic image generation unit 261 is realized by, for example, a processor such as a digital signal processor (DSP), a control program thereof, a drawing frame IC memory such as a frame buffer, and the like. The stereoscopic image generation unit 261 generates a left-eye stereoscopic image based on a game space image with the left virtual camera C1 as a viewpoint and a right virtual camera C2 at a predetermined image generation timing (for example, 1/240 seconds). A right-eye stereoscopic image based on the game space image as a viewpoint is generated, and an image signal of the generated stereoscopic image is output to the stereoscopic image display unit 361.

立体視画像表示部361は、立体視画像生成部261から入力される画像信号に基づいて立体視可能にゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置と、当該画像表示装置の立体視原理に対応した立体視メガネ及びそれに制御信号を送信する送信機などによって実現できる。図1ではビデオモニタ1220のフラットパネルディスプレイ1222、立体視メガネ1226、IRエミッター1228が該当する。   The stereoscopic image display unit 361 displays a game image in a stereoscopic manner based on the image signal input from the stereoscopic image generation unit 261. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, or a head mounted display, stereoscopic glasses corresponding to the stereoscopic vision principle of the image display device, and a transmitter that transmits a control signal thereto. In FIG. 1, the flat panel display 1222, the stereoscopic glasses 1226, and the IR emitter 1228 of the video monitor 1220 correspond.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線1と物理レベルで接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1では通信装置1212がこれに該当する。   The communication unit 370 connects to the communication line 1 at a physical level to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a cable communication cable jack, a control circuit, and the like, and the communication device 1212 corresponds to this in FIG.

記憶部500は、処理部200にゲーム装置1200を統合的に制御させるための諸機能を実現するためのプログラムや、ビデオゲームの進行を実行するためのプログラム、各種データ等を記憶する。また、処理部200の作業領域として用いられ、処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。   The storage unit 500 stores a program for realizing various functions for causing the processing unit 200 to control the game apparatus 1200 in an integrated manner, a program for executing a video game, various data, and the like. Further, it is used as a work area of the processing unit 200, and temporarily stores calculation results executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. This function is realized by, for example, an IC memory such as a RAM and a ROM, a magnetic disk such as a hard disk, and an optical disk such as a CD-ROM and DVD.

本実施形態の記憶部500は、システムプログラム501と、ゲームプログラム502と、ゲーム空間設定データ510と、キャラクタ設定データ512と、マーカ本体設定データ516とを予め記憶している。また、ゲームの準備や進行、並びに画像生成に伴って随時生成や更新が行われるデータとして、プレイデータ518を記憶する。   The storage unit 500 of the present embodiment stores in advance a system program 501, a game program 502, game space setting data 510, character setting data 512, and marker body setting data 516. Further, play data 518 is stored as data that is generated and updated as needed in accordance with game preparation and progress and image generation.

システムプログラム501は、家庭用ゲーム装置1200のコンピュータとしての入出力の基本機能を実現するためのプログラムである。ゲームプログラム502は、処理部200が読み出して実行することによってゲーム演算部210としてゲーム進行制御するための諸機能を実現させるためのアプリケーションソフトである。なお、ゲームプログラム502は、システムプログラム501の一部として組み込まれた構成であっても良い。   The system program 501 is a program for realizing input / output basic functions as a computer of the consumer game device 1200. The game program 502 is application software for realizing various functions for controlling the game progress as the game calculation unit 210 by being read and executed by the processing unit 200. The game program 502 may be configured as a part of the system program 501.

ゲーム空間設定データ510は、仮想三次元空間にゲーム空間を構成するための背景オブジェクトのモデルデータや、テクスチャデータ、モーションデータ、配置位置座標、などの情報をオブジェクト毎に格納する。   The game space setting data 510 stores information such as background object model data, texture data, motion data, and arrangement position coordinates for configuring the game space in the virtual three-dimensional space for each object.

キャラクタ設定データ512は、自機2や敵機3などのキャラクタとなるオブジェクトのモデルデータや、テクスチャデータ、様々な動作を実現するための複数のモーションデータセット(例えば、モーションIDとそれに対応するモーションデータを含む)、配置位置座標、移動パターン、装備品の初期設定、などの情報をオブジェクト毎に格納する。   The character setting data 512 includes model data of objects to be characters such as the own aircraft 2 and the enemy aircraft 3, texture data, and a plurality of motion data sets for realizing various operations (for example, motion IDs and corresponding motion data). Data), arrangement position coordinates, movement pattern, initial setting of equipment, and the like are stored for each object.

マーカ本体設定データ516は、マーカ本体12を表示させるためのデータを格納する。例えば、モデルデータや、テクスチャデータ、配色データなどを格納する。   The marker body setting data 516 stores data for displaying the marker body 12. For example, model data, texture data, color arrangement data, and the like are stored.

プレイデータ518は、現在実行中のゲーム進行状況を示す各種パラメータ値を格納する。具体的には、例えば図6に示すように、左右フラグ519と、自機ステータスデータ520と、敵機ステータスデータ522と、左仮想カメラ制御データ524と、右仮想カメラ制御データ526と、を含む。   The play data 518 stores various parameter values indicating the progress of the game currently being executed. Specifically, for example, as shown in FIG. 6, it includes a left / right flag 519, own aircraft status data 520, enemy aircraft status data 522, left virtual camera control data 524, and right virtual camera control data 526. .

左右フラグ519は、今回の画像生成タイミングにおいて、左右何れの立体視画像を生成するかを示す。例えば、「1」が左、「0」が右をそれぞれ示し、画像生成タイミング毎に切り換えられる。   The left / right flag 519 indicates which of the left and right stereoscopic images is to be generated at the current image generation timing. For example, “1” indicates the left and “0” indicates the right, and is switched at every image generation timing.

自機ステータスデータ520と、敵機ステータスデータ522は、それぞれ自機2、敵機3の状態を示すデータ、例えば、位置座標、姿勢、移動速度、加速度、残段数、耐久値、配色データなどを格納する。   The own aircraft status data 520 and the enemy aircraft status data 522 are data indicating the states of the own aircraft 2 and the enemy aircraft 3, respectively, such as position coordinates, posture, moving speed, acceleration, remaining number of stages, durability value, color scheme data, and the like. Store.

左仮想カメラ制御データ524と、右仮想カメラ制御データ526は、左仮想カメラC1及び右仮想カメラC2の状態を示すパラメータ値や、撮影条件を示すパラメータ値を格納する。例えば、仮想カメラの配置位置、視線方向、撮影画角、絞り値、フィルタ種類、などを格納する。   The left virtual camera control data 524 and the right virtual camera control data 526 store parameter values indicating the states of the left virtual camera C1 and the right virtual camera C2, and parameter values indicating the shooting conditions. For example, the virtual camera arrangement position, line-of-sight direction, shooting angle of view, aperture value, filter type, and the like are stored.

そして、プレイデータ518は、ターゲットマーカ10の表示制御に関する情報として、指示対象オブジェクトリスト528と、マーカ本体制御データ530と、視差座布団付与オブジェクトリスト534と、遮蔽オブジェクトリスト536と、視差座布団制御データ540とを含む。   The play data 518 includes, as information related to display control of the target marker 10, an instruction target object list 528, a marker body control data 530, a parallax cushion assignment object list 534, a shielding object list 536, and parallax cushion control data 540. Including.

指示対象オブジェクトリスト528は、ゲーム空間内に配置されたキャラクタオブジェクトの内、目標物とされるオブジェクトのオブジェクトIDを格納する。本実施形態では、ゲーム演算部210が、現在の自機2の位置から所定範囲(例えば、自機2の射程圏内)に入った敵機3のオブジェクトを抽出し、抽出したオブジェクトの識別情報を格納する。そして、ゲーム進行とともに自機2と敵機3の相対位置が変化するのに応じて逐次更新される。   The instruction target object list 528 stores an object ID of an object to be a target among character objects arranged in the game space. In the present embodiment, the game calculation unit 210 extracts an object of the enemy aircraft 3 that has entered a predetermined range (for example, within the range of the own device 2) from the current position of the own device 2, and the identification information of the extracted object is obtained. Store. And as the relative position of the own aircraft 2 and the enemy aircraft 3 changes with the progress of the game, it is sequentially updated.

マーカ本体制御データ530は、マーカ本体12を表示させるための情報を格納する。一つのマーカ本体12毎に一つのマーカデータセット532が用意される。
そして、一つのマーカデータセット532には、当該マーカ本体を識別するためのマーカ本体ID532aと、当該マーカ本体が付与される指示対象オブジェクト4のオブジェクトIDを格納する対応オブジェクトID532bと、当該マーカ本体の代表点位置座標532cと、マーカ本体12の面の向きを示すマーカ本体面法線ベクトル532dとを格納する。勿論、その他の情報、例えば表示色や明滅パターンなどといった情報も対応づけて格納することができる。
The marker body control data 530 stores information for displaying the marker body 12. One marker data set 532 is prepared for each marker body 12.
One marker data set 532 includes a marker body ID 532a for identifying the marker body, a corresponding object ID 532b for storing the object ID of the instruction target object 4 to which the marker body is assigned, and the marker body. The representative point position coordinate 532c and the marker body surface normal vector 532d indicating the orientation of the surface of the marker body 12 are stored. Of course, other information such as display color and blinking pattern can be stored in association with each other.

視差座布団付与オブジェクトリスト534は、指示対象オブジェクト4の内、当該指示対象オブジェクトと左仮想カメラC1及び右仮想カメラC2の何れかとの間に他オブジェクトが存在し、指示対象オブジェクト4の一部又は全部を隠す他オブジェクトのオブジェクトIDを格納する。なお、指示対象オブジェクト4ではなく、マーカ本体12の一部又は全部を隠す他オブジェクトのオブジェクトIDを格納することとしてもよい。   The parallax cushion assignment object list 534 includes, among the instruction target objects 4, other objects exist between the instruction target object and any one of the left virtual camera C <b> 1 and the right virtual camera C <b> 2. The object ID of the other object that hides is stored. Note that the object ID of another object that hides part or all of the marker main body 12 instead of the instruction target object 4 may be stored.

遮蔽オブジェクトリスト536は、視差座布団付与オブジェクトリスト534に登録されている指示対象オブジェクト4と対応づけて、当該オブジェクトの一部又は全部を左仮想カメラC1又は右仮想カメラC2から隠す他オブジェクトそれ自体のオブジェクトIDを格納する。   The occlusion object list 536 is associated with the instruction target object 4 registered in the parallax cushion assignment object list 534, and a part or all of the object is hidden from the left virtual camera C1 or the right virtual camera C2 by other objects themselves. Stores the object ID.

視差座布団制御データ540は、視差座布団の表示制御に関する情報を格納する。具体的には、視差座布団付与オブジェクトリスト534に登録されたオブジェクト毎に視差座布団組データ544が格納される。   The parallax cushion control data 540 stores information related to display control of the parallax cushion. Specifically, parallax cushion set data 544 is stored for each object registered in the parallax cushion assignment object list 534.

一つの視差座布団組データ544は、当該組が対応づけられるマーカ本体の識別情報を格納する対応マーカ本体ID544aを含む。対応マーカ本体IDは、これ自体が当該組データの識別情報ともなる。また、当該組に含まれる左視差座布団141の具体的な配置位置と配置姿勢及びポリゴンの表示色や透明度を定義する情報として、左視差座布団代表点位置座標544bと、左視差座布団面法線ベクトル544c、左視差座布団ポリゴンデータ544dを含む。同様に、当該組に含まれる右視差座布団142について、右視差座布団代表点位置座標544eと、右視差座布団面法線ベクトル544f、右視差座布団ポリゴンデータ544gを含む。   One parallax cushion set data 544 includes a corresponding marker body ID 544a that stores identification information of a marker body with which the set is associated. The corresponding marker body ID itself also serves as identification information of the set data. Further, as information defining the specific arrangement position and arrangement posture of the left parallax cushion 141 included in the set, the display color and transparency of the polygon, the left parallax cushion representative point position coordinate 544b, the left parallax cushion cushion normal vector 544c and left parallax cushion polygon data 544d. Similarly, the right parallax cushion cushion representative point position coordinate 544e, the right parallax cushion cushion surface normal vector 544f, and the right parallax cushion cushion polygon data 544g are included for the right parallax cushion cushion 142 included in the set.

左視差座布団代表点位置座標544bと、右視差座布団代表点位置座標544eには、例えば、視差座布団14の中心点の座標が設定される。
左視差座布団ポリゴンデータ544dと、右視差座布団ポリゴンデータ544gには、それぞれの視差座布団14の代表点を基準とした頂点位置座標、頂点カラー、頂点透明度、頂点間のピクセルのカラーや透明度を決定するための情報などを格納する。
For example, the coordinates of the center point of the parallax cushion 14 are set in the left parallax cushion representative point position coordinate 544b and the right parallax cushion representative point position coordinate 544e.
In the left parallax cushion polygon data 544d and the right parallax cushion polygon data 544g, vertex position coordinates, vertex colors, vertex transparency, pixel color and transparency between the vertexes are determined based on the representative points of the respective parallax cushions 14. To store information and so on.

なお、記憶部500には、ゲームの進行や画像生成に係る処理を実行するにあたり必要となる各種データ(例えば、タイマー値やカウンタ、座標変換行列、テクスチャ、Zバッファなど)も適宜記憶されるものとする。   The storage unit 500 also stores various data (for example, timer values, counters, coordinate transformation matrices, textures, Z buffers, etc.) necessary for executing processes related to game progress and image generation as appropriate. And

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。ここで説明する一連の処理の流れは、処理部200がシステムプログラム501を実行中に、ゲームプログラム502を実行することによって実現される。
[Description of process flow]
Next, the flow of processing in this embodiment will be described. A series of processing flow described here is realized by executing the game program 502 while the processing unit 200 is executing the system program 501.

図7は、本実施形態における主たる処理の流れを説明するためのフローチャートである。処理部200は先ず、初期化処理として、ゲーム空間設定データ510及びキャラクタ設定データ512を参照して、仮想三次元空間に背景やプレーヤキャラクタ(自機2)、NPC(敵機3)等のオブジェクトを初期配置し、プレーヤキャラクタ(自機2)及びNPC(敵機3)については、それぞれ自機ステータスデータ520、敵機ステータスデータ522を生成し、逐次更新を開始する(ステップS2)。   FIG. 7 is a flowchart for explaining the main processing flow in the present embodiment. First, as an initialization process, the processing unit 200 refers to the game space setting data 510 and the character setting data 512, and in the virtual three-dimensional space, objects such as a background, a player character (own device 2), and an NPC (enemy device 3). Are initially arranged, and for the player character (own machine 2) and NPC (enemy machine 3), own machine status data 520 and enemy machine status data 522 are generated, respectively, and sequential updating is started (step S2).

更に、仮想三次元空間内に、左仮想カメラC1及び右仮想カメラC2を配置し、左仮想カメラ制御データ524及び右仮想カメラ制御データ526を生成して、逐次更新を開始する(ステップS4)。また更に、左右フラグ519を初期化する(ステップS6)。   Further, the left virtual camera C1 and the right virtual camera C2 are arranged in the virtual three-dimensional space, the left virtual camera control data 524 and the right virtual camera control data 526 are generated, and sequential updating is started (step S4). Furthermore, the left / right flag 519 is initialized (step S6).

ゲームが開始したならば(ステップS8)、以降、処理部200はステップS10〜S108を所定の画像生成タイミングの周期、つまりビデオモニタ1220で左眼用立体視画像と右目用立体視画像を表示する周期で繰り返し実行する。   If the game is started (step S8), the processing unit 200 subsequently displays steps S10 to S108 at predetermined image generation timing cycles, that is, the left-eye stereoscopic image and the right-eye stereoscopic image on the video monitor 1220. Executes repeatedly at intervals.

具体的には、処理部200はオブジェクト毎の動作制御を実行する(ステップS10)。例えば、操作入力部100からの操作入力信号に応じてプレーヤキャラクタ(自機2)のオブジェクトの動作を制御し、所謂AI制御によりNPC(敵機3)の動作を制御する。もし、背景オブジェクトにも動きが設定されているならば、その自動制御もここで実行されるものとする。また、もしゲーム画面を一人称視点でゲーム画面で構成する場合には、操作入力部100からの操作入力信号に応じてプレーヤキャラクタ(自機2)のオブジェクトの代わりに左仮想カメラC1及び右仮想カメラC2の位置や姿勢、移動速度などを変更する。   Specifically, the processing unit 200 executes motion control for each object (step S10). For example, the motion of the object of the player character (own device 2) is controlled according to the operation input signal from the operation input unit 100, and the motion of the NPC (enemy aircraft 3) is controlled by so-called AI control. If a motion is set for the background object, the automatic control is also executed here. Further, if the game screen is configured from the first person viewpoint, the left virtual camera C1 and the right virtual camera instead of the player character (own device 2) object according to the operation input signal from the operation input unit 100. The position, posture, moving speed, etc. of C2 are changed.

次に、処理部200は、左仮想カメラC1及び右仮想カメラC2の自動制御を行う(ステップS12)。例えば、プレーヤキャラクタ(自機2)の斜め後ろ上方の所定相対位置に両仮想カメラを配置し、両仮想カメラの姿勢(視線方向等)や画角などを制御する。   Next, the processing unit 200 performs automatic control of the left virtual camera C1 and the right virtual camera C2 (step S12). For example, both virtual cameras are arranged at a predetermined relative position obliquely above and behind the player character (own device 2), and the postures (such as the line-of-sight direction) and the angle of view of both virtual cameras are controlled.

ここまでのステップS10及びS12により、今回の画像生成タイミングにおけるゲーム空間内の自機2や敵機3などのキャラクタオブジェクト及び仮想カメラの位置が更新されたことになるので、処理部200はターゲットマーカ配置処理を実行する(ステップS14)。   Through the steps S10 and S12 so far, the positions of the character objects such as the own machine 2 and the enemy machine 3 and the virtual camera in the game space at the current image generation timing are updated. Arrangement processing is executed (step S14).

図8は、本実施形態におけるターゲットマーカ配置処理の流れを説明するためのフローチャートである。同処理では、処理部200は先ず、ゲーム空間内に配置されている各種オブジェクトの中からターゲットマーカ10で目標物として指し示す指示対象オブジェクト4を抽出し、抽出したオブジェクトの識別情報(ID)を指示対象オブジェクトリスト528に格納・登録して指示対象オブジェクトリスト528を更新する(ステップS30)。そして、指示対象オブジェクトリスト528に登録されている全ての指示対象オブジェクト4についてループAを実行する(ステップS32〜S38)。   FIG. 8 is a flowchart for explaining the flow of target marker arrangement processing in the present embodiment. In this process, the processing unit 200 first extracts an instruction target object 4 that is indicated as a target by the target marker 10 from various objects arranged in the game space, and indicates identification information (ID) of the extracted object. The instruction target object list 528 is updated by storing and registering in the target object list 528 (step S30). Then, the loop A is executed for all the instruction target objects 4 registered in the instruction target object list 528 (steps S32 to S38).

具体的には、ループAにおいて、処理部200は先ず、処理対象とする指示対象オブジェクト4に対応づけて、当該オブジェクトの代表点から仮想カメラ側に所定距離L1だけ離れたマーカ配置面6を設定し(ステップS34;図4参照)、当該配置面にマーカ本体12を新たに配置する(ステップS36)。   Specifically, in the loop A, the processing unit 200 first sets the marker arrangement surface 6 that is associated with the instruction target object 4 to be processed and is separated from the representative point of the object by a predetermined distance L1 toward the virtual camera side. (Step S34; see FIG. 4), the marker main body 12 is newly arranged on the arrangement surface (Step S36).

より具体的には、プレイデータ518内に新たにマーカデータセット532を生成し、マーカ本体ID532aを自動付与し、処理対象とする指示対象オブジェクト4のオブジェクトIDを対応オブジェクトID532bに格納する。そして、処理対象とする指示対象オブジェクト4の代表点P4からカメラ座標系Zc軸(画面奥行方向)マイナス方向(仮想カメラ寄り)へ所定距離L1だけ移動した位置に、カメラ座標系Zc軸と垂直なマーカ配置面6を算出する(図4参照)。
そして、処理対象とする指示対象オブジェクト4の代表点から(左仮想カメラC1と右仮想カメラC2の)中間点C3を結ぶ線分とマーカ配置面6との交点に、マーカ本体12の中心位置を設定する。本実施形態では、マーカ本体12の代表点P4をマーカ本体12の中心位置とするので、マーカ本体代表点位置座標532cには当該交点の座標が格納される。
More specifically, a marker data set 532 is newly generated in the play data 518, the marker body ID 532a is automatically assigned, and the object ID of the instruction target object 4 to be processed is stored in the corresponding object ID 532b. Then, it is perpendicular to the camera coordinate system Zc axis at a position moved from the representative point P4 of the instruction target object 4 to be processed by a predetermined distance L1 in the camera coordinate system Zc axis (screen depth direction) minus direction (near the virtual camera). The marker arrangement surface 6 is calculated (see FIG. 4).
Then, the center position of the marker body 12 is set at the intersection of the line segment connecting the intermediate point C3 (from the left virtual camera C1 and the right virtual camera C2) to the marker arrangement plane 6 from the representative point of the instruction target object 4 to be processed. Set. In the present embodiment, since the representative point P4 of the marker body 12 is set as the center position of the marker body 12, the coordinates of the intersection are stored in the marker body representative point position coordinates 532c.

マーカ本体面法線ベクトル532dは、カメラ座標系Zc軸マイナス向きとなる。なお、左仮想カメラC1と右仮想カメラC2の中間点C3(図4参照)に向くように設定する構成としてもよい。更には、中間点C3でなく、今回の画像生成タイミングで生成する立体視画像の視点となる左仮想カメラC1又は右仮想カメラC2を向くように設定してもよい。   The marker body surface normal vector 532d is in the minus direction of the camera coordinate system Zc axis. Note that the setting may be made so as to face the intermediate point C3 (see FIG. 4) between the left virtual camera C1 and the right virtual camera C2. Furthermore, you may set so that it may face not the intermediate point C3 but the left virtual camera C1 or the right virtual camera C2 used as the viewpoint of the stereoscopic image produced | generated at this image production | generation timing.

指示対象オブジェクトリスト528に登録されている全ての指示対象オブジェクト4についてループAを実行したならば、処理部200は次に、指示対象オブジェクトリスト528に登録されている指示対象オブジェクト4の中から、視差座布団14を設定するべきオブジェクトを抽出・登録する(ステップS50)。
具体的には、左仮想カメラC1と右仮想カメラC2の少なくとも何れか一方と指示対象オブジェクト4との間に、指示対象オブジェクト4の一部又は全部を仮想カメラから隠す他オブジェクトが存在する指示対象オブジェクト4を抽出し、抽出した指示対象オブジェクトのオブジェクトIDを視差座布団付与オブジェクトリスト534に格納・登録して視差座布団付与オブジェクトリスト534を更新する。
If the loop A is executed for all the instruction target objects 4 registered in the instruction target object list 528, the processing unit 200 next selects the instruction target objects 4 registered in the instruction target object list 528 from the following. An object for which the parallax cushion 14 is to be set is extracted and registered (step S50).
Specifically, an instruction target in which another object that hides part or all of the instruction target object 4 from the virtual camera exists between at least one of the left virtual camera C1 and the right virtual camera C2 and the instruction target object 4. The object 4 is extracted, and the object ID of the extracted instruction target object is stored and registered in the parallax cushion assignment object list 534 to update the parallax cushion assignment object list 534.

次に、処理部200は、視差座布団付与オブジェクトのオブジェクトIDと対応づけて、当該視差座布団付与オブジェクトを仮想カメラから隠す他オブジェクトそれ自体のオブジェクトIDを格納して遮蔽オブジェクトリスト536を更新する。つまり、遮蔽オブジェクトリスト536に他オブジェクトを登録する(ステップS52)。   Next, the processing unit 200 updates the occlusion object list 536 by storing the object ID of the other object itself that hides the parallax cushion assignment object from the virtual camera in association with the object ID of the parallax cushion assignment object. That is, another object is registered in the occlusion object list 536 (step S52).

次に、処理部200は視差座布団付与オブジェクトリスト534に登録されている全オブジェクトについてループBを実行する(ステップS60〜ステップS78)。
具体的には、ループBでは、処理部200は先ず、ループBの処理対象とする視差座布団付与オブジェクトに対応する遮蔽オブジェクト(本実施形態では、三人称視点を採用するので実質的に自機2のオブジェクトに同じ)より所定距離L2だけ仮想カメラ寄りの位置に、仮想カメラのカメラ座標系Zc軸に垂直な視差座布団配置面8を設定する(ステップS62;図4参照)。
Next, the processing unit 200 executes loop B for all the objects registered in the parallax cushion-giving object list 534 (steps S60 to S78).
Specifically, in the loop B, first, the processing unit 200 first adopts a shielding object corresponding to the parallax cushion-giving object to be processed in the loop B (in this embodiment, the third person viewpoint is adopted, so that substantially the own device 2 The parallax cushion layout plane 8 perpendicular to the camera coordinate system Zc axis of the virtual camera is set at a position closer to the virtual camera by the predetermined distance L2 than the object (same as object) (step S62; see FIG. 4).

そして、もし今回の画像生成タイミングにおける左右フラグ519が「1」ならば(ステップS64の「1」)、処理部200は、当該配置面に左視差座布団141を配置する(ステップS66)。もし、左右フラグ519が「0」ならば(ステップS64の「0」)、右視差座布団142を配置する(ステップS68)。   If the left / right flag 519 at the current image generation timing is “1” (“1” in step S64), the processing unit 200 places the left parallax cushion 141 on the placement surface (step S66). If the left / right flag 519 is “0” (“0” in step S64), the right parallax cushion 142 is placed (step S68).

ステップS62〜S68をより具体的に説明すると、例えば、処理部200は、視差座布団組データ544を設定し、処理対象とする視差座布団付与オブジェクトのオブジェクトIDを対応オブジェクトID532b(図6参照)とするマーカ本体ID532aを対応マーカ本体ID544aに格納する。   Steps S62 to S68 will be described more specifically. For example, the processing unit 200 sets the parallax cushion set data 544, and sets the object ID of the parallax cushion granting object to be processed as the corresponding object ID 532b (see FIG. 6). The marker body ID 532a is stored in the corresponding marker body ID 544a.

そして、左視差座布団141については、処理対象とする視差座布団付与オブジェクトに対応づけられる遮蔽オブジェクト(自機2)の代表点P2からカメラ座標系Zc軸マイナス方向へ所定距離L2だけ左仮想カメラC1寄りの位置を求め、当該位置を通り、面法線ベクトルがカメラ座標系Zc軸マイナス方向を向く面として視差座布団配置面8を設定する。つまり、求めた左仮想カメラC1寄りの位置を、左視差座布団代表点位置座標544bとして設定し、当該左仮想カメラC1寄りの位置からカメラ座標系Zc軸マイナス方向を向くベクトルを左視差座布団面法線ベクトル544cに設定する。なお、左視差座布団面法線ベクトル544cは、左仮想カメラC1と右仮想カメラC2の中間点C3を向くベクトルに設定するとしてもよい。   The left parallax cushion 141 is close to the left virtual camera C1 by a predetermined distance L2 in the minus direction of the camera coordinate system Zc axis from the representative point P2 of the shielding object (own device 2) associated with the parallax cushion grant object to be processed. The parallax cushion layout plane 8 is set as a plane passing through the position and having the surface normal vector facing the minus direction of the camera coordinate system Zc axis. That is, the obtained position near the left virtual camera C1 is set as the left parallax cushion representative point position coordinate 544b, and a vector facing the camera coordinate system Zc axis minus direction from the position near the left virtual camera C1 is set as the left parallax cushion surface method. Set to line vector 544c. Note that the left parallax cushion surface normal vector 544c may be set to a vector that faces the midpoint C3 of the left virtual camera C1 and the right virtual camera C2.

更に、処理部200は、マーカ本体制御データ530を参照して、処理対象とする視差座布団付与オブジェクトのIDが合致する対応オブジェクトID532bのマーカ本体12を選択し、左仮想カメラC1と当該マーカ本体の四隅それぞれを通る4本の線分を求め、当該4本の線分それぞれと視差座布団配置面8との4つの交点を求める。そして、求めた4つの交点を包含するように左視差座布団141のサイズを決定し、そのサイズ情報を、ポリゴンの頂点座標又は標準サイズに対する拡大倍率値として左視差座布団ポリゴンデータ544dに格納する。   Further, the processing unit 200 refers to the marker body control data 530, selects the marker body 12 having the corresponding object ID 532b that matches the ID of the parallax cushion object to be processed, and selects the left virtual camera C1 and the marker body. Four line segments passing through each of the four corners are obtained, and four intersections between the four line segments and the parallax cushion layout surface 8 are obtained. Then, the size of the left parallax cushion 141 is determined so as to include the obtained four intersections, and the size information is stored in the left parallax cushion polygon data 544d as an enlargement magnification value with respect to the vertex coordinates of the polygon or the standard size.

右視差座布団142についても同様に処理され、処理対象とする視差座布団付与オブジェクトに対応づけられる遮蔽オブジェクト(自機2)の代表点P2からカメラ座標系Zc軸マイナス方向へ所定距離L2だけ右仮想カメラC2寄りに右視差座布団代表点位置座標544eを設定し、右視差座布団面法線ベクトル544fをカメラ座標系Zc軸マイナス方向を向くように設定する。また、処理対象とする視差座布団付与オブジェクトに対応するマーカ本体の四隅を通る線分と視差座布団配置面8との交点を包含するように右視差座布団142のサイズを決定し、サイズ情報を右視差座布団ポリゴンデータ544gに格納する。勿論、右視差座布団面法線ベクトル544fについては、左仮想カメラC1と右仮想カメラC2の中間点C3を向くベクトルに設定するとしてもよい。   The right parallax cushion 142 is processed in the same manner, and the right virtual camera is only a predetermined distance L2 from the representative point P2 of the shielding object (own device 2) associated with the parallax cushion assignment object to be processed in the minus direction of the camera coordinate system Zc axis. The right parallax cushion cushion representative point position coordinate 544e is set closer to C2, and the right parallax cushion cushion normal vector 544f is set to face the minus direction of the camera coordinate system Zc axis. Also, the size of the right parallax cushion 142 is determined so as to include the intersection of the line segment passing through the four corners of the marker body corresponding to the parallax cushion assignment object to be processed and the parallax cushion layout surface 8, and the size information is converted to the right parallax. It is stored in the cushion cushion polygon data 544g. Of course, the right parallax cushion surface normal vector 544f may be set to a vector facing the midpoint C3 between the left virtual camera C1 and the right virtual camera C2.

次いで、もし今回の画像生成タイミングにおける左右フラグ519が「1」ならば(ステップS72の「1」)、処理部200は、左視差座布団141の色をマーカ本体12の色に基づいて算出・設定するとともに、透明度を、中央部を所定の透明度tとして外縁に向かうにつれて透明度が高くなるように設定する(ステップS74)。   Next, if the left / right flag 519 at the current image generation timing is “1” (“1” in step S 72), the processing unit 200 calculates and sets the color of the left parallax cushion 141 based on the color of the marker body 12. At the same time, the transparency is set so that the transparency increases as it goes to the outer edge with the central portion as the predetermined transparency t (step S74).

また、もし今回の画像生成タイミングにおける左右フラグ519が「0」ならば(ステップS72の「0」)、右視差座布団142の色をマーカ本体12の色に基づいて算出・設定するとともに、透明度を、中央部を所定の透明度tとして、外縁に向かうにつれて透明度が高くなるように設定する(ステップS76)。左視差座布団141、右視差座布団142の色と透明度の設定情報は左視差座布団ポリゴンデータ544d、右視差座布団ポリゴンデータ544gにそれぞれ格納される。   If the left / right flag 519 at the current image generation timing is “0” (“0” in step S72), the color of the right parallax cushion 142 is calculated and set based on the color of the marker body 12, and the transparency is set. The center portion is set to a predetermined transparency t, and the transparency is set to increase toward the outer edge (step S76). The color and transparency setting information of the left parallax cushion 141 and the right parallax cushion 142 are stored in the left parallax cushion polygon data 544d and the right parallax cushion polygon data 544g, respectively.

左視差座布団141又は右視差座布団142の色と透明度が設定できたならば、処理部200はループBを終了する(ステップS78)。そして、全ての視差座布団付与オブジェクトについてループBを実行したならば、処理部200はターゲットマーカ配置処理を終了する。   If the color and transparency of the left parallax cushion 141 or the right parallax cushion 142 can be set, the processing unit 200 ends the loop B (step S78). And if the loop B is performed about all the parallax cushion provision objects, the process part 200 will complete | finish a target marker arrangement | positioning process.

図7のフローチャートに戻って、処理部200は次に、ゲーム空間画像生成処理を実行する(ステップS14)。
具体的には、左右フラグ519を参照して、今回の画像生成タイミングで生成するべき画像が左眼用立体視画像であれば、左視差座布団141は描画対象とし、右視差座布団142は描画対象外として、左仮想カメラC1でゲーム空間の様子を撮影した画像をレンダリングして左眼用ゲーム空間画像を生成する。また、生成するべき画像が右眼用立体視画像であれば、左視差座布団141は描画対象外とし、右視差座布団142を描画対象として、右仮想カメラC2でゲーム空間の様子を撮影した画像をレンダリングし、右目用ゲーム空間画像を生成する。その際、隠蔽処理のプライオリティは、マーカ本体12を最も高く(最も手前)に設定し、次のプライオリティに視差座布団14を設定し、それ以降に自機2や敵機3、背景のオブジェクトを仮想カメラとの相対位置関係に基づいて決定する。
Returning to the flowchart of FIG. 7, the processing unit 200 next executes a game space image generation process (step S14).
Specifically, referring to the left / right flag 519, if the image to be generated at the current image generation timing is a left-eye stereoscopic image, the left parallax cushion 141 is a drawing target, and the right parallax cushion 142 is a drawing target. As an outside, an image obtained by photographing the state of the game space with the left virtual camera C1 is rendered to generate a left-eye game space image. If the image to be generated is a stereoscopic image for the right eye, the left parallax cushion 141 is not a drawing target, and the right parallax cushion 142 is a drawing target, and an image obtained by photographing the state of the game space with the right virtual camera C2. Render and generate a game space image for the right eye. At that time, the priority of the concealment processing is set so that the marker body 12 is the highest (frontmost), the parallax cushion 14 is set to the next priority, and thereafter, the own aircraft 2, enemy aircraft 3, and background objects are virtually It is determined based on the relative positional relationship with the camera.

そして、処理部200は生成した左眼用ゲーム空間画像又は右眼用ゲーム空間画像に、方位メータ20や経過時間表示21などの各種情報表示体を合成して、最終的な左目用立体視画像又は右目用立体視画像を生成し、立体視画像表示部361に表示させる(ステップS102)。   Then, the processing unit 200 synthesizes various information display bodies such as the azimuth meter 20 and the elapsed time display 21 with the generated left-eye game space image or right-eye game space image, and the final left-eye stereoscopic image. Alternatively, a right-eye stereoscopic image is generated and displayed on the stereoscopic image display unit 361 (step S102).

次に、処理部200は今回の画像生成タイミングにおけるゲーム進行の結果の判定処理を実行する(ステップS104)。例えば、自機2や敵機3の攻撃のヒット判定、被弾時のダメージ判定、残弾数や耐久値の更新などを行う。   Next, the processing unit 200 executes determination processing of the result of the game progress at the current image generation timing (step S104). For example, the hit determination of the attack of the own aircraft 2 or the enemy aircraft 3, the damage determination at the time of being hit, the update of the remaining number of bullets and the durability value, etc.

そして、未だ所定のゲーム終了条件を満たしていなければ(ステップS106のNO)、左右フラグ519の切り換え処理(ステップS108)や、適宜画像生成タイミングのタイミング同期処理を実行した後、ステップS10に戻ってゲーム進行制御を続ける。もし、更新されたゲーム結果がゲーム終了条件を満たしていれば(ステップS106のYES)、エンディング処理を実行して(ステップS110)、一連の処理を終了する。   If the predetermined game end condition is not yet satisfied (NO in step S106), the left / right flag 519 switching process (step S108) or the timing synchronization process of the image generation timing is executed as appropriate, and the process returns to step S10. Continue game progress control. If the updated game result satisfies the game end condition (YES in step S106), an ending process is executed (step S110), and the series of processes ends.

なお、左目用立体視画像と右目用立体視画像とを交互に生成する場合を説明したが、同時に生成するようにしてもよい。具体的には、ステップS64を省略し、ステップS66に続いてステップS68を連続して実行する構成とする。同様に、ステップS72を省略して、ステップS74に続いてステップS76を連続して実行する構成とする。そして、ステップS100では、左眼用ゲーム空間画像と右眼用ゲーム空間画像を順番に生成し、ステップS102では左眼用立体視画像と右目用立体視画像とをともに生成するとすれば良い。   In addition, although the case where the left-eye stereoscopic image and the right-eye stereoscopic image are generated alternately has been described, they may be generated simultaneously. Specifically, step S64 is omitted, and step S68 is executed continuously after step S66. Similarly, step S72 is omitted, and step S76 is executed continuously after step S74. In step S100, the left-eye game space image and the right-eye game space image are generated in order, and in step S102, the left-eye stereoscopic image and the right-eye stereoscopic image are generated together.

以上、本実施形態によれば、ターゲットマーカ10を、マーカ本体12と視差座布団14とで構成し、マーカ本体12を、当該ターゲットマーカが指示する指示対象オブジェクト4の直近仮想カメラ側位置に配置し、隠蔽処理のプライオリティを最優先(最前)に設定することで「視差の乖離」を無くすことができる。そして、マーカ本体12の輪郭を「ぼかす」領域として視差座布団14を設けることで、指示対象オブジェクト4と仮想カメラとの間に他オブジェクトが有って、当該指示対象オブジェクト4又はマーカ本体12の一部又は全部を隠す場合であっても、ターゲットマーカ10に「奥行・隠蔽矛盾」が発生し、見にくい画像となるのを緩和できる。   As described above, according to the present embodiment, the target marker 10 includes the marker main body 12 and the parallax cushion 14, and the marker main body 12 is disposed at the closest virtual camera side position of the instruction target object 4 indicated by the target marker. By setting the priority of the concealment process to the highest priority (first), the “parallax deviation” can be eliminated. Then, by providing the parallax cushion 14 as an area in which the outline of the marker body 12 is “blurred”, there is another object between the instruction target object 4 and the virtual camera, and one of the instruction target object 4 or the marker body 12 Even when part or all of the image is concealed, it is possible to alleviate the occurrence of an image that is difficult to see due to “depth / concealment contradiction” occurring in the target marker 10.

なお、ステップS52における、遮蔽オブジェクトの登録処理は、計算負荷が高い場合がある。この負荷を避けたい場合には、ステップS52の登録処理を省略しても良い。具体的には、最も手前の面(前方クリップ面など)の奥行き位置に、視差座布団14を配置する、と一律に決定する。さらには、最も手前の面でなく、例えば、表示画面に視差座布団14を配置する、と一律に決定してもよい。この場合、視差座布団14の奥行き位置よりも手前に、他のオブジェクトが覆いかぶさっている場合には、視差座布団14と他のオブジェクトの間に「奥行・隠蔽矛盾」が発生することになるが、視差座布団14は、輪郭の領域をぼやかして描画しているため、奥行位置があいまいになっており、「奥行・隠蔽矛盾」が目立つことはない。このように奥行位置を、簡易的に設定したとしても、理想的ではないにせよ、ある程度の効果を得ることができる。   In addition, the registration process of the shielding object in step S52 may have a high calculation load. If it is desired to avoid this load, the registration process in step S52 may be omitted. Specifically, it is determined uniformly that the parallax cushion 14 is arranged at the depth position of the frontmost surface (front clip surface or the like). Furthermore, instead of the frontmost surface, for example, the parallax cushion 14 may be uniformly determined on the display screen. In this case, when another object is covered before the depth position of the parallax cushion 14, “depth / concealment contradiction” occurs between the parallax cushion 14 and the other object. Since the parallax cushion 14 is drawn with a blurred outline region, the depth position is ambiguous, and “depth / concealment contradiction” does not stand out. Even if the depth position is simply set in this way, a certain degree of effect can be obtained if not ideal.

〔第2実施形態〕
次に、本発明を適用した第2実施形態について説明する。本実施形態は、基本的に第1実施形態と同様に実現されるが、第1実施形態と比べると、「表示の優先度」と「奥行き位置」が矛盾し得る2つの表示物の設定が異なる。なお、第1実施形態と同様の構成要素については、同じ符合を付与して説明は省略するものとする。
[Second Embodiment]
Next, a second embodiment to which the present invention is applied will be described. The present embodiment is basically realized in the same manner as the first embodiment, but compared to the first embodiment, the setting of two display objects in which the “priority of display” and the “depth position” may contradict each other. Different. In addition, about the component similar to 1st Embodiment, the same code | symbol is provided and description shall be abbreviate | omitted.

第1実施形態では、指示対象オブジェクトであるNPC(敵機3)を第1の表示物としたが、本実施形態ではプレーヤキャラクタを第1の表示物とする。また、第1実施形態では、ターゲットマーカ10を第2の表示物としたが、本実施形態ではプレーヤキャラクタに関する各種情報(より具体的には、キャラクタの発言内容)を第2の表示物としている。   In the first embodiment, the NPC (enemy aircraft 3) that is the instruction target object is the first display object, but in this embodiment, the player character is the first display object. In the first embodiment, the target marker 10 is the second display object. However, in the present embodiment, various information related to the player character (more specifically, the content of the remarks of the character) is used as the second display object. .

図9は、本実施形態におけるゲーム画面例を示す図である。本実施形態における立体視画像をベースとしたビデオゲームは、RPG(ロールプレイングゲーム)である。本実施形態のゲーム画面は、ゲームプレイ中に主に表示されるメインゲーム画面W2と、発言イベント時に限定的に表示される発言イベント画面W4とを含む。
「発言イベント」は、ゲームを盛り上げるためにゲームの途中途中で自動的に挿入される演出イベントであって、ゲーム中に発言イベント毎に指定されたイベント発動条件を満たすと実行される。発言イベントに係わるキャラクタの位置、動作、発言内容、及び左右の仮想カメラの位置や姿勢、画角などは、ゲーム制作者によって予め設定されている。つまり、所定のシナリオに従って自動的に実行される。そして、イベントが終了すると、メインゲーム画面W2の表示に戻る。
FIG. 9 is a diagram showing an example of a game screen in the present embodiment. The video game based on the stereoscopic image in the present embodiment is an RPG (role playing game). The game screen of the present embodiment includes a main game screen W2 that is mainly displayed during game play, and a remark event screen W4 that is displayed in a limited manner during a remark event.
The “speech event” is an effect event that is automatically inserted in the middle of the game to make the game exciting, and is executed when an event triggering condition specified for each speech event is satisfied during the game. The position of the character related to the speech event, the motion, the content of the speech, the positions and orientations of the left and right virtual cameras, the angle of view, and the like are preset by the game creator. That is, it is automatically executed according to a predetermined scenario. When the event ends, the display returns to the main game screen W2.

メインゲーム画面W2は、左眼用立体視画像と右眼用立体視画像とを、ビデオモニタ1220で表示することにより、立体視メガネ1226を装着したプレーヤに見える画面である。図示の例は平面的な画像として示しているが、プレーヤには立体感ある映像として視認されるものとする。   The main game screen W2 is a screen that is visible to the player wearing the stereoscopic glasses 1226 by displaying the left-eye stereoscopic image and the right-eye stereoscopic image on the video monitor 1220. Although the illustrated example is shown as a planar image, it is assumed that the player visually recognizes a stereoscopic image.

仮想三次元空間には、背景オブジェクト33(例えば、地面の凹凸を構成する地面オブジェクトや、空を描いたテクスチャが内面に適用される半球状の天球オブジェクト)が配置されてゲーム空間内が形成され、そこにプレーヤキャラクタ32や、NPC(ノンプレーヤキャラクタ)である敵34となるキャラクタオブジェクトが配置される。   In the virtual three-dimensional space, a background object 33 (for example, a ground object constituting the unevenness of the ground or a hemispherical celestial object to which a texture depicting the sky is applied to the inner surface) is arranged to form the game space. A character object serving as the player character 32 and the enemy 34 that is an NPC (non-player character) is arranged there.

メインゲーム画面W2を見せるための左眼用立体視画像は、プレーヤキャラクタ32とその周囲の様子を左眼用の視点となる左仮想カメラで撮影した3DCG、すなわち左眼用ゲーム空間画像をベースに、左眼用の所定位置(左仮想カメラから所定の奥行位置情報を示すように所定の両眼視差分を考慮した位置)に、プレーヤキャラクタ32のヒットポイント表示40や、敵34に関する情報表示欄41などの2Dスプライン画像が合成されて生成される。右眼用立体視画像についても、同様に右眼用の視点となる右仮想カメラで撮影した3DCG(右眼用ゲーム空間画像)に、右眼用の所定位置にヒットポイント表示40や、情報表示欄41などを合成して生成される。   The left-eye stereoscopic image for showing the main game screen W2 is based on 3DCG obtained by shooting the player character 32 and the surroundings with the left virtual camera as the left-eye viewpoint, that is, based on the left-eye game space image. , A hit point display 40 of the player character 32 and an information display field regarding the enemy 34 at a predetermined position for the left eye (a position in consideration of a predetermined binocular parallax so as to indicate predetermined depth position information from the left virtual camera) A 2D spline image such as 41 is synthesized and generated. Similarly for the right-eye stereoscopic image, the hit point display 40 and the information display at a predetermined position for the right eye are displayed on the 3DCG (right-eye game space image) captured by the right virtual camera as the right-eye viewpoint. It is generated by synthesizing the column 41 and the like.

発言イベント画面W4も、メインゲーム画面W2と同様に左眼用立体視画像と右眼用立体視画像を、ビデオモニタ1220表示することにより、立体視メガネ1226を掛けたプレーヤには立体的に見える画面である。   Similar to the main game screen W2, the speech event screen W4 is displayed stereoscopically to the player wearing the stereoscopic glasses 1226 by displaying the left-eye stereoscopic image and the right-eye stereoscopic image on the video monitor 1220. It is a screen.

発言イベント画面W4を生成する際には、図10に示すように、所定の発言イベントのシーンの構成を定義するデータに従って、メインゲーム画面W2を撮影するためのメインゲーム空間とは別に、イベント用のゲーム空間(イベント空間)が形成され、そこに当該イベントに係わるキャラクタのオブジェクト(図10の例では、プレーヤキャラクタ32と、NPC37のオブジェクト)と、発言内容35とが配置される。そして、イベント空間内に設置された左仮想カメラC1及び右仮想カメラC2で、イベント空間内を撮影して左ゲーム空間画像及び右ゲーム空間画像が生成される。   When generating the speech event screen W4, as shown in FIG. 10, according to the data defining the scene configuration of a predetermined speech event, the event event screen W4 is used separately from the main game space for shooting the main game screen W2. A game space (event space) is formed, and character objects related to the event (player character 32 and NPC 37 object in the example of FIG. 10) and speech content 35 are arranged therein. Then, the left virtual camera C1 and the right virtual camera C2 installed in the event space shoot the event space to generate a left game space image and a right game space image.

発言イベントの中心は、ゲームに登場するキャラクタの発言であり、会話形式であったり、単独での心情の吐露であったりする。
発言内容35は、透明ポリゴンにキャラクタに関する情報(この場合、発言の台詞)が描画されて構成され、第1実施形態のマーカ配置面6と同様にして求められる発言内容配置面6Bに配置される。発言内容配置面6Bは、発言するキャラクタ(図示の例では、プレーヤキャラクタ32)の代表点かからカメラ座標系Zc軸マイナス方向へ所定距離L1だけ離した位置に、カメラ座標系Zc軸と垂直な面として設定される。
The center of a speech event is a speech of a character appearing in the game, which may be a conversational form or a single emotional discharge.
The comment content 35 is configured by drawing information about a character (in this case, a speech line) on a transparent polygon, and is arranged on the comment content arrangement surface 6B obtained in the same manner as the marker arrangement surface 6 of the first embodiment. . The remark content arrangement surface 6B is perpendicular to the camera coordinate system Zc axis at a position separated from the representative point of the character to be remarked (player character 32 in the illustrated example) by a predetermined distance L1 in the negative direction of the camera coordinate system Zc axis. Set as a face.

そして、左仮想カメラC1又は右仮想カメラC2から見て発言内容35(図示の例では台詞文字)が、他のオブジェクト(図示の例では、NPC37)によりその一部又は全部が隠される場合、つまり隠蔽オブジェクトが存在する場合には、視差座布団36が配置される。勿論、発言内容38の一部又は全部が隠されない場合であっても、常時、視差座布団36を配置するようにしてもよい。   When the content 35 of speech (in the illustrated example, dialogue characters) is partially or entirely hidden by another object (in the illustrated example, NPC 37) as viewed from the left virtual camera C1 or the right virtual camera C2, that is, When there is a hidden object, a parallax cushion 36 is arranged. Of course, the parallax cushion 36 may be arranged at all times even when part or all of the comment content 38 is not hidden.

基本的には、第1実施形態の視差座布団14の配置と同様である。すなわち、隠蔽オブジェクトの代表点からカメラ座標系Zc軸マイナス方向へ所定距離L2だけ離した位置に、カメラ座標系Zc軸と垂直な視差座布団配置面8Bを設定する。そして、左仮想カメラC1又は右仮想カメラC2から見て、発言内容35の四隅が視差座布団配置面8Bと交差する点を求め、それらの交点を包含するサイズの視差座布団36が視差座布団配置面8Bに配置される。   Basically, the arrangement of the parallax cushions 14 of the first embodiment is the same. That is, the parallax cushion layout surface 8B perpendicular to the camera coordinate system Zc axis is set at a position separated from the representative point of the hidden object by a predetermined distance L2 in the minus direction of the camera coordinate system Zc axis. Then, as seen from the left virtual camera C1 or the right virtual camera C2, the points where the four corners of the remark content 35 intersect with the parallax cushion layout surface 8B are obtained, and the parallax cushion 36 having a size including these intersections is the parallax cushion layout surface 8B. Placed in.

そして、本実施形態においても、第1実施形態と同様にして、隠蔽処理のプライオリティは、発言内容35が最も高く、次いで視差座布団14、以降、プレーヤキャラクタ32やNPC37がゲーム空間内の配置位置に応じて順に設定される。
なお、視差座布団14は、第1実施形態と同様に左仮想カメラ用と、右仮想カメラ用それぞれに一枚ずつ配置する構成としても良いのは勿論である。
Also in the present embodiment, as in the first embodiment, the priority of the concealment process is the highest in the statement content 35, and then the parallax cushion 14, and thereafter, the player character 32 and the NPC 37 are placed at the arrangement positions in the game space. It is set in order accordingly.
Of course, one parallax cushion 14 may be arranged for each of the left virtual camera and the right virtual camera, as in the first embodiment.

つまり、本実施形態を実現するには、第1実施形態における指示対象オブジェクト4を、プレーヤキャラクタ32に読み替え、マーカ本体12を発言内容35に読み替えればよい。   That is, in order to realize the present embodiment, the instruction target object 4 in the first embodiment may be replaced with the player character 32 and the marker body 12 may be replaced with the remark content 35.

図11は、発言イベント処理の流れを説明するためのフローチャートである。同処理は、ゲーム進行制御の一部処理として組み込まれ、定期的(毎フレーム間隔)に実行される。   FIG. 11 is a flowchart for explaining the flow of a speech event process. This process is incorporated as a part of the game progress control and is executed periodically (every frame interval).

具体的には、処理部200は先ず、発言イベントを設定するシナリオデータを参照して、現在のゲーム進行状況がイベント発動条件に合致するかを判定する。つまり、発言イベントの発生判定をする(ステップS140)。
発言イベントの発生を判定した場合には(ステップS140のYES)、処理部200は、イベント画像W4を撮影するためのイベント空間を形成し、そこに当該イベントに登場するキャラクタのオブジェクトと、左仮想カメラC1及び右仮想カメラC2を配置する(ステップS142)。
Specifically, the processing unit 200 first refers to scenario data for setting a speech event, and determines whether or not the current game progress state matches the event triggering condition. That is, it is determined whether or not a speech event has occurred (step S140).
When it is determined that a speech event has occurred (YES in step S140), the processing unit 200 forms an event space for shooting the event image W4, and the character object appearing in the event and the left virtual The camera C1 and the right virtual camera C2 are arranged (step S142).

次に、配置されたキャラクタオブジェクトの動作制御を、今回の画像生成タイミング分だけ実行し(ステップS144)、発言キャラクタの位置に基づいて発言内容配置面6Bを設定する(ステップS146)。そして、発言内容配置面6Bに発言内容35を配置する。   Next, the motion control of the arranged character object is executed for the current image generation timing (step S144), and the statement content arrangement plane 6B is set based on the position of the statement character (step S146). Then, the statement content 35 is arranged on the statement content arrangement surface 6B.

次に、発言キャラクタを視差座布団付与オブジェクトとみなし(ステップS150)、視差座布団付与オブジェクトに対する遮蔽オブジェクトを検索する(ステップS156)。もし、遮蔽オブジェクト(図10の例ではNPC37)が存在すれば(ステップS156のYES)、処理部200は、当該遮蔽オブジェクトの配置位置に基づいて視差座布団配置面8Bを設定し(ステップS158)、当該配置面に視差座布団36を配置する(ステップS160)。視差座布団36の基準となる配色及び透明度の設定は予め、記憶部500にテンプレートデータを記憶しておいて、参照するとしてもよい。サイズは、発言内容35の輪郭を形成する頂点と、左仮想カメラC1と右仮想カメラC2の中間点C3を結ぶ直線と、視差座布団配置面8Bとの交点を包含するサイズとする。   Next, the comment character is regarded as a parallax cushion-giving object (step S150), and a shielding object for the parallax cushion-giving object is searched (step S156). If there is a shielding object (NPC 37 in the example of FIG. 10) (YES in step S156), the processing unit 200 sets the parallax cushion placement surface 8B based on the placement position of the shielding object (step S158). The parallax cushion 36 is arranged on the arrangement surface (step S160). The setting of the color scheme and transparency as a reference of the parallax cushion 36 may be stored in advance in the storage unit 500 and referred to. The size is a size including the intersection of the vertex forming the outline of the statement content 35, the straight line connecting the intermediate point C3 of the left virtual camera C1 and the right virtual camera C2, and the parallax cushion layout surface 8B.

発言内容35と視差座布団36とを新たに配置する一方、処理部200は、表示制限時間を超えた発言内容35と、それに対応する視差座布団36は、いわば表示の寿命として消去する(ステップS162)。   While the utterance content 35 and the parallax cushion 36 are newly arranged, the processing unit 200 erases the utterance content 35 that has exceeded the display time limit and the parallax cushion 36 corresponding thereto as the display lifetime (step S162). .

次に、処理部200は、左右フラグ519を参照して、今回の画像生成タイミングで生成するべき画像が左眼用立体視画像であれば、イベント空間内の左仮想カメラC1でイベント空間の様子を撮影した画像をレンダリングして左眼用ゲーム空間画像を生成する。また、生成するべき画像が右眼用立体視画像であれば、イベント空間内の右仮想カメラC2でゲーム空間の様子を撮影した画像をレンダリングし、右眼用ゲーム空間画像を生成する(ステップS164)。   Next, the processing unit 200 refers to the left / right flag 519, and if the image to be generated at the current image generation timing is a stereoscopic image for the left eye, the state of the event space is detected by the left virtual camera C1 in the event space. A left-eye game space image is generated by rendering an image obtained by shooting the image. Further, if the image to be generated is a right-eye stereoscopic image, an image obtained by photographing the state of the game space with the right virtual camera C2 in the event space is rendered to generate a right-eye game space image (step S164). ).

次いで、処理部200は生成した左眼用ゲーム空間画像又は右眼用ゲーム空間画像に、ヒットポイント表示40や情報表示欄41などの各種情報表示体を合成して、最終的な左眼用立体視画像又は右眼用立体視画像を生成し、立体視画像表示部361に表示させる(ステップS166)。   Next, the processing unit 200 synthesizes various information display bodies such as the hit point display 40 and the information display column 41 with the generated left-eye game space image or right-eye game space image to obtain the final left-eye three-dimensional image. A visual image or a right-eye stereoscopic image is generated and displayed on the stereoscopic image display unit 361 (step S166).

次に、処理部200は発言イベントが終了したかを判定する。もし発言イベントが終了していなければ(ステップS168のNO)、処理部200は、左右フラグ519の切り換え処理(ステップS170)や、画像生成タイミングのタイミング同期処理を実行した後、ステップS144に戻る。
反対に、発言イベントが終了したと判定された場合には(ステップS168のYES)、発言イベント処理を終了する。
Next, the processing unit 200 determines whether the speech event has ended. If the speech event has not ended (NO in step S168), the processing unit 200 performs the left / right flag 519 switching process (step S170) and the image generation timing synchronization process, and then returns to step S144.
On the other hand, when it is determined that the speech event has ended (YES in step S168), the speech event processing is terminated.

以上、本実施形態によれば、プレーヤキャラクタを第1の表示物とし、プレーヤキャラクタに関する各種情報を第2の表示物とするケースにおいても、第1実施形態と同様に、「奥行・隠蔽矛盾」による見にくさの問題を解消できる。   As described above, according to the present embodiment, even in the case where the player character is the first display object and the various information related to the player character is the second display object, the “depth / concealment inconsistency” is the same as in the first embodiment. It can solve the problem of difficult to see.

なお、本実施形態では「プレーヤキャラクタに関する情報」として、発言イベントの発言内容を挙げて説明したが、これに限らない。
例えば、ゲーム世界の状況を説明する説明文とすることもできる。もし、そうした説明をサブキャラクタ像を添付して表示する場合には、発言内容に当該サブキャラクタ像を含めることもできる。
また例えば、本発明をレースゲームに適用する場合には、プレーヤカーのシフトポジション、速度、コースポジション表示、順位表示、ラップタイムなどを「プレーヤキャラクタに関する情報」とすることができる。
In the present embodiment, the “contents about the player character” is described with the content of the speech event, but the present invention is not limited to this.
For example, it can be an explanatory text explaining the situation of the game world. If such a description is displayed with a sub-character image attached, the sub-character image can be included in the statement content.
Further, for example, when the present invention is applied to a racing game, the shift position, speed, course position display, rank display, lap time, etc. of the player car can be set as “information related to the player character”.

また、本実施形態ではプレーヤキャラクタを第1の表示物として挙げたが、状況によっては第1の表示物を省略することもできる。例えば、アドベンチャーゲームやシミュレーションゲームなどのナレーションや、状況説明など、発言するキャラクタが特定できない場合には、ステップS146〜S148では、発言内容35を対応するキャラクタオブジェクトの配置と関係無しに所定位置(勿論、予め記憶部500に所定位置の設定情報は用意しておくものとする。)に配置し、ステップS150では、当該発言内容を視差座布団付与オブジェクトとみなすとしても良い。   In the present embodiment, the player character is listed as the first display object, but the first display object may be omitted depending on the situation. For example, if the character to speak cannot be specified, such as in narration such as an adventure game or a simulation game, or a situation explanation, in steps S146 to S148, the speech content 35 is set to a predetermined position (of course, regardless of the arrangement of the corresponding character object). The setting information of the predetermined position is prepared in advance in the storage unit 500.) In step S150, the content of the statement may be regarded as a parallax cushion-giving object.

[変形例]
以上、本発明を適用した実施形態について説明したが、本発明の実施形態はこれに限るものではなく、適宜構成要素の追加・省略・変更を加えることができる。
[Modification]
Although the embodiment to which the present invention is applied has been described above, the embodiment of the present invention is not limited to this, and additions, omissions, and changes of components can be added as appropriate.

[その1]
例えば、立体視画像生成装置として家庭用ゲーム装置1200を例示したが、業務用ゲーム装置、携帯型ゲーム装置、パソコン、アプリケーションソフトを実行することのできる多機能携帯電話機(いわゆるスマートフォン)や音楽プレーヤ、カーナビなどでも良く、立体視画像を生成する機能を有する装置には同様に適用することができる。
[Part 1]
For example, although the home game device 1200 is exemplified as the stereoscopic image generation device, the game device, the portable game device, the personal computer, the multi-function mobile phone (so-called smart phone) that can execute the application software, the music player, It may be a car navigation system or the like, and can be similarly applied to an apparatus having a function of generating a stereoscopic image.

更には、ビデオゲームが実行可能な装置を本発明の立体視画像生成装置として実現する場合、専用のゲームプログラムを実行する形態に限らない。例えば、専用のゲームプログラムに代えて、ウェブブラウザプログラム、及びスクリプト制御によりウェブブラウザ上でインタラクティブな表示を実現するためのプラグインを実行し、いわゆるブラウザゲームとしてビデオゲームを実現する構成でも同様に適用できる。すなわち、この場合には、端末装置に対してブラウザゲームを実行するためのプログラムや画像データを提供するサーバシステムが本発明の立体視画像生成装置となる。
例えば、プレーヤが操作するゲーム端末とサーバシステムとが通信接続されて構成されたゲームシステムにおいて、そのサーバシステムを立体視画像生成装置として、本発明を適用することとしてもよい。その場合、プレーヤの操作情報をもとに、サーバシステムが立体視画像を生成して、ゲーム端末に送信する。
Furthermore, when a device capable of executing a video game is realized as the stereoscopic image generating device of the present invention, it is not limited to a mode in which a dedicated game program is executed. For example, instead of a dedicated game program, a web browser program and a plug-in for realizing interactive display on the web browser by script control are executed, and the same applies to a configuration in which a video game is realized as a so-called browser game it can. That is, in this case, a server system that provides a program and image data for executing a browser game to the terminal device is the stereoscopic image generation device of the present invention.
For example, in a game system configured by communication connection between a game terminal operated by a player and a server system, the present invention may be applied with the server system as a stereoscopic image generation device. In this case, the server system generates a stereoscopic image based on the operation information of the player and transmits it to the game terminal.

また、立体視画像を表示する装置(立体視表示装置;上記実施形態ではビデオモニタ1220)で採用される立体視の方式は、上記実施形態以外の他の方式であってもかまわない。例えば、2眼式、多眼式や空間像方式(いわゆるインテグラル方式や、フラクショナル・ビュー方式等」)等でも良い。また、採用する立体視の方式によっては、視差方向は水平方向のみに限られるものでなく、垂直方向にも視差を持つ方式であっても良く、メガネ式、裸眼式、スコープ式等の種類も問わない。更には、立体視の方式は、空間内に立体的に配置されたスクリーン、もしくは空間内を動的に移動するスクリーンに投影する方式であってもかまわないし、空間内に立体的に配置された光源群、もしくは空間内を動的に移動する光源群による方式であってもかまわない。また、それらの立体視表示装置による映像を、鏡やハーフミラーで反射させて用いてもかまわない。また、ヘッドトラッキングやアイトラッキング、ジャイロセンサー等を用いて、画面と視聴者の位置関係を取得し、それを立体視映像にフィードバックさせても良い。   In addition, the stereoscopic viewing method employed in the device for displaying a stereoscopic image (stereoscopic display device; in the above embodiment, the video monitor 1220) may be other than the above embodiment. For example, a binocular system, a multi-view system, an aerial image system (a so-called integral system, a fractional view system, etc.) may be used. In addition, depending on the stereoscopic method adopted, the parallax direction is not limited to the horizontal direction, but may be a method having a parallax in the vertical direction as well. It doesn't matter. Furthermore, the stereoscopic viewing method may be a method of projecting onto a screen that is three-dimensionally arranged in the space or a screen that dynamically moves in the space, and may be three-dimensionally arranged in the space. A method using a light source group or a light source group that dynamically moves in space may be used. In addition, the images obtained by these stereoscopic display devices may be reflected by a mirror or a half mirror. In addition, the positional relationship between the screen and the viewer may be acquired using head tracking, eye tracking, a gyro sensor, or the like, and may be fed back to the stereoscopic video.

また、ビデオモニタ1220での立体視の方式は、メガネ有りとしても、メガネ無しとしてもよい。立体視画像生成装置は、ビデオモニタ1200による立体視の方式に関わらず、最終的に各視点用の個別視点画像を生成することとなる。   Further, the stereoscopic viewing method on the video monitor 1220 may be with or without glasses. The stereoscopic image generation apparatus finally generates an individual viewpoint image for each viewpoint regardless of the method of stereoscopic viewing by the video monitor 1200.

[その2]
また、上記実施形態では、2眼式の立体視に係る画像生成について説明したが、視点数は3以上でも構わない。すなわち、本発明を、N眼式(N≧2)の立体視に係る画像生成に適用することも勿論可能である。例えば、横方向にN眼式の立体視を実現する場合には、上述の左仮想カメラC1と右仮想カメラC2と同じように、横方向にN個の仮想カメラを所定間隔をおいて設定し、各仮想カメラに基づく画像(個別視点画像)を、上述の仮想カメラC1,C2と同じように生成すればよい。
[Part 2]
In the above embodiment, image generation related to binocular stereoscopic vision has been described, but the number of viewpoints may be three or more. That is, it is of course possible to apply the present invention to image generation related to N-eye (N ≧ 2) stereoscopic vision. For example, when realizing N-eye stereoscopic vision in the horizontal direction, N virtual cameras are set at a predetermined interval in the horizontal direction in the same manner as the left virtual camera C1 and the right virtual camera C2 described above. The images (individual viewpoint images) based on the virtual cameras may be generated in the same manner as the virtual cameras C1 and C2.

[その3]
また、上記実施形態では、左視差座布団141及び右視差座布団142を、それぞれ左仮想カメラC1又は右仮想カメラC2から見たマーカ本体12の四隅位置よりも上下左右にほぼ同じ幅だけ広いサイズとした。つまり、マーカ本体12と相似形としたが、これに限らない。
[Part 3]
Moreover, in the said embodiment, the left parallax cushion 141 and the right parallax cushion 142 were each made into the size wide by substantially the same width up and down and right and left rather than the four corner positions of the marker main body 12 seen from the left virtual camera C1 or the right virtual camera C2, respectively. . That is, although it is similar to the marker main body 12, it is not limited to this.

例えば、図12に示すように、マーカ本体12と非相似形としてもよい。具体的には、左視差座布団141及び右視差座布団142を、左仮想カメラC1から見たマーカ本体12の左端位置と、右仮想カメラC2から見た右端位置を包含するような形状とすることができる。つまり、上記実施形態における左視差座布団141及び右視差座布団142の両方に跨る形状としてもよい。この場合、透明度を最も高くするのは、マーカ本体12の像が被さる部分とすると好適である。
こうした視差座布団の設定方法は、換言すると、N個(上記の第1実施形態ではN=2)の個別視点画像それぞれにおいて、マーカ本体の描画部分との相対的な位置関係に基づいて部分毎にぼかし具合を可変しているとも言える。
For example, as shown in FIG. 12, the marker main body 12 may be dissimilar. Specifically, the left parallax cushion 141 and the right parallax cushion 142 are configured to include a left end position of the marker body 12 viewed from the left virtual camera C1 and a right end position viewed from the right virtual camera C2. it can. That is, it is good also as a shape over both the left parallax cushion 141 and the right parallax cushion 142 in the said embodiment. In this case, it is preferable that the transparency is maximized at a portion where the image of the marker main body 12 is covered.
The parallax cushion setting method is, in other words, for each of N individual viewpoint images (N = 2 in the first embodiment described above) based on the relative positional relationship with the drawing portion of the marker body. It can be said that the degree of blurring is variable.

[その4]
また、上記実施形態では、マーカ本体12は、設定されたまま、つまり輪郭がはっきりした画像のまま立体視画像内に合成される構成としているが、マーカ本体12それ自体を有る程度ぼかし処理するとしてもよい。その場合、マーカ本体設定データ516に格納されているデータの段階で輪郭のぼかしを施しておく構成としてもよいし、ゲーム空間画像の生成段階(図7のステップS100参照)において、マーカ本体12を描画するときに、ぼかし処理を施すとしてもよい。
[Part 4]
Further, in the above embodiment, the marker body 12 is configured to be synthesized in the stereoscopic image while being set, that is, with an image with a clear outline. Also good. In this case, the contour may be blurred at the stage of the data stored in the marker body setting data 516, or the marker body 12 may be displayed at the game space image generation stage (see step S100 in FIG. 7). Blur processing may be performed when drawing.

もし、その上で、更に上記実施形態よりも演算処理の負荷軽減を望むならば、視差座布団14の配置に係る処理を省略するとしてもよい。
具体的には、上記実施形態のターゲットマーカ配置処理(図8参照)に代えて、図13に示すターゲットマーカ配置処理Bを実行する。同処理では、指示対象オブジェクト4を抽出したならば(ステップS30)、抽出された全ての指示対象オブジェクト4についてループCを実行する(ステップS40〜S48)。
ループCでは、処理部200のターゲットマーカ配置制御部218が、処理対象とする指示対象オブジェクト4よりも仮想カメラ側にマーカ配置面6を設定し(ステップS44)、当該マーカ配置面にマーカ本体12を半透明として配置設定する(ステップS46)。つまり、マーカ本体12を半透明とすることにより、その輪郭部分を「ぼかす」。なお、この場合も、隠蔽処理におけるプライオリティは、マーカ本体12が最優先(最前)とされる。
In addition, if it is desired to further reduce the processing load than the above embodiment, the processing related to the arrangement of the parallax cushions 14 may be omitted.
Specifically, a target marker arrangement process B shown in FIG. 13 is executed instead of the target marker arrangement process (see FIG. 8) of the above embodiment. In this process, if the instruction target object 4 is extracted (step S30), the loop C is executed for all the extracted instruction target objects 4 (steps S40 to S48).
In the loop C, the target marker arrangement control unit 218 of the processing unit 200 sets the marker arrangement surface 6 on the virtual camera side with respect to the instruction target object 4 to be processed (step S44), and the marker body 12 on the marker arrangement surface. Is set to be translucent (step S46). That is, by making the marker body 12 translucent, the contour portion is “blurred”. In this case as well, the priority in the concealment process is that the marker body 12 has the highest priority (first).

[その5]
また、上記実施形態よりも更に演算処理の負荷軽減を望むならば、左右の視差座布団141,142それぞれに視差座布団配置面81,82を求めたが、共通する一枚の配置面を決定する構成としてもよい。
[Part 5]
Further, if it is desired to further reduce the processing load compared to the above embodiment, the parallax cushion cushion placement surfaces 81 and 82 are obtained for the left and right parallax cushion cushions 141 and 142, respectively, but a common arrangement plane is determined. It is good.

[その6]
また、上記実施形態では、指示対象オブジェクト4或いはマーカ本体12が他のオブジェクトによって一部又は全部が隠される場合に、視差座布団14を配置する構成としているが、一部又は全部が隠されるか否かにかかわらず、全てのターゲットマーカ10において、視差座布団14を配置する構成としてもよい。この場合、ターゲットマーカ配置処理(図8参照)において、ステップS50〜S52を省略し、ループBでは、処理対象を視差座布団付与オブジェクトではなく、全ての指示対象オブジェクトについて実行する構成とすれば良い。
換言すると、ぼかし処理部222は、抽出された指示対象オブジェクトが他オブジェクトにより隠れないと判定された場合に、当該指示対象オブジェクトの描画の後に、指示対象オブジェクトとして選択されなかったオブジェクト(この場合、敵機3に限られる)同様のぼかし処理を施してマーカ本体12を描画して立体視画像を生成するとも言える。
[Part 6]
In the above embodiment, the parallax cushion 14 is arranged when the instruction target object 4 or the marker main body 12 is partially or entirely hidden by other objects. Regardless of this, the parallax cushions 14 may be arranged in all the target markers 10. In this case, in the target marker arrangement process (see FIG. 8), steps S50 to S52 may be omitted, and in loop B, the processing target may be executed for all instruction target objects instead of the parallax cushion assignment object.
In other words, when it is determined that the extracted instruction target object is not hidden by another object, the blurring processing unit 222 is an object that has not been selected as the instruction target object after drawing the instruction target object (in this case, It can be said that the same blurring process is performed (limited to the enemy aircraft 3) and the marker body 12 is drawn to generate a stereoscopic image.

[その7]
また、上記実施形態では、マーカ体の一例として、ターゲットマーカ10を例に挙げて説明したが、本発明の適用可能なマーカ体はこれに限らない。例えば、プレーヤキャラクタが銃を所有している場合の、銃口方向を示す照準をマーカ体としてもよい。この場合、銃1つに対して指示対象オブジェクトは1つとなるため、プレーヤが1人であれば原則、ゲーム空間の中から銃口方向に位置する最も視点よりのオブジェクトが指示対象オブジェクトとして選択されることとなる。
[Part 7]
Moreover, in the said embodiment, although the target marker 10 was mentioned as an example and demonstrated as an example of a marker body, the marker body which can apply this invention is not restricted to this. For example, a sight indicating the muzzle direction when the player character owns a gun may be used as the marker body. In this case, since there is one instruction target object for one gun, in principle, if there is only one player, the object from the most viewpoint located in the muzzle direction from the game space is selected as the instruction target object. It will be.

[その8]
また、上記実施形態では、視差座布団14の大きさや形状を、フレームごとの描画時に決定することで、可変としているが、あらかじめ決定しておいても良い。マーカや発言内容など、通常オブジェクトよりも手前に表示したいものの領域を包含できる視差座布団14の大きさや形状を、あらかじめ設定しておくことで、フレームごとに決定する負荷を軽減できる。
[Part 8]
Moreover, in the said embodiment, although the magnitude | size and shape of the parallax cushion 14 are made variable by determining at the time of drawing for every flame | frame, you may determine beforehand. By setting in advance the size and shape of the parallax cushion 14 that can include the area of the object to be displayed in front of the normal object, such as the marker and the content of the message, the load determined for each frame can be reduced.

さらに、上記実施形態では、ゲームの画像に関する処理を説明したが、本発明が適用可能な画像はゲームに限らない。例えば、医用画像や建築画像など、立体視画像として利用可能な画像全てに適用することが可能である。この場合、マーカ体は、ポインティングデバイスにより操作指示されるポインターとすると好適である。   Furthermore, in the above-described embodiment, the processing related to the game image has been described. For example, the present invention can be applied to all images that can be used as stereoscopic images, such as medical images and architectural images. In this case, the marker body is preferably a pointer that is instructed to be operated by the pointing device.

C1…左仮想カメラ
C2…右仮想カメラ
2…自機
4…指示対象オブジェクト
6…マーカ配置面
8…視差座布団配置面
10…ターゲットマーカ
12…マーカ本体
14…視差座布団
141…左視差座布団
142…右視差座布団
200…処理部
210…ゲーム演算部
212…ゲーム空間設定処理部
214…キャラクタ動作制御部
216…仮想カメラ制御部
218…ターゲットマーカ配置制御部
220…マーカ本体配置制御部
222…ぼかし処理部
224…視差座布団配置制御部
226…視差座布団カラー設定部
261…立体視画像生成部
361…立体視画像表示部
500…記憶部
501…システムプログラム
502…ゲームプログラム
516…マーカ本体設定データ
518…プレイデータ
519…左右フラグ
520…自機ステータスデータ
522…敵機ステータスデータ
524…左仮想カメラ制御データ
526…右仮想カメラ制御データ
528…指示対象オブジェクトリスト
530…マーカ本体制御データ
532c…マーカ本体代表点位置座標
532d…マーカ本体面法線ベクトル
534…視差座布団付与オブジェクトリスト
536…遮蔽オブジェクトリスト
540…視差座布団制御データ
544a…対応マーカ本体ID
544b…左視差座布団代表点位置座標
544c…左視差座布団面法線ベクトル
544d…左視差座布団ポリゴンデータ
544e…右視差座布団代表点位置座標
544f…右視差座布団面法線ベクトル
544g…右視差座布団ポリゴンデータ
1200…据置型家庭用ゲーム装置
1201…ゲーム装置本体
1210…制御ユニット
1220…ビデオモニタ
1226…立体視メガネ
1228…IRエミッター
1230…ゲームコントローラ
C1 ... Left virtual camera C2 ... Right virtual camera 2 ... Own machine 4 ... Instruction target object 6 ... Marker placement surface 8 ... Parallax cushion layout surface 10 ... Target marker 12 ... Marker body 14 ... Parallax cushion 141 ... Left parallax cushion 142 ... Right Parallax cushion 200 ... processing unit 210 ... game calculation unit 212 ... game space setting processing unit 214 ... character motion control unit 216 ... virtual camera control unit 218 ... target marker arrangement control unit 220 ... marker body arrangement control unit 222 ... blur processing unit 224 ... Parallax cushion layout control unit 226 ... Parallax cushion color setting unit 261 ... Stereoscopic image generation unit 361 ... Stereoscopic image display unit 500 ... Storage unit 501 ... System program 502 ... Game program 516 ... Marker body setting data 518 ... Play data 519 ... Left and right flag 520 Tasudeta 522 ... enemy status data 524 ... left virtual camera control data 526 ... right virtual camera control data 528 ... instruction target object list 530 ... marker body control data
532c: Marker body representative point position coordinates
532d ... Marker body surface normal vector 534 ... Parallax cushion assignment object list 536 ... Occlusion object list 540 ... Parallax cushion control data
544a ... Corresponding marker body ID
544b ... Left Parallax Cushion Representative Point Position Coordinate
544c ... Left parallax cushion surface normal vector
544d ... Left parallax cushion cushion polygon data
544e: Right parallax cushion representative point position coordinates
544f ... Right parallax cushion cushion normal vector
544g ... right parallax cushion polygon data 1200 ... stationary home game device 1201 ... game device main body 1210 ... control unit 1220 ... video monitor 1226 ... stereoscopic glasses 1228 ... IR emitter 1230 ... game controller

Claims (10)

コンピュータに、所与の視点から見た仮想三次元空間の立体視用画像を生成させるためのプログラムであって、
前記仮想三次元空間の中から指示対象オブジェクトを判定する指示対象物判定手段、
前記指示対象オブジェクトを指示する所定のマーカ体を、前記指示対象オブジェクトの位置或いは前記視点から見て前記指示対象オブジェクトの直近手前側に配置するマーカ体配置手段、
前記指示対象オブジェクト及び前記他のオブジェクトの描画の後に所定のぼかし処理を施して前記マーカ体を描画することで、前記マーカ体の輪郭の視認性を低下させて前記マーカ体を現出させた立体視画像を生成する隠蔽時画像生成手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to generate a stereoscopic image in a virtual three-dimensional space viewed from a given viewpoint,
An instruction target determining means for determining an instruction target object from the virtual three-dimensional space;
Marker body arrangement means for arranging a predetermined marker body for instructing the instruction target object on a position immediately before the instruction target object as viewed from the position of the instruction target object or the viewpoint;
A three-dimensional object in which the marker body is displayed by reducing the visibility of the contour of the marker body by rendering the marker body by performing a predetermined blurring process after drawing the instruction target object and the other object. A concealment image generating means for generating a visual image;
A program for causing the computer to function as
前記隠蔽時画像生成手段が、
前記立体視画像において前記マーカ体の描画部分を含む前記ぼかし処理の対象範囲を判定する対象範囲判定手段と、
前記対象範囲に前記ぼかし処理を施すぼかし処理手段と、
を有する、
ように前記コンピュータを機能させるための請求項1に記載のプログラム。
The concealment image generating means is
Target range determination means for determining a target range of the blurring process including a drawing portion of the marker body in the stereoscopic image;
Blur processing means for performing the blur processing on the target range;
Having
The program according to claim 1 for causing the computer to function.
前記ぼかし処理手段が、前記対象範囲内であって且つ前記他のオブジェクトの描画部分に前記ぼかし処理を施す、
ように前記コンピュータを機能させるための請求項2に記載のプログラム。
The blur processing means performs the blur processing on the drawing portion of the other object that is within the target range.
The program according to claim 2 for causing the computer to function.
前記ぼかし処理の対象範囲を定めるための対象範囲決定体を、前記視点と前記マーカ体との間に配置する対象範囲決定体配置手段として前記コンピュータを機能させ、
前記対象範囲判定手段が、前記対象範囲決定体を用いて前記ぼかし処理の対象範囲を判定するように前記コンピュータを機能させる、
ための請求項2又は3に記載のプログラム。
Causing the computer to function as a target range determining body placing unit for placing a target range determining body for determining a target range of the blurring process between the viewpoint and the marker body;
The target range determination means causes the computer to function to determine the target range of the blurring process using the target range determination body;
The program of Claim 2 or 3 for.
前記対象範囲決定体配置手段が、前記対象範囲決定体のサイズを可変に設定するサイズ設定手段を有する、
ように前記コンピュータを機能させるための請求項4に記載のプログラム。
The target range determining body arrangement means has size setting means for variably setting the size of the target range determining body.
The program according to claim 4 for causing the computer to function as described above.
前記ぼかし処理手段が、前記対象範囲決定体の色を用いて半透明合成処理することで前記ぼかし処理を行う、
ように前記コンピュータを機能させるための請求項4又は5に記載のプログラム。
The blurring processing unit performs the blurring process by performing a translucent synthesis process using the color of the target range determining body.
The program according to claim 4 or 5 for causing the computer to function as described above.
前記隠蔽時画像生成手段が、前記マーカ体の色を半透明合成処理することで前記マーカ体にぼかし処理を施して描画するマーカ体半透明合成処理手段を有する、
ように前記コンピュータを機能させるための請求項1〜6の何れか一項に記載のプログラム。
The concealed image generation means includes marker body translucent synthesis processing means for rendering the marker body by performing a translucent synthesis process by rendering the color of the marker body translucent.
The program as described in any one of Claims 1-6 for functioning the said computer like this.
前記隠蔽判定手段により隠れないと判定された場合に、前記指示対象オブジェクトの描画の後に前記隠蔽時画像生成手段による前記ぼかし処理と同様のぼかし処理を施してマーカ体を描画して立体視画像を生成する非隠蔽時画像生成手段として前記コンピュータを更に機能させるための請求項1〜7の何れか一項に記載のプログラム。   When the concealment determining unit determines that the object is not hidden, after rendering the instruction target object, a blurring process similar to the blurring process performed by the concealment image generating unit is performed to draw a marker body to obtain a stereoscopic image. The program as described in any one of Claims 1-7 for making the said computer further function as a non-hidden image generation means to produce | generate. 請求項1〜8の何れか一項に記載にプログラムを記憶したコンピュータ読取可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-8. 所与の視点から見た仮想三次元空間の立体視用画像を生成する立体視画像生成装置であって、
前記仮想三次元空間の中から指示対象オブジェクトを判定する指示対象物判定手段と、
前記指示対象オブジェクトを指示する所定のマーカ体を、前記指示対象オブジェクトの位置或いは前記視点から見て前記指示対象オブジェクトの直近手前側に配置するマーカ体配置手段と、
前記指示対象オブジェクト及び前記他のオブジェクトの描画の後に所定のぼかし処理を施して前記マーカ体を描画することで、前記マーカ体の輪郭の視認性を低下させて前記マーカ体を現出させた立体視画像を生成する隠蔽時画像生成手段と、
を備えた立体視画像生成装置。
A stereoscopic image generation device that generates a stereoscopic image in a virtual three-dimensional space viewed from a given viewpoint,
An instruction target determining means for determining an instruction target object from the virtual three-dimensional space;
Marker body placement means for placing a predetermined marker body that points to the pointing target object on a position in front of the pointing target object as viewed from the position of the pointing target object or the viewpoint;
A three-dimensional object in which the marker body is displayed by reducing the visibility of the contour of the marker body by rendering the marker body by performing a predetermined blurring process after drawing the instruction target object and the other object. A concealment image generating means for generating a visual image;
A stereoscopic image generating apparatus comprising:
JP2011040942A 2011-02-25 2011-02-25 Program and stereoscopic image generation apparatus Expired - Fee Related JP5698028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011040942A JP5698028B2 (en) 2011-02-25 2011-02-25 Program and stereoscopic image generation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011040942A JP5698028B2 (en) 2011-02-25 2011-02-25 Program and stereoscopic image generation apparatus

Publications (2)

Publication Number Publication Date
JP2012178061A true JP2012178061A (en) 2012-09-13
JP5698028B2 JP5698028B2 (en) 2015-04-08

Family

ID=46979859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011040942A Expired - Fee Related JP5698028B2 (en) 2011-02-25 2011-02-25 Program and stereoscopic image generation apparatus

Country Status (1)

Country Link
JP (1) JP5698028B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249930A (en) * 2011-06-06 2012-12-20 Konami Digital Entertainment Co Ltd Game device, image display device, stereoscopic image display method, and program
JP2015126826A (en) * 2013-12-27 2015-07-09 ブラザー工業株式会社 Information processing apparatus and program
JP2018190432A (en) * 2018-06-28 2018-11-29 株式会社ソニー・インタラクティブエンタテインメント Information processor and warning presentation method
US10486062B2 (en) 2015-12-14 2019-11-26 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
CN114377393A (en) * 2021-12-31 2022-04-22 上海米哈游天命科技有限公司 Display control method, device, equipment and medium for game object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007116549A1 (en) * 2006-04-07 2007-10-18 Sharp Kabushiki Kaisha Image processing device
JP2009104249A (en) * 2007-10-19 2009-05-14 Canon Inc Image processing apparatus, and image processing method
JP2010086228A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Three-dimensional display apparatus, method and program
JP2011024639A (en) * 2009-07-22 2011-02-10 Konami Digital Entertainment Co Ltd Video game device, game information display control method, and game information display control program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007116549A1 (en) * 2006-04-07 2007-10-18 Sharp Kabushiki Kaisha Image processing device
JP2009104249A (en) * 2007-10-19 2009-05-14 Canon Inc Image processing apparatus, and image processing method
JP2010086228A (en) * 2008-09-30 2010-04-15 Fujifilm Corp Three-dimensional display apparatus, method and program
JP2011024639A (en) * 2009-07-22 2011-02-10 Konami Digital Entertainment Co Ltd Video game device, game information display control method, and game information display control program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012249930A (en) * 2011-06-06 2012-12-20 Konami Digital Entertainment Co Ltd Game device, image display device, stereoscopic image display method, and program
JP2015126826A (en) * 2013-12-27 2015-07-09 ブラザー工業株式会社 Information processing apparatus and program
US10486062B2 (en) 2015-12-14 2019-11-26 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
US10888772B2 (en) 2015-12-14 2021-01-12 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
US11697062B2 (en) 2015-12-14 2023-07-11 Sony Interactive Entertainment Inc. Information processing apparatus and warning presentation method
JP2018190432A (en) * 2018-06-28 2018-11-29 株式会社ソニー・インタラクティブエンタテインメント Information processor and warning presentation method
CN114377393A (en) * 2021-12-31 2022-04-22 上海米哈游天命科技有限公司 Display control method, device, equipment and medium for game object

Also Published As

Publication number Publication date
JP5698028B2 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
US9278281B2 (en) Computer-readable storage medium, information processing apparatus, information processing system, and information processing method
JP4917664B1 (en) Image display device, game program, and game control method
US9495800B2 (en) Storage medium having stored thereon image processing program, image processing apparatus, image processing system, and image processing method
US9491430B2 (en) Storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9095774B2 (en) Computer-readable storage medium having program stored therein, apparatus, system, and method, for performing game processing
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
US9072971B2 (en) Computer readable medium storing information processing program of generating a stereoscopic image
JP2012212237A (en) Image generation system, server system, program, and information storage medium
US20120068980A1 (en) Storage medium having stored thereon display control program, display control apparatus, display control system, and display control method
US8854358B2 (en) Computer-readable storage medium having image processing program stored therein, image processing apparatus, image processing method, and image processing system
US20120092367A1 (en) Computer readable medium storing image processing program of synthesizing images
JP5698028B2 (en) Program and stereoscopic image generation apparatus
JPH11161814A (en) Image generation device, simulation device and information storage medium
JP2013054569A (en) Information processing program, information processor, information processing system, and information processing method
JP2019152899A (en) Simulation system and program
EP2530648B1 (en) Display control program for controlling display capable of providing stereoscopic display, display system and display control method
US9639972B2 (en) Computer-readable storage medium having stored therein display control program, display control apparatus, display control method, and display control system for performing display control of a display apparatus capable of stereoscopic display
JP5689637B2 (en) Stereoscopic display control program, stereoscopic display control system, stereoscopic display control apparatus, and stereoscopic display control method
JP2011186566A (en) Game device, control method for game device, and program
JP2012178060A (en) Program, information storage medium and stereoscopic image generation device
JP2012106005A (en) Image display device, game program, and game control method
JP2016001476A (en) Display control program, display control device, display control system and display control method
JP5649846B2 (en) Program and image generation system
US20120262447A1 (en) Storage medium, information processing apparatus, information processing method and information processing system
JP2012059008A (en) Program, information storage medium and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150212

R150 Certificate of patent or registration of utility model

Ref document number: 5698028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees