[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6797484B2 - Game machine - Google Patents

Game machine Download PDF

Info

Publication number
JP6797484B2
JP6797484B2 JP2017075372A JP2017075372A JP6797484B2 JP 6797484 B2 JP6797484 B2 JP 6797484B2 JP 2017075372 A JP2017075372 A JP 2017075372A JP 2017075372 A JP2017075372 A JP 2017075372A JP 6797484 B2 JP6797484 B2 JP 6797484B2
Authority
JP
Japan
Prior art keywords
image
image data
projected
data
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017075372A
Other languages
Japanese (ja)
Other versions
JP2018175063A (en
Inventor
直秀 深田
直秀 深田
篤 西田
篤 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universal Entertainment Corp
Original Assignee
Universal Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universal Entertainment Corp filed Critical Universal Entertainment Corp
Priority to JP2017075372A priority Critical patent/JP6797484B2/en
Publication of JP2018175063A publication Critical patent/JP2018175063A/en
Application granted granted Critical
Publication of JP6797484B2 publication Critical patent/JP6797484B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Slot Machines And Peripheral Devices (AREA)
  • Game Rules And Presentations Of Slot Machines (AREA)

Description

本発明は、遊技機に関する。 The present invention relates to a game machine.

従来、複数の図柄がそれぞれの表面に設けられた複数のリールと、スタートスイッチと、ストップスイッチと、各リールに対応して設けられたステッピングモータと、制御部とを備えた、パチスロと呼ばれる遊技機が知られている。スタートスイッチは、メダルやコインなどの遊技媒体が遊技機に投入された後、スタートレバーが遊技者により操作されたこと(以下、「開始操作」ともいう)を検出し、全てのリールの回転の開始を要求する信号を出力する。ストップスイッチは、各リールに対応して設けられたストップボタンが遊技者により押されたこと(以下、「停止操作」ともいう)を検出し、該当するリールの回転の停止を要求する信号を出力する。ステッピングモータは、その駆動力を対応するリールに伝達する。また、制御部は、スタートスイッチ及びストップスイッチにより出力された信号に基づいて、ステッピングモータの動作を制御し、各リールの回転動作及び停止動作を行う。 Conventionally, a game called pachislot, which is provided with a plurality of reels having a plurality of symbols provided on their respective surfaces, a start switch, a stop switch, a stepping motor provided corresponding to each reel, and a control unit. The machine is known. The start switch detects that the start lever has been operated by the player (hereinafter, also referred to as "start operation") after the game medium such as a medal or coin is inserted into the game machine, and the rotation of all reels is rotated. Output a signal requesting a start. The stop switch detects that the stop button provided corresponding to each reel is pressed by the player (hereinafter, also referred to as "stop operation"), and outputs a signal requesting that the rotation of the corresponding reel be stopped. To do. The stepping motor transmits its driving force to the corresponding reels. Further, the control unit controls the operation of the stepping motor based on the signals output by the start switch and the stop switch, and performs the rotation operation and the stop operation of each reel.

このような遊技機では、開始操作が検出されると、プログラム上で乱数を用いた抽籤処理(以下、「内部抽籤処理」という)が行われ、その抽籤の結果(以下、「内部当籤役」という)と停止操作のタイミングとに基づいてリールの回転の停止を行う。そして、全てのリールの回転が停止され、入賞の成立に係る図柄の組合せ(表示役)が表示されると、その図柄の組合せに対応する特典が遊技者に付与される。なお、遊技者に付与される特典の例としては、遊技媒体(メダル等)の払い出し、遊技媒体を消費することなく再度、内部抽籤処理を行う再遊技(以下、「リプレイ」ともいう)の作動、遊技媒体の払い出し機会が増加するボーナスゲームの作動等を挙げることができる。 In such a game machine, when a start operation is detected, a lottery process using random numbers (hereinafter referred to as "internal lottery process") is performed on the program, and the result of the lottery (hereinafter, "internal winning combination") is performed. The rotation of the reel is stopped based on the timing of the stop operation. Then, when the rotation of all reels is stopped and the combination of symbols (display combination) related to the establishment of the winning is displayed, the player is given a privilege corresponding to the combination of the symbols. As an example of the privilege given to the player, the payout of the game medium (medals, etc.) and the operation of the re-game (hereinafter, also referred to as "replay") in which the internal lottery process is performed again without consuming the game medium. , The operation of a bonus game that increases the chances of paying out game media can be mentioned.

また、従来、上記構成の遊技機において、特定の小役(遊技媒体の払い出しに係る役)の成立をランプ等でナビゲートする機能(以下、省略して「ナビ」ともいう)、すなわち、アシストタイム(以下、「AT」という)の機能を備える遊技機が開発されている。また、従来、特定の図柄組合せが表示された場合にリプレイの当籤確率が通常時より高い遊技状態が作動する機能、すなわち、リプレイタイム(以下、「RT」という)の機能を備える遊技機も開発されている。さらに、従来、ATとRTとが同時に作動するアシストリプレイタイム(以下、「ART」という)の機能を備えたパチスロが開発されている。 Further, conventionally, in a game machine having the above configuration, a function of navigating the establishment of a specific small role (a role related to payout of a game medium) with a lamp or the like (hereinafter, also referred to as "navigation" for short), that is, assist. A game machine having a time (hereinafter referred to as "AT") function has been developed. In addition, conventionally, a gaming machine having a function of operating a gaming state in which a replay winning probability is higher than usual when a specific symbol combination is displayed, that is, a replay time (hereinafter referred to as "RT") function has also been developed. Has been done. Further, conventionally, a pachislot machine having an assist replay time (hereinafter referred to as "ART") function in which AT and RT operate at the same time has been developed.

上述した遊技機は、通常、内部当籤役の決定、各リールの回転及び停止、入賞の有無の判定等の遊技機の主な遊技動作を制御する回路(主制御回路)が実装された主制御基板と、映像の表示等による演出動作を制御する回路(副制御回路)が実装された副制御基板とを備える。そして、遊技動作は、主制御回路に搭載されたCPU(Central Processing Unit)により制御される。この際、CPUの制御により、主制御回路のROM(Read Only Memory)に記憶されたプログラム及び各種テーブルデータ等が主制御回路のRAM(Random Access Memory)に展開され、各種遊技動作に関する処理が実行される。 The above-mentioned game machine is usually a main control equipped with a circuit (main control circuit) for controlling the main game operation of the game machine such as determination of an internal winning combination, rotation and stop of each reel, and determination of presence / absence of winning. It includes a board and a sub-control board on which a circuit (sub-control circuit) for controlling an effect operation such as displaying an image is mounted. The game operation is controlled by a CPU (Central Processing Unit) mounted on the main control circuit. At this time, under the control of the CPU, the program and various table data stored in the ROM (Read Only Memory) of the main control circuit are expanded in the RAM (Random Access Memory) of the main control circuit, and processing related to various game operations is executed. Will be done.

また、従来、上述した構成の遊技機において、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特許文献1参照)。 Further, conventionally, in a gaming machine having the above-described configuration, a gaming machine having a function of reading moving image data into a CG ROM (Character Generator ROM), expanding the moving image data, and displaying a three-dimensional moving image on a display device such as a liquid crystal display has been proposed. (See, for example, Patent Document 1).

特開平7―155438号公報Japanese Unexamined Patent Publication No. 7-155438

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。 By the way, in recent years, in a game machine equipped with a display device such as a liquid crystal display, high-quality and various productions that make full use of three-dimensional CG (Computer Graphics) technology have become mainstream. Then, since CG data for performing the various effects is created in advance and the created CG data is stored in the CG ROM, the cost related to the CG creation is increasing year by year.

本発明は、上記課題を解決するためになされたものであり、本発明の目的は、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行可能にする遊技機を提供することである。 The present invention has been made to solve the above problems, and an object of the present invention is to perform various effects with high image quality by making full use of three-dimensional CG technology while suppressing an increase in cost related to CG creation. It is to provide a gaming machine that makes it possible.

上記課題を解決するために、本発明では、以下のような構成の遊技機を提供する。 In order to solve the above problems, the present invention provides a gaming machine having the following configuration.

画像が表示される表示部(例えば、後述の各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、後述の副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、後述のリソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、後述の仮想オブジェクトデータ又はテクスチャデータ)が記憶された不揮発性記憶部(例えば、後述のロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、後述のサブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、後述のGPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、後述のVRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、後述のプロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、該抽出された前記画像のデータを映像信号に変換して、該映像信号を出力し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、後述のプロジェクション行列P′)と、所定のオフセットパラメータ(例えば、後述のオフセット行列O)とに基づいて生成されたパラメータであり、
前記所定の処理が施された画像データは、前記表示部により表示される前記画像と当該画像の上端部又は下端部にダミー画像が付加された画像のデータである
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members described later) and
A control unit (for example, a sub-control board 72 described later) that controls the display operation of the image using the display unit, and
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle data including resource image data described later) and information for displaying the image on the display unit (for example). A non-volatile storage unit (for example, a rom cartridge substrate 86 described later) in which virtual object data or texture data described later is stored is provided.
The control unit
A control processing unit (for example, a sub CPU 151 described later) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153 described later) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154 described later) used when the processing is executed by the image processing unit.
The control processing unit selects predetermined image data from the plurality of image data stored in the non-volatile storage unit, and selects information for displaying the image on the display unit.
The image processing unit
Using specific conversion parameters (for example, the projection matrix Pe described later) from the image data obtained by performing a predetermined process on the predetermined image data based on the information for displaying the image on the display unit. , The data of the image displayed by the display unit is extracted, the data of the extracted image is converted into a video signal, and the video signal is output.
The specific conversion parameter is a predetermined projection conversion parameter (for example, a projection matrix described later) for performing a projection conversion process on the image data to which the predetermined processing has been performed and the viewing angle is set to a predetermined angle. P ') and, given an offset parameter (e.g., Ri Oh parameter generated based on the offset matrix O) described below,
The gaming machine characterized in that the image data subjected to the predetermined processing is data of the image displayed by the display unit and an image in which a dummy image is added to an upper end portion or a lower end portion of the image .

上記構成の本発明の遊技機によれば、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行することができる。 According to the gaming machine of the present invention having the above configuration, it is possible to perform various effects with high image quality by making full use of the three-dimensional CG technology while suppressing an increase in the cost related to CG creation.

本発明の一実施形態における遊技機の機能フローを説明するための図である。It is a figure for demonstrating the functional flow of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の外観構造を示す斜視図である。It is a perspective view which shows the appearance structure of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の内部構造を示す図である。It is a figure which shows the internal structure of the game machine in one Embodiment of this invention. 本発明の一実施形態における遊技機の内部構造を示す図である。It is a figure which shows the internal structure of the game machine in one Embodiment of this invention. 本発明の一実施形態の遊技機における表示装置の斜視図である。It is a perspective view of the display device in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機における投影ブロックの分解斜視図である。It is an exploded perspective view of the projection block in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機における投影ブロックの縦断面図である。It is a vertical sectional view of the projection block in the game machine of one Embodiment of this invention. 本発明の一実施形態の遊技機における被投影ブロックの分解斜視図である。It is an exploded perspective view of the projected block in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機における被投影部材移動機構の分解斜視図である。It is an exploded perspective view of the projected member moving mechanism in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において台形部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a vertical cross-sectional view of the projected block when the trapezoidal member is the projection target of the image light in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において擬似リール部材を映像光の投影対象としたときの被投影ブロックの状態を示す図である。It is a figure which shows the state of the projected block when the pseudo reel member is projected | projected the image light in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において擬似リール部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a vertical cross-sectional view of the projected block when the pseudo reel member is a projection target of image light in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において平面スクリーン部材を映像光の投影対象としたときの被投影ブロックの状態を示す図である。It is a figure which shows the state of the projected block when the flat screen member is projected | projected the image light in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機において平面スクリーン部材を映像光の投影対象としたときの被投影ブロックの縦断面図である。It is a vertical cross-sectional view of the projected block when a flat screen member is a projection target of image light in the gaming machine of one Embodiment of this invention. 本発明の一実施形態の遊技機が備える回路の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the circuit provided in the gaming machine of one Embodiment of this invention. 本発明の一実施形態における主制御回路の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the main control circuit in one Embodiment of this invention. 本発明の一実施形態におけるマイクロプロセッサの内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the microprocessor in one Embodiment of this invention. 本発明の一実施形態における副制御回路の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the sub-control circuit in one Embodiment of this invention. 本発明の一実施形態において、サブCPUにより実行される演出登録タスクの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the effect registration task executed by the sub CPU in one Embodiment of this invention. 本発明の一実施形態において、各種被投影部材に投影される映像光の画像データ(PJ対応画像データ)の作成手法の概要を説明するための図である。It is a figure for demonstrating the outline of the method of creating the image data (PJ correspondence image data) of the image light projected on various projected members in one Embodiment of this invention. 本発明の一実施形態における仮想投影撮影法によるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline of the PJ-corresponding image data generation method by the virtual projection photography method in one Embodiment of this invention. 本発明の一実施形態において、仮想投影動作により生成される仮想投影画像データの具体例を示す図である。It is a figure which shows the specific example of the virtual projection image data generated by the virtual projection operation in one Embodiment of this invention. 本発明の一実施形態において、仮想撮影画像データからPJ対応画像データを生成する際の処理概要を示す図である。It is a figure which shows the outline of the process at the time of generating the PJ correspondence image data from the virtual photograph image data in one Embodiment of this invention. 本発明の一実施形態において、投影対象の被投影部材に可動被投影部材が含まれる場合のPJ対応画像データの生成概要を説明するための図である。It is a figure for demonstrating the outline of the generation of PJ-corresponding image data in the case where the projected object projected member includes a movable projected member in one Embodiment of this invention. 本発明の一実施形態において実行される画像データ生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image data generation processing executed in one Embodiment of this invention. 本発明の変形例1におけるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline of the PJ-corresponding image data generation method in the modification 1 of this invention. 本発明の変形例2におけるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline of the PJ correspondence image data generation method in the modification 2 of this invention. 本発明の変形例2におけるPJ対応画像データの生成処理で使用されるプロジェクション行列及びオフセット行列を示す図である。It is a figure which shows the projection matrix and the offset matrix used in the generation processing of the PJ correspondence image data in the modification 2 of this invention. 本発明の変形例3におけるテクスチャマッピング法によるPJ対応画像データの生成手法の概要を説明するための図である。It is a figure for demonstrating the outline of the PJ correspondence image data generation method by the texture mapping method in the modification 3 of this invention. 本発明の変形例3において実行される画像データ生成処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the image data generation processing executed in the modification 3 of this invention.

以下、本発明の一実施形態に係る遊技機としてパチスロを例に挙げ、図面を参照しながら、その構成及び動作について説明する。なお、本実施形態では、ボーナス作動機能及びART機能を備えたパチスロについて説明する。 Hereinafter, a pachi-slot machine will be taken as an example of a gaming machine according to an embodiment of the present invention, and its configuration and operation will be described with reference to the drawings. In this embodiment, a pachislot machine having a bonus operation function and an ART function will be described.

<機能フロー>
まず、図1を参照して、パチスロの機能フローについて説明する。本実施形態のパチスロでは、遊技を行うための遊技媒体としてメダルを用いる。なお、遊技媒体としては、メダル以外にも、例えば、コイン、遊技球、遊技用のポイントデータ又はトークン等を適用することもできる。
<Function flow>
First, the functional flow of the pachislot machine will be described with reference to FIG. In the pachislot machine of the present embodiment, a medal is used as a game medium for playing a game. In addition to medals, coins, game balls, game point data, tokens, and the like can also be applied as the game medium.

遊技者によりパチスロにメダルが投入され、スタートレバーが操作されると、予め定められた数値範囲(例えば、0〜65535)の乱数から1つの値(以下、乱数値という)が抽出される。 When a medal is inserted into the pachislot machine by the player and the start lever is operated, one value (hereinafter referred to as a random number value) is extracted from a random number in a predetermined numerical range (for example, 0 to 65535).

内部抽籤手段は、抽出された乱数値に基づいて抽籤を行い、内部当籤役を決定する。この内部抽籤手段は、後述の主制御回路が備える各種処理手段(処理機能)の一つである。内部当籤役の決定により、後述の有効ライン(入賞判定ライン)に沿って表示を行うことを許可する図柄の組合せが決定される。なお、図柄の組合せの種別としては、メダルの払い出し、再遊技(リプレイ)の作動、ボーナスの作動等といった特典が遊技者に与えられる「入賞」に係るものと、それ以外のいわゆる「はずれ」に係るものとが設けられる。 The internal lottery means draws a lot based on the extracted random number value, and determines the internal winning combination. This internal lottery means is one of various processing means (processing functions) included in the main control circuit described later. By determining the internal winning combination, the combination of symbols that are allowed to be displayed along the valid line (winning determination line) described later is determined. The types of symbol combinations include those related to "winning" in which benefits such as medal payout, replay operation, bonus operation, etc. are given to the player, and other so-called "missing". Such things are provided.

また、スタートレバーが操作されると、複数のリールの回転が行われる。その後、遊技者により所定のリールに対応するストップボタンが押されると、リール停止制御手段は、内部当籤役とストップボタンが押されたタイミングとに基づいて、該当するリールの回転を停止する制御を行う。このリール停止制御手段は、後述の主制御回路が備える各種処理手段(処理機能)の一つである。 Further, when the start lever is operated, a plurality of reels are rotated. After that, when the stop button corresponding to the predetermined reel is pressed by the player, the reel stop control means controls to stop the rotation of the corresponding reel based on the internal winning combination and the timing when the stop button is pressed. Do. This reel stop control means is one of various processing means (processing functions) included in the main control circuit described later.

パチスロでは、基本的に、ストップボタンが押されたときから規定時間(190msec)内に、該当するリールの回転を停止する制御が行われる。本実施形態では、この規定時間内にリールの回転に伴って移動する図柄の数を「滑り駒数」という。そして、本実施形態では、規定期間が190msecである場合には、滑り駒数の最大数(最大滑り駒数)を図柄4個分に定める。 In pachislot, basically, control is performed to stop the rotation of the corresponding reel within a specified time (190 msec) from the time when the stop button is pressed. In the present embodiment, the number of symbols that move with the rotation of the reel within this specified time is referred to as the "number of sliding pieces". Then, in the present embodiment, when the specified period is 190 msec, the maximum number of sliding pieces (maximum number of sliding pieces) is set for four symbols.

リール停止制御手段は、入賞に係る図柄の組合せ表示を許可する内部当籤役が決定されているときは、通常、190msec(図柄4駒分)の規定時間内に、その図柄の組合せが有効ラインに沿って極力表示されるようにリールの回転を停止させる。また、リール停止制御手段は、規定時間を利用して、内部当籤役によってその表示が許可されていない図柄の組合せが有効ラインに沿って表示されないようにリールの回転を停止させる。 When the internal winning combination that allows the combination display of the symbols related to the winning is determined, the reel stop control means usually sets the combination of the symbols to the effective line within the specified time of 190 msec (for 4 symbols). Stop the rotation of the reel so that it is displayed as much as possible along the line. In addition, the reel stop control means uses a predetermined time to stop the rotation of the reel so that the combination of symbols whose display is not permitted by the internal winning combination is not displayed along the effective line.

このようにして、複数のリールの回転がすべて停止されると、入賞判定手段は、有効ラインに沿って表示された図柄の組合せが、入賞に係るものであるか否かの判定を行う。この入賞判定手段もまた、後述の主制御回路が備える各種処理手段(処理機能)の一つである。そして、表示された図柄の組合せが、入賞判定手段により入賞に係るものであると判定されると、メダルの払い出し等の特典が遊技者に与えられる。パチスロでは、以上のような一連の流れが1回の遊技(単位遊技)として行われる。 In this way, when all the rotations of the plurality of reels are stopped, the winning determination means determines whether or not the combination of symbols displayed along the effective line is related to winning. This winning determination means is also one of various processing means (processing functions) included in the main control circuit described later. Then, when it is determined by the winning determination means that the combination of the displayed symbols is related to the winning, a privilege such as a medal payout is given to the player. In pachislot, the above-mentioned series of flows is performed as one game (unit game).

また、パチスロでは、前述した一連の遊技動作の流れの中で、表示装置などによる映像の表示、各種ランプによる光の出力、スピーカによる音の出力、或いは、これらの組合せを利用して様々な演出が行われる。 Further, in pachislot, in the flow of the above-mentioned series of game operations, various effects are produced by displaying images by a display device, outputting light by various lamps, outputting sounds by speakers, or a combination of these. Is done.

具体的には、スタートレバーが操作されると、上述した内部当籤役の決定に用いられた乱数値とは別に、演出用の乱数値が抽出される。演出用の乱数値が抽出されると、演出内容決定手段は、内部当籤役に対応づけられた複数種類の演出内容の中から今回実行する演出を抽籤により決定する。この演出内容決定手段は、後述の副制御回路が備える各種処理手段(処理機能)の一つである。 Specifically, when the start lever is operated, a random value for production is extracted in addition to the random value used for determining the internal winning combination described above. When the random value for the effect is extracted, the effect content determining means determines the effect to be executed this time from a plurality of types of effect contents associated with the internal winning combination by lottery. This effect content determining means is one of various processing means (processing functions) included in the sub-control circuit described later.

次いで、演出内容決定手段により演出内容が決定されると、演出実行手段は、リールの回転開始時、各リールの回転停止時、入賞の有無の判定時等の各契機に連動させて対応する演出を実行する。このように、パチスロでは、例えば、内部当籤役に対応づけられた演出内容を実行することによって、決定された内部当籤役(言い換えると、狙うべき図柄の組合せ)を知る機会又は予想する機会が遊技者に提供され、遊技者の興味の向上を図ることができる。 Next, when the effect content is determined by the effect content determining means, the effect execution means responds in conjunction with each opportunity such as when the reel starts rotating, when each reel stops rotating, and when it is determined whether or not there is a prize. To execute. In this way, in pachislot, for example, by executing the production content associated with the internal winning combination, the opportunity to know or anticipate the determined internal winning combination (in other words, the combination of symbols to be aimed at) is a game. It is provided to the player and can improve the interest of the player.

<パチスロの構造>
次に、図2〜図4を参照して、本発明の一実施形態に係るパチスロの構造について説明する。
<Structure of pachislot>
Next, the structure of the pachislot machine according to the embodiment of the present invention will be described with reference to FIGS. 2 to 4.

[外観構造]
図2は、パチスロ1の外部構造を示す斜視図である。
[Appearance structure]
FIG. 2 is a perspective view showing the external structure of the pachislot machine 1.

パチスロ1は、図2に示すように、外装体2(遊技機本体)を備える。外装体2は、リールや回路基板等を収容するキャビネット2aと、キャビネット2aの開口を開閉可能に取り付けられるフロントドア2bとを有する。 As shown in FIG. 2, the pachislot machine 1 includes an exterior body 2 (game machine main body). The exterior body 2 has a cabinet 2a for accommodating a reel, a circuit board, and the like, and a front door 2b to which an opening of the cabinet 2a can be opened and closed.

キャビネット2aの内部には、3つのリール3L,3C,3R(変動表示手段、表示列)が横一列に並べて設けられている。以下、各リール3L,3C,3R(メインリール)を、それぞれ左リール3L、中リール3C、右リール3Rともいう。各リール3L,3C,3Rは、円筒状に形成されたリール本体と、リール本体の周面に装着された透光性のシート材を有する。そして、シート材の表面には、複数(例えば20個)の図柄が周方向(リールの回転方向)に沿って所定の間隔をあけて描かれている。 Inside the cabinet 2a, three reels 3L, 3C, 3R (variable display means, display row) are provided side by side in a horizontal row. Hereinafter, each reel 3L, 3C, 3R (main reel) is also referred to as a left reel 3L, a middle reel 3C, and a right reel 3R, respectively. Each reel 3L, 3C, 3R has a reel body formed in a cylindrical shape and a translucent sheet material mounted on the peripheral surface of the reel body. A plurality of (for example, 20) symbols are drawn on the surface of the sheet material at predetermined intervals along the circumferential direction (rotation direction of the reel).

フロントドア2bは、ドア本体9と、フロントパネル10と、腰部パネル12と、台座部13とを備える。ドア本体9は、ヒンジ(不図示)を用いてキャビネット2aに開閉可能に取り付けられる。ヒンジは、パチスロ1の前方側(遊技者側)から見て、ドア本体9の左側の側端部に設けられる。 The front door 2b includes a door body 9, a front panel 10, a lumbar panel 12, and a pedestal portion 13. The door body 9 is attached to the cabinet 2a so as to be openable and closable by using a hinge (not shown). The hinge is provided at the left side end of the door body 9 when viewed from the front side (player side) of the pachislot machine 1.

フロントパネル10は、ドア本体9の上部に設けられている。このフロントパネル10は、開口10aを有する枠状部材で構成される。フロントパネル10の開口10aは、表示装置カバー30によって塞がれ、表示装置カバー30は、キャビネット2aの内部に配置された後述の表示装置11と対向して配置される。 The front panel 10 is provided on the upper part of the door body 9. The front panel 10 is composed of a frame-shaped member having an opening 10a. The opening 10a of the front panel 10 is closed by the display device cover 30, and the display device cover 30 is arranged to face the display device 11 which will be described later and is arranged inside the cabinet 2a.

表示装置カバー30は、黒色の半透明な合成樹脂により形成される。それゆえ、遊技者は、後述の表示装置11により表示された映像(画像)を、表示装置カバー30を介して視認することができる。 また、本実施形態では、表示装置カバー30を黒色の半透明な
合成樹脂で形成することにより、キャビネット2a内への外光の入り込みを抑制して、表示装置11により表示された映像(画像)を鮮明に視認できるようにしている。
The display device cover 30 is made of a black translucent synthetic resin. Therefore, the player can visually recognize the image (image) displayed by the display device 11 described later through the display device cover 30. Further, in the present embodiment, the display device cover 30 is made of a black translucent synthetic resin to suppress the entry of external light into the cabinet 2a, and the image (image) displayed by the display device 11 is suppressed. Is clearly visible.

フロントパネル10には、ランプ群21が設けられている。ランプ群21は、例えば、遊技者側から見て、フロントパネル10の上部に設けられたランプ21a、21bを含む。ランプ群21を構成する各ランプは、LED(Light Emitting Diode)等で構成され(後述の図15中のLED群85参照)、演出内容に対応するパターンで、光を点灯及び消灯する。 A lamp group 21 is provided on the front panel 10. The lamp group 21 includes, for example, lamps 21a and 21b provided on the upper part of the front panel 10 when viewed from the player side. Each lamp constituting the lamp group 21 is composed of an LED (Light Emitting Diode) or the like (see LED group 85 in FIG. 15 described later), and lights are turned on and off in a pattern corresponding to the effect content.

腰部パネル12は、ドア本体9の略中央部に設けられる。腰部パネル12は、任意の画像が描かれた装飾パネルと、この装飾パネルを背面側から照明するための光を出射する光源(後述のLED群85に含まれるLED)とを有する。 The waist panel 12 is provided at a substantially central portion of the door body 9. The waist panel 12 has a decorative panel on which an arbitrary image is drawn, and a light source (LED included in the LED group 85 described later) that emits light for illuminating the decorative panel from the back side.

台座部13は、フロントパネル10と腰部パネル12との間に設けられる。台座部13には、図柄表示領域4と、遊技者による操作の対象となる各種装置(メダル投入口14、MAXベットボタン15a、1ベットボタン15b、スタートレバー16、3つのストップボタン17L,17C,17R、精算ボタン(不図示)等)とが設けられる。 The pedestal portion 13 is provided between the front panel 10 and the lumbar panel 12. The pedestal portion 13 has a symbol display area 4, various devices (medal insertion slot 14, MAX bet button 15a, 1 bet button 15b, start lever 16, 3 stop buttons 17L, 17C, which are to be operated by the player. 17R, settlement button (not shown), etc.) are provided.

図柄表示領域4は、正面から見て、3つのリール3L,3C,3Rに重畳する領域で、且つ、3つのリール3L,3C,3Rより遊技者側の位置に配置されており、3つのリール3L,3C,3Rを視認可能にするサイズを有する。この図柄表示領域4は、表示窓としての機能を果たすものであり、その背後に設けられた各リール3L,3C,3Rを視認することが可能な構成になっている。以下、図柄表示領域4を、リール表示窓4という。 The symbol display area 4 is an area that overlaps the three reels 3L, 3C, 3R when viewed from the front, and is arranged at a position on the player side of the three reels 3L, 3C, 3R, and the three reels. It has a size that makes 3L, 3C, and 3R visible. The symbol display area 4 functions as a display window, and has a configuration in which the reels 3L, 3C, and 3R provided behind the symbol display area 4 can be visually recognized. Hereinafter, the symbol display area 4 is referred to as a reel display window 4.

リール表示窓4は、その背後に設けられた3つのリール3L,3C,3Rの回転が停止されたとき、各リールの周面に設けられた複数の図柄のうち、連続して配置された3つの図柄がその枠内に表示されるように構成されている。すなわち、3つのリール3L,3C,3Rの回転が停止されたとき、リール表示窓4の枠内には、リール毎に上段、中段及び下段の各領域にそれぞれ1個の図柄(合計で3個)が表示される(リール表示窓4の枠内には、3行×3列の態様で図柄が表示される)。そして、本実施形態では、リール表示窓4の枠内において、左リール3Lの中段領域、中リール3Cの中段領域、及び、右リール3Rの中段領域を結ぶ擬似的なライン(センターライン)を、入賞か否かの判定を行う有効ラインとして定義する。 The reel display window 4 is arranged continuously among a plurality of symbols provided on the peripheral surface of each reel when the rotation of the three reels 3L, 3C, 3R provided behind the reel display window 4 is stopped. It is configured so that one symbol is displayed in the frame. That is, when the rotation of the three reels 3L, 3C, and 3R is stopped, one symbol is set in each of the upper, middle, and lower regions for each reel in the frame of the reel display window 4 (three in total). ) Is displayed (in the frame of the reel display window 4, the design is displayed in the form of 3 rows × 3 columns). Then, in the present embodiment, in the frame of the reel display window 4, a pseudo line (center line) connecting the middle stage region of the left reel 3L, the middle stage region of the middle reel 3C, and the middle stage region of the right reel 3R is formed. It is defined as an effective line for judging whether or not a prize is won.

リール表示窓4は、台座部13に設けられた枠部材31の開口により形成される。また、リール表示窓4を画成する枠部材31の下方には、略水平面の台座領域が設けられる。そして、遊技者側から見て、台座領域の右側にはメダル投入口14が設けられ、左側にはMAXベットボタン15a及び1ベットボタン15bが設けられる。 The reel display window 4 is formed by the opening of the frame member 31 provided in the pedestal portion 13. Further, a pedestal region having a substantially horizontal plane is provided below the frame member 31 that defines the reel display window 4. When viewed from the player side, the medal insertion slot 14 is provided on the right side of the pedestal area, and the MAX bet button 15a and the 1-bet button 15b are provided on the left side.

メダル投入口14は、遊技者によって外部からパチスロ1に投下されるメダルを受け入れるために設けられる。メダル投入口14から受け入れられたメダルは、予め設定された所定枚数(例えば3枚)を上限として1回の遊技に使用され、所定枚数を超えたメダルの枚数分は、パチスロ1の内部に預けることができる(いわゆるクレジット機能(遊技媒体貯留手段))。 The medal slot 14 is provided to receive medals dropped on the pachislot machine 1 from the outside by the player. The medals received from the medal slot 14 are used in one game up to a preset predetermined number (for example, 3), and the number of medals exceeding the predetermined number is deposited inside the pachislot machine 1. (So-called credit function (game medium storage means)).

MAXベットボタン15a及び1ベットボタン15bは、キャビネット2aの内部に預けられているメダルから1回の遊技に使用する枚数を決定するために設けられる。なお、MAXベットボタン15aの内部には、メダル投入が可能な時に点灯するベットボタンLED(不図示)が設けられている。また、精算ボタンは、パチスロ1の内部に預けられているメダルを外部に引き出す(排出する)ために設けられる。 The MAX bet button 15a and the 1-bet button 15b are provided to determine the number of medals to be used for one game from the medals deposited inside the cabinet 2a. Inside the MAX bet button 15a, a bet button LED (not shown) that lights up when a medal can be inserted is provided. In addition, the checkout button is provided to pull out (discharge) the medals deposited inside the pachislot machine 1 to the outside.

なお、遊技者がMAXベットボタン15aを押下操作すると、単位遊技のベット枚数(3枚)のメダルが投入され、有効ラインが有効化される。一方、1ベットボタン15bが1回、押下操作される度に1枚のメダルが投入される。1ベットボタン15bが3回操作されると、単位遊技のベット枚数(3枚)のメダルが投入され、有効ラインが有効化される。以下では、MAXベットボタン15aの操作、1ベットボタン15bの操作及びメダル投入口14にメダルを投入する操作(遊技を行うためにメダルを投入する操作)をいずれも「投入操作」という。 When the player presses the MAX bet button 15a, medals for the number of bets (3) in the unit game are inserted and the effective line is activated. On the other hand, one medal is inserted each time the 1-bet button 15b is pressed once. When the 1-bet button 15b is operated three times, medals for the number of bets (3) in the unit game are inserted and the effective line is activated. In the following, the operation of the MAX bet button 15a, the operation of the 1-bet button 15b, and the operation of inserting medals into the medal insertion slot 14 (operations of inserting medals to perform a game) are all referred to as "insertion operations".

スタートレバー16は、全てのリール(3L,3C,3R)の回転を開始するために設けられる。ストップボタン17L,17C,17Rは、それぞれ、左リール3L、中リール3C、右リール3Rに対応づけて設けられ、各ストップボタンは対応するリールの回転を停止するために設けられる。以下、ストップボタン17L,17C,17Rを、それぞれ左ストップボタン17L、中ストップボタン17C、右ストップボタン17Rともいう。 The start lever 16 is provided to start the rotation of all reels (3L, 3C, 3R). The stop buttons 17L, 17C, and 17R are provided corresponding to the left reel 3L, the middle reel 3C, and the right reel 3R, respectively, and each stop button is provided to stop the rotation of the corresponding reel. Hereinafter, the stop buttons 17L, 17C, and 17R are also referred to as a left stop button 17L, a middle stop button 17C, and a right stop button 17R, respectively.

また、リール表示窓4の下方の略水平面の台座領域の略中央には、情報表示器6が設けられる。なお、情報表示器6は、透明の窓カバー(不図示)によって覆われている。 Further, an information display 6 is provided at substantially the center of the pedestal region on the substantially horizontal plane below the reel display window 4. The information display 6 is covered with a transparent window cover (not shown).

情報表示器6には、特典として遊技者に対して払い出されるメダルの枚数(以下、「払出枚数」という)の情報を遊技者に対してデジタル表示(報知)するための2桁の7セグメントLED(以下、「7セグLED」という)や、パチスロ1の内部に預けられているメダルの枚数(以下、「クレジット枚数」という)などの情報を遊技者に対してデジタル表示(報知)するための2桁の7セグLEDが設けられる。なお、本実施形態では、メダルの払出枚数表示用の2桁の7セグLEDは、エラー発生及びエラー種別の情報を遊技者に対してデジタル表示(報知)するための2桁の7セグLEDとしても用いられる。それゆえ、エラー発生時には、メダルの払出枚数表示用の2桁の7セグLEDの表示態様は、払出枚数の表示態様からエラー種別の情報の表示態様に切り替わる。 The information display 6 is a 2-digit 7-segment LED for digitally displaying (notifying) information on the number of medals to be paid out to the player (hereinafter referred to as "the number of medals to be paid out") as a privilege. For digitally displaying (notifying) information such as (hereinafter referred to as "7-segment LED") and the number of medals deposited inside the pachislot 1 (hereinafter referred to as "credit number") to the player. A 2-digit 7-segment LED is provided. In the present embodiment, the 2-digit 7-segment LED for displaying the number of medals to be paid out is a 2-digit 7-segment LED for digitally displaying (notifying) information on the occurrence of an error and the error type to the player. Is also used. Therefore, when an error occurs, the display mode of the 2-digit 7-segment LED for displaying the number of medals to be paid out is switched from the display mode of the number of medals to be paid out to the display mode of the error type information.

さらに、情報表示器6には、内部当籤役として決定された役に応じた図柄組合せを有効ラインに沿って表示するために必要な停止操作の情報を報知する指示モニタ(不図示)が設けられている。指示モニタ(指示表示器)は、例えば、2桁の7セグメントLEDにより構成される。そして、指示モニタでは、報知する停止操作の情報と一義的に対応する態様で、2桁の7セグLEDが点灯、点滅又は消灯することにより、遊技者に対して必要な停止操作の情報を報知する。 Further, the information display 6 is provided with an instruction monitor (not shown) for notifying information on the stop operation necessary for displaying the symbol combination according to the winning combination determined as the internal winning combination along the effective line. ing. The instruction monitor (instruction display) is composed of, for example, a 2-digit 7-segment LED. Then, the instruction monitor notifies the player of the necessary stop operation information by turning on, blinking, or turning off the two-digit 7-segment LED in a manner uniquely corresponding to the stop operation information to be notified. To do.

なお、ここでいう、報知する停止操作の情報と一義的に対応する態様とは、例えば、押し順「1st(第1停止操作を左リール3Lに対して行うこと)」を報知する場合には指示モニタに数値「1」を表示し、押し順「2nd(第1停止操作を中リール3Cに対して行うこと)」を報知する場合には指示モニタに数値「2」を表示し、押し順「3rd(第1停止操作を右リール3Rに対して行うこと)」を報知する場合には指示モニタに数値「3」を表示するなどの態様のことである。 The mode that uniquely corresponds to the information of the stop operation to be notified here is, for example, when the push order "1st (the first stop operation is performed on the left reel 3L)" is notified. When the numerical value "1" is displayed on the instruction monitor and the push order "2nd (perform the first stop operation on the middle reel 3C)" is displayed, the numerical value "2" is displayed on the instruction monitor and the push order is displayed. When notifying "3rd (performing the first stop operation on the right reel 3R)", the numerical value "3" is displayed on the instruction monitor.

情報表示器6は、後述の図15に示すように、ドア中継端子板68及び遊技動作表示基板81を介して主制御基板71に電気的に接続され、情報表示器6の表示動作は、主制御基板71内の後述の主制御回路90により制御される。また、上述した各種7セグLEDの制御方式は、ダイナミック点灯制御である。 As shown in FIG. 15 described later, the information display 6 is electrically connected to the main control board 71 via the door relay terminal board 68 and the game operation display board 81, and the display operation of the information display 6 is mainly performed. It is controlled by the main control circuit 90 described later in the control board 71. Further, the control method of the various 7-segment LEDs described above is dynamic lighting control.

なお、本実施形態のパチスロ1では、主制御基板71により制御される指示モニタに加えて、副制御基板72により制御される他の手段を用いて停止操作の情報を報知する構成を設ける。具体的には、後述のプロジェクタ213を含む投影ブロック201及び各種被投影部材を含む被投影ブロック202(図3及び後述の図5〜図8参照)により構成される後述の表示装置11により停止操作の情報を報知する。 In the pachi-slot machine 1 of the present embodiment, in addition to the instruction monitor controlled by the main control board 71, another means controlled by the sub-control board 72 is used to notify the information of the stop operation. Specifically, the stop operation is performed by the display device 11 described later, which is composed of the projection block 201 including the projector 213 described later and the projected block 202 including various projected members (see FIGS. 3 and 5 to 8 described later). Information of.

このような構成を適用した場合、指示モニタにおける報知の態様と、副制御基板72により制御されるその他の手段における報知の態様とは、互いに異なる態様であってもよい。すなわち、指示モニタでは、報知する停止操作の情報と一義的に対応する態様で報知すればよく、必ずしも、停止操作の情報を直接的に報知する必要はない(例えば、指示モニタにおいて数値「1」が表示されたとしても、遊技者によっては報知内容を特定できない可能性もあり、直接的な報知とは言えない)。一方、後述の表示装置11等のその他の手段によるサブ側(副制御基板側)での報知では、停止操作の情報を直接的に報知してもよい。例えば、押し順「1st」を報知する場合、指示モニタでは報知する押し順と一義的に対応する数値「1」を表示するが、その他の手段(例えば、表示装置11等)では、左リール3Lに対して第1停止操作を行わせるための指示情報を直接的に報知してもよい。 When such a configuration is applied, the mode of notification in the instruction monitor and the mode of notification in other means controlled by the sub-control board 72 may be different from each other. That is, the instruction monitor may be notified in a manner uniquely corresponding to the information of the stop operation to be notified, and it is not always necessary to directly notify the information of the stop operation (for example, the numerical value "1" in the instruction monitor. Even if is displayed, it may not be possible to specify the content of the notification depending on the player, so it cannot be said that the notification is direct). On the other hand, in the notification on the sub side (sub control board side) by other means such as the display device 11 described later, the information of the stop operation may be directly notified. For example, when the push order "1st" is notified, the instruction monitor displays a numerical value "1" that uniquely corresponds to the push order to be notified, but other means (for example, the display device 11 or the like) display the left reel 3L. The instruction information for performing the first stop operation may be directly notified to the user.

このような構成のパチスロ1では、副制御基板72の制御だけでなく、主制御基板71の制御によっても、内部当籤役に応じた必要な停止操作の情報を報知することができる。また、このような停止操作の情報の報知の有無は、遊技状態に応じて制御されるようにしてもよい。例えば、ナビが発生しない一般遊技状態(例えば非ART遊技状態等)では停止操作の情報を報知せずに、ナビが発生する報知遊技状態(例えばART遊技状態等)において停止操作の情報を報知するようにしてもよい。 In the pachi-slot machine 1 having such a configuration, not only the control of the sub-control board 72 but also the control of the main control board 71 can be used to notify the information of the necessary stop operation according to the internal winning combination. Further, the presence / absence of notification of such stop operation information may be controlled according to the gaming state. For example, in a general gaming state in which navigation does not occur (for example, a non-ART gaming state), information on a stop operation is not notified, but in a notification game state in which navigation occurs (for example, an ART gaming state), information on a stop operation is notified. You may do so.

また、遊技者側から見て、リール表示窓4の左方には、サブ表示装置18が設けられる。サブ表示装置18は、図2に示すように、ドア本体9の前面部のうち、台座部13の略水平面の台座領域から略垂直に立設するように設けられる。サブ表示装置18は、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイで構成され、各種情報を表示する。 Further, a sub display device 18 is provided on the left side of the reel display window 4 when viewed from the player side. As shown in FIG. 2, the sub-display device 18 is provided so as to stand substantially perpendicular to the pedestal region of the pedestal portion 13 in the substantially horizontal plane of the front portion of the door body 9. The sub-display device 18 is composed of a liquid crystal display and an organic EL (Electro-Luminescence) display, and displays various information.

また、サブ表示装置18の表示面上には、タッチセンサ19が設けられている(後述の図15参照)。タッチセンサ19は、静電容量方式などの所定の動作原理に従い動作し、遊技者の操作を受け付けると、タッチ入力情報として当該操作に応じた信号を出力する。そして、本実施形態のパチスロ1は、タッチセンサ19を介して受け付けた遊技者の操作(タッチセンサ19から出力されるタッチ入力情報)に応じて、サブ表示装置18の表示を切り替え可能にする機能を有する。なお、サブ表示装置18は、タッチセンサ19から出力されるタッチ入力情報に基づいて後述の副制御基板72(後述の図15参照)により制御される。 Further, a touch sensor 19 is provided on the display surface of the sub display device 18 (see FIG. 15 described later). The touch sensor 19 operates according to a predetermined operating principle such as a capacitance method, and when it receives an operation of a player, it outputs a signal corresponding to the operation as touch input information. The pachi-slot machine 1 of the present embodiment has a function of enabling the display of the sub-display device 18 to be switched according to the player's operation (touch input information output from the touch sensor 19) received via the touch sensor 19. Has. The sub-display device 18 is controlled by the sub-control board 72 (see FIG. 15 described later) based on the touch input information output from the touch sensor 19.

ドア本体9の下部には、メダル払出口24、メダル受皿25、2つのスピーカ用孔20L,20R等が設けられる。メダル払出口24は、後述のメダル払出装置51の駆動により排出されるメダルを外部に導く。メダル受皿25は、メダル払出口24から排出されたメダルを貯める。また、2つのスピーカ用孔20L,20Rからは、演出内容に対応する効果音や楽曲等の音声が出力される。 A medal payout outlet 24, a medal tray 25, two speaker holes 20L, 20R, and the like are provided in the lower part of the door body 9. The medal payout outlet 24 guides the medals discharged by driving the medal payout device 51, which will be described later, to the outside. The medal tray 25 stores medals discharged from the medal payout outlet 24. Further, sound effects such as sound effects and music corresponding to the contents of the production are output from the two speaker holes 20L and 20R.

[内部構造]
次に、パチスロ1の内部構造を、図3及び図4を参照しながら説明する。図3は、キャビネット2aの内部構造を示す図であり、図4は、フロントドア2bの裏面側の内部構造を示す図である。
[Internal structure]
Next, the internal structure of the pachislot machine 1 will be described with reference to FIGS. 3 and 4. FIG. 3 is a diagram showing the internal structure of the cabinet 2a, and FIG. 4 is a diagram showing the internal structure of the front door 2b on the back surface side.

キャビネット2aは、図3に示すように、上面板27aと、底面板27bと、左右の側面板27c,27dと、背面板27eとを有する。そして、キャビネット2a内の上部には、表示装置11が配設される。 As shown in FIG. 3, the cabinet 2a has a top plate 27a, a bottom plate 27b, left and right side plates 27c and 27d, and a back plate 27e. A display device 11 is arranged in the upper part of the cabinet 2a.

表示装置11は、後述のプロジェクタ213を含む投影ブロック201と、後述のプロジェクタ213から出射された映像光が投影される後述の複数種の被投影部材を含む被投影ブロック202とを有する。また、被投影ブロック202内には、遊技状態に応じて、被投影部材を切り換えるための機能(後述の被投影部材移動機構305)も設けられる。 The display device 11 has a projection block 201 including the projector 213 described later, and a projected block 202 including a plurality of types of projected members described later on which the image light emitted from the projector 213 described later is projected. Further, in the projected block 202, a function for switching the projected member (projected member moving mechanism 305 described later) is also provided according to the game state.

表示装置11では、後述する仮想空間上での画像合成処理により生成された画像データ(後述のPJ対応画像データ)に対応する映像光が所定の被投影部材に投影され、映像表示演出等が行われる。具体的には、表示装置11では、投影対象となる被投影部材(オブジェクト)の形状や、後述のプロジェクタ213と被投影部材との位置関係(投影距離や角度など)に基づいて映像光を生成し、その映像光が、後述のプロジェクタ213から被投影部材の表面に投影される。このような演出機能を設けることにより、高度で且つ迫力のある演出を行うことができる。なお、表示装置11の具体的な構成及び動作については、後で図面を参照しながら詳述する。 In the display device 11, the image light corresponding to the image data (PJ-compatible image data described later) generated by the image composition process in the virtual space described later is projected onto the predetermined projected member, and the image display effect or the like is performed. It is said. Specifically, the display device 11 generates video light based on the shape of the projected member (object) to be projected and the positional relationship (projection distance, angle, etc.) between the projector 213 and the projected member, which will be described later. Then, the image light is projected onto the surface of the projected member from the projector 213 described later. By providing such an effect function, it is possible to perform an advanced and powerful effect. The specific configuration and operation of the display device 11 will be described in detail later with reference to the drawings.

キャビネット2a内の下部には、メダル払出装置51(以下、ホッパー装置という)と、メダル補助収納庫52と、電源装置53とが配設される。 A medal payout device 51 (hereinafter referred to as a hopper device), a medal auxiliary storage 52, and a power supply device 53 are arranged in the lower portion of the cabinet 2a.

ホッパー装置51は、キャビネット2aにおける底面板27bの中央部に取り付けられる。このホッパー装置51は、多量のメダルを収容可能で、それらを1枚ずつ排出可能な構造を有する。ホッパー装置51は、貯留されたメダルが例えば50枚を超えたとき、又は、精算ボタンが押下されてメダルの精算が実行されるときに、メダルを払い出す。そして、ホッパー装置51によって払い出されたメダルは、メダル払出口24(図2参照)から排出される。 The hopper device 51 is attached to the central portion of the bottom plate 27b in the cabinet 2a. The hopper device 51 has a structure capable of accommodating a large number of medals and ejecting them one by one. The hopper device 51 pays out medals when the number of stored medals exceeds, for example, 50, or when the settlement button is pressed and the settlement of medals is executed. Then, the medals paid out by the hopper device 51 are discharged from the medal payout outlet 24 (see FIG. 2).

メダル補助収納庫52は、ホッパー装置51から溢れ出たメダルを収納する。このメダル補助収納庫52は、キャビネット2a内部を正面から見て、ホッパー装置51の右側に配置される。また、メダル補助収納庫52は、キャビネット2aの底面板27bに対して着脱可能に取り付けられている。 The medal auxiliary storage 52 stores medals overflowing from the hopper device 51. The medal auxiliary storage 52 is arranged on the right side of the hopper device 51 when the inside of the cabinet 2a is viewed from the front. Further, the medal auxiliary storage 52 is detachably attached to the bottom plate 27b of the cabinet 2a.

電源装置53は、電源スイッチ53aと、電源基板53b(電源供給手段)とを有している(後述の図15参照)。この電源装置53は、キャビネット2a内部を正面から見て、ホッパー装置51の左側に配置されており、左側面板27cに取り付けられている。電源装置53は、サブ電源装置(不図示)から供給された交流電圧100Vの電力を各部で必要な直流電圧の電力に変換して、変換した電力を各部へ供給する。 The power supply device 53 includes a power supply switch 53a and a power supply board 53b (power supply means) (see FIG. 15 described later). The power supply device 53 is arranged on the left side of the hopper device 51 when the inside of the cabinet 2a is viewed from the front, and is attached to the left side plate 27c. The power supply device 53 converts the AC voltage 100V power supplied from the sub power supply device (not shown) into the DC voltage power required by each part, and supplies the converted power to each part.

また、キャビネット2a内の電源装置53の上方には、副制御基板72(後述の図15参照)を収容する副制御基板ケース57が配設される。副制御基板ケース57に収納された副制御基板72には、後述の副制御回路150(後述の図18参照)が搭載されている。この副制御回路150は、映像の表示等による演出の実行を制御する回路である。なお、副制御基板72は、本発明に係る制御部の一具体例を示すものである。副制御回路150の具体的な構成については後述する。 Further, above the power supply device 53 in the cabinet 2a, a sub-control board case 57 for accommodating the sub-control board 72 (see FIG. 15 described later) is arranged. A sub-control circuit 150 (see FIG. 18 described later) described later is mounted on the sub-control board 72 housed in the sub-control board case 57. The sub-control circuit 150 is a circuit that controls the execution of an effect by displaying an image or the like. The sub-control board 72 shows a specific example of the control unit according to the present invention. The specific configuration of the sub-control circuit 150 will be described later.

キャビネット2a内の副制御基板ケース57の上方には、副中継基板61が配設される。この副中継基板61は、副制御基板72と後述の主制御基板71とを接続する配線が実装された中継基板である。また、副中継基板61は、副制御基板72と副制御基板72の周辺に配設された基板や各種装置部(ユニット)などとを接続する配線が実装された中継基板である。 The sub-relay board 61 is arranged above the sub-control board case 57 in the cabinet 2a. The sub-relay board 61 is a relay board on which wiring for connecting the sub-control board 72 and the main control board 71, which will be described later, is mounted. Further, the sub-relay board 61 is a relay board on which wiring for connecting the sub-control board 72 and the boards arranged around the sub-control board 72 and various device units (units) is mounted.

また、図3には示さないが、キャビネット2a内には、キャビネット側中継基板44(後述の図15参照)が配設される。このキャビネット側中継基板44は、主制御基板71(後述の図15参照)と、ホッパー装置51、メダル補助収納庫スイッチ75(後述の図15参照)及びメダル払出カウントスイッチ(不図示)のそれぞれとを接続する配線が実装された中継基板である。 Further, although not shown in FIG. 3, a cabinet-side relay board 44 (see FIG. 15 described later) is arranged in the cabinet 2a. The cabinet-side relay board 44 includes a main control board 71 (see FIG. 15 described later), a hopper device 51, a medal auxiliary storage switch 75 (see FIG. 15 described later), and a medal payout count switch (not shown). It is a relay board on which the wiring for connecting the above is mounted.

フロントドア2bの裏面側の中央部には、図4に示すように、ミドルドア41が、配設され、リール表示窓4(図2参照)を裏側から開閉可能に取り付けられている。また、図4には示さないが、ミドルドア41のリール表示窓4側には、3つのリール3L,3C,3Rが取り付けられ、ミドルドア41のリール表示窓4側とは反対側には、主制御基板71(後述の図15参照)が収納された主制御基板ケース55が取り付けられている。なお、3つのリール3L,3C,3Rには、所定の減速比をもったギアを介してステッピングモータ(不図示)が接続されている。 As shown in FIG. 4, a middle door 41 is arranged at the center of the front door 2b on the back surface side, and a reel display window 4 (see FIG. 2) is attached so as to be openable and closable from the back side. Although not shown in FIG. 4, three reels 3L, 3C, and 3R are attached to the reel display window 4 side of the middle door 41, and the main control is on the side opposite to the reel display window 4 side of the middle door 41. A main control board case 55 in which the board 71 (see FIG. 15 described later) is housed is attached. A stepping motor (not shown) is connected to the three reels 3L, 3C, and 3R via gears having a predetermined reduction ratio.

主制御基板ケース55に収納された主制御基板71は、後述する主制御回路90(後述の図16参照)を有する。主制御回路90(主制御手段)は、内部当籤役の決定、各リール3L,3C,3Rの回転及び停止、入賞の有無の判定といった、パチスロ1における遊技の主な流れを制御する回路である。また、本実施形態では、例えば、報知遊技(ART等)の決定の有無の抽籤処理、ナビ情報の指示モニタへの表示処理、各種試験信号の送信処理などの制御も主制御回路90により行われる。なお、主制御回路90の具体的な構成は後述する。 The main control board 71 housed in the main control board case 55 has a main control circuit 90 (see FIG. 16 described later) described later. The main control circuit 90 (main control means) is a circuit that controls the main flow of the game in the pachislot machine 1, such as determining the internal winning combination, rotating and stopping the reels 3L, 3C, and 3R, and determining whether or not there is a prize. .. Further, in the present embodiment, for example, the main control circuit 90 also controls lottery processing for determining whether or not a notification game (ART or the like) is determined, display processing for navigation information on an instruction monitor, transmission processing for various test signals, and the like. .. The specific configuration of the main control circuit 90 will be described later.

フロントドア2bの裏面側において、ミドルドア41の下方には、スピーカ65L,65Rが配設される。スピーカ65L,65Rは、それぞれスピーカ用孔20L,20R(図2参照)と対向する位置に配置されている。 Speakers 65L and 65R are arranged below the middle door 41 on the back surface side of the front door 2b. The speakers 65L and 65R are arranged at positions facing the speaker holes 20L and 20R (see FIG. 2), respectively.

また、スピーカ65Lの上方には、セレクタ66と、ドア開閉監視スイッチ67とが配設される。セレクタ66は、メダルの材質や形状等が適正であるか否かを選別する装置であり、メダル投入口14に投入された適正なメダルをホッパー装置51へ案内する。セレクタ66内においてメダルが通過する経路上には、適正なメダルが通過したことを検出するメダルセンサ(遊技媒体検出手段:不図示)が設けられている。 A selector 66 and a door open / close monitoring switch 67 are arranged above the speaker 65L. The selector 66 is a device for selecting whether or not the material and shape of medals are appropriate, and guides the appropriate medals inserted into the medal insertion slot 14 to the hopper device 51. A medal sensor (game medium detecting means: not shown) for detecting that a proper medal has passed is provided on the path through which the medal passes in the selector 66.

ドア開閉監視スイッチ67は、フロントドア2bを裏面側から見て、セレクタ66の左斜め下に配置される。このドア開閉監視スイッチ67は、フロントドア2bの開閉を報知するためのセキュリティ信号をパチスロ1の外部に出力する。 The door open / close monitoring switch 67 is arranged diagonally to the lower left of the selector 66 when the front door 2b is viewed from the back surface side. The door open / close monitoring switch 67 outputs a security signal for notifying the open / close of the front door 2b to the outside of the pachislot machine 1.

また、図4には示さないが、フロントドア2bを裏面において、ミドルドア41により開閉された領域であり且つリール表示窓4の下方には、ドア中継端子板68が配設される(後述の図15参照)。このドア中継端子板68は、主制御基板ケース55内の主制御基板71と、各種のボタンやスイッチ、副中継基板61、セレクタ66、遊技動作表示基板81、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402のそれぞれとを接続する配線が実装された中継基板である。なお、各種のボタン及びスイッチとしては、例えば、MAXベットボタン15a、1ベットボタン15b、ドア開閉監視スイッチ67、後述のBETスイッチ77、スタートスイッチ79等が挙げられる。 Further, although not shown in FIG. 4, a door relay terminal plate 68 is arranged on the back surface of the front door 2b, which is a region opened and closed by the middle door 41 and below the reel display window 4 (FIG. 4 described later). 15). The door relay terminal board 68 includes a main control board 71 in the main control board case 55, various buttons and switches, a sub relay board 61, a selector 66, a game operation display board 81, a first interface board 401 for a testing machine, and the like. This is a relay board on which wiring for connecting each of the second interface boards 402 for a testing machine is mounted. Examples of various buttons and switches include a MAX bet button 15a, a 1-bet button 15b, a door open / close monitoring switch 67, a BET switch 77 described later, and a start switch 79.

<表示装置の構成>
次に、表示装置11の構成について、図5を参照して説明する。図5は、表示装置11の外観斜視図である。
<Display device configuration>
Next, the configuration of the display device 11 will be described with reference to FIG. FIG. 5 is an external perspective view of the display device 11.

表示装置11は、図5に示すように、投影ブロック201と、投影ブロック201の下方に配置された被投影ブロック202とを備える。この表示装置11は、投影ブロック201に設置された後述のプロジェクタ213によって映像光を生成し、該映像光を被投影ブロック202に設けられた被投影部材(後述の台形部材302等)の投影面に投射する。 As shown in FIG. 5, the display device 11 includes a projection block 201 and a projected block 202 arranged below the projection block 201. The display device 11 generates image light by a projector 213 installed in the projection block 201, which will be described later, and emits the image light to the projection surface of a projected member (trapezoidal member 302, etc., which will be described later) provided in the projected block 202. Project to.

[投影ブロック]
次に、投影ブロック201の構成について、図6及び図7を参照して説明する。図6は、投影ブロック201の分解斜視図である。図7は、投影ブロック201の縦断面図である。なお、後述のプロジェクタ213を含む投影ブロック201は、本発明に係る投影部の一具体例を示すものである。
[Projection block]
Next, the configuration of the projection block 201 will be described with reference to FIGS. 6 and 7. FIG. 6 is an exploded perspective view of the projection block 201. FIG. 7 is a vertical cross-sectional view of the projection block 201. The projection block 201 including the projector 213 described later shows a specific example of the projection unit according to the present invention.

投影ブロック201は、図6に示すように、ベース部材211と、反射部材212と、プロジェクタ213とを有する。ベース部材211は、下面が開口された中空の略箱状部材で構成され、上板部221と、前板部222と、後板部223と、左側板部224と、右側板部225とを有する。 As shown in FIG. 6, the projection block 201 includes a base member 211, a reflection member 212, and a projector 213. The base member 211 is composed of a hollow substantially box-shaped member having an open lower surface, and includes an upper plate portion 221 and a front plate portion 222, a rear plate portion 223, a left plate portion 224, and a right plate portion 225. Have.

上板部221の裏面(被投影ブロック202側の面)には、プロジェクタ213が取り付けられている。また、前板部222には、反射部材取付け部227が設けられ、この反射部材取付け部227は、前板部222よりも前方(遊技者側)に突出した突状部材で構成される。 A projector 213 is attached to the back surface of the upper plate portion 221 (the surface on the projected block 202 side). Further, the front plate portion 222 is provided with a reflective member mounting portion 227, and the reflective member mounting portion 227 is composed of a protruding member protruding forward (on the player side) from the front plate portion 222.

反射部材取付け部227の前部片234は、板状部材で構成され、前部片234の表面(反射部材取付け部227の突面)の面方向が斜め上方となり且つ裏面の面方向が斜め下方となるように傾斜している。そして、前部片234の裏面(プロジェクタ213及び被投影ブロック202側の面)には、反射部材212が取り付けられている。 The front piece 234 of the reflective member mounting portion 227 is composed of a plate-shaped member, and the surface direction of the front surface piece 234 (the protruding surface of the reflective member mounting portion 227) is obliquely upward and the surface direction of the back surface is obliquely downward. It is tilted so that it becomes. A reflective member 212 is attached to the back surface of the front piece 234 (the surface on the side of the projector 213 and the projected block 202).

反射部材212は、図7に示すように、前部片234と略同じサイズ(大きさ)を有し且つ表面が長方形である板状部材で構成されたミラーホルダ236と、ミラーホルダ236に固定された反射ミラー237とを有する。なお、ミラーホルダ236は、前部片234の裏面にねじ等の固定部材を用いて固定されている。 As shown in FIG. 7, the reflective member 212 is fixed to the mirror holder 236 and the mirror holder 236, which are made of a plate-shaped member having substantially the same size (size) as the front piece 234 and having a rectangular surface. It has a reflection mirror 237 and the like. The mirror holder 236 is fixed to the back surface of the front piece 234 by using a fixing member such as a screw.

反射ミラー237は、ミラーホルダ236のプロジェクタ213及び被投影ブロック202側の面に固定されている。この反射ミラー237は、反射面の面方向が斜め下方となるように傾斜し、プロジェクタ213から出射された映像光を、被投影ブロック202の被投影部材(後述の台形部材302等)に向けて反射する。 The reflection mirror 237 is fixed to the surface of the mirror holder 236 on the projector 213 side and the projected block 202 side. The reflection mirror 237 is tilted so that the surface direction of the reflection surface is obliquely downward, and the image light emitted from the projector 213 is directed toward a projected member (trapezoidal member 302 or the like described later) of the projected block 202. reflect.

プロジェクタ213は、図7に示すように、プロジェクタ本体241と、取付ブラケット242とを有する。取付ブラケット242は、表面が略長方形の板状部材で構成され、取付ブラケット242の裏面(被投影ブロック202側の面)にプロジェクタ本体241が取り付けられている。なお、取付ブラケット242は、ベース部材211の上板部221の裏面にねじ等の固定部材を用いて固定されている。 As shown in FIG. 7, the projector 213 has a projector main body 241 and a mounting bracket 242. The mounting bracket 242 is composed of a plate-shaped member having a substantially rectangular surface, and the projector main body 241 is mounted on the back surface (the surface on the projected block 202 side) of the mounting bracket 242. The mounting bracket 242 is fixed to the back surface of the upper plate portion 221 of the base member 211 by using a fixing member such as a screw.

プロジェクタ本体241は、ケース251(図6参照)と、照明ユニット252と、液晶プリズムユニット253と、投射レンズ254と、複数のヒートシンク255と、複数のファン256とを有する。なお、図7では、1つのヒートシンク255及び1つのファン256のみを示す。 The projector main body 241 has a case 251 (see FIG. 6), a lighting unit 252, a liquid crystal prism unit 253, a projection lens 254, a plurality of heat sinks 255, and a plurality of fans 256. Note that FIG. 7 shows only one heat sink 255 and one fan 256.

ケース251は、中空の筐体で構成される。ケース251の内部には、照明ユニット252、液晶プリズムユニット253、投射レンズ254、ヒートシンク255及びファン256が収納されている。また、ケース251の前面(反射部材212側)には、投射レンズ254によって塞がれる開口部が設けられている。 The case 251 is composed of a hollow housing. A lighting unit 252, a liquid crystal prism unit 253, a projection lens 254, a heat sink 255, and a fan 256 are housed inside the case 251. Further, an opening closed by the projection lens 254 is provided on the front surface (reflection member 212 side) of the case 251.

ケース251の内部において、投射レンズ254の後方(ミラーホルダ236側とは反対方向)には、液晶プリズムユニット253が配置され、液晶プリズムユニット253の後方には、照明ユニット252が配置されている。そして、照明ユニット252の周囲には、複数のヒートシンク255が配置され、複数のファン256は、複数のヒートシンク255に隣接して配置されている。 Inside the case 251 the liquid crystal prism unit 253 is arranged behind the projection lens 254 (in the direction opposite to the mirror holder 236 side), and the lighting unit 252 is arranged behind the liquid crystal prism unit 253. A plurality of heat sinks 255 are arranged around the lighting unit 252, and the plurality of fans 256 are arranged adjacent to the plurality of heat sinks 255.

照明ユニット252は、例えば、複数の光源を有する。複数の光源は、赤色の光を出射する光源R(不図示)と、緑色の光を出射する光源G(不図示)と、青色の光を出射する光源B(不図示)とで構成される。したがって、液晶プリズムユニット253には、赤(R)、緑(G)、青(B)の3色の光がそれぞれ入射される。 The lighting unit 252 has, for example, a plurality of light sources. The plurality of light sources are composed of a light source R (not shown) that emits red light, a light source G (not shown) that emits green light, and a light source B (not shown) that emits blue light. .. Therefore, light of three colors of red (R), green (G), and blue (B) is incident on the liquid crystal prism unit 253, respectively.

なお、本発明はこれに限定されず、光源としては、例えば、1つの高輝度放電ランプを使用してもよい。この場合は、色分解ミラー(ダイクロイックミラー)を使用して、高輝度放電ランプから出射された光を赤(R)、緑(G)、青(B)の3色の光に分解する。 The present invention is not limited to this, and for example, one high-intensity discharge lamp may be used as the light source. In this case, a color separation mirror (dichroic mirror) is used to separate the light emitted from the high-intensity discharge lamp into three colors of red (R), green (G), and blue (B).

液晶プリズムユニット253は、例えば、3つの液晶パネルと、色合成用のクロスプリズム(ダイクロイックプリズム)とを有する。3つの液晶パネルは、赤色の光が入射する液晶パネルR(不図示)と、緑色の光が入射する液晶パネルG(不図示)と、青色の光が入射する液晶パネルB(不図示)とで構成される。クロスプリズムは、各液晶パネルによって生成された3つの映像光を1つの映像光として合成する。 The liquid crystal prism unit 253 has, for example, three liquid crystal panels and a cross prism (dichroic prism) for color synthesis. The three liquid crystal panels include a liquid crystal panel R (not shown) in which red light is incident, a liquid crystal panel G (not shown) in which green light is incident, and a liquid crystal panel B (not shown) in which blue light is incident. Consists of. The cross prism synthesizes three video lights generated by each liquid crystal panel as one video light.

投射レンズ254は、反射部材212の反射ミラー237に対向して配置されている。それゆえ、液晶プリズムユニット253から出射された映像光は、投射レンズ254を通過して反射ミラー237に入射される。複数のヒートシンク255は、照明ユニット252によって発生した熱を放熱する。また、複数のファン256は、複数のヒートシンク255に空気を送風して、複数のヒートシンク255を冷却する。 The projection lens 254 is arranged so as to face the reflection mirror 237 of the reflection member 212. Therefore, the image light emitted from the liquid crystal prism unit 253 passes through the projection lens 254 and is incident on the reflection mirror 237. The plurality of heat sinks 255 dissipate heat generated by the lighting unit 252. Further, the plurality of fans 256 blow air to the plurality of heat sinks 255 to cool the plurality of heat sinks 255.

[被投影ブロック]
次に、被投影ブロック202の構成について、図8及び図9を参照して説明する。図8は、被投影ブロック202の分解斜視図である。図9は、被投影ブロック202に設けられた被投影部材の移動機構の分解斜視図である。
[Projected block]
Next, the configuration of the projected block 202 will be described with reference to FIGS. 8 and 9. FIG. 8 is an exploded perspective view of the projected block 202. FIG. 9 is an exploded perspective view of the moving mechanism of the projected member provided on the projected block 202.

被投影ブロック202は、図8に示すように、収納ケース301と、台形部材302と、擬似リール部材303と、平面スクリーン部材304と、被投影部材移動機構305とを備える。なお、台形部材302、擬似リール部材303及び平面スクリーン部材304のそれぞれは、本発明に係る表示部の一具体例を示すものである。また、台形部材302は、本発明に係る第1の表示部の一具体例を示すものであり、擬似リール部材303及び平面スクリーン部材304のそれぞれは、本発明に係る第2の表示部の一具体例を示すものである。また、被投影部材移動機構305は、本発明に係る可動制御手段の一具体例を示すものである。 As shown in FIG. 8, the projected block 202 includes a storage case 301, a trapezoidal member 302, a pseudo reel member 303, a flat screen member 304, and a projected member moving mechanism 305. Each of the trapezoidal member 302, the pseudo reel member 303, and the flat screen member 304 shows a specific example of the display unit according to the present invention. Further, the trapezoidal member 302 shows a specific example of the first display unit according to the present invention, and each of the pseudo reel member 303 and the flat screen member 304 is one of the second display units according to the present invention. A concrete example is shown. Further, the projected member moving mechanism 305 shows a specific example of the movable control means according to the present invention.

(1)収納ケース
収納ケース301は、前面及び上面が開口された中空の筐体であり、台座部311と、背面壁312と、左側壁313と、右側壁314とを有する。各壁は、表面が略長方形の板状部材で構成され、台座部311及び背面壁312は、それぞれ、収納ケース301の底部及び背面部を形成し、左側壁313及び右側壁314は、それぞれ、収納ケース301の左側面部及び右側面部を形成する。
(1) Storage Case The storage case 301 is a hollow housing having an open front surface and an upper surface, and has a pedestal portion 311 and a back wall 312, a left side wall 313, and a right side wall 314. Each wall is composed of a plate-shaped member having a substantially rectangular surface, the pedestal portion 311 and the back surface wall 312 form the bottom portion and the back surface portion of the storage case 301, respectively, and the left side wall 313 and the right side wall 314 respectively. The left side surface portion and the right side surface portion of the storage case 301 are formed.

(2)台形部材
台形部材302は、表面が台形状の床板部321と、3つの壁板部322,323,324とで構成され、収納ケース301の台座部311上にねじ等の固定部材により固定されている。
(2) Trapezoidal member The trapezoidal member 302 is composed of a floor plate portion 321 having a trapezoidal surface and three wall plate portions 322, 323, 324, and has a fixing member such as a screw on the pedestal portion 311 of the storage case 301. It is fixed.

床板部321は、台座部311の載置面311aに載置されている。この際、床板部321の下辺(長辺)部が正面(遊技者側)に位置するように、床板部321が台座部311上に載置されている。なお、床板部321の台座部311の載置面311aに当接した面とは反対側の面321a(平面)は、投影面となる。床板部321の投影面321aには、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The floor plate portion 321 is mounted on the mounting surface 311a of the pedestal portion 311. At this time, the floor plate portion 321 is placed on the pedestal portion 311 so that the lower side (long side) portion of the floor plate portion 321 is located on the front surface (player side). The surface 321a (flat surface) opposite to the surface of the floor plate portion 321 that is in contact with the mounting surface 311a of the pedestal portion 311 is a projection surface. The image light emitted from the projector 213 and then reflected by the reflecting member 212 is projected onto the projection surface 321a of the floor plate portion 321.

壁板部322は、表面が略長方形状の板状部材で構成され、床板部321の上辺部に連続して形成されている。この際、壁板部322の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部322が床板部321の上辺部に連続して形成される。そして、壁板部322のフロントドア2b側(遊技者側)の平面が投影面322aとなる。壁板部322の投影面322aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The wall plate portion 322 is composed of a plate-shaped member having a substantially rectangular surface, and is continuously formed on the upper side portion of the floor plate portion 321. At this time, the wall plate portion 322 is continuously formed on the upper side portion of the floor plate portion 321 so that the angle between the surface of the wall plate portion 322 and the surface of the floor plate portion 321 is substantially vertical. Then, the plane of the wall plate portion 322 on the front door 2b side (player side) becomes the projection surface 322a. Similar to the projection surface 321a of the floor plate portion 321, the image light emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 322a of the wall plate portion 322.

壁板部323は、板状部材で構成され、床板部321の左辺部及び壁板部322の左辺部に連続して形成されている。この際、壁板部323の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部323が床板部321の左辺部及び壁板部322の左辺部に連続して形成される。そして、壁板部323の壁板部324側の平面が投影面323aとなる。なお、壁板部323の投影面323aと壁板部322の投影面322aとの間の角度は、鈍角(90度より大きい角度)となるので、投影面323aは、フロントドア2bの開口10aを介して遊技者から視認可能となる。壁板部323の投影面323aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The wall plate portion 323 is composed of a plate-shaped member, and is continuously formed on the left side portion of the floor plate portion 321 and the left side portion of the wall plate portion 322. At this time, the wall plate portion 323 is continuous with the left side portion of the floor plate portion 321 and the left side portion of the wall plate portion 322 so that the angle between the surface of the wall plate portion 323 and the surface of the floor plate portion 321 is substantially vertical. Is formed. Then, the plane of the wall plate portion 323 on the wall plate portion 324 side becomes the projection surface 323a. Since the angle between the projection surface 323a of the wall plate portion 323 and the projection surface 322a of the wall plate portion 322 is an obtuse angle (an angle larger than 90 degrees), the projection surface 323a has an opening 10a of the front door 2b. It becomes visible to the player through. Similar to the projection surface 321a of the floor plate portion 321, the image light emitted from the projector 213 and then reflected by the reflection member 212 is projected onto the projection surface 323a of the wall plate portion 323.

壁板部324は、板状部材で構成され、床板部321の右辺部及び壁板部322の右辺部に連続して形成されている。この際、壁板部324の表面と、床板部321の表面との間の角度が略垂直になるように、壁板部324が床板部321の右辺部及び壁板部322の右辺部に連続して形成される。そして、壁板部324の壁板部323側の平面が投影面324aとなる。なお、壁板部324の投影面324aと壁板部322の投影面322aとの間の角度は、鈍角(90度より大きい角度)となるので、投影面324aは、フロントドア2bの開口10aを介して遊技者から視認可能となる。壁板部324の投影面324aには、床板部321の投影面321aと同様に、プロジェクタ213から出射され、その後、反射部材212により反射された映像光が投影される。 The wall plate portion 324 is composed of a plate-shaped member, and is continuously formed on the right side portion of the floor plate portion 321 and the right side portion of the wall plate portion 322. At this time, the wall plate portion 324 is continuous with the right side portion of the floor plate portion 321 and the right side portion of the wall plate portion 322 so that the angle between the surface of the wall plate portion 324 and the surface of the floor plate portion 321 is substantially vertical. Is formed. Then, the plane of the wall plate portion 324 on the wall plate portion 323 side becomes the projection surface 324a. Since the angle between the projection surface 324a of the wall plate portion 324 and the projection surface 322a of the wall plate portion 322 is an obtuse angle (an angle larger than 90 degrees), the projection surface 324a has an opening 10a of the front door 2b. It becomes visible to the player through. Similar to the projection surface 321a of the floor plate portion 321, the projection surface 324a of the wall plate portion 324 is projected with the image light emitted from the projector 213 and then reflected by the reflection member 212.

本実施形態では、台形部材302の投影面321a,322a,323a,324aの一部の領域に映像光が投影される。そして、投影面321a,322a,323a,324aは、映像光が投影される投影領域と、映像光が投影されない非投影領域を有する。なお、投影面321a,322a,323a,324aの投影領域には、銀色(灰色)の塗料が塗布されている。一方、投影面321a,322a,323a,324aの非投影領域には、黒色の塗料が塗布されている。 In the present embodiment, the image light is projected onto a part of the projection surfaces 321a, 322a, 323a, 324a of the trapezoidal member 302. The projection surfaces 321a, 322a, 323a, and 324a have a projection region on which the video light is projected and a non-projection region on which the video light is not projected. A silver (gray) paint is applied to the projection regions of the projection surfaces 321a, 322a, 323a, and 324a. On the other hand, black paint is applied to the non-projected regions of the projection surfaces 321a, 322a, 323a, and 324a.

このように、投影面321a,322a,323a,324aの非投影領域に黒色の塗料を塗布することにより、非投影領域で光が反射することを抑制して、キャビネット2a内における光の乱反射を抑制することができる。また、非投影領域に黒色の塗料を塗布することにより、被投影部材の振動、回転、崩壊、形状変化、彩色変化、一部分の強調表現等が可能になる。 In this way, by applying the black paint to the non-projection regions of the projection surfaces 321a, 322a, 323a, and 324a, it is possible to suppress the reflection of light in the non-projection region and suppress the diffuse reflection of light in the cabinet 2a. can do. Further, by applying the black paint to the non-projected area, vibration, rotation, collapse, shape change, coloring change, partial emphasis expression, etc. of the projected member become possible.

(3)擬似リール部材
擬似リール部材303は、図8及び図9に示すように、円弧板部331と、一対の回動腕332A,332B(回動腕332Bは、後述の図11参照)とを備える。
(3) Pseudo-reel member As shown in FIGS. 8 and 9, the pseudo-reel member 303 includes an arc plate portion 331 and a pair of rotating arms 332A and 332B (for the rotating arm 332B, see FIG. 11 described later). To be equipped with.

円弧板部331は、円弧状に延在した板体(側面の延在形状が円弧状である板体)で構成される。それゆえ、円弧板部331には、内周面331aと、外周面331bとが形成される。円弧板部331の内周面331aには、パチスロ1の機種に関連した装飾が設けられている。一方、外周面331bは、滑らかな曲面で構成され、プロジェクタ213から出射された映像光が投影される投影面となる(後述の図11参照)。また、円弧板部331の内周面331a及び外周面331bには、シルバー(又は灰色)の塗料が塗布されている。 The arc plate portion 331 is composed of a plate body extending in an arc shape (a plate body having an arc shape extending on the side surface). Therefore, an inner peripheral surface 331a and an outer peripheral surface 331b are formed on the arc plate portion 331. The inner peripheral surface 331a of the arc plate portion 331 is provided with decorations related to the model of the pachislot machine 1. On the other hand, the outer peripheral surface 331b is formed of a smooth curved surface, and serves as a projection surface on which the image light emitted from the projector 213 is projected (see FIG. 11 described later). Further, silver (or gray) paint is applied to the inner peripheral surface 331a and the outer peripheral surface 331b of the arc plate portion 331.

一対の回動腕332A,332Bは、円弧板部331の円弧状の一対の側面部にそれぞれ連続して形成され、表面が略扇状の板体で構成される。一対の回動腕332A,332Bは、被投影部材移動機構305の後述する支持板351A,351Bにそれぞれ回動可能に支持されている。擬似リール部材303は、内周面331aが前方(遊技者側)に向く待機位置と、外周面331bが前方に向く露出位置との間で回動する。擬似リール部材303の動作については、後述の図11及び図12を参照して後で説明する。 The pair of rotating arms 332A and 332B are continuously formed on the pair of arcuate side surface portions of the arcuate plate portion 331, and the surface thereof is formed of a substantially fan-shaped plate body. The pair of rotating arms 332A and 332B are rotatably supported by the support plates 351A and 351B described later of the projected member moving mechanism 305, respectively. The pseudo reel member 303 rotates between a standby position in which the inner peripheral surface 331a faces forward (player side) and an exposed position in which the outer peripheral surface 331b faces forward. The operation of the pseudo reel member 303 will be described later with reference to FIGS. 11 and 12 described later.

(4)平面スクリーン部材
平面スクリーン部材304は、図8に示すように、表面が略長方形の板状部材で構成され、第1平面304a(図8上では下面)と、第2平面304b(図8上では上面)とを有する。平面スクリーン部材304の第1平面304aには、シルバー(又は灰色)の塗料が塗布されている。一方、第2平面304bには、白色の塗料が塗布され、第2平面304bは、プロジェクタ213から反射部材212を介して投射される映像光の投影面となる。
(4) Flat screen member As shown in FIG. 8, the flat screen member 304 is composed of a plate-shaped member having a substantially rectangular surface, and has a first flat surface 304a (lower surface in FIG. 8) and a second flat surface 304b (FIG. 8). 8 has an upper surface). A silver (or gray) paint is applied to the first flat surface 304a of the flat screen member 304. On the other hand, a white paint is applied to the second plane 304b, and the second plane 304b becomes a projection surface of image light projected from the projector 213 via the reflection member 212.

平面スクリーン部材304は、第1平面304aの面方向が斜め下方となる待機位置と、第2平面(投影面)304bの面方向が前方(遊技者側)となる露出位置との間を回動する。そして、平面スクリーン部材304が露出位置に配置されると、第2平面(投影面)304bに映像光が投影される。 The flat screen member 304 rotates between a standby position in which the plane direction of the first plane 304a is obliquely downward and an exposed position in which the plane direction of the second plane (projective plane) 304b is forward (player side). To do. Then, when the plane screen member 304 is arranged at the exposed position, the image light is projected on the second plane (projection plane) 304b.

平面スクリーン部材304は、被投影部材移動機構305の後述する一対のクランクアーム378A,378Bに支持され、この一対のクランクアーム378A,378Bの回動により、平面スクリーン部材304が回動する。なお、クランクアーム378A,378Bは、それぞれ、支持板351A,351Bに回動可能に支持されている。 The flat screen member 304 is supported by a pair of crank arms 378A and 378B described later of the projected member moving mechanism 305, and the rotation of the pair of crank arms 378A and 378B causes the flat screen member 304 to rotate. The crank arms 378A and 378B are rotatably supported by the support plates 351A and 351B, respectively.

(5)被投影部材移動機構
被投影部材移動機構305は、図8及び図9に示すように、支持板351A,351Bと、擬似リール部材移動機構352と、平面スクリーン部材移動機構353とを備える。
(5) Projected member moving mechanism As shown in FIGS. 8 and 9, the projected member moving mechanism 305 includes support plates 351A and 351B, a pseudo reel member moving mechanism 352, and a flat screen member moving mechanism 353. ..

支持板351A,351Bは、ともに、表面が縦長の略長方形の板状部材に構成され、支持板351A,351Bは互いに、左右方向(擬似リール部材303の長辺方向)に、適当な距離(台形部材302の幅より大きい間隔)をあけて対向して配置されている。また、支持板351A,351Bは、収納ケース301の台座部311の載置面311aに、ねじ等の固定部材を用いて固定されている。そして、支持板351Aと支持板351Bとの間には、擬似リール部材303が配置されている。 Both the support plates 351A and 351B are formed of substantially rectangular plate-shaped members whose surfaces are vertically long, and the support plates 351A and 351B are located at appropriate distances (trapezoidal) in the left-right direction (long side direction of the pseudo reel member 303). They are arranged so as to face each other with an interval (a distance larger than the width of the members 302). Further, the support plates 351A and 351B are fixed to the mounting surface 311a of the pedestal portion 311 of the storage case 301 by using a fixing member such as a screw. A pseudo reel member 303 is arranged between the support plate 351A and the support plate 351B.

また、支持板351A,351Bは、それぞれ、擬似リール部材303の回動腕332A,332Bを回動可能に支持している。そして、支持板351A,351Bには、平面スクリーン部材移動機構353の後述するシャフト374が貫通する貫通孔と、擬似リール部材303における回動腕332A,332Bの回動軸335が貫通する貫通孔が設けられている。 Further, the support plates 351A and 351B rotatably support the rotating arms 332A and 332B of the pseudo reel member 303, respectively. The support plates 351A and 351B have through holes through which the shaft 374 of the flat screen member moving mechanism 353, which will be described later, penetrates, and through holes through which the rotating shafts 335 of the rotating arms 332A and 332B of the pseudo reel member 303 penetrate. It is provided.

さらに、支持板351Bには、ストッパ355と、第1センサ356と、第2センサ357とが設けられている。ストッパ355は、擬似リール部材移動機構352の後述する駆動ギア362の回転範囲を制限するための部材である。第1センサ356は、平面スクリーン部材304を待機位置に移動させた場合に、平面スクリーン部材移動機構353の後述するクランクアーム378Bを検出する。第2センサ357は、平面スクリーン部材304を露出位置に移動させた場合に、平面スクリーン部材移動機構353の後述するクランクアーム378Bを検出する。 Further, the support plate 351B is provided with a stopper 355, a first sensor 356, and a second sensor 357. The stopper 355 is a member for limiting the rotation range of the drive gear 362 described later of the pseudo reel member moving mechanism 352. The first sensor 356 detects the crank arm 378B described later of the flat screen member moving mechanism 353 when the flat screen member 304 is moved to the standby position. The second sensor 357 detects the crank arm 378B described later of the flat screen member moving mechanism 353 when the flat screen member 304 is moved to the exposed position.

擬似リール部材移動機構352は、駆動モータ361と、駆動ギア362とを有する。駆動モータ361は、収納ケース301における右側壁314のモータ固定部314bに、ねじ等の固定部材を用いて固定されている。この際、駆動モータ361の回転軸(不図示)が、駆動ギア362と噛み合うように、駆動モータ361が右側壁314に取り付けられる。 The pseudo reel member moving mechanism 352 has a drive motor 361 and a drive gear 362. The drive motor 361 is fixed to the motor fixing portion 314b of the right side wall 314 of the storage case 301 by using a fixing member such as a screw. At this time, the drive motor 361 is attached to the right side wall 314 so that the rotation shaft (not shown) of the drive motor 361 meshes with the drive gear 362.

駆動ギア362は、表面が略半円状の歯車部材で構成され、支持板351Bに回転可能に支持されている。この駆動ギア362は、支持板351Bの収納ケース301の右側壁314に対向する面に配置されている。また、駆動ギア362の中心部には、擬似リール部材303の回動腕332B(後述の図11参照)の回動軸335が接続されている。 The drive gear 362 is composed of a gear member having a substantially semicircular surface, and is rotatably supported by a support plate 351B. The drive gear 362 is arranged on the surface of the support plate 351B facing the right side wall 314 of the storage case 301. Further, a rotation shaft 335 of the rotation arm 332B (see FIG. 11 described later) of the pseudo reel member 303 is connected to the central portion of the drive gear 362.

平面スクリーン部材移動機構353は、駆動モータ371と、中間ギア372,373と、シャフト374と、クランクギア375,376と、クランクアーム378A,378Bとを有する。駆動モータ371は、支持板351Bに、ねじ等の固定部材を用いて固定されている。この際、駆動モータ371の回転軸371aが、中間ギア372に噛み合うように、駆動モータ371が支持板351Bに取り付けられている。 The flat screen member moving mechanism 353 includes a drive motor 371, intermediate gears 372 and 373, a shaft 374, crank gears 375 and 376, and crank arms 378A and 378B. The drive motor 371 is fixed to the support plate 351B by using a fixing member such as a screw. At this time, the drive motor 371 is attached to the support plate 351B so that the rotating shaft 371a of the drive motor 371 meshes with the intermediate gear 372.

中間ギア372は、支持板351Bと、収納ケース301の右側壁314との間に配置されている。中間ギア372の中心部には、収納ケース301の右側壁314に設けられた貫通孔314a(図8参照)を貫通して突出したシャフト374の一方の端部が接続されている。 The intermediate gear 372 is arranged between the support plate 351B and the right side wall 314 of the storage case 301. One end of the shaft 374 protruding through the through hole 314a (see FIG. 8) provided in the right side wall 314 of the storage case 301 is connected to the central portion of the intermediate gear 372.

中間ギア373は、支持板351Aと、収納ケース301の左側壁313との間に配置されている。中間ギア373の中心部には、収納ケース301の左側壁313に設けられた貫通孔313a(図8参照)を貫通して突出したシャフト374の他方の端部が接続されている。 The intermediate gear 373 is arranged between the support plate 351A and the left wall 313 of the storage case 301. The other end of the shaft 374 that protrudes through the through hole 313a (see FIG. 8) provided in the left wall 313 of the storage case 301 is connected to the central portion of the intermediate gear 373.

シャフト374は、支持板351A,351Bを貫通して設けられ、支持板351A,351Bを回転可能に支持している。なお、中間ギア373は、上述のように、シャフト374を介して中間ギア372と接続されているので、中間ギア373は、中間ギア372と一緒に回転する。 The shaft 374 is provided so as to penetrate the support plates 351A and 351B, and rotatably supports the support plates 351A and 351B. Since the intermediate gear 373 is connected to the intermediate gear 372 via the shaft 374 as described above, the intermediate gear 373 rotates together with the intermediate gear 372.

クランクギア375は、支持板351Bと、収納ケース301の右側壁314との間に配置されており、右側壁314に回転可能に支持されている。この際、クランクギア375は、中間ギア372と噛み合うように配置されている。また、中間ギア372の支持板351Bに対向する面には、クランクピン375aが形成されている。 The crank gear 375 is arranged between the support plate 351B and the right side wall 314 of the storage case 301, and is rotatably supported by the right side wall 314. At this time, the crank gear 375 is arranged so as to mesh with the intermediate gear 372. Further, a crank pin 375a is formed on the surface of the intermediate gear 372 facing the support plate 351B.

クランクギア376は、支持板351Aと、収納ケース301の左側壁313との間に配置されており、左側壁313に回転可能に支持されている。この際、クランクギア376は、中間ギア373と噛み合うように配置されている。また、中間ギア373の支持板351Aに対向する面には、クランクピン376aが形成されている。 The crank gear 376 is arranged between the support plate 351A and the left side wall 313 of the storage case 301, and is rotatably supported by the left side wall 313. At this time, the crank gear 376 is arranged so as to mesh with the intermediate gear 373. Further, a crank pin 376a is formed on the surface of the intermediate gear 373 facing the support plate 351A.

クランクアーム378Aは、支持板351Aと、収納ケース301の左側壁313との間に配置されており、支持板351Aに回転可能に支持されている。クランクアーム378Aは、略L字状に延在した板状部材で構成されたアーム部381と、アーム部381の一方の端部に設けられた接続部382とを有する。 The crank arm 378A is arranged between the support plate 351A and the left side wall 313 of the storage case 301, and is rotatably supported by the support plate 351A. The crank arm 378A has an arm portion 381 formed of a plate-shaped member extending in a substantially L shape, and a connecting portion 382 provided at one end of the arm portion 381.

アーム部381には、支持板351Aに回転可能に係合する回動軸384と、直線状に延在した係合溝385とが設けられている。係合溝385は、アーム部381における収納ケース301の左側壁313と対向する面に設けられている。この係合溝385には、クランクギア376のクランクピン376aが摺動可能に係合している。 The arm portion 381 is provided with a rotation shaft 384 that rotatably engages with the support plate 351A and an engagement groove 385 that extends linearly. The engagement groove 385 is provided on the surface of the arm portion 381 facing the left side wall 313 of the storage case 301. The crank pin 376a of the crank gear 376 is slidably engaged with the engagement groove 385.

接続部382は、表面が長方形の板状部材で構成される。接続部382の一方の表面は、アーム部381に連続しており、他方の表面(平面)は、平面スクリーン部材304の第1平面304aに当接している(図8参照)。この接続部382は、平面スクリーン部材304の第1平面304aにねじ等の固定部材を用いて固定されている。 The connecting portion 382 is composed of a plate-shaped member having a rectangular surface. One surface of the connecting portion 382 is continuous with the arm portion 381, and the other surface (flat surface) is in contact with the first flat surface 304a of the flat screen member 304 (see FIG. 8). The connecting portion 382 is fixed to the first flat surface 304a of the flat screen member 304 by using a fixing member such as a screw.

クランクアーム378Bは、支持板351Bと、収納ケース301の右側壁314との間に配置されており、支持板351Bに回転可能に支持されている。クランクアーム378Bは、略L字状に延在した板状部材で構成されたアーム部391と、アーム部391の一方の端部に設けられた接続部392とを有する。 The crank arm 378B is arranged between the support plate 351B and the right side wall 314 of the storage case 301, and is rotatably supported by the support plate 351B. The crank arm 378B has an arm portion 391 formed of a plate-shaped member extending in a substantially L shape, and a connecting portion 392 provided at one end of the arm portion 391.

アーム部391には、支持板351Aに回転可能に係合する回動軸(不図示)と、直線状に延在した係合溝395と、第1検出片396と、第2検出片397とが設けられている。係合溝395は、アーム部391における収納ケース301の右側壁314と対向する面に設けられている。この係合溝395には、クランクギア375のクランクピン375aが摺動可能に係合している。 The arm portion 391 includes a rotating shaft (not shown) that rotatably engages with the support plate 351A, an engaging groove 395 extending linearly, a first detection piece 396, and a second detection piece 397. Is provided. The engagement groove 395 is provided on the surface of the arm portion 391 facing the right side wall 314 of the storage case 301. The crank pin 375a of the crank gear 375 is slidably engaged with the engagement groove 395.

第1検出片396は、接続部392と係合溝395との間の位置に設けられ、アーム部391の一方(図9上では、裏面側)の側部から外側に突出している。平面スクリーン部材移動機構353が平面スクリーン部材304を待機位置に移動させると、第1検出片396は、支持板351Bに設けられた第1センサ356により検出される。 The first detection piece 396 is provided at a position between the connection portion 392 and the engagement groove 395, and projects outward from the side portion of one of the arm portions 391 (the back surface side in FIG. 9). When the flat screen member moving mechanism 353 moves the flat screen member 304 to the standby position, the first detection piece 396 is detected by the first sensor 356 provided on the support plate 351B.

第2検出片397は、第1検出片396の下方に設けられており、アーム部391の一方の側部から外側に突出している。平面スクリーン部材移動機構353が平面スクリーン部材304を露出位置に移動させると、第2検出片397は、支持板351Bに設けられた第2センサ357により検出される。 The second detection piece 397 is provided below the first detection piece 396, and projects outward from one side of the arm portion 391. When the flat screen member moving mechanism 353 moves the flat screen member 304 to the exposed position, the second detection piece 397 is detected by the second sensor 357 provided on the support plate 351B.

接続部392は、表面が長方形の板状部材で構成される。接続部392の一方の表面は、アーム部391に連続しており、他方の表面(平面)は、平面スクリーン部材304の第1平面304aに当接している(図8参照)。この接続部392は、平面スクリーン部材304の第1平面304aにねじ等の固定部材を用いて固定されている。 The connecting portion 392 is composed of a plate-shaped member having a rectangular surface. One surface of the connecting portion 392 is continuous with the arm portion 391, and the other surface (flat surface) is in contact with the first flat surface 304a of the flat screen member 304 (see FIG. 8). The connecting portion 392 is fixed to the first flat surface 304a of the flat screen member 304 by using a fixing member such as a screw.

[台形部材の使用時状態]
次に、台形部材302を映像光の投影対象としたときの状態について、図10を参照して説明する。図10は、台形部材302が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。なお、図5が、台形部材302が映像光の投影対象となっているときの被投影ブロック202の斜視図になる。
[When using trapezoidal members]
Next, a state when the trapezoidal member 302 is a projection target of video light will be described with reference to FIG. FIG. 10 is a vertical cross-sectional view of the projected block 202 when the trapezoidal member 302 is a projection target of video light. Note that FIG. 5 is a perspective view of the projected block 202 when the trapezoidal member 302 is the projection target of the image light.

台形部材302を映像光の投影対象とした状態では、図10に示すように、擬似リール部材303及び平面スクリーン部材304がそれぞれの待機位置に配置される。 In a state where the trapezoidal member 302 is a target for projecting image light, the pseudo reel member 303 and the flat screen member 304 are arranged at their respective standby positions as shown in FIG.

擬似リール部材303が待機位置に配置されると、擬似リール部材303は、台形部材302の後方に位置し、円弧板部331の内周面331aが前方を向いた状態となる。このとき、駆動ギア362の一方の半径部(一方の径方向側部)がストッパ355に当接する(図9参照)。そのため、被投影ブロック202を右側方(右側壁314側)から見た場合、駆動ギア362の右回り(時計回り)への回動がストッパ355によって係止されている。 When the pseudo reel member 303 is arranged in the standby position, the pseudo reel member 303 is located behind the trapezoidal member 302, and the inner peripheral surface 331a of the arc plate portion 331 faces forward. At this time, one radial portion (one radial side portion) of the drive gear 362 comes into contact with the stopper 355 (see FIG. 9). Therefore, when the projected block 202 is viewed from the right side (right side wall 314 side), the rotation of the drive gear 362 clockwise (clockwise) is locked by the stopper 355.

また、平面スクリーン部材304が待機位置に配置されると、平面スクリーン部材304は、台形部材302の上方に位置し、第1平面304aが下方を向いた状態となる。このとき、第1センサ356は、平面スクリーン部材移動機構353のクランクアーム378Bに設けられた第1検出片396を検出する。これにより、副制御回路150は、平面スクリーン部材304が待機位置に配置されたことを検知する。 Further, when the flat screen member 304 is arranged at the standby position, the flat screen member 304 is located above the trapezoidal member 302, and the first flat surface 304a faces downward. At this time, the first sensor 356 detects the first detection piece 396 provided on the crank arm 378B of the flat screen member moving mechanism 353. As a result, the sub-control circuit 150 detects that the flat screen member 304 is arranged in the standby position.

待機位置に配置された擬似リール部材303及び平面スクリーン部材304(被投影部材)は、台形部材302とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、台形部材302が、フロントパネル10の開口10aに露出した状態となり、映像光の投影対象となる。 The pseudo reel member 303 and the flat screen member 304 (projected member) arranged at the standby position do not intervene between the trapezoidal member 302 and the opening 10a (see FIG. 2) of the front panel 10. Therefore, in this state, the trapezoidal member 302 is exposed to the opening 10a of the front panel 10 when viewed from the player side, and is the target of projection of the image light.

投影対象となった台形部材302の投影面321a,322a,323a,324a(投影面324aは図8参照)には、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である台形部材302の各投影面に表示され、遊技者に視認可能となる。 Image light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected onto the projection surfaces 321a, 322a, 323a, 324a (see FIG. 8 for the projection surface 324a) of the trapezoidal member 302 to be projected. Will be done. As a result, the image used for the production is displayed on each projection surface of the trapezoidal member 302 to be projected, and can be visually recognized by the player.

本実施形態では、台形部材302の床板部321及び3つの壁板部322,323,324(壁板部324は図8参照)の投影面321a,322a,323a,324aに映像光を投影して、演出に用いる映像を表示する。これにより、コストを上昇させることなく、且つ、簡易な構成で映像に立体感や奥行きが感じられる斬新な演出を行うことができる。その結果、映像表示演出に対する遊技者の興趣を高めることができる。 In the present embodiment, image light is projected onto the projection surfaces 321a, 322a, 323a, 324a of the floor plate portion 321 of the trapezoidal member 302 and the three wall plate portions 322, 323, 324 (see FIG. 8 for the wall plate portion 324). , Display the image used for the production. As a result, it is possible to perform a novel effect that gives a three-dimensional effect and depth to the image with a simple configuration without increasing the cost. As a result, the player's interest in the video display effect can be enhanced.

本実施形態では、被投影部材として適用した台形部材302は、投影される映像光の光軸に対して異なる角度で交差する4つの投影面を有する。しかしながら、本発明はこれに限定されず、本発明に係る被投影部材として、例えば、映像光の光軸に対して異なる角度で交差する2つ又は3つの投影面を有する被投影部材を用いてもよいし、映像光の光軸に対して異なる角度で交差する5つ以上の投影面を有する被投影部材を用いてもよい。 In the present embodiment, the trapezoidal member 302 applied as the projected member has four projection planes that intersect the optical axis of the projected image light at different angles. However, the present invention is not limited to this, and as the projected member according to the present invention, for example, a projected member having two or three projection planes intersecting the optical axis of the image light at different angles is used. Alternatively, a projected member having five or more projection planes intersecting the optical axis of the image light at different angles may be used.

また、本実施形態では、台形部材302を所定の位置に固定する構成例を示したが、本発明はこれに限定されない。本発明に係る台形部材として、例えば、プロジェクタから出射された映像光が投影されない待機位置と、プロジェクタから出射された映像光が投影される露出位置との間で移動可能な台形部材を用いてもよい。また、この場合、台形部材の移動態様としては、例えば、適当な軸を中心に回動する態様であってもよいし、直線移動する態様であってもよい。 Further, in the present embodiment, a configuration example in which the trapezoidal member 302 is fixed at a predetermined position is shown, but the present invention is not limited to this. As the trapezoidal member according to the present invention, for example, a trapezoidal member that can move between a standby position where the image light emitted from the projector is not projected and an exposed position where the image light emitted from the projector is projected may be used. Good. Further, in this case, the movement mode of the trapezoidal member may be, for example, a mode of rotating around an appropriate axis or a mode of linear movement.

[擬似リール部材の動作]
次に、擬似リール部材303の動作について、図11及び図12を参照して説明する。図11は、擬似リール部材303が映像光の投影対象となっているときの被投影ブロック202の状態を示す図である。図12は、擬似リール部材303が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。
[Operation of pseudo reel member]
Next, the operation of the pseudo reel member 303 will be described with reference to FIGS. 11 and 12. FIG. 11 is a diagram showing a state of the projected block 202 when the pseudo reel member 303 is a projection target of video light. FIG. 12 is a vertical cross-sectional view of the projected block 202 when the pseudo reel member 303 is a projection target of video light.

擬似リール部材303を映像光の投影対象とする場合には、擬似リール部材303を待機位置(図10に示す状態)から露出位置(図11及び図12に示す状態)へ移動させる。なお、この際、平面スクリーン部材304は、待機位置に配置された状態に維持される。 When the pseudo reel member 303 is targeted for projection of video light, the pseudo reel member 303 is moved from the standby position (state shown in FIG. 10) to the exposed position (state shown in FIGS. 11 and 12). At this time, the flat screen member 304 is maintained in a state of being arranged in the standby position.

擬似リール部材303を露出位置へ移動させるには、擬似リール部材移動機構352の駆動モータ361を駆動し、図面上において被投影ブロック202を右側方(右側壁314側)から見て、駆動ギア362を左回り(反時計回り)に回転させる(図11中の太矢印参照)。 In order to move the pseudo reel member 303 to the exposed position, the drive motor 361 of the pseudo reel member moving mechanism 352 is driven, and the projected block 202 is viewed from the right side (right side wall 314 side) on the drawing, and the drive gear 362 is used. Is rotated counterclockwise (counterclockwise) (see the thick arrow in FIG. 11).

駆動ギア362には、擬似リール部材303の回動腕332Bに設けられた回動軸335が接続されているので、駆動ギア362を左回りに回転させると、擬似リール部材303が待機位置から左回りに回動する。そして、駆動ギア362の他方の半径部がストッパ355に当接すると、駆動ギア362の左回りの回転がストッパ355によって係止される。その結果、図11及び図12に示すように、擬似リール部材303は、露出位置に配置される。 Since the rotation shaft 335 provided on the rotation arm 332B of the pseudo reel member 303 is connected to the drive gear 362, when the drive gear 362 is rotated counterclockwise, the pseudo reel member 303 moves to the left from the standby position. Rotate around. Then, when the other radial portion of the drive gear 362 comes into contact with the stopper 355, the counterclockwise rotation of the drive gear 362 is locked by the stopper 355. As a result, as shown in FIGS. 11 and 12, the pseudo reel member 303 is arranged at the exposed position.

擬似リール部材303が露出位置に配置されると、擬似リール部材303により台形部材302の前方が覆われた状態となる。また、この際、待機位置に配置された平面スクリーン部材304は、擬似リール部材303とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、擬似リール部材303が、フロントパネル10の開口10aに露出した状態となり、映像光の投影対象となる。 When the pseudo reel member 303 is arranged at the exposed position, the front surface of the trapezoidal member 302 is covered by the pseudo reel member 303. Further, at this time, the flat screen member 304 arranged at the standby position does not intervene between the pseudo reel member 303 and the opening 10a (see FIG. 2) of the front panel 10. Therefore, in this state, the pseudo reel member 303 is exposed to the opening 10a of the front panel 10 when viewed from the player side, and is the target of projection of the image light.

投影対象となった擬似リール部材303の外周面331b(以下、「投影面331b」という)には、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である擬似リール部材303に表示され、遊技者に視認可能となる。 The image light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected onto the outer peripheral surface 331b (hereinafter, referred to as “projection surface 331b”) of the pseudo reel member 303 that is the projection target. As a result, the image used for the production is displayed on the pseudo reel member 303, which is the projection target, and can be visually recognized by the player.

なお、擬似リール部材303を露出位置から待機位置へ移動させるには、擬似リール部材移動機構352の駆動モータ361を駆動して、図面上において被投影ブロック202を右側方から見て、駆動ギア362を右回り(時計回り)に回転させる。 In order to move the pseudo reel member 303 from the exposed position to the standby position, the drive motor 361 of the pseudo reel member moving mechanism 352 is driven, and the projected block 202 is viewed from the right side on the drawing, and the drive gear 362 is used. Rotate clockwise (clockwise).

駆動ギア362が右回りに回転すると、擬似リール部材303が露出位置から右回りに回動する。そして、駆動ギア362の一方の半径部がストッパ355に当接すると(図9の状態)、駆動ギア362の右回りの回転がストッパ355によって係止される。その結果、図10に示すように、擬似リール部材303は、待機位置に配置される。 When the drive gear 362 rotates clockwise, the pseudo reel member 303 rotates clockwise from the exposed position. Then, when one of the radial portions of the drive gear 362 comes into contact with the stopper 355 (state in FIG. 9), the clockwise rotation of the drive gear 362 is locked by the stopper 355. As a result, as shown in FIG. 10, the pseudo reel member 303 is arranged at the standby position.

本実施形態では、擬似リール部材303の湾曲する投影面331bにリールを表す映像光を投影する。これにより、フロントパネル10(フロントドア2b)の開口10aに対向するキャビネット2a内に、リールが物理的に存在しているように見せることができる。その結果、コストを上昇させることなく、且つ、簡易な構成で映像に立体感や奥行きが感じられる斬新な演出を行うことができ、映像を表示する演出の興趣を高めることができる。 In the present embodiment, the image light representing the reel is projected on the curved projection surface 331b of the pseudo reel member 303. As a result, it is possible to make it appear that the reel is physically present in the cabinet 2a facing the opening 10a of the front panel 10 (front door 2b). As a result, it is possible to perform a novel effect that gives a three-dimensional effect and depth to the image with a simple configuration without increasing the cost, and it is possible to enhance the interest of the effect of displaying the image.

[平面スクリーン部材の動作]
次に、平面スクリーン部材304の動作について、図13及び図14を参照して説明する。図13は、平面スクリーン部材304が映像光の投影対象となっているときの被投影ブロック202の状態を示す図である。図14は、平面スクリーン部材304が映像光の投影対象となっているときの被投影ブロック202の縦断面図である。
[Operation of flat screen member]
Next, the operation of the flat screen member 304 will be described with reference to FIGS. 13 and 14. FIG. 13 is a diagram showing a state of the projected block 202 when the flat screen member 304 is a projection target of video light. FIG. 14 is a vertical cross-sectional view of the projected block 202 when the flat screen member 304 is a projection target of video light.

平面スクリーン部材304を映像光の投影対象とする場合には、平面スクリーン部材304を待機位置(図10に示す状態)から露出位置(図13及び図14に示す状態)へ移動させる。なお、この際、擬似リール部材303は、待機位置に配置された状態に維持される。 When the flat screen member 304 is to be projected with image light, the flat screen member 304 is moved from the standby position (state shown in FIG. 10) to the exposed position (state shown in FIGS. 13 and 14). At this time, the pseudo reel member 303 is maintained in a state of being arranged in the standby position.

平面スクリーン部材304を露出位置へ移動させるには、平面スクリーン部材移動機構353の駆動モータ371を駆動し、図面上において被投影ブロック202を右側方(右側壁314側)から見て、中間ギア372を右回り(時計回り)に回転させる(図13中の太矢印参照)。 To move the flat screen member 304 to the exposed position, drive the drive motor 371 of the flat screen member moving mechanism 353, and see the projected block 202 from the right side (right side wall 314 side) on the drawing, and the intermediate gear 372. Rotates clockwise (clockwise) (see the thick arrow in FIG. 13).

中間ギア372には、シャフト374の一方の端部が接続されており、シャフト374の他方の端部には、中間ギア373(図9参照)が接続されている。そのため、図面上において被投影ブロック202を右側方から見て、中間ギア372が右回りに回転すると、中間ギア373も右回りに回転する。 One end of the shaft 374 is connected to the intermediate gear 372, and the intermediate gear 373 (see FIG. 9) is connected to the other end of the shaft 374. Therefore, when the projected block 202 is viewed from the right side on the drawing, when the intermediate gear 372 rotates clockwise, the intermediate gear 373 also rotates clockwise.

中間ギア372,373が右回りに回転すると、図面上において被投影ブロック202を右側方から見て、クランクギア375,376(図9参照)が左回り(反時計回り)に回転する。また、クランクギア375のクランクピン375aは、クランクアーム378Bの係合溝395に係合しており、クランクギア376のクランクピン376aは、クランクアーム378Aの係合溝385に係合している。 When the intermediate gears 372 and 373 rotate clockwise, the crank gears 375 and 376 (see FIG. 9) rotate counterclockwise (counterclockwise) when the projected block 202 is viewed from the right side on the drawing. Further, the crank pin 375a of the crank gear 375 is engaged with the engaging groove 395 of the crank arm 378B, and the crank pin 376a of the crank gear 376 is engaged with the engaging groove 385 of the crank arm 378A.

したがって、クランクギア375,376(図9参照)が左回りに回転すると、クランクピン375a,376がそれぞれクランクアーム378A,378Bを左回り(反時計方向)に回転させるように押圧する。その結果、図面上において被投影ブロック202を右側方から見て、クランクアーム378A,378Bに接続された平面スクリーン部材304が待機位置から左回りに回動する。 Therefore, when the crank gears 375 and 376 (see FIG. 9) rotate counterclockwise, the crank pins 375a and 376 press the crank arms 378A and 378B to rotate counterclockwise (counterclockwise), respectively. As a result, when the projected block 202 is viewed from the right side on the drawing, the flat screen member 304 connected to the crank arms 378A and 378B rotates counterclockwise from the standby position.

そして、第2センサ357が、クランクアーム378Bの第2検出片397を検出すると、駆動モータ371の駆動が停止し、平面スクリーン部材304の回動が停止する。その結果、図13及び図14に示すように、平面スクリーン部材304は、露出位置に配置される。 Then, when the second sensor 357 detects the second detection piece 397 of the crank arm 378B, the drive of the drive motor 371 is stopped and the rotation of the flat screen member 304 is stopped. As a result, as shown in FIGS. 13 and 14, the flat screen member 304 is arranged at the exposed position.

平面スクリーン部材304が露出位置に配置されると、平面スクリーン部材304により台形部材302の前方が覆われた状態となる。また、この際、待機位置に配置された擬似リール部材303は、平面スクリーン部材304とフロントパネル10の開口10a(図2参照)との間に介在しない。したがって、この状態では、遊技者側から見て、平面スクリーン部材304が、フロントパネル10の開口10aに露出した状態となり、投影対象となる。 When the flat screen member 304 is arranged at the exposed position, the front surface of the trapezoidal member 302 is covered by the flat screen member 304. Further, at this time, the pseudo reel member 303 arranged at the standby position does not intervene between the flat screen member 304 and the opening 10a (see FIG. 2) of the front panel 10. Therefore, in this state, the flat screen member 304 is exposed to the opening 10a of the front panel 10 when viewed from the player side, and is a projection target.

投影対象となった平面スクリーン部材304の投影面304bには、投影ブロック201のプロジェクタ213から反射ミラー237を介して入射された映像光が投影される。これにより、演出に用いる映像が投影対象である平面スクリーン部材304に表示され、遊技者に視認可能となる。例えば、平面スクリーン部材304の平面である投影面304bに、2次元の映像を表す映像光を投影することにより、液晶表示装置などのフラットパネルを用いた表示装置で映像を表示したときと同様の映像を遊技者に見せることができる。 The image light incident from the projector 213 of the projection block 201 via the reflection mirror 237 is projected onto the projection surface 304b of the flat screen member 304 that is the projection target. As a result, the image used for the production is displayed on the flat screen member 304 which is the projection target, and can be visually recognized by the player. For example, by projecting an image light representing a two-dimensional image on a projection surface 304b which is a plane of a flat screen member 304, the image is displayed on a display device using a flat panel such as a liquid crystal display device. The image can be shown to the player.

なお、平面スクリーン部材304を露出位置から待機位置へ移動させるには、平面スクリーン部材移動機構353の駆動モータ371を駆動し、図面上において被投影ブロック202を右側方から見て、中間ギア372,373を左回り(反時計回り)に回転させる。 In order to move the flat screen member 304 from the exposed position to the standby position, the drive motor 371 of the flat screen member moving mechanism 353 is driven, and the projected block 202 is viewed from the right side on the drawing, and the intermediate gear 372 Rotate the 373 counterclockwise (counterclockwise).

中間ギア372,373が左回りに回転すると、図面上において被投影ブロック202を右側方から見て、クランクギア375,376(図9参照)が右回りに回転する。そして、クランクギア375,376が右回りに回転すると、クランクピン375a,376がそれぞれクランクアーム378A,378Bを右回りに回転させるように押圧する。その結果、図面上において被投影ブロック202を右側方から見て、クランクアーム378A,378Bに接続された平面スクリーン部材304が露出位置から右回りに回動する。 When the intermediate gears 372 and 373 rotate counterclockwise, the crank gears 375 and 376 (see FIG. 9) rotate clockwise when the projected block 202 is viewed from the right side on the drawing. Then, when the crank gears 375 and 376 rotate clockwise, the crank pins 375a and 376 press the crank arms 378A and 378B to rotate clockwise, respectively. As a result, when the projected block 202 is viewed from the right side on the drawing, the flat screen member 304 connected to the crank arms 378A and 378B rotates clockwise from the exposed position.

その後、第1センサ356が、クランクアーム378Bの第1検出片396を検出すると、駆動モータ371の駆動が停止し、平面スクリーン部材304の回動が停止する。その結果、図10に示すように、平面スクリーン部材304は、待機位置に配置される。 After that, when the first sensor 356 detects the first detection piece 396 of the crank arm 378B, the drive of the drive motor 371 is stopped and the rotation of the flat screen member 304 is stopped. As a result, as shown in FIG. 10, the flat screen member 304 is arranged at the standby position.

なお、本実施形態では、上述のように、平面スクリーン部材304の投影面304bに白色の塗料が塗布されている。そして、平面スクリーン部材304の投影面304bに2次元の映像を表す映像光を投影する。白色及び銀色(灰色)は、少なくとも可視光線の反射率が約一定であり、白色は、銀色よりも光の反射率が高い。それゆえ、白色の投影面304bに投影された2次元の映像を、例えば、銀色の塗料を塗布した投影面304bに投影した2次元の映像よりも見えやすくすることができる。 In the present embodiment, as described above, the white paint is applied to the projection surface 304b of the flat screen member 304. Then, an image light representing a two-dimensional image is projected on the projection surface 304b of the flat screen member 304. White and silver (gray) have at least a constant reflectance of visible light, and white has a higher light reflectance than silver. Therefore, the two-dimensional image projected on the white projection surface 304b can be made easier to see than, for example, the two-dimensional image projected on the projection surface 304b coated with the silver paint.

一方、台形部材302の投影面321a,322a,323a,324a、及び、擬似リール部材303の投影面331bに、銀色(灰色)の塗料が塗布されている。それゆえ、台形部材302の投影面321a,322a,323a,324a、及び、擬似リール部材303の投影面331bでは、これらの投影面に白色の塗料を塗布した場合よりも、3次元の映像をより立体的に見えるようにすることができる。 On the other hand, silver (gray) paint is applied to the projection surfaces 321a, 322a, 323a, 324a of the trapezoidal member 302 and the projection surface 331b of the pseudo reel member 303. Therefore, on the projection surfaces 321a, 322a, 323a, 324a of the trapezoidal member 302 and the projection surface 331b of the pseudo reel member 303, a three-dimensional image can be obtained more than when white paint is applied to these projection surfaces. It can be made to look three-dimensional.

<パチスロが備える制御系>
次に、パチスロ1が備える制御系について、図15を参照して説明する。図15は、パチスロ1の制御系の構成を示す回路ブロック図である。
<Control system of pachislot>
Next, the control system included in the pachi-slot machine 1 will be described with reference to FIG. FIG. 15 is a circuit block diagram showing the configuration of the control system of the pachislot machine 1.

パチスロ1は、ミドルドア41に設けられた主制御基板71と、フロントドア2bに設けられた副制御基板72とを有する。また、パチスロ1は、主制御基板71に接続された、リール中継端子板74、設定用鍵型スイッチ54(設定スイッチ)及びキャビネット側中継基板44を有する。さらに、パチスロ1は、キャビネット側中継基板44を介して主制御基板71に接続された外部集中端子板47、ホッパー装置51、メダル補助収納庫スイッチ75、リセットスイッチ76及び電源装置53を有する。なお、ホッパー装置51の構成については上述したので、ここでは、その説明を省略する。 The pachi-slot machine 1 has a main control board 71 provided on the middle door 41 and a sub control board 72 provided on the front door 2b. Further, the pachi-slot machine 1 has a reel relay terminal board 74, a setting key type switch 54 (setting switch), and a cabinet-side relay board 44 connected to the main control board 71. Further, the pachi-slot machine 1 has an external centralized terminal board 47, a hopper device 51, a medal auxiliary storage switch 75, a reset switch 76, and a power supply device 53 connected to the main control board 71 via a cabinet-side relay board 44. Since the configuration of the hopper device 51 has been described above, the description thereof will be omitted here.

リール中継端子板74は、各リール3L,3C,3Rのリール本体の内側に配設されている。リール中継端子板74は、各リール3L,3C,3Rのステッピングモータ(不図示)に電気的に接続されており、主制御基板71からステッピングモータに出力される信号を中継する。 The reel relay terminal plate 74 is arranged inside the reel main body of each reel 3L, 3C, 3R. The reel relay terminal plate 74 is electrically connected to a stepping motor (not shown) of each reel 3L, 3C, 3R, and relays a signal output from the main control board 71 to the stepping motor.

設定用鍵型スイッチ54は、主制御基板ケース55に設けられる。設定用鍵型スイッチ54は、パチスロ1の設定(設定1〜設定6)を変更するとき、もしくは、パチスロ1の設定を確認するときに使用される。 The setting key type switch 54 is provided in the main control board case 55. The setting key type switch 54 is used when changing the setting of the pachi-slot 1 (settings 1 to 6) or when confirming the setting of the pachi-slot 1.

キャビネット側中継基板44は、主制御基板71と、外部集中端子板47、ホッパー装置51、メダル補助収納庫スイッチ75、リセットスイッチ76及び電源装置53のそれぞれとを接続する配線が実装された中継基板である。外部集中端子板47は、メダル投入信号、メダル払出信号及びセキュリティ信号などの信号をパチスロ1の外部へ出力するために設けられる。メダル補助収納庫スイッチ75は、メダル補助収納庫52に設けられ、メダル補助収納庫52がメダルで満杯になっているか否かを検出する。リセットスイッチ76は、例えば、パチスロ1の設定を変更する際に用いられる。 The cabinet-side relay board 44 is a relay board on which wiring for connecting the main control board 71, the external centralized terminal board 47, the hopper device 51, the medal auxiliary storage switch 75, the reset switch 76, and the power supply device 53 is mounted. Is. The external centralized terminal plate 47 is provided to output signals such as a medal insertion signal, a medal payout signal, and a security signal to the outside of the pachislot machine 1. The medal auxiliary storage switch 75 is provided in the medal auxiliary storage 52, and detects whether or not the medal auxiliary storage 52 is full of medals. The reset switch 76 is used, for example, when changing the setting of the pachislot machine 1.

電源装置53は、電源基板53bと、電源基板53bに接続された電源スイッチ53aとを有する。電源スイッチ53aは、パチスロ1に必要な電源を供給するときに押下される。電源基板53bは、キャビネット側中継基板44を介して主制御基板71に接続されるとともに、副中継基板61を介して副制御基板72にも接続される。 The power supply device 53 includes a power supply board 53b and a power supply switch 53a connected to the power supply board 53b. The power switch 53a is pressed when supplying the necessary power to the pachi-slot machine 1. The power supply board 53b is connected to the main control board 71 via the cabinet side relay board 44, and is also connected to the sub control board 72 via the sub relay board 61.

また、パチスロ1は、ドア中継端子板68、並びに、該ドア中継端子板68を介して、主制御基板71に接続された、セレクタ66、ドア開閉監視スイッチ67、BETスイッチ77、精算スイッチ78、スタートスイッチ79、ストップスイッチ基板80、遊技動作表示基板81、副中継基板61、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402を有する。なお、セレクタ66、ドア開閉監視スイッチ67及び副中継基板61については、上述したので、ここでは、それらの説明を省略する。 Further, the pachislot 1 has a selector 66, a door open / close monitoring switch 67, a BET switch 77, a settlement switch 78, which are connected to the main control board 71 via the door relay terminal plate 68 and the door relay terminal plate 68. It has a start switch 79, a stop switch board 80, a game operation display board 81, an auxiliary relay board 61, a first interface board 401 for a testing machine, and a second interface board 402 for a testing machine. Since the selector 66, the door open / close monitoring switch 67, and the sub-relay board 61 have been described above, their description will be omitted here.

BETスイッチ77(投入操作検出手段)は、MAXベットボタン15a又は1ベットボタン15bが遊技者により押下されたことを検出する。精算スイッチ78は、精算ボタン(不図示)が遊技者により押下されたことを検出する。スタートスイッチ79(開始操作検出手段)は、スタートレバー16が遊技者により操作されたこと(開始操作)を検出する。 The BET switch 77 (throwing operation detecting means) detects that the MAX bet button 15a or the 1-bet button 15b is pressed by the player. The settlement switch 78 detects that the settlement button (not shown) has been pressed by the player. The start switch 79 (start operation detecting means) detects that the start lever 16 has been operated by the player (start operation).

ストップスイッチ基板80(停止操作検出手段)は、回転しているメインリールを停止させるための回路と、停止可能なメインリールをLEDなどにより表示するための回路とを備える。また、ストップスイッチ基板80には、ストップスイッチ(不図示)が設けられる。ストップスイッチは、各ストップボタン17L,17C,17Rが遊技者により押下されたこと(停止操作)を検出する。 The stop switch board 80 (stop operation detecting means) includes a circuit for stopping the rotating main reel and a circuit for displaying the stoptable main reel by an LED or the like. Further, the stop switch board 80 is provided with a stop switch (not shown). The stop switch detects that each of the stop buttons 17L, 17C, 17R is pressed by the player (stop operation).

遊技動作表示基板81は、情報表示器6(7セグ表示器)及びLED82に接続される。LED82には、例えば、今回の遊技に投入されたメダルの枚数(以下、「投入枚数」という)に対応して点灯する、メダル投入枚数表示用の3つのLED(以下、「第1LED」〜「第3LED」という)や、遊技動作表示基板81から入力される信号に基づいて、メダル投入が可能であることを表示するマーク、遊技開始を表示するマーク、再遊技を行うマークなどを点灯させるLEDなどが含まれる。第1LED〜第3LED(表示手段)では、メダルが1枚投入されると、第1LEDが点灯し、メダルが2枚投入されると、第1及び第2LEDが点灯し、メダルが3枚(遊技開始可能枚数)投入されると、第1LED〜第3LEDが点灯する。なお、情報表示器6については、上述したので、ここでは、それらの説明を省略する。 The game operation display board 81 is connected to the information display 6 (7-segment display) and the LED 82. The LED 82 has, for example, three LEDs (hereinafter, "first LED" to "1st LED") for displaying the number of medals inserted, which are lit according to the number of medals inserted in this game (hereinafter referred to as "the number of inserted medals"). An LED that lights a mark indicating that medals can be inserted, a mark indicating the start of a game, a mark for replaying a game, etc., based on a signal input from the game operation display board 81 (referred to as the third LED). Etc. are included. In the first LED to the third LED (display means), when one medal is inserted, the first LED lights up, and when two medals are inserted, the first and second LEDs light up, and three medals (game). When the number of startable medals is turned on, the first LED to the third LED are turned on. Since the information display 6 has been described above, the description thereof will be omitted here.

試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402はともに、パチスロ1の検定試験(試射試験)において、遊技に関する各種信号を試験機に出力する際に用いられる中継基板である(なお、販売用のリリース製品としてのパチスロ1にはこれらの中継基板は搭載されていないので、販売用の主制御基板71の主制御回路90には、試験機用第1インターフェースボード401及び試験機用第2インターフェースボード402に接続するために必要な各種電子部品もまた実装されていない)。例えば、遊技に係る主要な動作(例えば、内部抽籤、リール停止制御等)を制御するための試験信号は、試験機用第1インターフェースボード401を介して出力され、例えば、主制御基板71で決定された押し順ナビに係る試験信号などは、試験機用第2インターフェースボード402を介して出力される。 Both the first interface board 401 for the testing machine and the second interface board 402 for the testing machine are relay boards used when outputting various signals related to the game to the testing machine in the certification test (test firing test) of the pachislot 1 (test firing test). Since these relay boards are not mounted on the Pachislot 1 as a release product for sale, the main control circuit 90 of the main control board 71 for sale includes the first interface board 401 for the tester and the tester. The various electronic components required to connect to the second interface board 402 are also not mounted). For example, a test signal for controlling a main operation related to a game (for example, internal lottery, reel stop control, etc.) is output via a first interface board 401 for a testing machine, and is determined by, for example, a main control board 71. The test signal and the like related to the pushed order navigation are output via the second interface board 402 for the testing machine.

副制御基板72は、ドア中継端子板68及び副中継基板61を介して主制御基板71に接続される。また、パチスロ1は、副中継基板61を介して副制御基板72に接続された、スピーカ群84、LED群85、24hドア開閉監視ユニット63、タッチセンサ19及び被投影部材移動機構305(表示ユニット)を有する。なお、タッチセンサ19及び被投影部材移動機構305については、上述したので、ここでは、その説明を省略する。 The sub-control board 72 is connected to the main control board 71 via the door relay terminal board 68 and the sub-relay board 61. Further, the pachi-slot machine 1 is connected to the sub-control board 72 via the sub-relay board 61, and has a speaker group 84, an LED group 85, a 24h door open / close monitoring unit 63, a touch sensor 19, and a projected member moving mechanism 305 (display unit). ). Since the touch sensor 19 and the projected member moving mechanism 305 have been described above, the description thereof will be omitted here.

スピーカ群84は、スピーカ65L,65Rや図示しない各種スピーカを含んで構成される。LED群85は、フロントパネル10に設けられたランプ群21や、腰部パネル12の装飾パネルを背面側から照明するための光を出射する光源などを含んで構成される。24hドア開閉監視ユニット63は、ミドルドア41の開閉の履歴情報を保存する。また、24hドア開閉監視ユニット63は、ミドルドア41が開放されたときに、表示装置11によりエラー表示を行うための信号を副制御基板72(副制御回路150)に出力する。 The speaker group 84 includes speakers 65L and 65R and various speakers (not shown). The LED group 85 includes a lamp group 21 provided on the front panel 10, a light source that emits light for illuminating the decorative panel of the lumbar panel 12 from the back side, and the like. The 24h door open / close monitoring unit 63 stores the open / close history information of the middle door 41. Further, the 24h door open / close monitoring unit 63 outputs a signal for displaying an error by the display device 11 to the sub control board 72 (sub control circuit 150) when the middle door 41 is opened.

また、パチスロ1は、副制御基板72に接続された、ロムカートリッジ基板86及び表示装置中継基板87を有する。なお、ロムカートリッジ基板86及び表示装置中継基板87は、副制御基板72とともに副制御基板ケース57に収納されている。 Further, the pachi-slot machine 1 has a ROM cartridge board 86 and a display device relay board 87 connected to the sub-control board 72. The ROM cartridge board 86 and the display device relay board 87 are housed in the sub-control board case 57 together with the sub-control board 72.

ロムカートリッジ基板86は、サブCPU151により実行される各種制御プログラムと、演出用の画像(映像)、音声(スピーカ群84)、光(LED群85)及び通信のデータを管理するための基板である。なお、ロムカートリッジ基板86は、本発明に係る不揮発性記憶部(記憶部)の一具体例を示すものである。 The ROM cartridge board 86 is a board for managing various control programs executed by the sub CPU 151, image (video) for production, audio (speaker group 84), light (LED group 85), and communication data. .. The ROM cartridge substrate 86 shows a specific example of the non-volatile storage unit (storage unit) according to the present invention.

表示装置中継基板87は、副制御基板72と、表示装置11に含まれるプロジェクタ213、及び、サブ表示装置18との間の接続配線を中継する基板である。なお、プロジェクタ213及びサブ表示装置18については、上述したので、ここでは、それらの説明を省略する。 The display device relay board 87 is a board that relays the connection wiring between the sub-control board 72, the projector 213 included in the display device 11, and the sub-display device 18. Since the projector 213 and the sub-display device 18 have been described above, their description will be omitted here.

<主制御回路>
次に、図16を参照して、主制御基板71に実装される主制御回路90の構成について説明する。図16は、パチスロ1の主制御回路90の構成例を示すブロック図である。
<Main control circuit>
Next, the configuration of the main control circuit 90 mounted on the main control board 71 will be described with reference to FIG. FIG. 16 is a block diagram showing a configuration example of the main control circuit 90 of the pachislot machine 1.

主制御回路90は、マイクロプロセッサ91と、クロックパルス発生回路92と、電源管理回路93と、スイッチングレギュレータ94(電源供給手段)とを備える。 The main control circuit 90 includes a microprocessor 91, a clock pulse generation circuit 92, a power management circuit 93, and a switching regulator 94 (power supply means).

マイクロプロセッサ91は、遊技機用のセキュリティ機能付きマイクロプロセッサである。なお、本実施形態のマイクロプロセッサ91では、ソースプログラム上で規定可能な該マイクロプロセッサ91に特有の様々な命令コード(メインCPU101専用命令コード)が設けられている。本実施形態では、このメインCPU101専用命令コードを用いることにより、処理の効率化やプログラム容量の削減などを実現している。マイクロプロセッサ91の内部構成については、後述の図17を参照して詳述する。 The microprocessor 91 is a microprocessor with a security function for a game machine. The microprocessor 91 of the present embodiment is provided with various instruction codes (instruction codes dedicated to the main CPU 101) specific to the microprocessor 91 that can be specified on the source program. In the present embodiment, the processing efficiency is improved and the program capacity is reduced by using the instruction code dedicated to the main CPU 101. The internal configuration of the microprocessor 91 will be described in detail with reference to FIG. 17 described later.

クロックパルス発生回路92は、メインCPU作動用のクロックパルス信号を生成し、該生成したクロックパルス信号をマイクロプロセッサ91に出力する。マイクロプロセッサ91は、入力されたクロックパルス信号に基づいて、制御プログラムを実行する。 The clock pulse generation circuit 92 generates a clock pulse signal for operating the main CPU, and outputs the generated clock pulse signal to the microprocessor 91. The microprocessor 91 executes a control program based on the input clock pulse signal.

電源管理回路93は、電源基板53b(図15参照)から供給される直流12Vの電源電圧の変動を管理する。そして、電源管理回路93は、例えば、電源が投入された際(電源電圧が0Vから起動電圧値(10V)を上回った際)には、リセット信号をマイクロプロセッサ91の「XSRST」端子に出力し、電断が発生した際(電源電圧が12Vから停電電圧値(10.5V)を下回った際)には、電断検知信号をマイクロプロセッサ91の「XINT」端子に出力する。すなわち、電源管理回路93は、電源投入時に、マイクロプロセッサ91にリセット信号(起動信号)を出力する手段(起動手段)、及び、電断発生時に、マイクロプロセッサ91に電断検知信号(停電信号)を出力する手段(停電手段)も兼ねる。 The power management circuit 93 manages fluctuations in the DC 12V power supply voltage supplied from the power supply board 53b (see FIG. 15). Then, the power management circuit 93 outputs a reset signal to the "XSRST" terminal of the microprocessor 91, for example, when the power is turned on (when the power supply voltage exceeds the starting voltage value (10V) from 0V). When a power failure occurs (when the power supply voltage falls below the power failure voltage value (10.5V) from 12V), the power failure detection signal is output to the "XINT" terminal of the microprocessor 91. That is, the power management circuit 93 is a means (starting means) for outputting a reset signal (starting signal) to the microprocessor 91 when the power is turned on, and a power failure detection signal (power failure signal) to the microprocessor 91 when a power failure occurs. Also serves as a means for outputting (power failure means).

スイッチングレギュレータ94は、DC/DC変換回路であり、マイクロプロセッサ91の直流駆動電圧(直流5Vの電源電圧)を生成し、該生成した直流駆動電圧をマイクロプロセッサ91の「VCC」端子に出力する。 The switching regulator 94 is a DC / DC conversion circuit, generates a DC drive voltage (power supply voltage of DC 5 V) of the microprocessor 91, and outputs the generated DC drive voltage to the “VCC” terminal of the microprocessor 91.

<マイクロプロセッサ>
次に、図17を参照して、マイクロプロセッサ91の内部構成について説明する。図17は、マイクロプロセッサ91の内部構成を示すブロック図である。
<Microprocessor>
Next, the internal configuration of the microprocessor 91 will be described with reference to FIG. FIG. 17 is a block diagram showing an internal configuration of the microprocessor 91.

マイクロプロセッサ91は、メインCPU101と、メインROM102(第1記憶手段)と、メインRAM103(第2記憶手段)と、外部バスインターフェース104と、クロック回路105と、リセットコントローラ106と、演算回路107と、乱数回路110と、パラレルポート111と、割込みコントローラ112と、タイマー回路113と、第1シリアル通信回路114と、第2シリアル通信回路115と、を有する。そして、マイクロプロセッサ91を構成するこれらの各部は信号バス116を介して互いに接続されている。 The microprocessor 91 includes a main CPU 101, a main ROM 102 (first storage means), a main RAM 103 (second storage means), an external bus interface 104, a clock circuit 105, a reset controller 106, an arithmetic circuit 107, and the like. It has a random number circuit 110, a parallel port 111, an interrupt controller 112, a timer circuit 113, a first serial communication circuit 114, and a second serial communication circuit 115. Each of these parts constituting the microprocessor 91 is connected to each other via a signal bus 116.

メインCPU101は、クロック回路105で生成されたクロックパルスに基づいて、各種制御プログラムを実行して、遊技動作全般に係る制御を行う。ここで、メインCPU101の制御動作の一例としてリール停止制御について説明する。 The main CPU 101 executes various control programs based on the clock pulse generated by the clock circuit 105 to control the game operation in general. Here, reel stop control will be described as an example of the control operation of the main CPU 101.

メインCPU101は、リールインデックスを検出してから各リール3L,3C,3L(メインリール)のステッピングモータに対してパルスを出力した回数をカウントする。これにより、メインCPU101は、各リールの回転角度(主に、リールが図柄何個分だけ回転したか)を管理する。なお、リールインデックスとは、リールが一回転したことを示す情報である。このリールインデックスは、例えば、発光部及び受光部を有する光センサと、各リールの所定の位置に設けられ、各メインリールの回転により発光部と受光部との間に介在される検知片とを備えたリール位置検出部(不図示)により検出される。 The main CPU 101 counts the number of times a pulse is output to the stepping motors of each reel 3L, 3C, 3L (main reel) after detecting the reel index. As a result, the main CPU 101 manages the rotation angle of each reel (mainly, how many symbols the reel has rotated). The reel index is information indicating that the reel has made one revolution. This reel index is, for example, an optical sensor having a light emitting portion and a light receiving portion, and a detection piece provided at a predetermined position on each reel and interposed between the light emitting portion and the light receiving portion due to rotation of each main reel. It is detected by the provided reel position detection unit (not shown).

ここで、各リール3L,3C,3L(メインリール)の回転角度の管理について、具体的に説明する。ステッピングモータに対して出力されたパルスの数は、メインRAM103に設けられたパルスカウンタによって計数される。そして、図柄1個分の回転に必要な所定回数のパルスの出力がパルスカウンタで計数される毎に、メインRAM103に設けられた図柄カウンタが1ずつ加算される。図柄カウンタは、各リールに応じて設けられている。図柄カウンタの値は、リール位置検出部(不図示)によってリールインデックスが検出されるとクリアされる。 Here, the management of the rotation angle of each reel 3L, 3C, 3L (main reel) will be specifically described. The number of pulses output to the stepping motor is counted by a pulse counter provided in the main RAM 103. Then, each time the output of a predetermined number of pulses required for the rotation of one symbol is counted by the pulse counter, the symbol counter provided in the main RAM 103 is added one by one. The symbol counter is provided according to each reel. The value of the symbol counter is cleared when the reel index is detected by the reel position detection unit (not shown).

すなわち、本実施形態では、図柄カウンタを管理することにより、リールインデックスが検出されてから図柄何個分の回転が行われたのかを管理する。したがって、各リールの各図柄の位置は、リールインデックスが検出される位置を基準として検出される。 That is, in the present embodiment, by managing the symbol counter, it is possible to manage how many symbols have been rotated since the reel index was detected. Therefore, the position of each symbol on each reel is detected with reference to the position where the reel index is detected.

メインROM102には、メインCPU101により実行される各種制御プログラム、各種データテーブル、副制御回路150に対して各種制御指令(コマンド)を送信するためのデータ等が記憶される。メインRAM103には、制御プログラムの実行により決定された内部当籤役等の各種データを格納する格納領域が設けられる。 The main ROM 102 stores various control programs executed by the main CPU 101, various data tables, data for transmitting various control commands (commands) to the sub-control circuit 150, and the like. The main RAM 103 is provided with a storage area for storing various data such as internal winning combinations determined by executing the control program.

外部バスインターフェース104は、マイクロプロセッサ91の外部に設けられた各種構成部(例えば、各リール等)が接続された外部信号バス(不図示)と、マイクロプロセッサ91とを電気的に接続するためのインターフェース回路である。クロック回路105は、例えば分周器(不図示)等を含んで構成され、クロックパルス発生回路92から入力されたCPU作動用のクロックパルス信号を、その他の構成部(例えば、タイマー回路113)で使用される周波数のクロックパルス信号に変換する。なお、クロック回路105で生成されたクロックパルス信号は、リセットコントローラ106にも出力される。 The external bus interface 104 is for electrically connecting the microprocessor 91 to an external signal bus (not shown) to which various components (for example, reels and the like) provided outside the microprocessor 91 are connected. It is an interface circuit. The clock circuit 105 is configured to include, for example, a frequency divider (not shown), and a clock pulse signal for CPU operation input from the clock pulse generation circuit 92 is transmitted by another component (for example, a timer circuit 113). Convert to a clock pulse signal of the frequency used. The clock pulse signal generated by the clock circuit 105 is also output to the reset controller 106.

リセットコントローラ106は、電源管理回路93から入力されたリセット信号に基づいて、IAT(Illegal Address Trap)やWDT(watchdog timer)のリセットを行う。演算回路107は、乗算回路及び除算回路を含んで構成される。例えば、ソースプログラム上において、乗算命令(「MUL」命令)を実行するときには、演算回路107がこの命令に基づく乗算処理を実行する。 The reset controller 106 resets the IAT (Illegal Address Trap) and the WDT (watchdog timer) based on the reset signal input from the power supply management circuit 93. The arithmetic circuit 107 is configured to include a multiplication circuit and a division circuit. For example, when executing a multiplication instruction (“MUL” instruction) on a source program, the arithmetic circuit 107 executes a multiplication process based on this instruction.

乱数回路110は、予め定められた範囲の乱数(例えば、0〜65535又は0〜255)を発生させる。また、図示しないが、乱数回路110は、2バイトのハードラッチ乱数を得るための乱数レジスタ0と、2バイトのソフトラッチ乱数を得るための乱数レジスタ1〜3と、1バイトのソフトラッチ乱数を得るための乱数レジスタ4〜7とで構成されている。なお、メインCPU101は、乱数回路110で発生させた所定範囲の乱数の中から1つの値を、例えば内部抽籤用の乱数値として抽出する。パラレルポート111は、マイクロプロセッサ91と、マイクロプロセッサ91の外部に設けられた各種回路(例えば、電源管理回路93等)との間で入出力される信号のポート(メモリーマップI/O)である。また、パラレルポート111は、乱数回路110及び割込みコントローラ112にも接続される。スタートスイッチ79はパラレルポート111のPI0〜PI4のいずれかの入力ポートに接続され、スタートスイッチ79がオン状態になったタイミング(オンエッジ)で、パラレルポート111から乱数回路110の乱数レジスタ0へラッチ信号が出力される。そして、乱数回路110では、ラッチ信号が入力されることにより乱数レジスタ0がラッチされ、2バイトのハードラッチ乱数が取得される。 The random number circuit 110 generates random numbers in a predetermined range (for example, 0 to 65535 or 0 to 255). Although not shown, the random number circuit 110 has random number registers 0 for obtaining 2-byte hard-latch random numbers, random number registers 1 to 3 for obtaining 2-byte soft-latch random numbers, and 1-byte soft-latch random numbers. It is composed of random number registers 4 to 7 for obtaining. The main CPU 101 extracts one value from the random numbers in a predetermined range generated by the random number circuit 110, for example, as a random number value for internal lottery. The parallel port 111 is a signal port (memory map I / O) input / output between the microprocessor 91 and various circuits (for example, power management circuit 93, etc.) provided outside the microprocessor 91. .. The parallel port 111 is also connected to the random number circuit 110 and the interrupt controller 112. The start switch 79 is connected to any of the input ports of PI0 to PI4 of the parallel port 111, and when the start switch 79 is turned on (on-edge), a latch signal is sent from the parallel port 111 to the random number register 0 of the random number circuit 110. Is output. Then, in the random number circuit 110, the random number register 0 is latched by the input of the latch signal, and a 2-byte hard latch random number is acquired.

割込みコントローラ112は、パラレルポート111を介して電源管理回路93から入力される電断検知信号、又は、タイマー回路113から1.1172ms周期で入力されるタイムアウト信号に基づいて、メインCPU101による割込処理の実行タイミングを制御する。電源管理回路93から電断検知信号が入力された場合、又は、タイマー回路113からタイムアウト信号が入力された場合には、割込みコントローラ112は、割込処理開始指令を示す割込要求信号をメインCPU101に出力する。メインCPU101は、タイマー回路113からのタイムアウト信号に応じて割込みコントローラ112から入力される割込要求信号に基づいて、入力ポートチェック処理、リール制御処理、通信データ送信処理、7セグLED駆動処理、タイマー更新処理等の各種割込処理を行う。 The interrupt controller 112 is interrupted by the main CPU 101 based on a power failure detection signal input from the power management circuit 93 via the parallel port 111 or a timeout signal input from the timer circuit 113 at a cycle of 1.1172 ms. Controls the execution timing of. When a power failure detection signal is input from the power management circuit 93, or when a timeout signal is input from the timer circuit 113, the interrupt controller 112 sends an interrupt request signal indicating an interrupt processing start command to the main CPU 101. Output to. The main CPU 101 has an input port check process, a reel control process, a communication data transmission process, a 7-segment LED drive process, and a timer based on an interrupt request signal input from the interrupt controller 112 in response to a timeout signal from the timer circuit 113. Performs various interrupt processing such as update processing.

タイマー回路113(PTC)は、クロック回路105で生成されたクロックパルス信号(メインCPU作動用のクロックパルス信号を分周器(不図示)で分周された周波数のクロックパルス信号)で動作する(経過時間をカウントする)。そして、タイマー回路113は、1.1172msecの周期で割込みコントローラ112にタイムアウト信号(トリガー信号)を出力する。 The timer circuit 113 (PTC) operates with a clock pulse signal generated by the clock circuit 105 (a clock pulse signal having a frequency obtained by dividing the clock pulse signal for operating the main CPU by a divider (not shown)) ( Count the elapsed time). Then, the timer circuit 113 outputs a timeout signal (trigger signal) to the interrupt controller 112 at a cycle of 1.1172 msec.

第1シリアル通信回路114は、主制御基板71から副制御基板72にデータ(各種制御指令(コマンド))を送信する際のシリアル送信動作を制御する回路である。第2シリアル通信回路115は、主制御基板71から試験機用第2インターフェースボード402にデータを送信する際のシリアル送信動作を制御する回路である。 The first serial communication circuit 114 is a circuit that controls a serial transmission operation when data (various control commands (commands)) are transmitted from the main control board 71 to the sub control board 72. The second serial communication circuit 115 is a circuit that controls the serial transmission operation when data is transmitted from the main control board 71 to the second interface board 402 for the testing machine.

<副制御回路>
[副制御回路の構成]
次に、図18を参照して、副制御基板72に実装される副制御回路150(副制御手段)の構成について説明する。図18は、パチスロ1の副制御回路150の構成例を示すブロック図である。
<Sub-control circuit>
[Configuration of sub-control circuit]
Next, the configuration of the sub-control circuit 150 (sub-control means) mounted on the sub-control board 72 will be described with reference to FIG. FIG. 18 is a block diagram showing a configuration example of the sub-control circuit 150 of the pachi-slot machine 1.

副制御回路150は、主制御回路90と電気的に接続されており、主制御回路90から送信されるコマンドに基づいて演出内容の決定や実行等の処理を行う。副制御回路150は、基本的に、サブCPU151、サブRAM152、GPU(Graphics Processing Unit)153、VRAM(Video RAM)154、ドライバ155を含んで構成される。なお、VRAM154(描画用RAM)には、後述のフレームバッファ及びスクリーンバッファが含まれる。なお、サブCPU151は、本発明に係る制御処理部の一具体例を示すものであり、GPU153は、本発明に係る画像処理部の一具体例を示すものであり、VRAM154は、揮発性記憶部の一具体例を示すものである。 The sub-control circuit 150 is electrically connected to the main control circuit 90, and performs processing such as determination and execution of the effect content based on a command transmitted from the main control circuit 90. The sub control circuit 150 basically includes a sub CPU 151, a sub RAM 152, a GPU (Graphics Processing Unit) 153, a VRAM (Video RAM) 154, and a driver 155. The VRAM 154 (drawing RAM) includes a frame buffer and a screen buffer described later. The sub CPU 151 shows a specific example of the control processing unit according to the present invention, the GPU 153 shows a specific example of the image processing unit according to the present invention, and the VRAM 154 is a volatile storage unit. A specific example of the above is shown.

サブCPU151は、ロムカートリッジ基板86に接続される。また、ドライバ155は、表示装置中継基板87に接続される。すなわち、ドライバ155は、表示装置中継基板87を介してプロジェクタ213及びサブ表示装置18に接続される。 The sub CPU 151 is connected to the ROM cartridge board 86. Further, the driver 155 is connected to the display device relay board 87. That is, the driver 155 is connected to the projector 213 and the sub display device 18 via the display device relay board 87.

サブCPU151は、主制御回路90から送信されたコマンドに応じて、ロムカートリッジ基板86に記憶されている制御プログラムに従い、映像、音、光の出力の制御を行う。ロムカートリッジ基板86は、基本的に、プログラム記憶領域とデータ記憶領域とによって構成される。 The sub CPU 151 controls the output of video, sound, and light according to the control program stored in the ROM cartridge board 86 in response to the command transmitted from the main control circuit 90. The ROM cartridge board 86 is basically composed of a program storage area and a data storage area.

プログラム記憶領域には、サブCPU151が実行する制御プログラムが記憶される。例えば、制御プログラムには、主制御回路90との通信を制御するための主基板通信タスクや、演出用の乱数値を抽出し、演出内容(演出データ)の決定及び登録を行うための演出登録タスクを実行するための各種プログラムが含まれる。また、制御プログラムには、決定した演出内容に基づいて表示装置11による映像の表示を制御する描画制御タスク、LED群85等の光源による光の出力を制御するランプ制御タスク、スピーカ群84による音の出力を制御する音声制御タスク等を実行するための各種プログラムも含まれる。 The control program executed by the sub CPU 151 is stored in the program storage area. For example, in the control program, a main board communication task for controlling communication with the main control circuit 90 and an effect registration for extracting a random value for the effect and determining and registering the effect content (effect data). Includes various programs for executing tasks. Further, the control program includes a drawing control task that controls the display of an image by the display device 11 based on the determined effect content, a lamp control task that controls the output of light by a light source such as the LED group 85, and a sound by the speaker group 84. It also includes various programs for executing voice control tasks and the like that control the output of the LED.

データ記憶領域には、各種データテーブルを記憶する記憶領域、各演出内容を構成する演出データを記憶する記憶領域、映像の作成に関するアニメーションデータ(後述の画像データ及び仮想オブジェクトデータ等を含む)を記憶する記憶領域が含まれる。また、データ記憶領域には、BGMや効果音に関するサウンドデータを記憶する記憶領域、光の点消灯のパターンに関するランプデータを記憶する記憶領域等も含まれる。 The data storage area stores a storage area for storing various data tables, a storage area for storing the effect data constituting each effect content, and animation data (including image data and virtual object data described later) related to video creation. Contains storage areas to be stored. The data storage area also includes a storage area for storing sound data related to BGM and sound effects, a storage area for storing lamp data related to a pattern of turning on and off light, and the like.

サブRAM152には、決定された演出内容や演出データを登録する格納領域や、主制御回路90から送信されるサブフラグ(内部当籤役)等の各種データを格納する格納領域が設けられる。 The sub RAM 152 is provided with a storage area for registering the determined effect content and effect data, and a storage area for storing various data such as a sub flag (internal winning combination) transmitted from the main control circuit 90.

サブCPU151、GPU153(レンダリングプロセッサ)、VRAM154及びドライバ155は、演出内容により指定されたアニメーションデータに従って映像を作成し、作成した映像を表示装置11(プロジェクタ213)及び/又はサブ表示装置18で表示させる。なお、表示装置11(プロジェクタ213)及びサブ表示装置18は、副制御基板72により、それぞれ個別に制御される。 The sub CPU 151, GPU 153 (rendering processor), VRAM 154, and driver 155 create an image according to the animation data specified by the effect content, and display the created image on the display device 11 (projector 213) and / or the sub display device 18. .. The display device 11 (projector 213) and the sub-display device 18 are individually controlled by the sub-control board 72.

また、サブCPU151は、演出内容により指定されたサウンドデータに従ってBGMなどの音をスピーカ群84により出力させる。また、サブCPU151は、演出内容により指定されたランプデータに従ってLED群85の点灯及び消灯を制御する。 Further, the sub CPU 151 causes the speaker group 84 to output a sound such as BGM according to the sound data specified by the effect content. Further, the sub CPU 151 controls the lighting and extinguishing of the LED group 85 according to the lamp data specified by the effect content.

[演出登録タスク]
本実施形態のパチスロ1では、主制御回路90から送信されたコマンドデータを副制御回路150で受信した際に、副制御回路150は、受信したコマンドデータに基づいて、該コマンドデータの種別に対応する演出を決定し、表示装置11(プロジェクタ213)、サブ表示装置18、スピーカ群84、LED群85を駆動して演出制御を行う。
[Direction registration task]
In the pachislot 1 of the present embodiment, when the command data transmitted from the main control circuit 90 is received by the sub control circuit 150, the sub control circuit 150 corresponds to the type of the command data based on the received command data. The effect to be produced is determined, and the display device 11 (projector 213), the sub-display device 18, the speaker group 84, and the LED group 85 are driven to control the effect.

ここで、図19を参照して、副制御回路150(サブCPU151)により実行される、コマンドデータの種別に対応する演出の決定タスク(演出登録タスク)について説明する。なお、図19は、本実施形態における演出登録タスクの処理手順を示すフローチャートである。 Here, with reference to FIG. 19, the effect determination task (effect registration task) corresponding to the type of command data, which is executed by the sub control circuit 150 (sub CPU 151), will be described. Note that FIG. 19 is a flowchart showing a processing procedure of the effect registration task in the present embodiment.

まず、サブCPU151は、メッセージキューからメッセージを取り出す(S1)。次いで、サブCPU151は、メッセージキューにメッセージが有るか否かを判別する(S2)。S2において、サブCPU151が、メッセージキューにメッセージが無いと判別したとき(S2がNO判定の場合)、サブCPU151は、後述のS5の処理を行う。 First, the sub CPU 151 retrieves a message from the message queue (S1). Next, the sub CPU 151 determines whether or not there is a message in the message queue (S2). In S2, when the sub CPU 151 determines that there is no message in the message queue (when the determination in S2 is NO), the sub CPU 151 performs the process of S5 described later.

一方、S2において、サブCPU151が、メッセージキューにメッセージが有ると判別したとき(S2がYES判定の場合)、サブCPU151は、メッセージから遊技情報を複写する(S3)。この処理では、例えば、パラメータによって特定される、内部当籤役に関する情報(メイン抽籤フラグ等)、回転が停止したリールの種別、表示役、遊技状態フラグ等の各種データがサブRAM152に設けられた格納領域(不図示)に複写される。 On the other hand, in S2, when the sub CPU 151 determines that there is a message in the message queue (when the determination in S2 is YES), the sub CPU 151 copies the game information from the message (S3). In this process, for example, various data such as information on the internal winning combination (main lottery flag, etc.) specified by the parameter, the type of reel whose rotation has stopped, the display combination, the game state flag, and the like are stored in the sub RAM 152. It is copied to the area (not shown).

次いで、サブCPU151は、演出内容決定処理を行う(S4)。この処理では、サブCPU151は、受信したコマンドの種別に応じて、演出内容の決定や演出データの登録等を行う。 Next, the sub CPU 151 performs the effect content determination process (S4). In this process, the sub CPU 151 determines the effect content, registers the effect data, and the like according to the type of the received command.

S4の処理後又はS2がNO判定の場合、サブCPU151は、アニメーションデータの生成及び登録処理を行う(S5)。なお、アニメーションデータの生成及び登録処理は、S4の演出内容決定処理において登録された演出データ(演出内容)に基づいて行われる。本実施形態では、この処理の中で、各種被投影部材に投影される映像光の画像データの作成処理を行う。なお、各種被投影部材に投影される映像光の画像データ(後述のPJ対応画像データ)の作成処理については、後で詳述する。また、本実施形態では、S5の処理中に各種被投影部材に投影される映像光の画像データ(プロジェクタ213から出射される映像光に対応する映像信号)を生成する例を説明するが、本発明はこれに限定されず、例えば、S4の演出内容決定処理の中で実行してもよいし、アニメーションデータの生成処理と登録処理とを別個に実施してもよい。 After the processing of S4 or when the determination of S2 is NO, the sub CPU 151 performs the animation data generation and registration processing (S5). The animation data generation and registration process is performed based on the effect data (effect content) registered in the effect content determination process of S4. In the present embodiment, in this process, image data of image light projected on various projected members is created. The process of creating image data of video light projected on various projected members (PJ-compatible image data described later) will be described in detail later. Further, in the present embodiment, an example of generating image data of video light projected on various projected members (video signal corresponding to the video light emitted from the projector 213) during the processing of S5 will be described. The invention is not limited to this, and for example, it may be executed in the effect content determination process of S4, or the animation data generation process and the registration process may be performed separately.

次いで、サブCPU151は、サウンドデータの登録処理を行う(S6)。次いで、サブCPU151は、ランプデータの登録を行う(S7)。なお、これらの登録処理は、S4の演出内容決定処理において登録された演出データ(演出内容)に基づいて行われる。そして、S7の処理後、サブCPU151は、処理をS1に戻し、S1以降の処理を繰り返す。 Next, the sub CPU 151 performs a sound data registration process (S6). Next, the sub CPU 151 registers the lamp data (S7). It should be noted that these registration processes are performed based on the effect data (effect content) registered in the effect content determination process of S4. Then, after the processing of S7, the sub CPU 151 returns the processing to S1 and repeats the processing after S1.

<画像データの作成手法>
次に、本実施形態のパチスロ1で実行される各種演出において、各種被投影部材(台形部材302、擬似リール部材303及び平面スクリーン部材304)の投影面に投影される映像光の画像データ(プロジェクタ213から出射される映像光に対応する映像信号)の作成手法について説明する。
<Image data creation method>
Next, in various effects executed by the pachislot 1 of the present embodiment, image data (projector) of video light projected on the projection surface of various projected members (trapezoidal member 302, pseudo reel member 303, and flat screen member 304). A method for creating a video signal (video signal corresponding to the video light emitted from the 213) will be described.

[画像データの作成手法の概要]
図20A及び20Bを参照して、各種被投影部材に投影される映像光の画像データの作成手法の概要を説明する。なお、図20Aは、画像データの作成処理における画像データの変換過程を示す図であり、図20Bは、画像データの変換過程において実行される主な処理のフローを示す図である。
[Outline of image data creation method]
An outline of a method for creating image data of video light projected on various projected members will be described with reference to FIGS. 20A and 20B. Note that FIG. 20A is a diagram showing an image data conversion process in the image data creation process, and FIG. 20B is a diagram showing a main processing flow executed in the image data conversion process.

本実施形態における、各種被投影部材に投影される映像光の画像データ(後述のPJ対応画像データ)の作成手法では、図20Bに示すように、リソース画像・オブジェクト合成処理、視点変更画像データ取得・設定処理及びSB画像データ設定処理がこの順で実行される。以下、各処理の内容を説明する。 In the method for creating image data of video light projected on various projected members (PJ-compatible image data described later) in the present embodiment, as shown in FIG. 20B, resource image / object composition processing and viewpoint change image data acquisition -The setting process and the SB image data setting process are executed in this order. The contents of each process will be described below.

(1)リソース画像・オブジェクト合成処理
リソース画像・オブジェクト合成処理では、まず、ロムカートリッジ基板86に格納された投影対象となる被投影部材(台形部材302、擬似リール部材303、平面スクリーン部材304)の仮想オブジェクトデータ(3次元データ)が選択(取得)される。なお、仮想オブジェクトデータは、例えば、被投影部材の3次元CADデータから生成(変換)されたデータであり、被投影部材の3次元構造(座標)を示すデータである。なお、仮想オブジェクトデータは、本発明に係る表示部に画像を表示するための情報の一具体例を示すものである。
(1) Resource image / object composition processing In the resource image / object composition processing, first, the projected members (trapezoidal member 302, pseudo reel member 303, flat screen member 304) to be projected stored in the ROM cartridge substrate 86 are Virtual object data (three-dimensional data) is selected (acquired). The virtual object data is, for example, data generated (converted) from the three-dimensional CAD data of the projected member, and is data indicating the three-dimensional structure (coordinates) of the projected member. The virtual object data shows a specific example of information for displaying an image on the display unit according to the present invention.

また、リソース画像・オブジェクト合成処理では、被投影部材に投影する画像データのリソース画像データ(2次元データ)が、ロムカートリッジ基板86から選択(取得)される。なお、リソース画像データは、本発明に係る原画像データの一具体例を示すものである。 Further, in the resource image / object composition process, the resource image data (two-dimensional data) of the image data projected on the projected member is selected (acquired) from the ROM cartridge board 86. The resource image data shows a specific example of the original image data according to the present invention.

仮想オブジェトデータ及びリソース画像データの選択処理は、サブCPU151により制御され、サブCPU151は、ロムカートリッジ基板86に格納されている複数種の画像データ及び複数種の仮想オブジェクトデータの中から、決定されている演出内容に対応するリソース画像データ及び仮想オブジェトデータをそれぞれ選択する。また、選択されたリソース画像データ及び仮想オブジェクトデータは、VRAM154内において、後述のフレームバッファ(FB)及びスクリーンバッファ(SB)以外のバッファ領域(仮想バッファ)に展開される。なお、仮想バッファは、本発明に係る第1のバッファの一具体例を示すものであり、フレームバッファは、本発明に係る第2のバッファ(所定のバッファ)の一具体例を示すものであり、スクリーンバッファは、本発明に係る第3のバッファ(特定のバッファ)の一具体例を示すものである。 The selection process of the virtual object data and the resource image data is controlled by the sub CPU 151, and the sub CPU 151 is determined from a plurality of types of image data and a plurality of types of virtual object data stored in the ROM cartridge board 86. Select the resource image data and virtual object data corresponding to the effect content. Further, the selected resource image data and virtual object data are expanded in a buffer area (virtual buffer) other than the frame buffer (FB) and the screen buffer (SB) described later in the VRAM 154. The virtual buffer shows a specific example of the first buffer according to the present invention, and the frame buffer shows a specific example of the second buffer (predetermined buffer) according to the present invention. The screen buffer is a specific example of a third buffer (specific buffer) according to the present invention.

次いで、サブ側の演算処理上の仮想空間(VRAM154)において、選択された仮想オブジェクトを配置する。具体的には、選択された仮想オブジェクトデータをVRAM154上に展開する。次いで、仮想空間上において、遊技者側から仮想オブジェクトに向かう方向(以下、「遊技者の目線方向」と称す:実際の遊技機では、表示装置カバー30及び表示装置11(図2、図3参照)と対向する遊技者側の位置からの方向)に、選択したリソース画像データの映像光が仮想オブジェクトの投影面に仮想的(擬似的)に照射(投影)された場合に、仮想オブジェクトの投影面に投影される(映し出される)画像の画像データ(以下、「仮想投影画像データ」と称す)を演算処理により算出(生成)する。この仮想投影画像データは、GPI153が仮想オブジェクトデータ及びリソース画像データに対して3次元CG処理(3次元座標計算等を含む)を施して両データを合成することにより生成される。この合成演算処理は、従来の3次元画像プログラミング等で使用されているアルゴリズムを用いて実行することができる。なお、仮想投影画像データは、本発明に係る第1の視点画像(所定の視点画像)のデータの一具体例を示すものであり、遊技者の目線方向は、本発明に係る第1の方向(所定の方向)の一具体例を示すものである。 Next, the selected virtual object is placed in the virtual space (VRAM 154) on the sub-side arithmetic processing. Specifically, the selected virtual object data is expanded on the VRAM 154. Next, in the virtual space, the direction from the player side toward the virtual object (hereinafter, referred to as "player's line of sight direction": in an actual game machine, the display device cover 30 and the display device 11 (see FIGS. 2 and 3). ) And the direction from the position on the player side), the projection of the virtual object when the video light of the selected resource image data is virtually (pseudo) illuminated (projected) on the projection surface of the virtual object. Image data (hereinafter referred to as "virtual projection image data") of an image projected (projected) on a surface is calculated (generated) by arithmetic processing. This virtual projection image data is generated by GPI153 performing 3D CG processing (including 3D coordinate calculation and the like) on the virtual object data and resource image data and synthesizing both data. This synthetic calculation process can be executed by using an algorithm used in conventional three-dimensional image programming or the like. The virtual projection image data shows a specific example of the data of the first viewpoint image (predetermined viewpoint image) according to the present invention, and the line-of-sight direction of the player is the first direction according to the present invention. A specific example of (predetermined direction) is shown.

なお、上述した仮想オブジェクトデータ及びリソース画像データの取得(展開)処理から両データの合成処理(仮想投影画像データの生成処理)までの一連の処理は、図20Bに示すリソース画像・オブジェクト合成処理で行われ、この処理は、サブCPU151の指令に基づいて、GPU153により実行される。また、このリソース画像・オブジェクト合成処理は、VRAM154上で行われる。 The series of processes from the acquisition (expansion) process of the virtual object data and the resource image data described above to the composition process of both data (generation process of the virtual projection image data) is the resource image / object composition process shown in FIG. 20B. This process is performed by the GPU 153 based on the command of the sub CPU 151. Further, this resource image / object composition process is performed on the VRAM 154.

GPU153により3次元空間座標を有する仮想オブジェクトデータと2次元空間座標を有するリソース画像データとを合成する際、リソース画像データの2次元座標を3次元座標に変換するが、この変換処理では、例えば、リソース画像データの全ての座標に対して順次、座標変換処理を施してもよいし、全座標数のうちの所定の基準数(例えば、全座標数のうちの半分等)の座標に対して座標変換処理を施してもよい。なお、後者の手法を採用する場合、例えば、1以上の座標を間に挟む所定の間隔で配置された座標に対して座標変換処理を施す。そして、座標変換処理が施された座標間に位置する座標の値は、例えば線形補間等の処理により算出される。また、後者の手法を採用する場合には、変換の基準数(座標数)を、GPU153の処理性能に応じた数(変換量)に設定することが望ましい。なお、GPU153の処理性能は、GPU153の処理速度と、GPU153が内包するコアの数(一般的なGPUのコア数は64〜2048程度である)とに応じて決定され、GPU153の処理性能が低い場合には、変換の基準数(座標数)を小さくし、GPU153の処理性能が十分高い低い場合には、変換の基準数(座標数)を大きくする。 When the virtual object data having the three-dimensional space coordinates and the resource image data having the two-dimensional space coordinates are combined by the GPU 153, the two-dimensional coordinates of the resource image data are converted into the three-dimensional coordinates. In this conversion process, for example, Coordinate conversion processing may be sequentially performed on all the coordinates of the resource image data, or the coordinates are coordinated with respect to the coordinates of a predetermined reference number (for example, half of the total number of coordinates) among the total number of coordinates. The conversion process may be performed. When the latter method is adopted, for example, coordinate conversion processing is performed on the coordinates arranged at predetermined intervals with one or more coordinates sandwiched between them. Then, the value of the coordinates located between the coordinates subjected to the coordinate conversion process is calculated by a process such as linear interpolation. Further, when the latter method is adopted, it is desirable to set the conversion reference number (coordinate number) to a number (conversion amount) according to the processing performance of the GPU 153. The processing performance of the GPU 153 is determined according to the processing speed of the GPU 153 and the number of cores included in the GPU 153 (the number of cores of a general GPU is about 64 to 2048), and the processing performance of the GPU 153 is low. In that case, the conversion reference number (coordinates) is reduced, and when the processing performance of the GPU 153 is sufficiently high and low, the conversion reference number (coordinates) is increased.

上述のように、本実施形態の仮想投影画像データの生成処理(リソース画像データと仮想オブジェクトデータとの合成処理)では、リソース画像内の所定数(全座標数又は所定の基準数)の2次元座標を、3次元CG処理により、直接、3次元座標に変換するので、例えば、仮想オブジェクト302pの4つの投影面321p,322p,323p,324p間の各境界部分(例えば、投影面322pの下辺部分と、投影面321pの上辺部分との間の境界部分等)における画像の歪みを最小限に抑えることができる。 As described above, in the virtual projection image data generation process (composite process of resource image data and virtual object data) of the present embodiment, a predetermined number (total number of coordinates or a predetermined reference number) in the resource image is two-dimensional. Since the coordinates are directly converted into three-dimensional coordinates by the three-dimensional CG processing, for example, the boundary portion between the four projection planes 321p, 322p, 323p, and 324p of the virtual object 302p (for example, the lower side portion of the projection plane 322p). And the distortion of the image on the boundary portion between the projection surface 321p and the upper side portion, etc.) can be minimized.

なお、本実施形態では、仮想オブジェクトデータ及びリソース画像データをロムカートリッジ基板86から選択して取得し、該取得した両データをVRAM154上で合成する例を説明したが、本発明はこれに限定されない。例えば、まず、複数種の仮想オブジェクトデータ及び複数種のリソース画像データをロムカートリッジ基板86からVRAM154上の上述した仮想バッファ、フレームバッファ及びスクリーンバッファ以外の領域にローディングする(読み出する)。そして、ローディングされた複数種の仮想オブジェクトデータ及び複数種のリソース画像データの中から、所定の仮想オブジェクトデータ及び所定のリソース画像データを選択し、その後、該選択された両データを本実施形態と同様にして、仮想バッファ、フレームバッファ及びスクリーンバッファに展開して合成してもよい。また、この場合、ロムカートリッジ基板86に格納されている複数種のリソース画像データのうち、例えば、遊技状態や演出状態などに基づいて、対応する演出グループに属する複数のリソース画像データのみをローディングしてもよい。 In the present embodiment, an example in which virtual object data and resource image data are selected from the ROM cartridge board 86 and acquired, and both of the acquired data are combined on the VRAM 154 has been described, but the present invention is not limited thereto. .. For example, first, a plurality of types of virtual object data and a plurality of types of resource image data are loaded (read) from the ROM cartridge board 86 into an area other than the virtual buffer, frame buffer, and screen buffer described above on the VRAM 154. Then, a predetermined virtual object data and a predetermined resource image data are selected from the loaded plurality of types of virtual object data and a plurality of types of resource image data, and then both of the selected data are used as the present embodiment. Similarly, it may be expanded and synthesized in a virtual buffer, a frame buffer, and a screen buffer. Further, in this case, among the plurality of types of resource image data stored in the ROM cartridge board 86, only a plurality of resource image data belonging to the corresponding effect group are loaded based on, for example, a game state or an effect state. You may.

(2)視点変更画像データ取得・設定処理
視点変更画像データ取得・設定処理では、まず、仮想空間上で仮想オブジェクトの投影面に対して遊技者の目線方向からリソース画像データの映像光(投影光)が仮想投影された状態(仮想投影画像データが生成された状態)において、被投影部材の投影面に実際に入射される映像光の入射方向(以下、「実際の映像光の入射方向」と称す)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的(擬似的)に撮影したときの画像データ(以下、「仮想撮影画像データ」と称す)を演算処理により生成する。すなわち、仮想オブジェクトの投影面に対して遊技者の目線方向からリソース画像データの映像光が仮想投影された状態において、視点を変更して、仮想オブジェクトの投影面に仮想投影された画像のデータを算出する。なお、仮想撮影画像データは、本発明に係る第2の視点画像のデータの一具体例を示すものであり、実際の映像光の入射方向は、本発明に係る第2の方向の一具体例を示すものである。
(2) Viewpoint change image data acquisition / setting process In the viewpoint change image data acquisition / setting process, first, the image light (projected light) of the resource image data from the player's line of sight with respect to the projection surface of the virtual object in the virtual space. ) Is virtually projected (a state in which virtual projected image data is generated), the incident direction of the image light actually incident on the projection surface of the projected member (hereinafter referred to as “the incident direction of the actual image light”). From (referred to as), image data (hereinafter referred to as "virtually captured image data") when a virtual projected image projected on the projection surface of a virtual object is virtually (pseudo) photographed is generated by arithmetic processing. That is, in a state where the video light of the resource image data is virtually projected onto the projection surface of the virtual object from the direction of the player's line of sight, the viewpoint is changed and the data of the image virtually projected on the projection surface of the virtual object is displayed. calculate. The virtual captured image data shows a specific example of the data of the second viewpoint image according to the present invention, and the actual incident direction of the video light is a specific example of the second direction according to the present invention. Is shown.

この仮想撮影処理では、まず、仮想空間において仮想オブジェクトに対する実際の映像光の入射方向が設定(セット)される。本実施形態では、実際の映像光の入射方向として、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に入射される映像光の入射方向、すなわち、反射ミラー237から被投影部材の投影面に向かう方向が設定される。 In this virtual shooting process, first, the incident direction of the actual video light on the virtual object is set (set) in the virtual space. In the present embodiment, as the actual incident direction of the image light, the incident direction of the image light incident on the projection surface of the projected member from the projector 213 via the reflection mirror 237, that is, the projection of the projected member from the reflection mirror 237. The direction toward the surface is set.

次いで、GPU153の3次元CG処理(実際の映像光の入射方向(仮想カメラの位置)からの座標計算等を含む)により、仮想オブジェクトの投影面に投影された仮想投影画像を、実際の映像光の入射方向側から仮想的に撮影した場合に得られる仮想撮像画像に変換する(VRAM154上に展開された仮想投影画像データを仮想撮像画像データに変換する)。なお、この仮想撮影画像データの生成処理(仮想投影画像データから仮想撮像画像データへの変換処理)は、従来の3次元画像プログラミング等で使用されているアルゴリズムを用いて実行することができる。 Next, the virtual projected image projected on the projection surface of the virtual object by the three-dimensional CG processing of GPU153 (including the coordinate calculation from the incident direction (position of the virtual camera) of the actual video light) is converted into the actual video light. It is converted into a virtual captured image obtained when the image is virtually taken from the incident direction side of the above (converts the virtual projected image data developed on the VRAM 154 into virtual captured image data). The virtual captured image data generation process (conversion process from virtual projected image data to virtual captured image data) can be executed by using an algorithm used in conventional three-dimensional image programming or the like.

なお、本実施形態では、上述した仮想撮像画像データ生成時の視点変更処理及び仮想撮影画像データの生成処理は、図20Bに示す視点変更画像データ取得・設定処理で行われ、この処理は、サブCPU151の指令に基づいて、GPU153により実行される。また、この視点変更画像データ取得・設定処理は、VRAM154上で行われる。 In the present embodiment, the viewpoint change process and the virtual photographed image data generation process at the time of generating the virtual captured image data described above are performed by the viewpoint change image data acquisition / setting process shown in FIG. 20B, and this process is a sub. It is executed by GPU 153 based on the command of CPU 151. Further, the viewpoint change image data acquisition / setting process is performed on the VRAM 154.

ここで、図21に、仮想空間において、被投影部材の仮想オブジェクトの投影面に対して遊技者の目線方向から、リソース画像の映像光を仮想投影した場合の様子、及び、実際の映像光の入射方向から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影した場合の様子を示す。また、図22に、仮想空間上におけるリソース画像の仮想投影動作により生成される仮想投影画像の一具体例を示す。なお、図21及び図22では、映像光の投影対象の被投影部材が台形部材302である場合の例を示す。 Here, FIG. 21 shows a state in which the image light of the resource image is virtually projected from the player's line of sight onto the projection surface of the virtual object of the projected member in the virtual space, and the actual image light. The state when the virtual projection image projected on the projection surface of the virtual object is virtually taken from the incident direction is shown. Further, FIG. 22 shows a specific example of the virtual projection image generated by the virtual projection operation of the resource image in the virtual space. 21 and 22 show an example in which the projected member to be projected with the image light is the trapezoidal member 302.

仮想空間上に配置された台形部材302の仮想オブジェクト302pに対して遊技者の目線方向(図21中の矢印A2方向)からリソース画像データの映像光を仮想投影すると、図21に示すように、仮想オブジェクト302pの4つの投影面321p,322p,323p,324pのそれぞれにリソース画像が仮想的に映し出された状態となり、仮想投影画像が生成される。この結果、リソース画像は、図22に示すように、台形部材302の投影面の形状が反映された奥行きのある3次元的な画像(仮想投影画像)に変換される。この仮想投影画像は、実空間において、遊技者側から台形部材302の投影面を見た場合に視認される実際の画像と同様の画像となる。なお、この際、映像光の投影対象が台形部材302や擬似リール部材303である場合には、その投影面の形状が3次元形状であるので、奥行きのある3次元的な仮想投影画像が得られるが、映像光の投影対象が平面スクリーン部材304である場合には、平面的な仮想投影画像が得られる。 When the video light of the resource image data is virtually projected from the player's line-of-sight direction (arrow A2 direction in FIG. 21) onto the virtual object 302p of the trapezoidal member 302 arranged in the virtual space, as shown in FIG. The resource image is virtually projected on each of the four projection surfaces 321p, 322p, 323p, and 324p of the virtual object 302p, and the virtual projection image is generated. As a result, as shown in FIG. 22, the resource image is converted into a three-dimensional image (virtual projection image) having a depth that reflects the shape of the projection surface of the trapezoidal member 302. This virtual projection image is an image similar to the actual image that is visually recognized when the projection surface of the trapezoidal member 302 is viewed from the player side in the real space. At this time, when the projection target of the image light is the trapezoidal member 302 or the pseudo reel member 303, the shape of the projection surface is a three-dimensional shape, so that a three-dimensional virtual projection image with depth can be obtained. However, when the projection target of the image light is the flat screen member 304, a flat virtual projection image can be obtained.

そして、台形部材302の仮想オブジェクト302pの4つの投影面321p,322p,323p,324pのそれぞれにリソース画像が仮想的に映し出された状態において、実際の映像光の入射方向(図21中の矢印A1方向)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影すると、仮想投影画像が矢印A1方向からの仮想撮影画像に変換される。 Then, in a state where the resource image is virtually projected on each of the four projection surfaces 321p, 322p, 323p, and 324p of the virtual object 302p of the trapezoidal member 302, the actual incident direction of the image light (arrow A1 in FIG. 21). When the virtual projected image projected on the projection surface of the virtual object is virtually photographed from the direction), the virtual projected image is converted into the virtual photographed image from the direction of arrow A1.

上述のように生成された仮想撮影画像に対応する映像光(投影光)を、実際に、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に投影した場合、実際の映像光の入射方向(反射ミラー237側)から被投影部材の投影面を見ると、該投影面に映し出されている画像は、仮想空間上で生成された仮想撮影画像と同様の画像になる。そして、この状況において、遊技者側から台形部材302の投影面を見た場合に見える実際の画像は、仮想空間上で生成された仮想投影画像と同様の画像になる。すなわち、仮想撮影画像データに対応する映像光(投影光)を、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に実際に投影すると、遊技者側からは、被投影部材の投影面の形状が反映された仮想投影画像と同様の投影画像(奥行きのある3次元画像)を見ることができる。 When the image light (projected light) corresponding to the virtual captured image generated as described above is actually projected from the projector 213 onto the projection surface of the projected member via the reflection mirror 237, the actual incident image light is incident. When the projection surface of the projected member is viewed from the direction (reflection mirror 237 side), the image projected on the projection surface becomes an image similar to the virtual captured image generated in the virtual space. Then, in this situation, the actual image seen when the projection surface of the trapezoidal member 302 is viewed from the player side becomes an image similar to the virtual projection image generated in the virtual space. That is, when the image light (projected light) corresponding to the virtual captured image data is actually projected from the projector 213 to the projected surface of the projected member via the reflection mirror 237, the projected surface of the projected member is viewed from the player side. You can see a projection image (three-dimensional image with depth) similar to the virtual projection image that reflects the shape of.

なお、本実施形態において、上述したリソース画像データから仮想撮影画像データまでの一連の画像データ変換処理では、被投影部材の投影面のサイズ(スクリーンサイズ)に対応する画像データでなく、被投影部材の投影面のサイズの2倍のサイズの画像データが処理対象の画像データとして用いられる。 In the present embodiment, in the series of image data conversion processing from the resource image data to the virtual captured image data described above, the projected member is not the image data corresponding to the size (screen size) of the projected surface of the projected member. Image data having a size twice the size of the projection surface of is used as the image data to be processed.

具体的には、処理対象の画像データとして、被投影部材の投影面に投影される画像(投影対象画像)の画像データの上端部に投影面のサイズと同じサイズのダミー画像データを付加した画像データ(仮想空間上において画像の高さ(上下)方向のサイズが投影対象画像のそれの2倍となる画像データ)を用いる。すなわち、上述したリソース画像データから仮想撮影画像データまでの一連の画像データ変換処理において処理対象となる画像データは、映像光の高さ方向の投影画角(視野角)を2倍にしたときのサイズの画像データ(以下、「2倍画角データ」ともいう)となる。それゆえ、例えば、スクリーン(投影面)のサイズ(投影される画像サイズ)が1280ピクセル(横)×800ピクセル(縦)である場合には、処理対象の画像データ(2倍画角データ)のサイズは、1280ピクセル(横)×1600ピクセル(縦)となる。 Specifically, as the image data to be processed, an image in which dummy image data having the same size as the projection surface is added to the upper end of the image data of the image (projection target image) projected on the projection surface of the projected member. Data (image data in which the size in the height (upper and lower) direction of the image in the virtual space is twice that of the image to be projected) is used. That is, the image data to be processed in the series of image data conversion processing from the resource image data to the virtual captured image data described above is when the projected angle of view (viewing angle) in the height direction of the video light is doubled. It is size image data (hereinafter, also referred to as "double angle of view data"). Therefore, for example, when the size of the screen (projection surface) (projected image size) is 1280 pixels (horizontal) x 800 pixels (vertical), the image data to be processed (double angle of view data) The size is 1280 pixels (horizontal) x 1600 pixels (vertical).

また、本実施形態では、ロムカートリッジ基板86に格納されているリソース画像データを予め2倍画角データで構成している。それゆえ、リソース画像・オブジェクト合成処理でリソース画像データを読み出す時点において、処理対象の画像データの態様は2倍画角データとなっている。ただし、本発明はこれに限定されず、ロムカートリッジ基板86に格納されているリソース画像データを投影対象画像のみを含む画像データ(スクリーン(投影面)サイズの画像データ)とし、リソース画像・オブジェクト合成処理において、読み出されたリソース画像データに、ダミー画像データを付加して2倍画角データを生成してもよい。 Further, in the present embodiment, the resource image data stored in the ROM cartridge board 86 is preliminarily composed of double angle of view data. Therefore, at the time of reading the resource image data in the resource image / object composition process, the mode of the image data to be processed is double angle of view data. However, the present invention is not limited to this, and the resource image data stored in the Rom cartridge substrate 86 is set as image data (image data of screen (projection surface) size) including only the image to be projected, and resource image / object composition is performed. In the process, dummy image data may be added to the read resource image data to generate double angle of view data.

本実施形態において、処理対象の画像データとして上述した構成の2倍画角データを用いる理由は、次の通りである。通常、プロジェクタ213からの出射光を被投影部材の投影面に投影すると、プロジェクタ213の光学特性上、投影面に投影された映像の上端部又は下端部の中心に画像の歪みが発生する。これは、一般的なプロジェクタでは、予め、映像光を変則的な角度(短長辺が存在する台形状の画角)でスクリーンに投射することを前提として、投射用レンズが設計されているためである。なお、画像の歪みの発生位置(映像の上端部又は下端部の中心)は、例えば、筐体内部におけるプロジェクタ213の取り付け態様(プロジェクタ213の上(天井)面を上に向けて取り付けるか、下に向けて取り付けるか(逆さ付けか))や投射用レンズの使用領域(上半分又は下半分)などに応じて変化する。本実施形態のパチスロ1では、投影面に投影された映像の上端部中心に画像の歪みが発生するように投影ブロック201が構成されている例を説明する。 In this embodiment, the reason for using the double angle of view data having the above-described configuration as the image data to be processed is as follows. Normally, when the light emitted from the projector 213 is projected onto the projection surface of the projected member, image distortion occurs at the center of the upper end or lower end of the image projected on the projection surface due to the optical characteristics of the projector 213. This is because a general projector is designed with a projection lens on the premise that the image light is projected onto the screen at an irregular angle (a trapezoidal angle of view with short and long sides). Is. The position where the distortion of the image occurs (the center of the upper end or the lower end of the image) is, for example, the mounting mode of the projector 213 inside the housing (the upper (ceiling) surface of the projector 213 is facing upward or lower). It changes depending on whether it is mounted toward (upside down) or the area where the projection lens is used (upper half or lower half). In the pachi-slot machine 1 of the present embodiment, an example will be described in which the projection block 201 is configured so that the image is distorted at the center of the upper end of the image projected on the projection surface.

また、リソース画像データは、一般的には、液晶表示装置用のデータとして生成されていることが多く、本実施形態においてもリソース画像データは、液晶表示装置用のデータとして生成されている。そして、液晶表示装置では、画像の歪みは画面に中心位置に発生するので、GPU153(又はVDP)は、リソース画像データに対して画像の中心の歪みを抑制(補正)する処理を行っている。 Further, the resource image data is generally generated as data for a liquid crystal display device, and the resource image data is also generated as data for a liquid crystal display device in this embodiment as well. Since the distortion of the image is generated at the center position on the screen in the liquid crystal display device, the GPU 153 (or VDP) performs a process of suppressing (correcting) the distortion of the center of the image with respect to the resource image data.

そこで、本実施形態のように、GPU153の処理対象データとして、仮想投影及び仮想撮影の対象となる画像(投影対象画像)の上部にダミー画像を設けた2倍画角データを用いた場合には、GPU153により、2倍画角データの画像の中心において画像の歪みを抑制(補正)するための処理が行われる。この場合、2倍画角データの画像の中心は、ダミー画像と投影対象画像との境界線上の中心になるので、投影対象画像の上端部の中心位置の画像の歪みが抑制(補正)される。この結果、プロジェクタ213により被投影部材の投影面に実際に映像が投影された際に映像の歪みが発生する位置の画像が補正される。なお、本実施形態では、この画像の歪みの補正処理を、フレームバッファに展開(格納)された2倍画角データに対して行うが、本発明はこれに限定されず、例えば、仮想バッファに展開された2倍画角データに対して画像の歪みの補正処理を行ってもよい。 Therefore, as in the present embodiment, when the double angle of view data in which a dummy image is provided above the image (projection target image) to be virtual projection and virtual shooting is used as the processing target data of the GPU 153. , GPU153 performs a process for suppressing (correcting) image distortion at the center of the image of double angle of view data. In this case, since the center of the image of the double angle of view data is the center on the boundary line between the dummy image and the projection target image, the distortion of the image at the center position of the upper end portion of the projection target image is suppressed (corrected). .. As a result, when the image is actually projected onto the projection surface of the projected member by the projector 213, the image at the position where the image distortion occurs is corrected. In the present embodiment, the image distortion correction processing is performed on the double angle of view data expanded (stored) in the frame buffer, but the present invention is not limited to this, for example, in a virtual buffer. Image distortion correction processing may be performed on the expanded double angle of view data.

すなわち、本実施形態では、GPU153の処理対象データとして、上述した構成の2倍画角データを用いることにより、液晶表示装置用に生成されたリソース画像データ(2倍画角データ)における画像の歪みの発生位置(2倍画角データの中心)と、プロジェクタ213により実際に投射される画像において発生する歪みの位置(投影対象画像の上端部中心)とが一致するように調整されている。その結果、PJ対応画像データの生成処理の段階において、プロジェクタ213により被投影部材の投影面に実際に映像が投影された場合に発生する画像の歪みを予め抑制(補正)することが可能になり、高画質の演出映像を遊技者に提供することができる。 That is, in the present embodiment, the image distortion in the resource image data (double angle of view data) generated for the liquid crystal display device by using the double angle of view data having the above-described configuration as the processing target data of the GPU 153. (Center of double angle of view data) and the position of distortion (center of the upper end of the image to be projected) that occurs in the image actually projected by the projector 213 are adjusted to match. As a result, at the stage of generating PJ-compatible image data, it becomes possible to suppress (correct) the distortion of the image that occurs when the image is actually projected on the projection surface of the projected member by the projector 213. , It is possible to provide a player with a high-quality production image.

なお、リソース画像データとして、例えば、プロジェクタ用のデータ(映像の上端部又は下端部の中心に歪みが発生する画像データ)を予め用意した場合には、リソース画像データから仮想撮影画像データまでの一連の画像データ変換処理において、ダミー画像を設けない等倍画角データを処理対象データとして用いてもよい。この場合には、GPU153により、等倍画角データの画像の上端部又は下端部の中心において画像の歪みを抑制(補正)するための処理が行われる。 When, for example, data for a projector (image data in which distortion occurs at the center of the upper end or lower end of the image) is prepared in advance as the resource image data, a series from the resource image data to the virtual shot image data. In the image data conversion process of the above, the same size angle data without providing a dummy image may be used as the processing target data. In this case, the GPU 153 performs a process for suppressing (correcting) distortion of the image at the center of the upper end or lower end of the image of the same-magnification angle of view data.

また、図20Bに示す視点変更画像データ取得・設定処理において生成された仮想撮影画像データは、VRAM154(描画用RAM)に設けられたフレームバッファ(FB)にセットされ、このセット処理は、GPU153(レンダリングプロセッサ)により制御される。なお、上述のように、フレームバッファ(FB)にセットされる画像データは、2倍画角データ(仮想撮影画像データ+ダミー画像データ)であるので、VRAM154に設定されるフレームバッファ(FB)のサイズ(仮想撮影画像データの格納領域のサイズ)もまた、被投影部材の投影面のサイズ(スクリーンサイズ)の2倍になる。 Further, the virtual captured image data generated in the viewpoint change image data acquisition / setting process shown in FIG. 20B is set in the frame buffer (FB) provided in the VRAM 154 (drawing RAM), and this set process is performed by the GPU 153 ( It is controlled by the rendering processor). As described above, since the image data set in the frame buffer (FB) is double angle of view data (virtually captured image data + dummy image data), the frame buffer (FB) set in the VRAM 154 The size (the size of the storage area for the virtual captured image data) is also twice the size of the projection surface (screen size) of the projected member.

(3)SB画像データ設定処理
SB画像データ設定処理では、VRAM154のフレームバッファ(FB)にセットされた2倍画角データ(仮想撮影画像データ+ダミー画像データ)のうち、投影対象画像の画像データ、すなわち、仮想撮影画像データのみが、VRAM154に設けられたスクリーンバッファ(SB)に転送される。具体的には、フレームバッファの格納領域内において仮想撮影画像データが格納された領域の画像データがスクリーンバッファにコピーされる(ダミー画像データはスクリーンバッファに転送されない)。
(3) SB image data setting process In the SB image data setting process, the image data of the image to be projected out of the double angle of view data (virtual shooting image data + dummy image data) set in the frame buffer (FB) of the VRAM 154. That is, only the virtual captured image data is transferred to the screen buffer (SB) provided in the VRAM 154. Specifically, the image data in the area where the virtual captured image data is stored in the storage area of the frame buffer is copied to the screen buffer (dummy image data is not transferred to the screen buffer).

これにより、被投影部材の投影面に実際に投影される映像光の画像データ(以下、「PJ対応画像データ」という)が生成されて、PJ対応画像データがVRAM154のスクリーンバッファに格納される。なお、このPJ対応画像データを生成するための処理(仮想撮影画像データのスクリーンバッファへの転送処理)は、GPU153により制御される。また、PJ対応画像データは処理対象の画像データの1/2のサイズとなるので、PJ対応画像データがセットされるVRAM154のスクリーンバッファのサイズを、フレームバッファのサイズの1/2にすることができる。 As a result, image data of the image light actually projected on the projection surface of the projected member (hereinafter referred to as "PJ-compatible image data") is generated, and the PJ-compatible image data is stored in the screen buffer of the VRAM 154. The process for generating the PJ-compatible image data (the process of transferring the virtual captured image data to the screen buffer) is controlled by the GPU 153. Further, since the PJ-compatible image data is half the size of the image data to be processed, the size of the screen buffer of the VRAM 154 in which the PJ-compatible image data is set can be halved of the size of the frame buffer. it can.

ここで、図23に、SB画像データ設定処理の概要を示す。図20Bに示す視点変更画像データ取得・設定処理において、仮想撮影画像データがVRAM154のフレームバッファ(FB)にセットされると、図23面上において、フレームバッファ(FB)の上半分の領域にダミー画像データが格納され、下半分の領域に仮想撮影画像データが格納される。次いで、図20B中のSB画像データ設定処理が行われると、フレームバッファ内の仮想撮影画像データが格納されている領域のデータのみが、VRAM154のスクリーンバッファ(SB)に転送(コピー)され、該転送された画像データがPJ対応画像データとしてセットされる。 Here, FIG. 23 shows an outline of the SB image data setting process. In the viewpoint change image data acquisition / setting process shown in FIG. 20B, when the virtual captured image data is set in the frame buffer (FB) of the VRAM 154, a dummy is displayed in the upper half area of the frame buffer (FB) on the 23rd surface. Image data is stored, and virtual shooting image data is stored in the lower half area. Next, when the SB image data setting process in FIG. 20B is performed, only the data in the area where the virtual captured image data in the frame buffer is stored is transferred (copied) to the screen buffer (SB) of the VRAM 154, and the data is transferred to the screen buffer (SB) of the VRAM 154. The transferred image data is set as PJ-compatible image data.

その後、スクリーンバッファにセットされたPJ対応画像データは、映像信号(例えば、「V−by−one(登録商標)」、「Display Port(登録商標)」、「LVDS」、「Clockless Link(登録商標)」、アナログRGBコンポーネント映像信号等のインターフェース仕様の映像信号)に変換され、該映像信号がプロジェクタ213に出力される。そして、プロジェクタ213は、入力された映像信号に基づいて、PJ対応画像データに対応する映像光を出射する。本実施形態では、上述のようにして、被投影部材の投影面に実際に投影される映像光の画像データ(PJ対応画像データ)を生成する。なお、以下では、上述した本実施形態のPJ対応画像データ(及びその映像信号)の生成手法を「仮想投影撮影法」と称す。 After that, the PJ-compatible image data set in the screen buffer is a video signal (for example, "V-by-one (registered trademark)", "DisplayPort (registered trademark)", "LVDS", and "Lockless Link (registered trademark)". ) ”, A video signal having interface specifications such as an analog RGB component video signal), and the video signal is output to the projector 213. Then, the projector 213 emits the video light corresponding to the PJ-compatible image data based on the input video signal. In the present embodiment, as described above, image data (PJ-compatible image data) of video light actually projected on the projection surface of the projected member is generated. In the following, the method for generating PJ-compatible image data (and its video signal) according to the above-described embodiment will be referred to as a "virtual projection imaging method".

[被投影部材の可動時のPJ対応画像データの生成概要]
上記図21〜図23では、PJ対応画像データの生成例として、映像光の投影対象の被投影部材が台形部材302(単一で被可動の被投影部材)のみである例を説明したが、本発明はこれに限定されない。例えば、上述した仮想投影撮影法によるPJ対応画像データの生成手法は、例えば、投影対象の被投影部材が切り替わる過程の演出において映像光を投影する場合にも適用することができる。
[Outline of generation of PJ-compatible image data when the projected member is movable]
In FIGS. 21 to 23, as an example of generating PJ-compatible image data, an example in which the projected member to be projected by the image light is only the trapezoidal member 302 (single and movable projected member) has been described. The present invention is not limited to this. For example, the method for generating PJ-compatible image data by the virtual projection imaging method described above can also be applied to, for example, projecting video light in the production of the process of switching the projected member to be projected.

ここで、図24A〜24Eを参照して、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる過程におけるPJ対応画像データの生成概要を説明する。図24A〜24Eは、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる過程において、仮想空間上で配置される、台形部材302の仮想オブジェクト302pと擬似リール部材303の仮想オブジェクト303pとの間の位置関係の時間変化(時系列変化)を示す図である。 Here, with reference to FIGS. 24A to 24E, an outline of generation of PJ-compatible image data in the process of switching the projected member to be projected from the trapezoidal member 302 to the pseudo reel member 303 will be described. 24A to 24E show the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303 arranged in the virtual space in the process of switching the projected member to be projected from the trapezoidal member 302 to the pseudo reel member 303. It is a figure which shows the time change (time series change) of the positional relationship with.

なお、図24A〜24Eでは、台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を明確にするため、擬似リール部材303の仮想オブジェクト303pを簡略化して示す。具体的には、擬似リール部材303の仮想オブジェクト303pのサイズを実際のサイズ(図11及び図12参照)より小さくして示している。 In FIGS. 24A to 24E, the virtual object 303p of the pseudo reel member 303 is simplified and shown in order to clarify the positional relationship between the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303. Specifically, the size of the virtual object 303p of the pseudo reel member 303 is shown to be smaller than the actual size (see FIGS. 11 and 12).

図24Aは、台形部材302から擬似リール部材303への切り替え開始後(擬似リール部材303の駆動開始後)、遊技者側から見て擬似リール部材303が台形部材302の上部に見え始めるような位置まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Bは、擬似リール部材303が台形部材302の上部まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Cは、擬似リール部材303が台形部材302の上方前面部付近まで移動したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。図24Dは、擬似リール部材303が台形部材302の前面に移動開始したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。そして、図24Eは、擬似リール部材303が台形部材302の前面(投影面)を覆うような位置に移動し、台形部材302から擬似リール部材303への被投影部材の切り替え動作が終了したときの台形部材302の仮想オブジェクト302p及び擬似リール部材303の仮想オブジェクト303p間の位置関係を示す図である。 FIG. 24A shows a position where the pseudo reel member 303 starts to be seen above the trapezoidal member 302 when viewed from the player side after the start of switching from the trapezoidal member 302 to the pseudo reel member 303 (after the start of driving the pseudo reel member 303). It is a figure which shows the positional relationship between the virtual object 302p of a trapezoidal member 302 and the virtual object 303p of a pseudo reel member 303 when it moves to. FIG. 24B is a diagram showing the positional relationship between the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303 when the pseudo reel member 303 moves to the upper part of the trapezoidal member 302. FIG. 24C is a diagram showing the positional relationship between the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303 when the pseudo reel member 303 moves to the vicinity of the upper front surface portion of the trapezoidal member 302. FIG. 24D is a diagram showing the positional relationship between the virtual object 302p of the trapezoidal member 302 and the virtual object 303p of the pseudo reel member 303 when the pseudo reel member 303 starts moving to the front surface of the trapezoidal member 302. Then, FIG. 24E shows when the pseudo reel member 303 moves to a position so as to cover the front surface (projection surface) of the trapezoidal member 302, and the operation of switching the projected member from the trapezoidal member 302 to the pseudo reel member 303 is completed. It is a figure which shows the positional relationship between the virtual object 302p of a trapezoidal member 302 and the virtual object 303p of a pseudo reel member 303.

このように、擬似リール部材303(可動被投影部材)が台形部材302の前面に移動する場合には、まず、所定間隔のタイミング毎(時系列毎)に、対応する位置に移動した擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとを合成した仮想オブジェクト(以下、「合成仮想オブジェクト」という)の仮想オブジェクトデータ(以下、「合成仮想オブジェクトデータ」という)を取得する。例えば、図24A〜24Eのそれぞれにおいて、対応する位置に移動した動作中の擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとの合成仮想オブジェクトデータを取得する。 When the pseudo reel member 303 (movable projected member) moves to the front surface of the trapezoidal member 302 in this way, first, the pseudo reel member moved to the corresponding position at predetermined timing intervals (time series). The virtual object data (hereinafter referred to as "synthetic virtual object data") of the virtual object (hereinafter referred to as "synthetic virtual object") obtained by synthesizing the virtual object 303p of 303 and the virtual object 302p of the trapezoidal member 302 is acquired. For example, in each of FIGS. 24A to 24E, the composite virtual object data of the virtual object 303p of the operating pseudo reel member 303 moved to the corresponding position and the virtual object 302p of the trapezoidal member 302 is acquired.

なお、仮想空間上において、仮想オブジェクト303pを、対応する位置に移動させるための制御手法は次の通りである。まず、擬似リール部材303を図24Aの状態から図24Eの状態まで移動させる際に駆動される駆動モータ361のパルス出力データ(不図示)に基づいて生成され、かつ、映像を表示するためのフレームレート(本実施形態では30fps)に対応した擬似リール部材303の移動角の時系列データ(以下、「移動角データ」)を取得する。次いで、取得された移動角データを用いて、GPU153の3次元CG処理(3次元座標計算等を含む)により、所定間隔のタイミング毎(例えばフレーム毎)に、対応する位置に仮想オブジェクト303pを移動させ、該移動した仮想オブジェクト303pのデータ(仮想オブジェクトデータ)を生成する。 The control method for moving the virtual object 303p to the corresponding position in the virtual space is as follows. First, a frame generated based on pulse output data (not shown) of the drive motor 361 driven when the pseudo reel member 303 is moved from the state shown in FIG. 24A to the state shown in FIG. 24E, and for displaying an image. The time series data (hereinafter, “movement angle data”) of the movement angle of the pseudo reel member 303 corresponding to the rate (30 fps in this embodiment) is acquired. Next, using the acquired movement angle data, the virtual object 303p is moved to the corresponding position at predetermined intervals (for example, every frame) by the 3D CG processing (including 3D coordinate calculation, etc.) of the GPU 153. And generate the data (virtual object data) of the moved virtual object 303p.

本実施形態では、可動被投影部材が動作中である場合に取得する所定間隔のタイミング毎(例えばフレーム毎)の移動角データは、予め用意され、ロムカートリッジ基板86に格納されている。なお、本実施形態では、これに限定されず、例えば、所定間隔のタイミング毎に対応する位置に移動した仮想オブジェクト303pのデータ(仮想オブジェクトデータ)を予め生成してロムカートリッジ基板86に格納しておき、所定間隔のタイミング毎に、対応する位置に移動した擬似リール部材303の仮想オブジェクト303pと、台形部材302の仮想オブジェクト302pとを合成して、合成仮想オブジェクトデータを生成してもよい。さらに、例えば、所定間隔のタイミング毎の合成仮想オブジェクトデータを予め生成してロムカートリッジ基板86に格納しておき、所定間隔のタイミング毎に、対応する合成仮想オブジェクトデータを読み出して用いてもよい。また、合成仮想オブジェクトデータが取得される所定間隔は、例えば、映像(動画)のフレームレート、映像表示演出の内容等に応じて任意に設定することができる。 In the present embodiment, the movement angle data for each timing (for example, for each frame) of predetermined intervals acquired when the movable projected member is in operation is prepared in advance and stored in the ROM cartridge substrate 86. In the present embodiment, the present embodiment is not limited to this, and for example, the data (virtual object data) of the virtual object 303p that has moved to the corresponding position at each predetermined interval timing is generated in advance and stored in the ROM cartridge board 86. Alternatively, the virtual object 303p of the pseudo reel member 303 that has moved to the corresponding position and the virtual object 302p of the trapezoidal member 302 may be combined at each timing of predetermined intervals to generate synthetic virtual object data. Further, for example, the synthetic virtual object data at each predetermined interval may be generated in advance and stored in the ROM cartridge board 86, and the corresponding synthetic virtual object data may be read out and used at each predetermined interval timing. Further, the predetermined interval at which the composite virtual object data is acquired can be arbitrarily set according to, for example, the frame rate of the video (moving image), the content of the video display effect, and the like.

次いで、仮想空間に配置された合成仮想オブジェクトに対して遊技者の目線方向(図21中の矢印A2方向)からリソース画像データ(ダミー画像を含む2倍画角データ)の映像光を仮想投影し、リソース画像と合成仮想オブジェクトとを合成した仮想投影画像を生成する。そして、合成仮想オブジェクトの投影面にリソース画像が仮想的に映し出された状態において、実際の映像光の入射方向(図21中の矢印A1方向)から合成仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影し、仮想撮影画像データ(ダミー画像を含む2倍画角データ)を取得する。 Next, the video light of the resource image data (double angle of view data including the dummy image) is virtually projected onto the synthetic virtual object arranged in the virtual space from the player's line of sight direction (arrow A2 direction in FIG. 21). , Generate a virtual projection image that combines the resource image and the composite virtual object. Then, in a state where the resource image is virtually projected on the projection surface of the composite virtual object, the virtual image projected on the projection surface of the composite virtual object from the incident direction of the actual video light (arrow A1 direction in FIG. 21). The projected image is virtually photographed, and the virtual photographed image data (double angle of view data including the dummy image) is acquired.

すなわち、本実施形態において、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合には、擬似リール部材303(可動被投影部材)の仮想オブジェクト303pと台形部材302の仮想オブジェクト302pとの合成仮想オブジェクトデータを所定間隔のタイミング毎に生成すること以外の処理は、上記図21〜図23で説明した映像光の投影対象の被投影部材が台形部材302(単一で被可動の被投影部材)のみである場合の処理と同様となる。 That is, in the present embodiment, when the projected member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303, the virtual object 303p of the pseudo reel member 303 (movable projected member) and the virtual object 302p of the trapezoidal member 302 In the processing other than generating the virtual object data at predetermined intervals, the projected member to be projected by the image light described with reference to FIGS. 21 to 23 is a trapezoidal member 302 (single and movable). The process is the same as when only the projected member) is used.

なお、ここでは、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合に、仮想投影撮影法によるPJ対応画像データの生成手法を適用する例を説明したが、本発明はこれに限定されない。例えば、投影対象の被投影部材が台形部材302から平面スクリーン部材304に切り替わる場合にも、所定間隔のタイミング毎に生成された平面スクリーン部材304と台形部材302との合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。また、例えば、可動被投影部材と非可動投影部材とを使用して連動した映像表示演出を実行する場合にも、所定間隔のタイミング毎に生成された可動被投影部材と非可動投影部材との合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。さらに、例えば、3つ以上の被投影部材を使用して連動した映像表示演出を実行する機能を備えるような遊技機においても、3つ以上の被投影部材の合成仮想オブジェクトデータを用いることにより、上述した仮想投影撮影法によるPJ対応画像データの生成手法をそのまま適用することができる。 Here, an example of applying a PJ-compatible image data generation method by a virtual projection imaging method when the projected member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303 has been described. Not limited to. For example, even when the projected member to be projected is switched from the trapezoidal member 302 to the flat screen member 304, the composite virtual object data of the flat screen member 304 and the trapezoidal member 302 generated at predetermined timing intervals is used. , The method for generating PJ-compatible image data by the virtual projection imaging method described above can be applied as it is. Further, for example, even when the movable image display member and the non-movable projection member are used to execute a linked image display effect, the movable projection member and the non-movable projection member generated at predetermined timing intervals are used. By using the composite virtual object data, the PJ-compatible image data generation method by the virtual projection imaging method described above can be applied as it is. Further, for example, even in a gaming machine having a function of executing a linked image display effect using three or more projected members, by using synthetic virtual object data of three or more projected members, The method for generating PJ-compatible image data by the virtual projection imaging method described above can be applied as it is.

[PJ対応画像データの生成手順]
次に、図25を参照して、副制御回路150において行われる、仮想投影撮影法によるPJ対応画像データの生成処理(リソース画像・オブジェクト合成処理から映像信号の出力処理までの一連の処理)の具体的な処理手順を説明する。なお、図25は、仮想投影撮影法による、PJ対応画像データ及びそれに対応する映像信号の生成処理の手順を示すフローチャートである。
[Procedure for generating PJ-compatible image data]
Next, with reference to FIG. 25, a PJ-compatible image data generation process (a series of processes from resource image / object composition process to video signal output process) performed by the sub-control circuit 150 by the virtual projection imaging method. A specific processing procedure will be described. Note that FIG. 25 is a flowchart showing a procedure for generating PJ-compatible image data and corresponding video signals by the virtual projection imaging method.

まず、サブCPU151は、ロムカートリッジ基板86に格納された各種リソース画像データの中から、今回、映像表示するリソース画像データを選択する(S11)。なお、S11の処理で選択する画像データは、リソース画像の上端部に、リソース画像と同サイズのダミー画像が付加された2倍画角データである。また、この処理では、GPU153(レンダリングプロセッサ153)は、サブCPU151の指令に基づいて、選択されたリソース画像データ(2倍画角データ)をVRAM154(描画用RAM)に展開する。 First, the sub CPU 151 selects the resource image data to be displayed as an image this time from the various resource image data stored in the ROM cartridge board 86 (S11). The image data selected in the process of S11 is double angle of view data in which a dummy image having the same size as the resource image is added to the upper end of the resource image. Further, in this process, the GPU 153 (rendering processor 153) expands the selected resource image data (double angle of view data) into the VRAM 154 (drawing RAM) based on the command of the sub CPU 151.

次いで、サブCPU151は、ロムカートリッジ基板86に格納された各種仮想オブジェクトデータの中から、今回、投影対象となる被投影部材の仮想オブジェクトデータを選択する(S12)。この処理において、投影対象となる被投影部材が、一つの被投影部材である場合には、当該被投影部材の仮想オブジェクトデータのみが選択される。また、この処理において、投影対象となる被投影部材が複数である場合には、現タイミングに対応する合成仮想オブジェクトデータが選択される。そして、この処理では、GPU153は、サブCPU151の指令に基づいて、選択された仮想オブジェクトデータをVRAM154に展開する。 Next, the sub CPU 151 selects the virtual object data of the projected member to be projected this time from the various virtual object data stored in the ROM cartridge board 86 (S12). In this process, when the projected member to be projected is one projected member, only the virtual object data of the projected member is selected. Further, in this process, when there are a plurality of projected members to be projected, the synthetic virtual object data corresponding to the current timing is selected. Then, in this process, the GPU 153 expands the selected virtual object data into the VRAM 154 based on the command of the sub CPU 151.

なお、S11及びS12の処理において、選択されたリソース画像データ及び仮想オブジェクトデータは、VRAM154内において、フレームバッファ(FB)及びスクリーンバッファ(SB)以外のバッファ領域(仮想バッファ)に展開される。また、S11及びS12の処理順序は、任意であり、S12の処理の後にS11の処理を行ってもよい。 The resource image data and virtual object data selected in the processes of S11 and S12 are expanded in the buffer area (virtual buffer) other than the frame buffer (FB) and the screen buffer (SB) in the VRAM 154. Further, the processing order of S11 and S12 is arbitrary, and the processing of S11 may be performed after the processing of S12.

次いで、GPU153は、仮想空間(VRAM154)上において、選択された仮想オブジェクトを配置し、該仮想オブジェクトの投影面に対して、遊技者側から仮想オブジェクトに向かう方向(遊技者の目線方向)に、選択されたリソース画像データの映像光を仮想的に投影(照射)し、仮想オブジェクトの投影面に映し出される仮想投影画像の画像データ(仮想投影画像データ)を生成(算出)する(S13)。この処理では、GPU153の3次元CG処理(3次元座標計算等を含む)により、S11でVRAM154上に展開されたリソース画像データ(ダミー画像データを含む2倍画角データ)が、S12でVRAM154上に展開された仮想オブジェクトデータと合成されて仮想投影画像データ(ダミー画像データを含む2倍画角データ)が生成(算出)される。 Next, the GPU 153 arranges the selected virtual object on the virtual space (VRAM154), and with respect to the projection surface of the virtual object, in the direction from the player side toward the virtual object (the direction of the player's line of sight). The video light of the selected resource image data is virtually projected (irradiated), and the image data (virtual projected image data) of the virtual projected image projected on the projection surface of the virtual object is generated (calculated) (S13). In this process, the resource image data (double angle data including dummy image data) expanded on the VRAM 154 in S11 by the three-dimensional CG process (including three-dimensional coordinate calculation, etc.) of the GPU 153 is on the VRAM 154 in S12. Virtual projection image data (double angle of view data including dummy image data) is generated (calculated) by being combined with the virtual object data expanded in.

次いで、GPU153は、仮想空間上において、プロジェクタ213から反射ミラー237を介して被投影部材の投影面に入射される投影光の入射方向(実際の映像光の入射方向)から、仮想オブジェクトの投影面に映し出されている仮想投影画像を仮想的に撮影したときの仮想撮影画像データ(ダミー画像データを含む2倍画角データ)を生成(算出)する(S14)。この処理では、GPU153の3次元CG処理(座標計算等を含む)により、視点変更処理が行われ、仮想撮影画像データ(ダミー画像データを含む2倍画角データ)が生成(算出)される。 Next, the GPU 153 determines the projection surface of the virtual object from the incident direction of the projected light (the incident direction of the actual image light) incident on the projection surface of the projected member from the projector 213 via the reflection mirror 237 in the virtual space. Generates (calculates) virtual captured image data (double angle of view data including dummy image data) when the virtual projected image projected on the image is virtually captured (S14). In this process, the viewpoint change process is performed by the GPU 153's three-dimensional CG process (including coordinate calculation), and virtual captured image data (double angle of view data including dummy image data) is generated (calculated).

次いで、GPU153は、S14で生成された仮想撮影画像データ(ダミー画像データを含む2倍画角データ)をVRAM154のフレームバッファ(FB)に展開(セット)する(S15)。次いで、GPU153は、フレームバッファ(FB)に展開された2倍画角データのうち、仮想撮影画像データが格納されている領域(図23中では、フレームバッファの下半分の領域)の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)する(S16)。 Next, the GPU 153 expands (sets) the virtual captured image data (double angle of view data including the dummy image data) generated in S14 into the frame buffer (FB) of the VRAM 154 (S15). Next, the GPU 153 uses the image data of the area (in FIG. 23, the lower half area of the frame buffer) in which the virtual captured image data is stored among the double angle data expanded in the frame buffer (FB). As PJ-compatible image data, it is copied (transferred) to the screen buffer (SB) of the VRAM 154 (S16).

そして、GPU153は、S16でスクリーンバッファ(SB)にコピーされたPJ対応画像データを映像信号に変換して、該映像信号をプロジェクタ213に出力する(S17)。本実施形態では、上述のようにして、プロジェクタ213に出力するPJ対応画像データ(映像信号)を生成する。 Then, the GPU 153 converts the PJ-compatible image data copied to the screen buffer (SB) in S16 into a video signal, and outputs the video signal to the projector 213 (S17). In the present embodiment, the PJ-compatible image data (video signal) to be output to the projector 213 is generated as described above.

[各種効果]
上述のように、本実施形態では、仮想空間上に配置された被投影部材の仮想オブジェクトに映像光を仮想的に投影したときに仮想オブジェクトの投影面に映し出される画像の画像データ(仮想投影画像データ及び仮想撮像画像データ)を用いて、実際に、被投影部材に投影する映像光の画像データ(PJ対応画像データ)を生成する。それゆえ、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理を行う必要が無くなる。この結果、本実施形態では、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。
[Various effects]
As described above, in the present embodiment, the image data (virtual projection image) of the image projected on the projection surface of the virtual object when the image light is virtually projected onto the virtual object of the projected member arranged in the virtual space. Using the data and the virtual captured image data), the image data (PJ-compatible image data) of the image light actually projected on the projected member is generated. Therefore, when the projector 213 actually projects the image light onto the projected member, it is not necessary to perform the correction process for associating the projected image data with the shape of the projected surface (screen) of the projected member. As a result, in the present embodiment, it is possible to execute a variety of high-quality video display effects by making full use of the three-dimensional CG technology while suppressing an increase in the cost related to CG creation.

また、上述のように、本実施形態では、リソース画像データから仮想撮影画像データを生成するまでの画像データ変換処理において処理対象とする画像データは、被投影部材の投影面のサイズ(スクリーンサイズ)に対応する画像データではなく、投影対象画像の上部に該画像と同じサイズのダミー画像を付加した画像データ(2倍画角データ)である。この場合、投影対象画像の上端部中心に歪みが発生するが、上述のように、本実施形態ではPJ対応画像データの生成処理の段階において、投影対象画像の上端部中心の歪みが予め抑制(補正)されている。それゆえ、本実施形態では、被投影部材の投影面(スクリーン)に実際に映し出される映像の歪みを抑制することができ、高画質の演出映像を遊技者に提供することができる。 Further, as described above, in the present embodiment, the image data to be processed in the image data conversion process from the resource image data to the generation of the virtual photographed image data is the size (screen size) of the projection surface of the projected member. It is not the image data corresponding to the above, but the image data (double angle of view data) in which a dummy image having the same size as the image is added to the upper part of the image to be projected. In this case, distortion occurs at the center of the upper end of the projection target image, but as described above, in the present embodiment, the distortion at the upper end center of the projection target image is suppressed in advance at the stage of the PJ-compatible image data generation process ( It has been corrected). Therefore, in the present embodiment, it is possible to suppress distortion of the image actually projected on the projection surface (screen) of the projected member, and it is possible to provide the player with a high-quality directed image.

また、本実施形態では、映像光が照射される被投影部材が複数存在しても、複数の被投影部材の合成仮想オブジェクトに対して上述した仮想投影撮影法(映像光の仮想投影処理及び仮想撮影処理)によるPJ対応画像データの生成手法を適用することにより、実際に、被投影部材に投影する映像光の画像データを生成することができる。それゆえ、本実施形態では、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合であっても、オブジェクトに対する投影画像のズレを最小限に抑制することができる。 Further, in the present embodiment, even if there are a plurality of projected members to be irradiated with the image light, the above-mentioned virtual projection imaging method (virtual projection process of the image light and virtual) is performed on the composite virtual object of the plurality of projected members. By applying the PJ-compatible image data generation method (shooting process), it is possible to actually generate image data of the image light projected on the projected member. Therefore, in the present embodiment, even when the image is projected onto an object such as a three-dimensional object (three-dimensional screen) using a projector, the deviation of the projected image with respect to the object can be suppressed to the minimum.

さらに、本実施形態では、複数の被投影部材に可動被投影部材(擬似リール部材303等)が含まれ、且つ、該可動被投影部材が動作中であっても、所定間隔のタイミング毎の合成仮想オブジェクトに対して上述した仮想投影撮影法によるPJ対応画像データの生成手法を適用することにより、実際に、被投影部材に投影する画像データを生成することができる。それゆえ、本実施形態では、例えば、被投影部材の構成(数、形状、配置関係)や連動性などが複雑になっても容易に、高画質で多彩な映像表示演出を実行することができる。 Further, in the present embodiment, even if the plurality of projected members include a movable projected member (pseudo-reel member 303, etc.) and the movable projected member is in operation, synthesis is performed at predetermined intervals. By applying the PJ-compatible image data generation method by the virtual projection imaging method described above to the virtual object, it is possible to actually generate the image data to be projected on the projected member. Therefore, in the present embodiment, for example, even if the configuration (number, shape, arrangement relationship) and interlocking of the projected members become complicated, it is possible to easily execute a variety of high-quality image display effects. ..

<各種変形例>
以上、本発明に係る一実施形態の遊技機の構成及びその動作について、その作用効果も含めて説明した。しかしながら、本発明は、上述した実施形態に限定されるものではなく、特許請求の範囲に記載した本発明の要旨を逸脱しない限り、その他の種々の実施形態及び変形例が含まれる。
<Various deformation examples>
The configuration and operation of the gaming machine according to the embodiment of the present invention have been described above, including their effects. However, the present invention is not limited to the above-described embodiments, and includes various other embodiments and modifications as long as the gist of the present invention described in the claims is not deviated.

[変形例1]
上記実施形態では、投影対象の被投影部材が複数存在する場合(例えば、図24参照)、仮想空間上において、複数の被投影部材の合成仮想オブジェクトに対して、上述した仮想投影撮影法(映像光の仮想投影処理及び仮想撮影処理)によるPJ対応画像データの生成手法を適用する例を説明したが、本発明はこれに限定されない。例えば、次のような手順で、PJ対応画像データを生成してもよい。
[Modification 1]
In the above embodiment, when there are a plurality of projected members to be projected (see, for example, FIG. 24), the virtual projection photographing method (image) described above is applied to a composite virtual object of the plurality of projected members in the virtual space. Although an example of applying a method for generating PJ-compatible image data by virtual projection processing and virtual shooting processing of light) has been described, the present invention is not limited to this. For example, PJ-compatible image data may be generated by the following procedure.

まず、合成仮想オブジェクトを各被投影部材の仮想オブジェクトを分解する。次いで、分解された各仮想オブジェクトに対して、上記実施形態と同様に、リソース画像の映像光の仮想投影処理を実行して仮想投影画像データを作成する。なお、合成仮想オブジェクトは、本発明に係る第1の仮想オブジェクトの一具体例を示すものであり、各被投影部材の仮想オブジェクトは、本発明に係る第2の仮想オブジェクトの一具体例を示すものである。また、各被投影部材の仮想撮影画像データは、本発明に係る第1の視点画像のデータの一具体例を示すものである。 First, the composite virtual object is decomposed into the virtual objects of each projected member. Next, virtual projection processing of the video light of the resource image is executed on each of the decomposed virtual objects in the same manner as in the above embodiment to create virtual projection image data. The synthetic virtual object shows a specific example of the first virtual object according to the present invention, and the virtual object of each projected member shows a specific example of the second virtual object according to the present invention. It is a thing. Further, the virtual photographed image data of each projected member shows a specific example of the data of the first viewpoint image according to the present invention.

次いで、各仮想オブジェクトの仮想投影画像データを合成する。次いで、合成された仮想投影画像データに対して、上記実施形態と同様にして、仮想撮影処理(視点変更処理)を実行して仮想撮影画像データを作成し、該仮想撮影画像データをVRAM154のフレームバッファに記憶する。そして、フレームバッファに格納された仮想撮影画像データに対して、上記実施形態と同様に画像の転送(コピー)処理を実行して、PJ対応画像データを生成する。なお、合成された仮想投影画像データは、本発明に係る合成画像のデータの一具体例を示すものである。 Next, the virtual projection image data of each virtual object is combined. Next, virtual shooting processing (viewpoint change processing) is executed on the synthesized virtual projection image data in the same manner as in the above embodiment to create virtual shooting image data, and the virtual shooting image data is used as a frame of VRAM 154. Store in the buffer. Then, the virtual captured image data stored in the frame buffer is subjected to an image transfer (copy) process in the same manner as in the above embodiment to generate PJ-compatible image data. The synthesized virtual projection image data shows a specific example of the data of the composite image according to the present invention.

ここで、図26を参照して、この例の手法の一例を説明する。なお、図26は、変形例1におけるPJ対応画像データの生成手法の概要を説明するための図である。 Here, an example of the method of this example will be described with reference to FIG. Note that FIG. 26 is a diagram for explaining the outline of the PJ-compatible image data generation method in the first modification.

図26に示す例では、投影対象となる複数の被投影部材として、上記実施形態で説明した台形部材302と、一対の円柱状の被投影部材501,502(以下、「一対の円柱状部材501,502」という)と、楕円球状の被投影部材503(以下、「楕円球部材503」という)とが設けられている例を説明する(図26中の投射オブジェクト参照)。また、この例では、台形部材302の前面(遊技者側)に一対の円柱状部材501,502が配置され、一対の円柱状部材501,502の前面(遊技者側)に楕円球部材503が配置されている例を説明する。さらに、一対の円柱状部材501,502はそれぞれ、各円柱状部材の延在方向の中心軸を回転軸として回転駆動可能な可動被投影部材である。なお、円柱状部材501,502及び楕円球部材503のそれぞれもまた、本発明に係る表示部の一具体例を示すものである。 In the example shown in FIG. 26, as a plurality of projected members to be projected, the trapezoidal member 302 described in the above embodiment and a pair of columnar projected members 501 and 502 (hereinafter, “a pair of columnar members 501”). , 502 ”) and an ellipsoidal spherical projected member 503 (hereinafter referred to as“ ellipsoidal sphere member 503 ”) will be described (see the projection object in FIG. 26). Further, in this example, a pair of columnar members 501 and 502 are arranged on the front surface (player side) of the trapezoidal member 302, and an ellipsoidal ball member 503 is arranged on the front surface (player side) of the pair of columnar members 501 and 502. An example of the arrangement will be described. Further, each of the pair of columnar members 501 and 502 is a movable projected member that can be rotationally driven with the central axis in the extending direction of each columnar member as a rotation axis. Each of the columnar members 501 and 502 and the ellipsoidal spherical member 503 also shows a specific example of the display unit according to the present invention.

この例のPJ対応画像データを生成手法では、まず、仮想空間上において、投射オブジェクトの仮想オブジェクト(合成仮想オブジェクト)を、台形部材302の仮想オブジェクトAと、一対の円柱状の被投影部材501,502の仮想オブジェクトBと、楕円球状の被投影部材503の仮想オブジェクトCとに分解する。次いで、分解された各仮想オブジェクトに対して、遊技者の目線方向から、リソース画像の映像光を仮想投影して、各仮想オブジェクトデータと、リソース画像データとが合成された各仮想オブジェクトの仮想投影画像データを生成する。 In the PJ-compatible image data generation method of this example, first, in the virtual space, the virtual object (synthetic virtual object) of the projection object is the virtual object A of the trapezoidal member 302 and the pair of cylindrical projected members 501. It is decomposed into a virtual object B of 502 and a virtual object C of an elliptical spherical projected member 503. Next, the video light of the resource image is virtually projected onto each of the decomposed virtual objects from the player's line of sight, and the virtual object data and the resource image data are combined to form a virtual projection of each virtual object. Generate image data.

次いで、生成された各仮想オブジェクトの仮想投影画像データを合成する。なお、この際、各仮想オブジェクトの配置関係を考慮して複数の仮想オブジェクトの仮想投影画像データが合成される。具体的には、仮想空間上において、複数の仮想オブジェクトが重なる領域では、最前面(最も遊技者側)に位置する仮想オブジェクトの投影面に映し出された画像が表示されるように複数の仮想投影画像データが合成される。その結果、図26中の最下部に示す合成後の仮想投影画像データ(以下、「合成仮想投影画像データ」という)が生成される。その後、上記実施形態と同様にして、合成仮想投影画像データを仮想撮影画像データに変換し、該仮想撮影画像データに基づいて、PJ対応画像データを生成する。 Next, the virtual projection image data of each generated virtual object is synthesized. At this time, the virtual projection image data of a plurality of virtual objects is combined in consideration of the arrangement relationship of each virtual object. Specifically, in the area where a plurality of virtual objects overlap in the virtual space, a plurality of virtual projections are displayed so that the image projected on the projection surface of the virtual object located in the foreground (most player side) is displayed. Image data is combined. As a result, the combined virtual projection image data (hereinafter referred to as “composite virtual projection image data”) shown at the bottom of FIG. 26 is generated. Then, in the same manner as in the above embodiment, the composite virtual projection image data is converted into virtual captured image data, and PJ-compatible image data is generated based on the virtual captured image data.

上述したこの例のPJ対応画像データの生成手法を用いた場合、投影対象となる被投影部材が複数存在し且つ複数の被投影部材で立体的なスクリーンが構成されていても、被投影部材の仮想オブジェクト毎に仮想撮影画像データを生成し、該生成された複数の仮想投影画像データを合成して、複数の被投影部材からなる立体スクリーンの合成仮想投影画像データを生成することができる。それゆえ、この例の手法でPJ対応画像データを作成した場合には、実際の映像光を複数の被投影部材からなる立体スクリーンに投影した際の映像の投影位置の理想位置からのズレを最小限に抑制することができる。すなわち、この例の手法では、複数の被投影部材からなる立体スクリーン(オブジェクト)に対する投影画像のズレを最小限に抑制することができる。 When the PJ-compatible image data generation method of this example described above is used, even if there are a plurality of projected members to be projected and a three-dimensional screen is composed of the plurality of projected members, the projected member Virtually captured image data can be generated for each virtual object, and the generated virtual projection image data can be combined to generate synthetic virtual projection image data of a stereoscopic screen composed of a plurality of projected members. Therefore, when the PJ-compatible image data is created by the method of this example, the deviation of the projected position of the image from the ideal position when the actual image light is projected on the stereoscopic screen composed of a plurality of projected members is minimized. It can be suppressed to the limit. That is, in the method of this example, it is possible to minimize the deviation of the projected image with respect to the stereoscopic screen (object) composed of a plurality of projected members.

また、この例においても、上記実施形態と同様に、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理が不要となるので、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。 Further, also in this example, as in the above embodiment, when the image light is actually projected on the projected member by the projector 213, the projected image data is associated with the shape of the projected surface (screen) of the projected member. Since the correction process is not required, it is possible to execute a variety of high-quality image display effects by making full use of the three-dimensional CG technology while suppressing an increase in the cost related to CG creation.

[変形例2]
上記実施形態では、仮想空間上における画像の仮想投影処理及び仮想撮影処理において、投影対象画像の上部に該画像と同サイズのダミー画像を付加した2倍画角データを処理(演算)対象の画像データとして用いた。そして、PJ対応画像データを生成するときには、VRAM154のフレームバッファ(FB)に展開された2倍画角データのうち、仮想撮影画像データが格納されている領域の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーする手法を用いた。しかしながら、2倍画角データをPJ対応画像データに変換する手法(2倍画角データからPJ対応画像データを抽出する手法)は、上記実施形態の例に限定されない。
[Modification 2]
In the above embodiment, in the virtual projection processing and virtual shooting processing of an image in the virtual space, the image to be processed (calculated) is double angle of view data in which a dummy image of the same size as the image is added to the upper part of the image to be projected. Used as data. Then, when the PJ-compatible image data is generated, the image data in the area where the virtual captured image data is stored is used as the PJ-compatible image data among the double-angle angle data expanded in the frame buffer (FB) of the VRAM 154. The technique of copying to the screen buffer (SB) of the VRAM 154 was used. However, the method of converting the double angle of view data into the PJ compatible image data (the method of extracting the PJ compatible image data from the double angle of view data) is not limited to the example of the above embodiment.

例えば、仮想空間上における仮想撮影処理により生成された仮想撮影画像データを含む2倍画角データをフレームバッファ(FB)に展開する前に、2倍画角データから仮想撮影画像データを抽出する処理を設けてもよい。変形例2では、その一例として、仮想撮影画像データを含む2倍画角データに対して射影変換処理を施して、2倍画角データから仮想撮影画像データを抽出する例を説明する。 For example, a process of extracting virtual shot image data from the double angle of view data before expanding the double angle of view data including the virtual shot image data generated by the virtual shooting process in the virtual space into the frame buffer (FB). May be provided. In the second modification, as an example, an example in which the 2x angle of view data including the virtual captured image data is subjected to a projective conversion process and the virtual captured image data is extracted from the 2x angle of view data will be described.

3次元CG技術において、射影変換処理は、通常、仮想空間上に配置された仮想立体物をスクリーン上に投影する際に用いられる演算処理である。まず、図27A及び27Bを参照して、一般的な射影変換処理の説明を行う。 In the three-dimensional CG technology, the projective conversion process is usually an arithmetic process used when projecting a virtual three-dimensional object arranged in a virtual space onto a screen. First, a general projective transformation process will be described with reference to FIGS. 27A and 27B.

図27Aは、プロジェクタ側(光源側)の所定位置(図27A中の「near」)に配置された長方形状のオブジェクトを、スクリーンの配置位置(図27A中の「far」)に拡大して投影したときの様子を示す図である。また、図27Bは、図27A中の「near」に配置された長方形状のオブジェクトの座標を、スクリーン上(図27A中の「far」)に投影した際の長方形状のオブジェクトの座標に変換するために用いられるプロジェクション行列P(射影変換行列)を示す図である。 In FIG. 27A, a rectangular object arranged at a predetermined position (“near” in FIG. 27A) on the projector side (light source side) is enlarged and projected on the screen arrangement position (“far” in FIG. 27A). It is a figure which shows the state at the time of this. Further, FIG. 27B converts the coordinates of the rectangular object arranged in “near” in FIG. 27A into the coordinates of the rectangular object when projected on the screen (“far” in FIG. 27A). It is a figure which shows the projection matrix P (projection transformation matrix) used for this.

なお、プロジェクション行列Pは、4行4列の正方行列である。プロジェクション行列Pでは、[1(行),1(列)]成分の値は「x」であり、[2,2]成分の値は「y」であり、[3,1]成分の値は「a」であり、[3,2]成分の値は「b」であり、[3,3]成分の値は「c」であり、[3,4]成分の値は「−1」であり、[4,3]成分の値は「d」である。なお、他の成分の値は「0」である。 The projection matrix P is a square matrix with 4 rows and 4 columns. In the projection matrix P, the value of the [1 (row), 1 (column)] component is "x", the value of the [2,2] component is "y", and the value of the [3,1] component is. The value of the [3,2] component is "b", the value of the [3,3] component is "c", and the value of the [3,4] component is "-1". Yes, the value of the [4,3] component is "d". The value of the other component is "0".

また、プロジェクション行列P内の各成分の値(x,y,a,b,c,d)は、図27A及び27Bに示すように、長方形状のオブジェクトの位置「near」、スクリーンの位置「far」、投影前(射影変換前)の長方形状のオブジェクトの高さ(縦)方向の座標を規定するパラメータ「top」及び「bottom」、投影前の長方形状のオブジェクトの幅(横)方向の座標を規定するパラメータ「left」及び「right」、投影後(射影変換後)の長方形状のオブジェクトの高さ方向の長さ(高さ)「height」及び幅方向の長さ(幅)「width」、プロジェクタ(光源)から出射される光(投影光)の視野角「fovy」(投影画角)、並びに、スクリーンのアスペクト比「aspect」に基づいて算出される。 Further, as shown in FIGS. 27A and 27B, the values (x, y, a, b, c, d) of each component in the projection matrix P are the position “near” of the rectangular object and the position “far” of the screen. , Parameters "top" and "bottom" that define the height (vertical) direction coordinates of the rectangular object before projection (before projection conversion), and the width (horizontal) direction coordinates of the rectangular object before projection. Parameters "left" and "light" that specify, the length (height) "height" in the height direction and the length (width) "wise" in the width direction of the rectangular object after projection (after projective transformation). , It is calculated based on the viewing angle "favy" (projected image angle) of the light (projected light) emitted from the projector (light source) and the aspect ratio "rectangle" of the screen.

そして、図27A中の位置「near」の長方形状のオブジェクトの座標に、図27Bのプロジェクション行列Pを乗算すると(プロジェクション行列Pにより座標変換を行うと)、スクリーン上(図27A中の位置「far」)に投影(拡大して表示)された長方形状のオブジェクトの座標が算出される。 Then, when the coordinates of the rectangular object at the position “near” in FIG. 27A are multiplied by the projection matrix P in FIG. 27B (when the coordinates are converted by the projection matrix P), the position “far” in FIG. 27A is displayed. The coordinates of the rectangular object projected (enlarged and displayed) on) are calculated.

この例では、図27Bのプロジェクション行列Pを変形して用い、仮想撮影画像データを含む2倍画角データから仮想撮影画像データを抽出する。すなわち、この例では、スクリーンサイズの2倍のサイズの画像データ(2倍画角データ)をスクリーンサイズの画像データ(等倍画角データ)に変換する。なお、この例で用いる2倍画角データは、上記実施形態と同様に、被投影部材の投影面に投影される画像(投影対象画像)の上端部に該画像と同じサイズのダミー画像を付加した画像データとする(図23参照)。 In this example, the projection matrix P of FIG. 27B is modified and used, and the virtual captured image data is extracted from the double angle of view data including the virtual captured image data. That is, in this example, image data having a size twice the screen size (double angle of view data) is converted into screen size image data (equal size angle of view data). As for the double angle of view data used in this example, a dummy image having the same size as the image is added to the upper end of the image (projection target image) projected on the projection surface of the projected member, as in the above embodiment. Image data is used (see FIG. 23).

図28に、この例において、仮想撮影画像データを含む2倍画角データから仮想撮影画像データ(PJ対応画像データ)を抽出する際に用いるプロジェクション行列Peを示す。この例では、プロジェクション行列Peとして、図28に示すように、プロジェクション行列P′とオフセット行列Oとを乗算した行列を用いる。なお、プロジェクション行列Peは、本発明に係る特定の変換パラメータの一具体例を示すものである。 FIG. 28 shows the projection matrix Pe used when extracting the virtual captured image data (PJ-compatible image data) from the double angle of view data including the virtual captured image data in this example. In this example, as the projection matrix Pe, as shown in FIG. 28, a matrix obtained by multiplying the projection matrix P'and the offset matrix O is used. The projection matrix Pe shows a specific example of a specific conversion parameter according to the present invention.

プロジェクション行列P′は、4行4列の正方行列であり、図27Bで示す一般的なプロジェクション行列Pにおいて、視野角(fovy)を1/2(所定の角度)に設定した射影変換行列である。この例では、上述のように、2倍画角データが等倍画角データに変換されるので、視野角(投影画角)は、一般的なプロジェクション行列Pのそれの半分の値に設定される。また、オフセット行列Oは、[1(行),1(列)]成分、[2,2]成分、[3,3]成分、[4,4]成分及び[4,2]成分の値が「1」であり、他の成分の値が「0」である4行4列の正方行列で構成される。なお、プロジェクション行列P′は、本発明に係る所定の射影変換パラメータの一具体例を示すものであり、オフセット行列Oは、本発明に係る所定のオフセットパラメータの一具体例を示すものである。 The projection matrix P'is a square matrix of 4 rows and 4 columns, and is a projective transformation matrix in which the viewing angle (favy) is set to 1/2 (predetermined angle) in the general projection matrix P shown in FIG. 27B. .. In this example, as described above, the 2x angle of view data is converted into the 1x angle of view data, so the viewing angle (projection angle of view) is set to half the value of the general projection matrix P. To. Further, in the offset matrix O, the values of the [1 (row), 1 (column)] component, the [2,2] component, the [3,3] component, the [4,4] component, and the [4,2] component are It is composed of a 4-by-4 square matrix having "1" and the values of other components being "0". The projection matrix P'shows a specific example of the predetermined projective transformation parameter according to the present invention, and the offset matrix O shows a specific example of the predetermined offset parameter according to the present invention.

そして、この例では、仮想撮影画像データを含む2倍画角データをフレームバッファ(FB)に展開する前に、2倍角データの座標に対してプロジェクション行列Peを乗算する。これにより、仮想撮影画像データを含む2倍画角データから仮想撮影画像データのみが抽出される。なお、本明細書では、この抽出結果の具体例を示さないが、発明者の検証実験では、この例で処理対象とする構成の2倍角データに図28に示すプロジェクション行列Peを乗算(射影変換)することにより、仮想撮影画像データを含む2倍画角データから仮想撮影画像データが抽出されることを確認している。 Then, in this example, the projection matrix Pe is multiplied by the coordinates of the double-angle data before expanding the double-angle data including the virtual captured image data into the frame buffer (FB). As a result, only the virtual captured image data is extracted from the double angle of view data including the virtual captured image data. Although a specific example of this extraction result is not shown in the present specification, in the verification experiment of the inventor, the double angle data of the configuration to be processed in this example is multiplied by the projection matrix Pe shown in FIG. 28 (projection conversion). ), It is confirmed that the virtual captured image data is extracted from the double angle of view data including the virtual captured image data.

この例の手法により、抽出された仮想撮影画像データは、上記実施形態と同様に、VRAM154のフレームバッファ(FB)に展開される。そして、VRAM154のフレームバッファ(FB)に展開された仮想撮影画像データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーされる。 By the method of this example, the extracted virtual captured image data is expanded in the frame buffer (FB) of the VRAM 154 in the same manner as in the above embodiment. Then, the virtual captured image data expanded in the frame buffer (FB) of the VRAM 154 is copied to the screen buffer (SB) of the VRAM 154 as PJ-compatible image data.

上述のように、この例では、フレームバッファ(FB)に展開される画像データのサイズは、上記実施形態のそれの半分となるので、フレームバッファ(FB)のサイズも上記実施形態のそれの半分にすることができる。それゆえ、この例では、スクリーンサイズと同サイズのフレームバッファ(FB)を使用して、上記実施形態と同様の3次元CG処理を行うことができるので、VRAM154の使用状況に無駄が発生せず、GPU153の処理効率を向上させることができる。 As described above, in this example, the size of the image data expanded in the frame buffer (FB) is half that of the above embodiment, so that the size of the frame buffer (FB) is also half that of the above embodiment. Can be. Therefore, in this example, the frame buffer (FB) having the same size as the screen size can be used to perform the same three-dimensional CG processing as in the above embodiment, so that the usage status of the VRAM 154 is not wasted. , The processing efficiency of GPU 153 can be improved.

また、この例においても、上記実施形態と同様に、プロジェクタ213により実際に映像光を被投影部材に投影する際に、投影画像データを被投影部材の投影面(スクリーン)の形状に対応付けるための補正処理が不要となるので、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な映像表示演出を実行することができる。 Further, also in this example, as in the above embodiment, when the image light is actually projected on the projected member by the projector 213, the projected image data is associated with the shape of the projected surface (screen) of the projected member. Since the correction process is not required, it is possible to execute a variety of high-quality image display effects by making full use of the three-dimensional CG technology while suppressing an increase in the cost related to CG creation.

なお、この例の画像データの変換処理では、本発明に係る特定の変換パラメータ、所定の射影変換パラメータ及び所定のオフセットパラメータの一具体例として行列式(行列演算子)を用い、行列式による演算により、画像データを変換する例を説明したが、本発明はこれに限定されない。例えば、変換処理前後の画像データ(変換前データ及び変換後データ)を予め用意しておき、所定の変換指令等により直接、変換前データを変換後データに置き換えるような処理を行ってもよい。この場合には、所定の変換指令等が特定の変換パラメータ、所定の射影変換パラメータ及び所定のオフセットパラメータの一具体例となる。 In the image data conversion process of this example, a determinant (matrix operator) is used as a specific example of the specific conversion parameter, the predetermined projection conversion parameter, and the predetermined offset parameter according to the present invention, and the calculation is performed by the determinant. Although an example of converting image data has been described above, the present invention is not limited to this. For example, image data (pre-conversion data and post-conversion data) before and after the conversion process may be prepared in advance, and the pre-conversion data may be directly replaced with the post-conversion data by a predetermined conversion command or the like. In this case, a predetermined conversion command or the like is a specific example of a specific conversion parameter, a predetermined projective conversion parameter, and a predetermined offset parameter.

[変形例3]
上記実施形態では、実際に、プロジェクタ213から被投影部材に投影する映像光のPJ対応画像データの作成手法として、仮想投影撮影法を用いた例を説明したが、本発明はこれに限定されない。例えば、PJ対応画像データの作成手法として、テクスチャマッピング(プロジェクションマッピング)法と称される手法を採用してもよい。
[Modification 3]
In the above embodiment, an example in which the virtual projection imaging method is actually used as a method for creating PJ-compatible image data of the image light projected from the projector 213 onto the projected member has been described, but the present invention is not limited thereto. For example, as a method for creating PJ-compatible image data, a method called a texture mapping (projection mapping) method may be adopted.

変形例3では、テクスチャマッピング法によりPJ対応画像データを作成する手法について説明する。なお、テクスチャマッピング法は、2次元の画像を3次元状の物体(モデル)に仮想的に貼り付けることにより3次元的な画像を生成する手法である。 In the third modification, a method of creating PJ-compatible image data by the texture mapping method will be described. The texture mapping method is a method of generating a three-dimensional image by virtually pasting a two-dimensional image on a three-dimensional object (model).

(1)テクスチャマッピング法の概要
図29は、テクスチャマッピング法によるPJ対応画像データの作成手法の概要を示す図である。なお、図29に示す例では、投影対象の被投影部材が台形部材302(図8参照)である場合の例を示すが、以下に説明する技術は、投影対象の被投影部材が擬似リール部材303又は平面スクリーン部材304である場合にも同様に適用可能である。
(1) Outline of Texture Mapping Method FIG. 29 is a diagram showing an outline of a method for creating PJ-compatible image data by the texture mapping method. In the example shown in FIG. 29, an example is shown in which the projected member to be projected is a trapezoidal member 302 (see FIG. 8), but in the technique described below, the projected member to be projected is a pseudo reel member. The same applies to the case of 303 or the flat screen member 304.

図29には、リソース画像データ内の領域Aの画像データが台形部材302の投影面322a(図8参照)にマッピングされ、領域Bの画像データが台形部材302の投影面321aにマッピングされ、領域Cの画像データが台形部材302の投影面323aにマッピングされ、領域Dの画像データが台形部材302の投影面324aにマッピングされた例を示す。 In FIG. 29, the image data of the area A in the resource image data is mapped to the projection surface 322a (see FIG. 8) of the trapezoidal member 302, and the image data of the area B is mapped to the projection surface 321a of the trapezoidal member 302. An example is shown in which the image data of C is mapped to the projection surface 323a of the trapezoidal member 302, and the image data of the area D is mapped to the projection surface 324a of the trapezoidal member 302.

この例で用いられるリソース画像データは、上記実施形態のそれと同様に構成することができる。また、この例において、テクスチャマッピング法によるPJ対応画像データの作成処理の過程で処理対象となる画像データは、上記実施形態と同様に、投影対象の画像の上端部に該画像と同じサイズのダミー画像が付加された2倍画角データである。 The resource image data used in this example can be configured in the same manner as that of the above embodiment. Further, in this example, the image data to be processed in the process of creating the PJ-compatible image data by the texture mapping method is a dummy having the same size as the image at the upper end of the image to be projected, as in the above embodiment. It is double angle of view data to which an image is added.

そして、テクスチャマッピング法では、2倍画角データ内のリソース画像データの各画素データを、各画素の座標に対応する台形部材302のテクスチャデータ(リソース画像の座標データ及び台形部材302の構造に関する座標データ)を使用してテクスチャ座標(UV座標)に貼り付ける演算を行うことにより、テクスチャマッピング後の画像データ(2次元の画像データ)が作成される。図29では、説明を簡略化するため、リソース画像データ内の領域A〜領域Dの各頂点の座標の画素データのみが台形部材302の対応する投影面の各頂点の座標(テクスチャ座標)に貼り付けられている様子を示す。なお、テクスチャデータは、本発明に係るテクスチャ情報又は表示部に画像を表示するための情報の一具体例を示すものであり、テクスチャマッピング後の画像データは、本発明に係る擬似3次元画像データの一具体例を示すものである。 Then, in the texture mapping method, each pixel data of the resource image data in the double angle data is converted into texture data of the trapezoidal member 302 corresponding to the coordinates of each pixel (coordinate data of the resource image and coordinates related to the structure of the trapezoidal member 302). Image data (two-dimensional image data) after texture mapping is created by performing an operation of pasting to texture coordinates (UV coordinates) using data). In FIG. 29, for simplification of the description, only the pixel data of the coordinates of the vertices of the regions A to D in the resource image data is pasted on the coordinates (texture coordinates) of the vertices of the corresponding projection plane of the trapezoidal member 302. Shows how it is attached. The texture data shows a specific example of the texture information according to the present invention or the information for displaying an image on the display unit, and the image data after the texture mapping is the pseudo three-dimensional image data according to the present invention. A specific example of the above is shown.

なお、テクスチャデータのテクスチャ座標は、台形部材302の3次元CADデータから生成(変換)されたデータである。具体的には、テクスチャデータでは、リソース画像の領域A〜領域Dの各頂点座標のデータ(x1,y1)〜(x8,y8)、及び、該領域A〜領域Dの各頂点座標に対応する台形部材302の仮想オブジェクトデータ内の頂点座標(x1′,y1′)〜(x8′,y8′)が設定されている。そして、マッピング処理では、GPU153は、リソース画像の領域A〜領域Dの各頂点座標((x1,y1)〜(x8,y8))の各画素データを、台形部材302の仮想オブジェクトデータ内の対応する頂点座標((x1′,y1′)〜(x8′,y8′))にそれぞれマッピングする。また、このマッピング処理では、GPU153は、仮想オブジェクトデータ内の頂点座標間の座標をテクスチャデータの座標データ(頂点座標)に基づいて線形補間により算出し、リソース画像データの頂点座標以外の座標の各画素データを仮想オブジェクトデータ内の対応する座標にそれぞれマッピングする。 The texture coordinates of the texture data are data generated (converted) from the three-dimensional CAD data of the trapezoidal member 302. Specifically, the texture data corresponds to the data (x1, y1) to (x8, y8) of each vertex coordinate of the area A to the area D of the resource image, and each vertex coordinate of the area A to the area D. The vertex coordinates (x1', y1') to (x8', y8') in the virtual object data of the trapezoidal member 302 are set. Then, in the mapping process, the GPU 153 corresponds each pixel data of each vertex coordinate ((x1, y1) to (x8, y8)) of the area A to the area D of the resource image in the virtual object data of the trapezoidal member 302. Map to the coordinates of the vertices ((x1', y1') to (x8', y8')). Further, in this mapping process, the GPU 153 calculates the coordinates between the vertex coordinates in the virtual object data by linear interpolation based on the coordinate data (vertical coordinates) of the texture data, and each of the coordinates other than the vertex coordinates of the resource image data. Each pixel data is mapped to the corresponding coordinates in the virtual object data.

次いで、テクスチャマッピング後の画像データが生成されると、該画像データを含む2倍画角データは、VRAM154のフレームバッファ(FB)に展開される。その後、フレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるテクスチャマッピング後の画像データが格納されている領域の画像データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)される。 Next, when the image data after texture mapping is generated, the double angle of view data including the image data is expanded in the frame buffer (FB) of the VRAM 154. After that, of the double angle of view data expanded in the frame buffer (FB), the image data in the area where the image data after texture mapping to be projected is stored is used as the PJ-compatible image data in the screen buffer of the VRAM 154 ( It is copied (transferred) to SB).

なお、テクスチャマッピング法によりPJ対応画像データを作成する手法は、例えば、図24で説明した、投影対象の被投影部材が台形部材302から擬似リール部材303に切り替わる場合にも適用可能である。この場合、所定間隔のタイミング毎に生成された、動作中の擬似リール部材303(可動被投影部材)のテクスチャデータと台形部材302のテクスチャデータとの合成テクスチャデータにリソース画像データをマッピングする(貼り付ける)ことにより、PJ対応画像データを生成することができる。 The method of creating PJ-compatible image data by the texture mapping method can also be applied to, for example, the case where the projected member to be projected is switched from the trapezoidal member 302 to the pseudo reel member 303 described in FIG. 24. In this case, the resource image data is mapped (pasted) to the composite texture data of the texture data of the operating pseudo-reel member 303 (movable projected member) and the texture data of the trapezoidal member 302 generated at each predetermined timing. By attaching), PJ-compatible image data can be generated.

また、この例のPJ対応画像データの作成手法は、例えば、図26に示すような、投影対象の被投影部材が複数の被投影部材からなる立体スクリーンである場合にも適用可能である。この場合には、複数の被投影部材の合成テクスチャデータ(立体スクリーンのテクスチャデータ)を取得し、該合成テクスチャデータにリソース画像データをマッピングする(貼り付ける)ことにより、PJ対応画像データを生成することができる。また、この場合、変形例1と同様に、複数の被投影部材の合成テクスチャデータを各被投影部材のテクスチャデータに分解し、該分解された各被投影部材のテクスチャデータに対応するリソース画像をマッピングし、各被投影部材のマッピング後の画像データを合成してPJ対応画像データを生成してもよい。 Further, the method for creating PJ-compatible image data in this example can also be applied to a case where the projected member to be projected is a three-dimensional screen composed of a plurality of projected members, as shown in FIG. 26, for example. In this case, PJ-compatible image data is generated by acquiring composite texture data (texture data of a three-dimensional screen) of a plurality of projected members and mapping (pasting) resource image data to the composite texture data. be able to. Further, in this case, as in the first modification, the composite texture data of the plurality of projected members is decomposed into the texture data of each projected member, and the resource image corresponding to the texture data of each of the decomposed projected members is generated. The PJ-compatible image data may be generated by mapping and synthesizing the mapped image data of each projected member.

(2)テクスチャマッピング法によるPJ対応画像データの作成手順
次に、図30を参照して、副制御回路150において行われる、テクスチャマッピング法によるPJ対応画像データの生成処理の具体的な処理手順を説明する。なお、図30は、テクスチャマッピング法による、PJ対応画像データ及びそれに対応する映像信号の生成処理の手順を示すフローチャートである。
(2) Procedure for creating PJ-compatible image data by the texture mapping method Next, with reference to FIG. 30, a specific processing procedure for generating PJ-compatible image data by the texture mapping method, which is performed in the sub-control circuit 150, is described. explain. Note that FIG. 30 is a flowchart showing a procedure for generating PJ-compatible image data and the corresponding video signal by the texture mapping method.

まず、サブCPU151は、ロムカートリッジ基板86に格納された各種リソース画像データの中から、今回、映像表示するリソース画像データを選択する(S21)。なお、S21の処理で選択する画像データは、リソース画像の上端部に、リソース画像と同サイズのダミー画像が付加された2倍画角データである。また、この処理では、GPU153(レンダリングプロセッサ153)は、サブCPU151の指令に基づいて、選択されたリソース画像データをVRAM154(描画用RAM)に展開する。 First, the sub CPU 151 selects the resource image data to be displayed as an image this time from the various resource image data stored in the ROM cartridge board 86 (S21). The image data selected in the process of S21 is double angle of view data in which a dummy image having the same size as the resource image is added to the upper end of the resource image. Further, in this process, the GPU 153 (rendering processor 153) expands the selected resource image data into the VRAM 154 (drawing RAM) based on the command of the sub CPU 151.

次いで、サブCPU151は、ロムカートリッジ基板86に格納された各種被投影部材のテクスチャデータ(被投影部材の構造に関する3次元データ)の中から、今回、投影対象となる被投影部材のテクスチャデータを選択する(S22)。この処理において、投影対象となる被投影部材が、一つの被投影部材である場合には、当該被投影部材のテクスチャデータのみが選択される。また、この処理において、投影対象となる被投影部材が複数である場合には、現タイミングに対応する合成テクスチャデータが選択される。そして、この処理では、GPU153は、サブCPU151の指令に基づいて、選択されたテクスチャデータをVRAM154に展開する。 Next, the sub CPU 151 selects the texture data of the projected member to be projected this time from the texture data of various projected members (three-dimensional data regarding the structure of the projected member) stored in the ROM cartridge substrate 86. (S22). In this process, when the projected member to be projected is one projected member, only the texture data of the projected member is selected. Further, in this process, when there are a plurality of projected members to be projected, the composite texture data corresponding to the current timing is selected. Then, in this process, the GPU 153 expands the selected texture data into the VRAM 154 based on the command of the sub CPU 151.

なお、S21及びS22の処理において、選択されたリソース画像データ及びテクスチャデータは、VRAM154内において、フレームバッファ及びスクリーンバッファ以外のバッファ領域(仮想バッファ)に展開される。また、S21及びS22の処理順序は、任意であり、S22の処理の後にS21の処理を行ってもよい。 The resource image data and texture data selected in the processes of S21 and S22 are expanded in the buffer area (virtual buffer) other than the frame buffer and the screen buffer in the VRAM 154. Further, the processing order of S21 and S22 is arbitrary, and the processing of S21 may be performed after the processing of S22.

次いで、GPU153は、テクスチャマッピング処理を行う(S23)。この処理では、S21の処理で選択されたリソース画像データとS22の処理で選択された被投影部材のテクスチャデータとを用いて、リソース画像の各画素データを、対応する被投影部材の投影面の位置に貼り付ける処理(マッピング)を行う。 Next, GPU 153 performs texture mapping processing (S23). In this process, the resource image data selected in the process of S21 and the texture data of the projected member selected in the process of S22 are used to convert each pixel data of the resource image to the projected surface of the corresponding projected member. Performs the process (mapping) of pasting to the position.

次いで、GPU153は、S23で生成されたマッピング処理後の画像データを含む2倍画角データをVRAM154のフレームバッファ(FB)に展開(セット)する(S24)。次いで、GPU153は、フレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるマッピング処理後の画像データが格納されている領域(図23中では、フレームバッファの下半分の領域)の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)する(S25)。 Next, the GPU 153 expands (sets) the double angle of view data including the image data after the mapping process generated in S23 into the frame buffer (FB) of the VRAM 154 (S24). Next, the GPU 153 is an area (in FIG. 23, the lower half of the frame buffer) in which the image data after the mapping process to be projected is stored in the double angle data expanded in the frame buffer (FB). The image data of the area) is copied (transferred) to the screen buffer (SB) of the VRAM 154 as PJ-compatible image data (S25).

そして、GPU153は、S25でスクリーンバッファ(SB)にコピーされたPJ対応画像データを映像信号に変換して、該映像信号をプロジェクタ213に出力する(S26)。この例では、上述のようにして、プロジェクタ213に出力するPJ対応画像データ(映像信号)を生成する。 Then, the GPU 153 converts the PJ-compatible image data copied to the screen buffer (SB) in S25 into a video signal, and outputs the video signal to the projector 213 (S26). In this example, the PJ-compatible image data (video signal) to be output to the projector 213 is generated as described above.

(3)各種効果
この例のように、PJ対応画像データの作成手法としてテクスチャマッピング法を採用した場合、より簡易な処理でPJ対応画像データを作成することができるので、CG作成に係るコストの増大を抑制しつつ、3次元CGを駆使した高画質で多彩な演出を実行することができる。また、この例では、被投影部材に映像光を投影した後のムービーを用意することができるので、GPU(VDP(Video Display Processor))の処理性能が低くても、問題なくムービーを再生することができ、テクスチャマッピング(プロジェクションマッピング)を汎用的に使用することができる。
(3) Various effects When the texture mapping method is adopted as the method for creating PJ-compatible image data as in this example, PJ-compatible image data can be created with simpler processing, so the cost of creating CG is reduced. It is possible to perform various effects with high image quality by making full use of 3D CG while suppressing the increase. Further, in this example, since the movie after projecting the video light on the projected member can be prepared, the movie can be played back without any problem even if the processing performance of the GPU (VDP (Video Display Processor)) is low. And texture mapping (projection mapping) can be used for general purposes.

さらに、この例においてもPJ対応画像データの作成過程で処理対象となる画像データは、投影対象画像の上部に該画像と同じサイズのダミー画像を付加した画像データ(2倍画角データ)である。それゆえ、この例においても、上記実施形態と同様に、画像データの作成段階で、被投影部材の投影面(スクリーン)に実際に映し出される映像の歪みを抑制することができ、高画質の演出映像を遊技者に提供することができる。 Further, also in this example, the image data to be processed in the process of creating the PJ-compatible image data is image data (double angle of view data) in which a dummy image of the same size as the image is added to the upper part of the projection target image. .. Therefore, in this example as well, as in the above embodiment, distortion of the image actually projected on the projection surface (screen) of the projected member can be suppressed at the stage of creating the image data, and a high-quality effect can be produced. The image can be provided to the player.

なお、テクスチャマッピング法によるPJ対応画像データの作成手法では、リソース画像データの各画素データを、各画素の座標に対応する被投影部材のテクスチャデータの座標に貼り付けるだけの処理であるので、上記実施形態で説明した仮想投影撮影法を用いた手法に比べて簡易な手法である。しかしながら、テクスチャマッピングを用いた手法では、仮想投影撮影法を用いた手法に比べて、例えば、図29に示す台形部材302の投影面間の境界付近で画像の歪みが発生し易くなるので、高画質という観点では、上記実施形態で説明した仮想投影撮影法を用いた手法の方が優位となる。 In the method of creating PJ-compatible image data by the texture mapping method, each pixel data of the resource image data is simply pasted to the texture data coordinates of the projected member corresponding to the coordinates of each pixel. This is a simpler method than the method using the virtual projection imaging method described in the embodiment. However, the method using texture mapping is more likely to cause image distortion near the boundary between the projection planes of the trapezoidal member 302 shown in FIG. 29, as compared with the method using the virtual projection imaging method. From the viewpoint of image quality, the method using the virtual projection imaging method described in the above embodiment is superior.

また、図29及び図30で説明した例では、GPU153を使用してリアルタイムでテクスチャマッピング処理を行う例を説明したが、本発明はこれに限定されず、例えば、次のような手法を用いてもよい。まず、3次元CGツール等で予めリソース画像を被投影部材にマッピングした画像データを作成し、該マッピング後の画像データをロムカートリッジ基板86に格納する。次いで、画像表示時には、サブCPU151が、ロムカートリッジ基板86に格納された各種マッピング後の画像データの中から所定の画像データを選択し、該画像データをPJ対応画像データとしてプロジェクタ213に出力する。 Further, in the examples described with reference to FIGS. 29 and 30, an example in which the texture mapping process is performed in real time using the GPU 153 has been described, but the present invention is not limited to this, and for example, the following method is used. May be good. First, image data in which a resource image is mapped to a projected member in advance is created by a three-dimensional CG tool or the like, and the image data after the mapping is stored in the ROM cartridge substrate 86. Next, at the time of image display, the sub CPU 151 selects predetermined image data from various mapped image data stored in the ROM cartridge substrate 86, and outputs the image data to the projector 213 as PJ-compatible image data.

また、図29及び図30で説明した例では、PJ対応画像データを生成する際には、VRAM154のフレームバッファ(FB)に展開された2倍画角データのうち、投影対象となるマッピング処理後の画像データが格納されている領域の画像データをPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピーする例を説明したが、本発明はこれに限定されない。例えば、上記変形例2で説明した手法と同様に、投影対象のマッピング処理後の画像データを含む2倍画角データに対して、図28に示したプロジェクション行列Peを乗算(射影変換)して、2倍画角データから投影対象となるマッピング処理後の画像データ(等倍画角データ)を抽出してもよい。この場合、抽出された投影対象のマッピング処理後の画像データ(等倍画角データ)は、VRAM154のフレームバッファ(FB)に展開され、該展開された等倍画角データがPJ対応画像データとして、VRAM154のスクリーンバッファ(SB)にコピー(転送)される。 Further, in the examples described with reference to FIGS. 29 and 30, when the PJ-compatible image data is generated, the double angle of view data expanded in the frame buffer (FB) of the VRAM 154 is processed after mapping to be a projection target. Although the example of copying the image data of the area in which the image data of the above is stored as the PJ-compatible image data to the screen buffer (SB) of the VRAM 154 has been described, the present invention is not limited to this. For example, similarly to the method described in the above modification 2, the projection matrix Pe shown in FIG. 28 is multiplied (projection conversion) by the double angle of view data including the image data after the mapping process of the projection target. The image data (1x angle of view data) after the mapping process to be projected may be extracted from the 2x angle of view data. In this case, the extracted image data (equal magnification angle of view data) after the mapping process of the projection target is expanded in the frame buffer (FB) of the VRAM 154, and the expanded equal magnification angle of view data is used as PJ-compatible image data. , Is copied (transferred) to the screen buffer (SB) of the VRAM 154.

[その他の各種変形例]
上記実施形態では、平面スクリーン部材304の投影面304bを平面で構成し、その投影面に白色の塗料を塗布した例を説明したが、本発明はこれに限定されない。例えば、平面スクリーン部材304の投影面304b(第2平面)に印刷シートを貼り付けてもよい。また、この場合、例えば、印刷シートを複数の領域に分けて、それぞれの領域に異なる絵画や記号を形成してもよい。そして、プロジェクタ213から出射される映像光により、異なる絵画や記号に所定の順番で照明を当てるような映像(画像)を表示してもよい。この場合、いずれかの絵画(記号)が選択される、所謂、ルーレット演出を行うことができる。
[Other various modifications]
In the above embodiment, an example in which the projection surface 304b of the flat screen member 304 is formed of a flat surface and a white paint is applied to the projection surface has been described, but the present invention is not limited thereto. For example, the print sheet may be attached to the projection surface 304b (second plane) of the flat screen member 304. Further, in this case, for example, the print sheet may be divided into a plurality of areas, and different paintings or symbols may be formed in each area. Then, the image light emitted from the projector 213 may display an image (image) that illuminates different paintings or symbols in a predetermined order. In this case, a so-called roulette effect can be performed in which any painting (symbol) is selected.

また、上記実施形態では、擬似リール部材303及び平面スクリーン部材304を移動させる構成例を説明したが、本発明はこれに限定されない。本発明に係る被投影部材としては、被投影部材全体が移動するものに限定されず、例えば、被投影部材に可動部を設け、被投影部材の一部(可動部)が移動する構成にしてもよい。この場合、可動部の動作に合わせた映像光を投影することにより、躍動感のある映像を表示することができ、映像を用いた演出の興趣を高めることができる。 Further, in the above embodiment, a configuration example for moving the pseudo reel member 303 and the flat screen member 304 has been described, but the present invention is not limited to this. The projected member according to the present invention is not limited to the one in which the entire projected member moves. For example, the projected member is provided with a movable portion so that a part (movable portion) of the projected member moves. May be good. In this case, by projecting the image light according to the movement of the movable portion, it is possible to display a dynamic image, and it is possible to enhance the interest of the production using the image.

また、上記実施形態では、キャビネット2aの内部におけるフロントパネル10の開口10aに対向する位置に、プロジェクタ213を有する表示装置11を配置する例を説明したが、本発明はこれに限定されない。本発明に係る遊技機では、例えば、腰部パネル12に開口を設け、キャビネット2aの内部における腰部パネル12の開口に対向する位置に、プロジェクタを有する表示装置を配置してもよい。また、上記実施形態では、キャビネット2aの内部に表示装置11を配置する例を説明したが、本発明はこれに限定されない。本発明に係る遊技機では、例えば、フロントドア2bにプロジェクタを有する表示装置を配置してもよい。 Further, in the above embodiment, an example in which the display device 11 having the projector 213 is arranged at a position facing the opening 10a of the front panel 10 inside the cabinet 2a has been described, but the present invention is not limited thereto. In the gaming machine according to the present invention, for example, an opening may be provided in the lumbar panel 12, and a display device having a projector may be arranged at a position facing the opening of the lumbar panel 12 inside the cabinet 2a. Further, in the above embodiment, an example in which the display device 11 is arranged inside the cabinet 2a has been described, but the present invention is not limited to this. In the gaming machine according to the present invention, for example, a display device having a projector may be arranged on the front door 2b.

また、本発明に係る遊技機では、擬似リール部材303の投影面331bに投影する映像として、スタートレバー16の操作(開始操作)に応じて、図柄が変動する映像を採用してもよい。そして、この場合には、擬似リール部材303の投影面331bにおいて、ストップボタン17L,17C,17Rの押圧操作(停止操作)に合わせて、変動する図柄を停止する映像を表示してもよい。 Further, in the gaming machine according to the present invention, as an image projected on the projection surface 331b of the pseudo reel member 303, an image in which the symbol changes according to the operation (start operation) of the start lever 16 may be adopted. Then, in this case, on the projection surface 331b of the pseudo reel member 303, an image of stopping the fluctuating symbol may be displayed in accordance with the pressing operation (stop operation) of the stop buttons 17L, 17C, 17R.

また、上記実施形態では、被投影部材の投影面(スクリーン)に対して、その表面側からプロジェクタの光を投射して映像を表示する方式(フロントプロジェクション)を採用した例を説明したが、本発明はこれに限定されない。例えば、スクリーンに対して、その裏面(背面)側からプロジェクタの光を投射して映像を表示する方式(リアプロジェクション)を採用してもよく、この場合においても最適な効果を得ることができる。また、本発明に係る遊技機では、表示装置として、プロジェクタの代わりに、例えば、液晶表示装置や、有機・無機EL等の表示装置を用いることができる。 Further, in the above embodiment, an example of adopting a method (front projection) of projecting the light of the projector from the surface side of the projection surface (screen) of the projected member to display an image has been described. The invention is not limited to this. For example, a method (rear projection) in which the light of the projector is projected onto the screen from the back surface (rear surface) side to display an image may be adopted, and even in this case, the optimum effect can be obtained. Further, in the game machine according to the present invention, as the display device, for example, a liquid crystal display device or a display device such as an organic / inorganic EL can be used instead of the projector.

また、上記実施形態では、本発明に係る遊技機として、パチスロ遊技機を例に挙げて説明したが、本発明はこれに限定されず、本発明に係る遊技機が、例えば、パチンコ遊技機であってもよい。 Further, in the above-described embodiment, the pachislot gaming machine has been described as an example of the gaming machine according to the present invention, but the present invention is not limited to this, and the gaming machine according to the present invention is, for example, a pachinko gaming machine. There may be.

<付記(本発明のまとめ)>
[第1〜第4の遊技機]
従来、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特開平7―155438号公報参照)。
<Supplementary note (summary of the present invention)>
[1st to 4th game machines]
Conventionally, a game machine having a function of reading moving image data into a CG ROM (Character Generator ROM), expanding the moving image data, and displaying a three-dimensional moving image on a display device such as a liquid crystal display has been proposed (for example, JP-A-7-). See 155438 (see).

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。 By the way, in recent years, in a game machine equipped with a display device such as a liquid crystal display, high-quality and various productions that make full use of three-dimensional CG (Computer Graphics) technology have become mainstream. Then, since CG data for performing the various effects is created in advance and the created CG data is stored in the CG ROM, the cost related to the CG creation is increasing year by year.

本発明は、上記第1の課題を解決するためになされたものであり、本発明の第1の目的は、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行可能にする遊技機を提供することである。 The present invention has been made to solve the above-mentioned first problem, and the first object of the present invention is to suppress an increase in cost related to CG creation and to obtain high image quality by making full use of three-dimensional CG technology. It is to provide a game machine that enables various productions.

上記第1の課題を解決するために、本発明では、以下のような構成の第1−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 1-1 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部に記憶し、
前記揮発性記憶部に記憶された前記第2の視点画像のデータを映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A control unit (for example, a sub-control board 72) that controls the display operation of the image using the display unit, and
Non-volatile in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and virtual object data (for example, virtual object data) corresponding to the display unit are stored. A sexual memory unit (for example, a ROM cartridge substrate 86) is provided.
The control unit
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of the player's line of sight) on the virtual object arranged in the virtual space. The data of the first viewpoint image (for example, the virtual projection image data) projected on the virtual object is generated based on the predetermined original image data and the data of the virtual object.
A second image acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. The viewpoint image data (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the volatile storage unit.
A gaming machine characterized in that the data of the second viewpoint image stored in the volatile storage unit is converted into a video signal and the video signal is output.

上記第1の課題を解決するために、本発明では、以下のような構成の第1−2の遊技機を提供する。 In order to solve the first problem, the present invention provides the first and second gaming machines having the following configurations.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
Storage in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and virtual object data (for example, virtual object data) corresponding to the display unit are stored. (For example, ROM cartridge substrate 86) and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects data of the virtual object.
The image processing unit
When a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of the player's line of sight) onto the virtual object arranged in the virtual space, the image is projected onto the virtual object. The data of the first viewpoint image (for example, virtual projection image data) is generated based on the predetermined original image data and the data of the virtual object.
A second image acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. A gaming machine characterized in that it generates viewpoint image data (for example, virtual captured image data).

上記第1の課題を解決するために、本発明では、以下のような構成の第1−3の遊技機を提供する。 In order to solve the first problem, the present invention provides the first to third game machines having the following configurations.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image onto the display unit,
Storage in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and virtual object data (for example, virtual object data) corresponding to the display unit are stored. (For example, ROM cartridge substrate 86) and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects data of the virtual object.
The image processing unit
When a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of the player's line of sight) onto the virtual object arranged in the virtual space, the image is projected onto the virtual object. The data of the first viewpoint image (for example, virtual projection image data) is generated based on the predetermined original image data and the data of the virtual object.
A second image acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. Generate viewpoint image data (for example, virtual shooting image data),
The first direction is the direction of the player's line of sight with respect to the display surface of the image of the display unit, and the second direction is the incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by that.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 2-1 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A control unit (for example, a sub-control board 72) that controls the display operation of the image using the display unit, and
Non-volatile in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and virtual object data (for example, virtual object data) corresponding to the display unit are stored. A sexual memory unit (for example, a ROM cartridge substrate 86) is provided.
The control unit
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of the player's line of sight) on the virtual object arranged in the virtual space. When this is done, the data of the first viewpoint image (for example, the virtual projection image data) projected on the virtual object is generated based on the predetermined original image data and the data of the virtual object, and the first The data of the viewpoint image of the above is stored in the first buffer (for example, a virtual buffer) of the volatile storage unit.
A second image acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. The viewpoint image data (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the second buffer (for example, frame buffer) of the volatile storage unit.
The image data displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit. A gaming machine characterized in that data stored in the third buffer (for example, PJ-compatible image data) is converted into a video signal and the video signal is output.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−2の遊技機を提供する。 In order to solve the first problem, the present invention provides a second game machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第3のバッファのサイズが前記画像のサイズと同じであり、前記第2のバッファのサイズが前記第3のバッファのサイズより大きい
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
Non-volatile in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and virtual object data (for example, virtual object data) corresponding to the display unit are stored. With a sexual memory unit (for example, ROM cartridge substrate 86),
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
A volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit is provided.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of the player's line of sight) on the virtual object arranged in the virtual space. When this is done, the data of the first viewpoint image (for example, the virtual projection image data) projected on the virtual object is generated based on the predetermined original image data and the data of the virtual object, and the first The data of the viewpoint image of the above is stored in the first buffer (for example, a virtual buffer) of the volatile storage unit.
A second image acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. The viewpoint image data (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the second buffer (for example, frame buffer) of the volatile storage unit.
The image data displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit. The data stored in the third buffer (for example, PJ-compatible image data) is converted into a video signal, and the video signal is output.
A gaming machine characterized in that the size of the third buffer is the same as the size of the image, and the size of the second buffer is larger than the size of the third buffer.

上記第1の課題を解決するために、本発明では、以下のような構成の第2−3の遊技機を提供する。 In order to solve the first problem, the present invention provides a second-third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image onto the display unit,
Non-volatile in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and virtual object data (for example, virtual object data) corresponding to the display unit are stored. With a sexual memory unit (for example, ROM cartridge substrate 86),
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
A volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit is provided.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects data of the virtual object.
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually projected from a first direction (for example, the direction of the player's line of sight) on the virtual object arranged in the virtual space. When this is done, the data of the first viewpoint image (for example, the virtual projection image data) projected on the virtual object is generated based on the predetermined original image data and the data of the virtual object, and the first The data of the viewpoint image of the above is stored in the first buffer (for example, a virtual buffer) of the volatile storage unit.
A second image acquired when the first viewpoint image projected on the virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. The viewpoint image data (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the second buffer (for example, frame buffer) of the volatile storage unit.
The image data displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit. The data stored in the third buffer (for example, PJ-compatible image data) is converted into a video signal, and the video signal is output.
The first direction is the direction of the player's line of sight with respect to the display surface of the image of the display unit, and the second direction is the incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by that.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−1の遊技機を提供する。 In order to solve the first problem, the present invention provides a 3-1 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成し、
前記揮発性記憶部で生成された前記擬似3次元画像データを映像信号に変換して、該変換された映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A control unit (for example, a sub-control board 72) that controls the display operation of the image using the display unit, and
A non-volatile storage unit in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and texture information (for example, texture data) related to the structure of the display unit are stored. (For example, a ROM cartridge substrate 86)
The control unit
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects the texture information.
The image processing unit
Using the volatile storage unit, pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected in the predetermined original image data is obtained from the predetermined original image data and the texture information. Generated based on
A gaming machine characterized in that the pseudo three-dimensional image data generated by the volatile storage unit is converted into a video signal and the converted video signal is output.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−2の遊技機を提供する。 In order to solve the first problem, the present invention provides a third-two gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A storage unit (for example,) in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and texture information (for example, texture data) related to the structure of the display unit are stored. , ROM cartridge board 86),
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the storage unit, and selects the texture information.
The image processing unit
It is characterized in that pseudo three-dimensional image data (for example, image data after mapping) in which the texture information is reflected in the predetermined original image data is generated based on the predetermined original image data and the texture information. Game machine.

上記第1の課題を解決するために、本発明では、以下のような構成の第3−3の遊技機を提供する。 In order to solve the first problem, the present invention provides a third-third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部の構造に関するテクスチャ情報(例えば、テクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記テクスチャ情報を選択し、
前記画像処理部は、
前記所定の原画像データに前記テクスチャ情報を反映させた擬似3次元画像データ(例えば、マッピング後の画像データ)を、前記所定の原画像データ及び前記テクスチャ情報に基づいて生成して、前記揮発性記憶部の所定のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記擬似3次元画像データが記憶された前記所定のバッファから前記揮発性記憶部の特定のバッファ(例えば、スクリーンバッファ)に転送し、該特定のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記特定のバッファのサイズが前記画像のサイズと同じであり、前記所定のバッファのサイズが前記特定のバッファのサイズより大きい
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image onto the display unit,
A non-volatile storage unit in which a plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit and texture information (for example, texture data) related to the structure of the display unit are stored. (For example, ROM cartridge substrate 86) and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
A volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit is provided.
The control processing unit selects predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and selects the texture information.
The image processing unit
Pseudo-three-dimensional image data (for example, image data after mapping) in which the texture information is reflected in the predetermined original image data is generated based on the predetermined original image data and the texture information to generate the volatile property. Stored in a predetermined buffer (for example, frame buffer) of the storage unit,
The image data displayed on the display unit is transferred from the predetermined buffer in which the pseudo three-dimensional image data is stored to a specific buffer (for example, a screen buffer) of the volatile storage unit, and the specific buffer is transferred. Data stored in the buffer (for example, PJ-compatible image data) is converted into a video signal, and the video signal is output.
A gaming machine characterized in that the size of the specific buffer is the same as the size of the image, and the size of the predetermined buffer is larger than the size of the specific buffer.

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−1の遊技機を提供する。 Further, in order to solve the first problem, the present invention provides a 4-1 game machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、該抽出された前記画像のデータを映像信号に変換して、該映像信号を出力し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータである
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A control unit (for example, a sub-control board 72) that controls the display operation of the image using the display unit, and
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle data including resource image data) and information for displaying the image on the display unit (for example, virtual). A non-volatile storage unit (for example, a rom cartridge substrate 86) in which object data or texture data is stored is provided.
The control unit
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit.
The control processing unit selects predetermined image data from the plurality of image data stored in the non-volatile storage unit, and selects information for displaying the image on the display unit.
The image processing unit
From the image data obtained by performing a predetermined process on the predetermined image data based on the information for displaying the image on the display unit, using a specific conversion parameter (for example, projection matrix Pe), the said The data of the image displayed by the display unit is extracted, the data of the extracted image is converted into a video signal, and the video signal is output.
The specific conversion parameter is a predetermined projection conversion parameter (for example, projection matrix P') for performing a projection conversion process on the image data to which the predetermined processing has been performed and the viewing angle is set to a predetermined angle. ) And a predetermined offset parameter (for example, the offset matrix O), which is a parameter generated based on the game machine.

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−2の遊技機を提供する。 Further, in order to solve the first problem, the present invention provides a 4-2 game machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータに変換し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータである
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle of view data including resource image data) and information for displaying the image on the display unit (for example, virtual). A storage unit (for example, a rom cartridge board 86) in which object data or texture data is stored, and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects predetermined image data from the plurality of image data stored in the storage unit, and selects information for displaying the image on the display unit.
The image processing unit
From the image data obtained by performing a predetermined process on the predetermined image data based on the information for displaying the image on the display unit, using a specific conversion parameter (for example, projection matrix Pe), the said Converted to the data of the image displayed by the display unit,
The specific conversion parameter is a predetermined projection conversion parameter (for example, projection matrix P') for performing a projection conversion process on the image data to which the predetermined processing has been performed and the viewing angle is set to a predetermined angle. ) And a predetermined offset parameter (for example, the offset matrix O), which is a parameter generated based on the game machine.

また、上記第1の課題を解決するために、本発明では、以下のような構成の第4−3の遊技機を提供する。 Further, in order to solve the first problem, the present invention provides a fourth-third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の画像データ(例えば、リソース画像データを含む2倍画角データ)、及び、前記表示部に前記画像を表示するための情報(例えば、仮想オブジェクトデータ又はテクスチャデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータ(例えば、プロジェクション行列Pe)を用いて、前記表示部により表示される前記画像のデータを抽出し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータ(例えば、プロジェクション行列P′)と、所定のオフセットパラメータ(例えば、オフセット行列O)とに基づいて生成されたパラメータであり、
前記所定の処理が施された画像データのサイズが、前記特定の変換パラメータを用いて抽出された画像データのサイズより大きい
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A plurality of image data for generating the image to be displayed on the display unit (for example, double angle of view data including resource image data) and information for displaying the image on the display unit (for example, virtual). A storage unit (for example, a rom cartridge board 86) in which object data or texture data is stored, and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects predetermined image data from the plurality of image data stored in the storage unit, and selects information for displaying the image on the display unit.
The image processing unit
From the image data obtained by performing a predetermined process on the predetermined image data based on the information for displaying the image on the display unit, using a specific conversion parameter (for example, projection matrix Pe), the said The data of the image displayed by the display unit is extracted and
The specific conversion parameter is a predetermined projection conversion parameter (for example, projection matrix P') for performing a projection conversion process on the image data to which the predetermined processing has been performed and the viewing angle is set to a predetermined angle. ) And a predetermined offset parameter (for example, the offset matrix O).
A gaming machine characterized in that the size of the image data subjected to the predetermined processing is larger than the size of the image data extracted by using the specific conversion parameter.

上記構成の本発明の第1〜第4の遊技機によれば、CG作成に係るコストの増大を抑制しつつ、3次元CG技術を駆使した高画質で多彩な演出を実行することができる。 According to the first to fourth game machines of the present invention having the above configuration, it is possible to perform various effects with high image quality by making full use of the three-dimensional CG technology while suppressing an increase in the cost related to CG production.

[第5及び第6の遊技機]
従来、CGROM(Character Generator ROM)に動画像データを読み込んで展開し、3次元動画像を液晶ディスプレイ等の表示装置に表示する機能を備えた遊技機が提案されている(例えば、特開平7―155438号公報参照)。
[Fifth and sixth game machines]
Conventionally, a game machine having a function of reading moving image data into a CG ROM (Character Generator ROM), expanding the moving image data, and displaying a three-dimensional moving image on a display device such as a liquid crystal display has been proposed (for example, JP-A-7-). See 155438 (see).

ところで、近年、液晶ディスプレイ等の表示装置が搭載された遊技機では、3次元CG(Computer Graphics)技術を駆使した高画質で多彩な演出が主流となっている。そして、その多彩な演出を行うためのCGデータを予め作成し、該作成したCGデータをCGROMに記憶しているため、CG作成に係るコストが、年々、増大している。また、従来、この技術分野では、プロジェクトマッピング(テクスチャマッピング)法と呼ばれる手法により、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する技術が提案されているが、この場合、オブジェクトに対する投影画像のズレを無くすための調整が最大の懸念材料となっている。 By the way, in recent years, in a game machine equipped with a display device such as a liquid crystal display, high-quality and various productions that make full use of three-dimensional CG (Computer Graphics) technology have become mainstream. Then, since CG data for performing the various effects is created in advance and the created CG data is stored in the CG ROM, the cost related to the CG creation is increasing year by year. Further, conventionally, in this technical field, a technique of projecting an image onto an object such as a three-dimensional object (three-dimensional screen) using a projector by a method called a project mapping (texture mapping) method has been proposed. Adjustments to eliminate misalignment of the projected image with respect to the object are of utmost concern.

本発明は、上記第2の課題を解決するためになされたものであり、本発明の第2の目的は、CG作成に係るコストの増大を抑制するとともに、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合に、オブジェクトに対する投影画像のズレを最小限に抑制することが可能な遊技機を提供することである。 The present invention has been made to solve the above-mentioned second problem, and a second object of the present invention is to suppress an increase in cost related to CG creation and to use a projector to create a three-dimensional image (a three-dimensional object (). It is an object of the present invention to provide a gaming machine capable of minimizing the deviation of a projected image with respect to an object when projecting onto an object such as a stereoscopic screen).

上記第2の課題を解決するために、本発明では、以下のような構成の第5−1の遊技機を提供する。 In order to solve the second problem, the present invention provides a 5-1 game machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用いる
ことを特徴とする遊技機。
A fixed first display unit (for example, a trapezoidal member 302) and a movable second display unit (for example, a pseudo reel member 303) are included, and at least one of the first display unit and the second display unit. One is a display unit (for example, various projected members) that can display an image, and
A control unit (for example, a sub-control board 72) that controls the display operation of the image using the display unit, and
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the form of the display unit to be displayed on the image (for example,). A non-volatile storage unit (for example, a ROM cartridge board 86) in which virtual object data) is stored,
A movable control means (for example, a projected member moving mechanism 305) for movably controlling the second display unit is provided.
The control unit
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit.
The control processing unit selects a predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and the display unit that is a display target of the predetermined original image data. Select the data of the predetermined virtual object corresponding to the form,
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually generated from a first direction (for example, the direction of the player's line of sight) on the predetermined virtual object arranged in the virtual space. The data of the first viewpoint image (for example, virtual projection image data) projected on the predetermined virtual object when projected onto the predetermined original image data is generated based on the predetermined original image data and the data of the predetermined virtual object. Then, the data of the first viewpoint image is stored in the first buffer (for example, a virtual buffer) of the volatile storage unit.
A second image acquired when the first viewpoint image projected on the predetermined virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. Data of the second viewpoint image (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the second buffer (for example, frame buffer) of the volatile storage unit.
The image data displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit. , The data stored in the third buffer (for example, PJ-compatible image data) is converted into a video signal, and the video signal is output.
When the second display unit is movably controlled by the movable control means, the data of the predetermined virtual object corresponds to the form of the display unit according to the operation status of the second display unit. A game machine characterized by using virtual object data.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−2の遊技機を提供する。 In order to solve the second problem, the present invention provides a 5-2 game machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用い、
前記第3のバッファのサイズが前記画像のサイズと同じであり、前記第2のバッファのサイズが前記第3のバッファのサイズより大きい
ことを特徴とする遊技機。
A fixed first display unit (for example, a trapezoidal member 302) and a movable second display unit (for example, a pseudo reel member 303) are included, and at least one of the first display unit and the second display unit. One is a display unit (for example, various projected members) that can display an image, and
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the form of the display unit to be displayed on the image (for example,). A non-volatile storage unit (for example, a ROM cartridge board 86) in which virtual object data) is stored,
A movable control means (for example, a projected member moving mechanism 305) that movably controls the second display unit, and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
A volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit is provided.
The control processing unit selects a predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and the display unit that is a display target of the predetermined original image data. Select the data of the predetermined virtual object corresponding to the form,
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually generated from a first direction (for example, the direction of the player's line of sight) on the predetermined virtual object arranged in the virtual space. The data of the first viewpoint image (for example, virtual projection image data) projected on the predetermined virtual object when projected onto the predetermined original image data is generated based on the predetermined original image data and the data of the predetermined virtual object. Then, the data of the first viewpoint image is stored in the first buffer (for example, a virtual buffer) of the volatile storage unit.
A second image acquired when the first viewpoint image projected on the predetermined virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. Data of the second viewpoint image (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the second buffer (for example, frame buffer) of the volatile storage unit.
The image data displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit. The data stored in the third buffer (for example, PJ-compatible image data) is converted into a video signal, and the video signal is output.
When the second display unit is movably controlled by the movable control means, the data of the predetermined virtual object corresponds to the form of the display unit according to the operation status of the second display unit. Using virtual object data
A gaming machine characterized in that the size of the third buffer is the same as the size of the image, and the size of the second buffer is larger than the size of the third buffer.

上記第2の課題を解決するために、本発明では、以下のような構成の第5−3の遊技機を提供する。 In order to solve the second problem, the present invention provides a fifth-third gaming machine having the following configuration.

固定された第1の表示部(例えば、台形部材302)及び可動可能な第2の表示部(例えば、擬似リール部材303)を含み、前記第1の表示部及び前記第2の表示部の少なくとも一方が画像の表示対象となり得る表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記画像の表示対象となる前記表示部の形態に対応した仮想オブジェクトのデータ(例えば、仮想オブジェクトデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、
前記第2の表示部を可動制御する可動制御手段(例えば、被投影部材移動機構305)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を備え、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の形態に対応する所定の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、仮想空間上に配置された前記所定の仮想オブジェクトに第1の方向(例えば、遊技者の目線方向)から前記所定の原画像データに対応する映像を仮想的に投射した場合に前記所定の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、仮想投影画像データ)を、前記所定の原画像データ及び前記所定の仮想オブジェクトのデータに基づいて生成して、当該第1の視点画像のデータを前記揮発性記憶部の第1のバッファ(例えば、仮想バッファ)に記憶し、
前記仮想空間上において、前記所定の仮想オブジェクト上に投影された前記第1の視点画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部の第2のバッファ(例えば、フレームバッファ)に記憶し、
前記表示部に表示される前記画像のデータを、前記第2の視点画像のデータが記憶された前記第2のバッファから前記揮発性記憶部の第3のバッファ(例えば、スクリーンバッファ)に転送し、該第3のバッファに記憶されているデータ(例えば、PJ対応画像データ)を映像信号に変換して、該映像信号を出力し、
前記可動制御手段により前記第2の表示部が可動制御される場合には、前記所定の仮想オブジェクトのデータとして、前記第2の表示部の動作状況に応じた前記表示部の形態に対応する前記仮想オブジェクトのデータを用い、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A fixed first display unit (for example, a trapezoidal member 302) and a movable second display unit (for example, a pseudo reel member 303) are included, and at least one of the first display unit and the second display unit. One is a display unit (for example, various projected members) that can display an image, and
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image onto the display unit,
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a virtual object corresponding to the form of the display unit to be displayed on the image (for example,). A non-volatile storage unit (for example, a ROM cartridge board 86) in which virtual object data) is stored,
A movable control means (for example, a projected member moving mechanism 305) that movably controls the second display unit, and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
A volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit is provided.
The control processing unit selects a predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and the display unit that is a display target of the predetermined original image data. Select the data of the predetermined virtual object corresponding to the form,
The image processing unit
Using the volatile storage unit, a video corresponding to the predetermined original image data is virtually generated from a first direction (for example, the direction of the player's line of sight) on the predetermined virtual object arranged in the virtual space. The data of the first viewpoint image (for example, virtual projection image data) projected on the predetermined virtual object when projected onto the predetermined original image data is generated based on the predetermined original image data and the data of the predetermined virtual object. Then, the data of the first viewpoint image is stored in the first buffer (for example, a virtual buffer) of the volatile storage unit.
A second image acquired when the first viewpoint image projected on the predetermined virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. Data of the second viewpoint image (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the second buffer (for example, frame buffer) of the volatile storage unit.
The image data displayed on the display unit is transferred from the second buffer in which the data of the second viewpoint image is stored to a third buffer (for example, a screen buffer) of the volatile storage unit. The data stored in the third buffer (for example, PJ-compatible image data) is converted into a video signal, and the video signal is output.
When the second display unit is movably controlled by the movable control means, the data of the predetermined virtual object corresponds to the form of the display unit according to the operation status of the second display unit. Using virtual object data
The first direction is the direction of the player's line of sight with respect to the display surface of the image of the display unit, and the second direction is the incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by that.

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−1の遊技機を提供する。 Further, in order to solve the second problem, the present invention provides the 6-1 game machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部を用いた前記画像の表示動作を制御する制御部(例えば、副制御基板72)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された不揮発性記憶部(例えば、ロムカートリッジ基板86)と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部(例えば、VRAM154)と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記揮発性記憶部を使用して、前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
前記揮発性記憶部を使用して、仮想空間上に配置された各第2の仮想オブジェクトに対して、第1の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記第1の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成し、
前記仮想空間上において、前記第1の仮想オブジェクト上に投影された前記合成画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成して、当該第2の視点画像のデータを前記揮発性記憶部に記憶し、
前記揮発性記憶部に記憶された前記第2の視点画像のデータを映像信号に変換して、該映像信号を出力する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A control unit (for example, a sub-control board 72) that controls the display operation of the image using the display unit, and
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display form composed of the display unit (for example, for example). A non-volatile storage unit (for example, a ROM cartridge board 86) in which data of a synthetic virtual object is stored is provided.
The control unit
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image in response to control by the control processing unit, and
It has a volatile storage unit (for example, VRAM 154) used when the processing is executed by the image processing unit.
The control processing unit selects a predetermined original image data from the plurality of original image data stored in the non-volatile storage unit, and the display unit that is a display target of the predetermined original image data. Select the data of the first virtual object corresponding to the display form, and select
The image processing unit
Using the volatile storage unit, the first virtual object is decomposed into a plurality of second virtual objects (for example, virtual objects of each projected member) corresponding to the display form.
The volatile storage unit is used to correspond to the predetermined original image data from the first direction (for example, the direction of the player's line of sight) with respect to each second virtual object arranged in the virtual space. The data of the first viewpoint image (for example, the virtual projection image data of each projected member) projected on each of the second virtual objects when the moving image is virtually projected is the predetermined original image data and the data. Generated based on the data of each second virtual object,
The data of the composite image virtually projected onto the first virtual object by synthesizing the first viewpoint image generated for each second virtual object (for example, the composited virtual projection image). Data) is generated and
A second image acquired when the composite image projected on the first virtual object is virtually captured from a second direction (for example, the incident direction of actual video light) in the virtual space. The viewpoint image data (for example, virtual captured image data) is generated, and the data of the second viewpoint image is stored in the volatile storage unit.
A gaming machine characterized in that the data of the second viewpoint image stored in the volatile storage unit is converted into a video signal and the video signal is output.

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−2の遊技機を提供する。 Further, in order to solve the second problem, the present invention provides the sixth-2 gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
仮想空間上に配置された各第2の仮想オブジェクトに対して、所定の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される所定の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記所定の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成する
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display form composed of the display unit (for example, for example). A storage unit (for example, a ROM cartridge board 86) in which data of a synthetic virtual object is stored, and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects a predetermined original image data from the plurality of original image data stored in the storage unit, and displays a display form of the display unit to be displayed with the predetermined original image data. Select the data of the first virtual object corresponding to
The image processing unit
The first virtual object is decomposed into a plurality of second virtual objects (for example, virtual objects of each projected member) corresponding to the display form.
When a video corresponding to the predetermined original image data is virtually projected from a predetermined direction (for example, the direction of the player's line of sight) to each of the second virtual objects arranged in the virtual space. Data of a predetermined viewpoint image projected on the second virtual object (for example, virtual projected image data of each projected member) is generated based on the predetermined original image data and data of each second virtual object. And
The data of the composite image virtually projected onto the first virtual object by synthesizing the predetermined viewpoint image generated for each second virtual object (for example, the composited virtual projection image data). ) Is generated by a gaming machine.

また、上記第2の課題を解決するために、本発明では、以下のような構成の第6−3の遊技機を提供する。 Further, in order to solve the second problem, the present invention provides the sixth-third gaming machine having the following configuration.

画像が表示される表示部(例えば、各種被投影部材)と、
前記表示部に前記画像に対応する映像光を投影する投影部(例えば、プロジェクタ213を含む投影ブロック201)と、
前記表示部に表示する前記画像を生成するための複数の原画像データ(例えば、リソース画像データ)、及び、前記表示部により構成される表示形態に対応した第1の仮想オブジェクトのデータ(例えば、合成仮想オブジェクトのデータ)が記憶された記憶部(例えば、ロムカートリッジ基板86)と、
前記表示部に表示する前記画像の生成処理を制御する制御処理部(例えば、サブCPU151)と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部(例えば、GPU153)と、を備え、
前記制御処理部は、前記記憶部に記憶された前記複数の原画像データの中から所定の原画像データを選択し、且つ、前記所定の原画像データの表示対象となる前記表示部の表示形態に対応する前記第1の仮想オブジェクトのデータを選択し、
前記画像処理部は、
前記第1の仮想オブジェクトを、前記表示形態に対応する複数の第2の仮想オブジェクト(例えば、各被投影部材の仮想オブジェクト)に分解し、
仮想空間上に配置された各第2の仮想オブジェクトに対して、第1の方向(例えば、遊技者の目線方向)から、前記所定の原画像データに対応する映像を仮想的に投射した場合に各第2の仮想オブジェクト上に投影される第1の視点画像のデータ(例えば、各被投影部材の仮想投影画像データ)を、前記所定の原画像データ及び各第2の仮想オブジェクトのデータに基づいて生成し、
各第2の仮想オブジェクトに対して生成された前記第1の視点画像を合成して、前記第1の仮想オブジェクト上に仮想的に投影された合成画像のデータ(例えば、合成された仮想投影画像データ)を生成し、
前記仮想空間上において、前記第1の仮想オブジェクト上に投影された前記合成画像を第2の方向(例えば、実際の映像光の入射方向)から仮想的に撮影した場合に取得される第2の視点画像のデータ(例えば、仮想撮影画像データ)を生成し、
前記第1の方向が、前記表示部の前記画像の表示面に対する遊技者の目線方向であり、前記第2の方向が、前記表示部の前記画像の表示面に対する前記映像光の入射方向である
ことを特徴とする遊技機。
A display unit on which an image is displayed (for example, various projected members) and
A projection unit (for example, a projection block 201 including a projector 213) that projects video light corresponding to the image onto the display unit,
A plurality of original image data (for example, resource image data) for generating the image to be displayed on the display unit, and data of a first virtual object corresponding to a display form composed of the display unit (for example, for example). A storage unit (for example, a ROM cartridge board 86) in which data of a synthetic virtual object is stored, and
A control processing unit (for example, sub CPU 151) that controls the generation processing of the image to be displayed on the display unit, and
An image processing unit (for example, GPU 153) that performs processing related to the output of the image according to the control by the control processing unit is provided.
The control processing unit selects a predetermined original image data from the plurality of original image data stored in the storage unit, and displays a display form of the display unit to be displayed with the predetermined original image data. Select the data of the first virtual object corresponding to
The image processing unit
The first virtual object is decomposed into a plurality of second virtual objects (for example, virtual objects of each projected member) corresponding to the display form.
When a video corresponding to the predetermined original image data is virtually projected from the first direction (for example, the direction of the player's line of sight) on each of the second virtual objects arranged in the virtual space. The data of the first viewpoint image projected on each second virtual object (for example, the virtual projection image data of each projected member) is based on the predetermined original image data and the data of each second virtual object. Generate and generate
The data of the composite image virtually projected onto the first virtual object by synthesizing the first viewpoint image generated for each second virtual object (for example, the composited virtual projection image). Data) is generated and
A second image acquired when the composite image projected on the first virtual object is virtually photographed from a second direction (for example, the incident direction of actual video light) in the virtual space. Generate viewpoint image data (for example, virtual shooting image data)
The first direction is the direction of the player's line of sight with respect to the display surface of the image of the display unit, and the second direction is the incident direction of the image light with respect to the display surface of the image of the display unit. A game machine characterized by that.

上記構成の本発明の第5及び第6の遊技機によれば、CG作成に係るコストの増大を抑制するとともに、プロジェクタを用いて画像を立体物(立体スクリーン)等のオブジェクトに投射する場合に、オブジェクトに対する投影画像のズレを最小限に抑制することができる。 According to the fifth and sixth gaming machines of the present invention having the above configuration, when the increase in the cost related to CG creation is suppressed and the image is projected on an object such as a three-dimensional object (three-dimensional screen) using a projector. , It is possible to minimize the deviation of the projected image with respect to the object.

1…パチスロ、3L,3C,3R…リール、4…リール表示窓、6…情報表示器、11…表示装置、17L,17C,17R…ストップボタン、71…主制御基板、72…副制御基板、86…ロムカートリッジ基板、90…主制御回路、91…マイクロプロセッサ、101…メインCPU、102…メインROM、103…メインRAM、150…副制御回路、151…サブCPU、152…サブRAM152、153…GPU、154…VRAM、201…投影ブロック、202…被投影ブロック、213…プロジェクタ、237…反射ミラー、302…台形部材、303…擬似リール部材、304…平面スクリーン部材、305…被投影部材移動機構 1 ... Pachislot, 3L, 3C, 3R ... Reel, 4 ... Reel display window, 6 ... Information display, 11 ... Display device, 17L, 17C, 17R ... Stop button, 71 ... Main control board, 72 ... Sub control board, 86 ... Rom cartridge board, 90 ... Main control circuit, 91 ... Microprocessor, 101 ... Main CPU, 102 ... Main ROM, 103 ... Main RAM, 150 ... Sub control circuit, 151 ... Sub CPU, 152 ... Sub RAM 152, 153 ... GPU, 154 ... VRAM, 201 ... Projection block, 202 ... Projected block, 213 ... Projector, 237 ... Reflective mirror, 302 ... Trapezoidal member, 303 ... Pseudo reel member, 304 ... Flat screen member, 305 ... Projected member moving mechanism

Claims (1)

画像が表示される表示部と、
前記表示部を用いた前記画像の表示動作を制御する制御部と、
前記表示部に表示する前記画像を生成するための複数の画像データ、及び、前記表示部に前記画像を表示するための情報が記憶された不揮発性記憶部と、を備え、
前記制御部は、
前記表示部に表示する前記画像の生成処理を制御する制御処理部と、
前記制御処理部による制御に応じて前記画像の出力に関する処理を行う画像処理部と、
前記画像処理部による前記処理の実行時に使用される揮発性記憶部と、を有し、
前記制御処理部は、前記不揮発性記憶部に記憶された前記複数の画像データの中から所定の画像データを選択し、且つ、前記表示部に前記画像を表示するための情報を選択し、
前記画像処理部は、
前記表示部に前記画像を表示するための情報に基づいて前記所定の画像データに対して所定の処理が施された画像データから、特定の変換パラメータを用いて、前記表示部により表示される前記画像のデータを抽出し、該抽出された前記画像のデータを映像信号に変換して、該映像信号を出力し、
前記特定の変換パラメータは、視野角が所定の角度に設定された、前記所定の処理が施された画像データに対して射影変換処理を行うための所定の射影変換パラメータと、所定のオフセットパラメータとに基づいて生成されたパラメータであり、
前記所定の処理が施された画像データは、前記表示部により表示される前記画像と当該画像の上端部又は下端部にダミー画像が付加された画像のデータである
ことを特徴とする遊技機。
The display part where the image is displayed and
A control unit that controls the display operation of the image using the display unit,
A plurality of image data for generating the image to be displayed on the display unit, and a non-volatile storage unit in which information for displaying the image is stored in the display unit are provided.
The control unit
A control processing unit that controls the generation processing of the image to be displayed on the display unit,
An image processing unit that performs processing related to the output of the image in response to control by the control processing unit, and an image processing unit.
It has a volatile storage unit that is used when the processing is executed by the image processing unit.
The control processing unit selects predetermined image data from the plurality of image data stored in the non-volatile storage unit, and selects information for displaying the image on the display unit.
The image processing unit
The display is displayed by the display unit using specific conversion parameters from the image data obtained by performing a predetermined process on the predetermined image data based on the information for displaying the image on the display unit. Image data is extracted, the extracted image data is converted into a video signal, and the video signal is output.
The specific conversion parameters include a predetermined projection conversion parameter for performing a projection conversion process on the image data to which the predetermined processing has been performed and a viewing angle set to a predetermined angle, and a predetermined offset parameter. Ri Oh parameter that has been generated on the basis of the,
The gaming machine characterized in that the image data subjected to the predetermined processing is data of the image displayed by the display unit and an image in which a dummy image is added to an upper end portion or a lower end portion of the image .
JP2017075372A 2017-04-05 2017-04-05 Game machine Expired - Fee Related JP6797484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017075372A JP6797484B2 (en) 2017-04-05 2017-04-05 Game machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017075372A JP6797484B2 (en) 2017-04-05 2017-04-05 Game machine

Publications (2)

Publication Number Publication Date
JP2018175063A JP2018175063A (en) 2018-11-15
JP6797484B2 true JP6797484B2 (en) 2020-12-09

Family

ID=64279860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017075372A Expired - Fee Related JP6797484B2 (en) 2017-04-05 2017-04-05 Game machine

Country Status (1)

Country Link
JP (1) JP6797484B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6797485B2 (en) * 2017-04-05 2020-12-09 株式会社ユニバーサルエンターテインメント Game machine

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6513344B2 (en) * 2014-06-30 2019-05-15 株式会社ジーグ Production unit and gaming machine provided with the same
JP6797485B2 (en) * 2017-04-05 2020-12-09 株式会社ユニバーサルエンターテインメント Game machine

Also Published As

Publication number Publication date
JP2018175063A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP6797484B2 (en) Game machine
JP6797485B2 (en) Game machine
JP2018191853A (en) Game machine
JP6774366B2 (en) Game machine
JP6804159B2 (en) Game machine
JP6869611B2 (en) Game machine
JP6869612B2 (en) Game machine
JP2018191858A (en) Game machine
JP6797489B2 (en) Game machine
JP6791592B2 (en) Game machine
JP2018175067A (en) Game machine
JP2018175076A (en) Game machine
JP2018175069A (en) Game machine
JP2018175064A (en) Game machine
JP2018175068A (en) Game machine
JP2018175075A (en) Game machine
JP2018175065A (en) Game machine
JP2018175066A (en) Game machine
JP2018175077A (en) Game machine
JP2018175071A (en) Game machine
JP2018175074A (en) Game machine
JP2018175070A (en) Game machine
JP2018191879A (en) Game machine
JP2018191878A (en) Game machine
JP2018191865A (en) Game machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A132

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201117

R150 Certificate of patent or registration of utility model

Ref document number: 6797484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees