[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP7335695B2 - Image generation system and program - Google Patents

Image generation system and program Download PDF

Info

Publication number
JP7335695B2
JP7335695B2 JP2018248127A JP2018248127A JP7335695B2 JP 7335695 B2 JP7335695 B2 JP 7335695B2 JP 2018248127 A JP2018248127 A JP 2018248127A JP 2018248127 A JP2018248127 A JP 2018248127A JP 7335695 B2 JP7335695 B2 JP 7335695B2
Authority
JP
Japan
Prior art keywords
image
primitive
group
texture
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018248127A
Other languages
Japanese (ja)
Other versions
JP2020107252A (en
Inventor
佳之 高子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Original Assignee
Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.), Namco Ltd filed Critical Kabushiki Kaisha Bandai Namco Entertainment (also trading as Bandai Namco Entertainment Inc.)
Priority to JP2018248127A priority Critical patent/JP7335695B2/en
Publication of JP2020107252A publication Critical patent/JP2020107252A/en
Application granted granted Critical
Publication of JP7335695B2 publication Critical patent/JP7335695B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、画像生成システム及びプログラム等に関する。 The present invention relates to an image generation system, a program, and the like.

近年、撮影画像から3次元モデルを生成するフォトグラメトリ(Photogrammetry)と呼ばれる技術が脚光を浴びている。フォトグラメトリでは、例えば現実世界の物体である対象物を複数の撮影方向から撮影して得られた2次元の撮影画像に基づいて、解析処理を行い、対象物の形状、寸法等を求める。そして求められた形状、寸法等に基づいて、仮想空間に配置可能な3次元モデルを生成する。フォトグラメトリは3Dスキャンとも呼ばれる。3Dスキャンの従来技術としては例えば特許文献1に開示される技術がある。また複数の撮影方向から対象物を撮影する撮影システムの従来技術としては特許文献2に開示される技術がある。 In recent years, a technique called photogrammetry that generates a three-dimensional model from a photographed image has been in the spotlight. In photogrammetry, analysis processing is performed based on two-dimensional photographed images obtained by photographing an object, which is an object in the real world, from a plurality of photographing directions, and the shape, dimensions, etc. of the object are obtained. Then, a three-dimensional model that can be arranged in a virtual space is generated based on the determined shape, dimensions, and the like. Photogrammetry is also called 3D scanning. As a conventional technique of 3D scanning, there is a technique disclosed in Patent Document 1, for example. Further, there is a technique disclosed in Japanese Patent Application Laid-Open No. 2002-200322 as a conventional technique of an imaging system for imaging an object from a plurality of imaging directions.

特開2017-130008号公報Japanese Patent Application Laid-Open No. 2017-130008 特開2013-152332号公報JP 2013-152332 A

3Dスキャンでは、カメラなどの撮影部により撮影した撮影画像を用いるが、撮影画像の解像度には限界がある。このため、対象物である被写体が精細な形状を有していた場合に、この精細な形状を忠実に再現した3次元モデルを生成することは困難である。また対象物の撮影画像に基づく解析処理は、コンピュータの処理負荷が非常に重いため、例えば対象物を撮影した後、短時間で、対象物に対応する3次元モデルの表示物を、仮想的な3次元空間である仮想空間に出現させることは難しい。 In 3D scanning, a photographed image taken by an imaging unit such as a camera is used, but the resolution of the photographed image is limited. For this reason, when a subject, which is an object, has a fine shape, it is difficult to generate a three-dimensional model that faithfully reproduces this fine shape. In addition, the analysis processing based on the photographed image of the object imposes a very heavy processing load on the computer. It is difficult to make it appear in a virtual space that is a three-dimensional space.

本開示によれば、対象物に対応する表示物を様々な態様で仮想空間に出現させることができる画像生成システム及びプログラム等を提供できる。 Advantageous Effects of Invention According to the present disclosure, it is possible to provide an image generation system, a program, and the like that can cause a display object corresponding to an object to appear in a virtual space in various modes.

本発明の一態様は、撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、取得された前記第1、第2の撮影画像群を記憶する記憶部と、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、を含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 According to one aspect of the present invention, a first group of photographed images obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with an accompanying object, or An acquisition unit that acquires a group of images obtained by photographing the shape-deformed object from a plurality of photographing directions, or a second group of photographed images that is a group of images obtained by processing the first group of photographed images. a storage unit that stores the acquired first and second groups of captured images; a movement processing unit that performs processing for moving primitives in a virtual space; It relates to an image generation system including a texture generator that generates a texture to be mapped onto a primitive, and an image generator that maps the texture onto the primitive and generates a virtual space image viewed from a virtual camera in the virtual space. . The present invention also relates to a program that causes a computer to function as the above units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、対象物を複数の撮影方向から撮影することで第1の撮影画像群が取得される。またポーズを変化させた対象物、付随物を付加した対象物又は形状変形させた対象物を複数の撮影方向から撮影することや、或いは第1の撮影画像群を加工することで、第2の撮影画像群が取得される。そして第1、第2の撮影画像群から生成されたテクスチャが、仮想空間において移動するプリミティブにマッピングされて、仮想空間において仮想カメラから見える仮想空間画像が生成される。このようにすれば、第1の撮影画像群のみならず、第2の撮影画像群を用いて、テクスチャを生成し、生成されたテクスチャがマッピングされたプリミティブの画像を含む仮想空間画像を生成できるようになる。例えば対象物の撮影画像だけではなく、ポーズを変化させた対象物の撮影画像、付随物を付加した対象物の撮影画像、形状変形させた対象物の撮影画像、或いは対象物の撮影画像を加工した撮影画像に基づいて、テクスチャを生成し、当該テクスチャがマッピングされたプリミティブの画像を含む仮想空間画像を生成できるようになる。従って、対象物に対応する表示物を様々な態様で仮想空間に出現させることができる画像生成システム等の提供が可能になる。 According to one aspect of the present invention, a first captured image group is obtained by capturing images of an object from a plurality of capturing directions. In addition, by photographing an object with a changed pose, an object with attached objects, or an object with a deformed shape from a plurality of photographing directions, or by processing the first group of photographed images, the second A captured image group is acquired. Textures generated from the first and second captured image groups are then mapped onto primitives that move in the virtual space to generate a virtual space image viewed from the virtual camera in the virtual space. In this way, textures are generated using not only the first captured image group but also the second captured image group, and a virtual space image including primitive images to which the generated textures are mapped can be generated. become. For example, not only the photographed image of the object, but also the photographed image of the object with changed pose, the photographed image of the object with attached objects, the photographed image of the object whose shape is deformed, or the photographed image of the object is processed. A texture is generated based on the photographed image, and a virtual space image including a primitive image to which the texture is mapped can be generated. Therefore, it is possible to provide an image generation system or the like that can make a display object corresponding to an object appear in a virtual space in various modes.

また本発明の一態様では、前記テクスチャ生成部は、プレーヤの操作入力情報に応じて、前記第1、第2の撮影画像群の一方の撮影画像群を選択し、選択された前記一方の撮影画像群の撮影画像に基づいて、前記テクスチャを生成してもよい。 Further, in one aspect of the present invention, the texture generation unit selects one of the first and second captured image groups according to the player's operation input information, and selects one of the selected captured image groups. The texture may be generated based on the captured images of the image group.

このようにすれば、プレーヤの操作入力情報に応じた適切な撮影画像群を選択し、選択された撮影画像群の撮影画像に基づくテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 In this way, an appropriate captured image group is selected according to the operation input information of the player, and the texture-mapped image based on the captured image of the selected captured image group is displayed on the display object corresponding to the target object. It can be generated as an image.

また本発明の一態様では、前記テクスチャ生成部は、前記対象物の分析結果と、前記プレーヤの前記操作入力情報に応じて、前記第1、第2の撮影画像群の前記一方の撮影画像群を選択し、選択された前記一方の撮影画像群の撮影画像に基づいて、前記テクスチャを生成してもよい。 Further, in one aspect of the present invention, the texture generation unit generates the one of the first and second captured image groups according to the analysis result of the target object and the operation input information of the player. may be selected, and the texture may be generated based on the selected photographed image of the one photographed image group.

このようにすれば、プレーヤの操作入力情報のみならず、対象物の分析結果に応じた適切な撮影画像群を選択し、選択された撮影画像群の撮影画像に基づくテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 In this manner, not only the operation input information of the player but also the appropriate photographed image group corresponding to the analysis result of the object is selected, and an image in which the texture based on the photographed image of the selected photographed image group is mapped is generated. , can be generated as an image of a display object corresponding to the object.

また本発明の一態様では、前記移動処理部は、移動制御情報に基づいて前記仮想空間において前記プリミティブを移動させる処理を行い、前記テクスチャ生成部は、前記第1、第2の撮影画像群の一方の撮影画像群から前記移動制御情報に応じて選択された撮影画像に基づいて、前記テクスチャを生成し、前記画像生成部は、前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間画像を生成してもよい。 Further, in one aspect of the present invention, the movement processing unit performs processing for moving the primitive in the virtual space based on movement control information, and the texture generation unit moves the first and second captured image groups. The texture is generated based on the photographed image selected from one photographed image group according to the movement control information, and the image generation unit applies the texture, which changes according to the movement control information, to the primitive. Mapping may be performed to generate the virtual space image.

このようにすれば、移動制御情報に応じて変化するテクスチャが、プリミティブにマッピングされて、仮想空間において仮想カメラから見える仮想空間画像が生成されるようになる。従って、プリミティブの移動制御状態に対応したテクスチャの画像がプリミティブにマッピングされて、対象物に対応する表示物の画像を含む仮想空間画像を生成できるようになる。 By doing so, the texture that changes according to the movement control information is mapped onto the primitive, and a virtual space image viewed from the virtual camera in the virtual space is generated. Therefore, a texture image corresponding to the movement control state of the primitive is mapped to the primitive, and a virtual space image including an image of a displayed object corresponding to the object can be generated.

また本発明の一態様では、前記移動処理部は、前記プリミティブと前記仮想カメラの位置関係が固定された状態で、前記プリミティブ及び前記仮想カメラを前記移動制御情報に応じて移動させる処理を行ってもよい。 Further, in one aspect of the present invention, the movement processing unit performs processing for moving the primitive and the virtual camera according to the movement control information in a state where the positional relationship between the primitive and the virtual camera is fixed. good too.

このようにすれば、プリミティブにテクスチャがマッピングされることにより表示される表示物の画像として、擬似的に3次元画像に見える画像を生成できるようになる。 By doing so, it is possible to generate an image that appears to be a pseudo three-dimensional image as an image of a display object displayed by mapping the texture onto the primitive.

また本発明の一態様では、前記移動処理部は、前記移動制御情報に応じて前記プリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行い、前記画像生成部は、前記テクスチャがマッピングされた前記プリミティブの画像と、前記第2のプリミティブの画像とを含む画像を、前記仮想空間画像として生成してもよい。 Further, in one aspect of the present invention, the movement processing unit performs movement processing of a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information, and the image generation unit performs movement processing in which the texture is An image including the mapped image of the primitive and the image of the second primitive may be generated as the virtual space image.

このようにすれば、現実世界の対象物には無いものについて画像を、第2のプリミティブの画像を用いて表示できるようになる。 In this way, it becomes possible to display an image of an object that does not exist in the real world using the image of the second primitive.

また本発明の一態様では、前記テクスチャ生成部は、前記第1の撮影画像群の撮影画像と前記第2の撮影画像群の撮影画像を合成することで、前記テクスチャを生成してもよい。 In one aspect of the present invention, the texture generation unit may generate the texture by synthesizing the captured image of the first captured image group and the captured image of the second captured image group.

このようにすれば、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像の両方が反映させたテクスチャを生成し、生成されたテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 In this manner, the texture is generated by reflecting both the captured image of the first captured image group and the captured image of the second captured image group, and the image mapped with the generated texture is applied to the object. It becomes possible to generate an image of the corresponding display object.

また本発明の一態様では、前記対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定された前記ゲームパラメータに基づいてゲーム処理を行うゲーム処理部を含んでもよい。 Further, one aspect of the present invention may include a game processing unit that sets game parameters of a game played by the player based on the analysis result of the object, and performs game processing based on the set game parameters. .

このようにすれば、対象物の撮影画像に基づく表示物を表示できると共に、対象物の分析結果に基づいて、表示物が登場するゲームの処理に用いられるゲームパラメータを設定できるようになる。 In this way, it is possible to display the display object based on the photographed image of the object, and to set the game parameters used in the processing of the game in which the display object appears, based on the analysis result of the object.

また本発明の一態様では、前記取得部は、前記第1の撮影画像群を受け付けた後、前記第2の撮影画像群を受け付けた場合に、前記第2の撮影画像群が前記第1の撮影画像群と異なる撮影画像群か否かを判断し、異なる撮影画像群と判断された場合に、前記第2の撮影画像群を前記記憶部に記憶してもよい。 Further, in one aspect of the present invention, when the obtaining unit receives the second group of captured images after receiving the first group of captured images, the second group of captured images is obtained from the first group of captured images. It may be determined whether or not the group of captured images is different from the group of captured images, and when it is determined that the group of captured images is different, the second group of captured images may be stored in the storage unit.

このようにすれば、同じような撮影画像群が記憶部に対して無駄に保存されてしまう事態を防止できる。 By doing so, it is possible to prevent a situation in which a group of similar captured images are wastefully stored in the storage unit.

また本発明の一態様では、前記第1、第2の撮影画像群から前記テクスチャを生成する際に撮影画像に対するプレーヤの編集を受け付ける編集処理部を含んでもよい。 Further, one aspect of the present invention may further include an editing processing unit that accepts editing of the shot image by a player when the texture is generated from the first and second shot image groups.

このようにすれば、プレーヤが所望の編集を行った後の撮影画像を用いて、テクスチャを生成し、当該テクスチャがマッピングされたプリミティブの画像を表示できるようになる。 In this way, it is possible to generate a texture using a photographed image after desired editing by the player, and display an image of a primitive to which the texture is mapped.

また本発明の一態様では、前記撮影部は、前記対象物と、前記対象物の背景を撮影し、前記テクスチャ生成部は、前記撮影画像の各ピクセルの色が、前記背景の色に対応する色か否かを判断して、前記背景の色に対応する色のピクセルであると判断された場合には、前記背景の色に対応する色のピクセルを透明にする処理を行うことで、前記テクスチャを生成してもよい。 In one aspect of the present invention, the photographing unit photographs the object and the background of the object, and the texture generation unit causes the color of each pixel of the photographed image to correspond to the color of the background. color, and if it is determined that the pixel has a color corresponding to the background color, the pixel having the color corresponding to the background color is made transparent. You can also generate textures.

このようにすれば、背景の部分に、仮想空間の他のオブジェクトが表示された適切な仮想空間画像を、簡素で処理負荷が少ない処理により生成できるようになる。 In this way, an appropriate virtual space image in which other objects in the virtual space are displayed in the background portion can be generated by simple processing with low processing load.

また本発明の一態様では、前記第1、第2の撮影画像群は、前記対象物に対する前記撮影部の撮影方向の変化が180度以上の撮影方向範囲となる画像群であってもよい。 In one aspect of the present invention, the first and second groups of captured images may be groups of images in which a change in the direction of capturing of the imaging unit with respect to the object is 180 degrees or more.

このようにすれば、プリミティブが様々な方向に移動した場合にも、これに対応した適切な撮影画像に基づくテクスチャを生成して、プリミティブにマッピングできるようになる。 In this way, even if the primitive moves in various directions, it is possible to generate a suitable texture based on the captured image and map it to the primitive.

また本発明の一態様では、前記画像生成部は、前記仮想空間画像として、前記プリミティブの画像と、前記仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成し、生成された画像に対してポストエフェクト処理を行ってもよい。 Further, in one aspect of the present invention, the image generation unit generates an image including an image of the primitive and images of a plurality of objects set in the virtual space as the virtual space image, and the generated image may be subjected to post-effect processing.

このようなポストエフェクト処理を行うことで、撮影画像群の撮影画像に基づき生成されるキャラクタの画像が、周囲の仮想空間に対して違和感なく溶け込んで見えるような仮想空間画像を生成できるようになる。 By performing such post-effect processing, it is possible to generate a virtual space image in which the image of the character generated based on the photographed images of the photographed image group blends seamlessly into the surrounding virtual space. .

また本発明の一態様では、前記撮影部と、前記対象物が配置される配置部と、前記配置部に配置された前記対象物に対する前記撮影部の撮影方向を変化させるための回転移動を行う回転移動機構と、を含んでもよい。 Further, in one aspect of the present invention, the photographing unit, the arrangement unit in which the object is arranged, and a rotational movement for changing the photographing direction of the photographing unit with respect to the object arranged in the arrangement unit are performed. and a rotational movement mechanism.

このような配置部と回転移動機構を設けることで、対象物に対する撮影部の撮影方向が所定角度以上の撮影方向範囲となる撮影画像群を取得できるようになる。 By providing such an arrangement unit and a rotation movement mechanism, it is possible to obtain a group of captured images in which the imaging direction of the imaging unit with respect to the object is within a predetermined angle or more.

本実施形態の画像生成システムの構成例を示すブロック図。1 is a block diagram showing a configuration example of an image generation system according to this embodiment; FIG. 図2(A)、図2(B)は撮影画像に基づく仮想空間画像の生成手法の説明図。2A and 2B are explanatory diagrams of a method of generating a virtual space image based on a photographed image; FIG. 図3(A)、図3(B)は対象物を複数の撮影方向から撮影した撮影画像を取得する手法の説明図。3(A) and 3(B) are explanatory diagrams of a method of acquiring photographed images obtained by photographing an object from a plurality of photographing directions. 図4(A)、図4(B)は撮影画像からテクスチャを生成する手法の説明図。4(A) and 4(B) are explanatory diagrams of a method of generating a texture from a photographed image. プリミティブと仮想カメラの関係についての説明図。Explanatory drawing about the relationship between a primitive and a virtual camera. 移動制御情報に応じて変化するテクスチャのマッピング手法の説明図。FIG. 4 is an explanatory diagram of a texture mapping technique that changes according to movement control information; エフェクト画像の生成手法の説明図。Explanatory drawing of the generation method of an effect image. 撮影画像群に基づく仮想空間画像の生成処理のフローチャート。5 is a flowchart of processing for generating a virtual space image based on a captured image group; 360度の撮影方向範囲で対象物を撮影する手法の説明図。FIG. 4 is an explanatory diagram of a method of photographing an object in a 360-degree photographing direction range; 撮影画像群から移動制御情報に応じた撮影画像を選択する手法の説明図。FIG. 4 is an explanatory diagram of a method of selecting a photographed image according to movement control information from a photographed image group; 図11(A)~図11(C)はプリミティブと仮想カメラを位置関係が固定された状態で移動する手法の説明図。11A to 11C are explanatory diagrams of a method of moving a primitive and a virtual camera with their positional relationship fixed. 背景の色に対応する色のピクセルを透明にする処理のフローチャート。4 is a flow chart of processing to make pixels of a color corresponding to the background color transparent. 図13(A)~図13(C)はエフェクト画像用のプリミティブを用いたエフェクト画像の生成手法の説明図。13A to 13C are explanatory diagrams of a method of generating an effect image using primitives for effect images. エフェクト画像用のプリミティブの初期配置位置の設定手法の説明図。FIG. 4 is an explanatory diagram of a method for setting initial placement positions of primitives for effect images; 仮想空間画像に対するポストエフェクト処理の説明図。FIG. 4 is an explanatory diagram of post-effect processing for a virtual space image; 他の対象物に対応する他の表示物の画像の生成手法の説明図。FIG. 4 is an explanatory diagram of a method of generating an image of another display object corresponding to another object; プリミティブの周囲にパーティクルを配置する手法の説明図。Explanatory diagram of a method of arranging particles around a primitive. 撮影部、配置部、回転移動機構を設けた画像生成システムの構成例。A configuration example of an image generation system provided with an imaging unit, an arrangement unit, and a rotation movement mechanism. 対象物を空中に浮遊させた状態で支持する支持部の例。An example of a supporting part that supports an object while floating in the air. 第1、第2の撮影画像群に基づく仮想空間画像の生成処理のフローチャート。4 is a flowchart of processing for generating a virtual space image based on first and second captured image groups; 図21(A)、図21(B)はポーズを変化させた対象物を撮影することで第2の撮影画像群を取得する手法の説明図。21(A) and 21(B) are explanatory diagrams of a method of acquiring a second group of captured images by capturing an object with its pose changed. 図22(A)、図22(B)は付随物を付加した対象物又は形状変形した対象物を撮影することで第2の撮影画像群を取得する手法の説明図。FIGS. 22A and 22B are explanatory diagrams of a method of acquiring a second captured image group by capturing an object to which an accompanying object has been added or whose shape has been deformed. 第1の撮影画像群を加工することで第2の撮影画像群を取得する手法の説明図。FIG. 10 is an explanatory diagram of a method of acquiring a second group of captured images by processing a first group of captured images; プレーヤの操作入力情報に応じて第1、第2の撮影画像群の一方の撮影画像群を選択して、仮想空間画像を生成する手法の説明図。FIG. 10 is an explanatory diagram of a method of selecting one of the first and second captured image groups according to the player's operation input information to generate a virtual space image; 対象物の分析結果とプレーヤの操作入力情報に応じて第1、第2の撮影画像群の一方の撮影画像群を選択して、仮想空間画像を生成する処理のフローチャート。10 is a flowchart of processing for selecting one of the first and second captured image groups according to the analysis result of the object and the player's operation input information to generate a virtual space image. 第1、第2の撮影画像群の一方の撮影画像群から移動制御情報に応じて選択された撮影画像に基づいてテクスチャを生成する手法の説明図。FIG. 4 is an explanatory diagram of a method of generating a texture based on a photographed image selected from one of the first and second photographed image groups according to movement control information; 図27(A)、図27(B)は第1、第2の撮影画像群の撮影画像を合成してテクスチャを生成する手法の説明図。27A and 27B are explanatory diagrams of a method of synthesizing captured images of first and second captured image groups to generate a texture. 対象物の分析結果に基づきゲームパラメータを設定してゲーム処理を実行する処理のフローチャート。4 is a flowchart of processing for setting game parameters and executing game processing based on the analysis result of the object; 第1の撮影画像群と異なる第2の撮影画像群を記憶部に保存する処理のフローチャート。9 is a flowchart of processing for storing a second captured image group different from the first captured image group in the storage unit; 第1、第2の撮影画像群からテクスチャを生成する際における撮影画像の編集処理の説明図。FIG. 4 is an explanatory diagram of editing processing of photographed images when textures are generated from first and second photographed image groups;

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲の記載内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、必須構成要件であるとは限らない。 The present embodiment will be described below. It should be noted that the embodiments described below do not unduly limit the content of the claims. Moreover, not all the configurations described in this embodiment are essential configuration requirements.

1.画像生成システム
図1は、本実施形態の画像生成システム(画像生成装置、ゲーム装置、端末装置)の構成例を示すブロック図である。なお、本実施形態の画像生成システムは図1の構成に限定されず、その構成要素の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Image Generation System FIG. 1 is a block diagram showing a configuration example of an image generation system (image generation device, game device, terminal device) according to the present embodiment. The image generation system of this embodiment is not limited to the configuration of FIG. 1, and various modifications such as omitting some of its constituent elements or adding other constituent elements are possible.

操作部160は、プレーヤ(ユーザ)が種々の操作入力情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、レバー又はタッチパネル型ディスプレイ等により実現できる。 The operation unit 160 is used by a player (user) to input various operational input information (input information). The operation unit 160 can be implemented by, for example, operation buttons, direction keys, joysticks, levers, touch panel type displays, or the like.

撮影部162は、対象物の撮影を行うものであり、CCDやCMOSセンサなどの画像センサと、フォーカスレンズ等により構成される光学系などにより実現される。撮影部162としては、例えばデジタルカメラやビデオカメラなどのカメラを用いることができる。対象物(physical object)は、例えば現実世界の物体であり、撮影部162の被写体である。 The photographing unit 162 is for photographing an object, and is realized by an image sensor such as a CCD or CMOS sensor and an optical system including a focus lens and the like. As the imaging unit 162, a camera such as a digital camera or a video camera can be used, for example. A physical object is, for example, an object in the real world, and is a subject of the imaging unit 162 .

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。プログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(hard disk drive)、SSD(Solid State Drive)、又は光ディスク装置などにより実現できる。記憶部170は、撮影画像情報記憶部176、仮想空間情報記憶部177、描画バッファ178を含む。撮影画像情報記憶部176は、撮影部162により撮影された撮影画像の情報を記憶する。例えば撮影画像群の情報を記憶する。仮想空間情報記憶部177は、3次元のオブジェクト空間である仮想空間についての情報を記憶する。例えば仮想空間に配置されるオブジェクトの情報などを記憶する。描画バッファ178は、フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファである。 The storage unit 170 stores various information. The storage unit 170 functions as a work area for the processing unit 100, the communication unit 196, and the like. Programs and data necessary for executing the programs are held in this storage unit 170 . The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), HDD (hard disk drive), SSD (Solid State Drive), optical disk device, or the like. The storage unit 170 includes a captured image information storage unit 176 , a virtual space information storage unit 177 and a drawing buffer 178 . The captured image information storage unit 176 stores information of the captured image captured by the imaging unit 162 . For example, it stores information about a group of captured images. The virtual space information storage unit 177 stores information about virtual space, which is a three-dimensional object space. For example, it stores information about objects placed in the virtual space. The drawing buffer 178 is a buffer that can store image information in units of pixels, such as a frame buffer and a work buffer.

情報記憶媒体180は、コンピュータにより読み取り可能な媒体であり、プログラムやデータなどを格納するものである。情報記憶媒体180は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 is a computer-readable medium and stores programs, data, and the like. The information storage medium 180 can be realized by an optical disk (DVD, BD, CD), HDD, semiconductor memory (ROM), or the like. The processing unit 100 performs various processes of this embodiment based on programs (data) stored in the information storage medium 180 . That is, in the information storage medium 180, a program (a program for causing the computer to execute the processing of each unit) for functioning a computer (a device having an input device, a processing unit, a storage unit, and an output unit) as each unit of the present embodiment is stored. is stored.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、有機ELディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(Head Mounted Display)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ又はヘッドホン等により実現できる。 The display unit 190 outputs an image generated according to this embodiment, and its function can be realized by an LCD, an organic EL display, a CRT, a touch panel display, an HMD (Head Mounted Display), or the like. The sound output unit 192 outputs the sound generated according to this embodiment, and its function can be realized by a speaker, headphones, or the like.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、プレーヤが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 An I/F (interface) unit 194 performs interface processing with the portable information storage medium 195, and its function can be realized by an ASIC for I/F processing. The portable information storage medium 195 is used by the player to store various types of information, and is a storage device that retains the storage of this information even when the power is not supplied. The portable information storage medium 195 can be implemented by an IC card (memory card), USB memory, magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with the outside (another device) via a wired or wireless network, and its function is implemented by hardware such as a communication ASIC or a communication processor, and communication firmware. It can be realized by

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(或いは記憶部170)に配信してもよい。このようなサーバによる情報記憶媒体の使用も本実施形態の範囲内に含めることができる。 Note that programs (data) for causing a computer to function as each part of the present embodiment are delivered from an information storage medium of a server (host device) to the information storage medium 180 (or storage unit 170) via the network and communication unit 196. You may The use of information storage media by such servers can also be included within the scope of this embodiment.

処理部100(プロセッサ)は、操作部160からの操作入力情報やプログラムなどに基づいて、ゲーム処理、編集処理、取得処理、分析処理、移動処理、テクスチャ生成処理、画像生成処理、或いは音生成処理などを行う。 The processing unit 100 (processor) performs game processing, editing processing, acquisition processing, analysis processing, movement processing, texture generation processing, image generation processing, or sound generation processing based on operation input information from the operation unit 160, programs, and the like. etc.

処理部100の各部が行う本実施形態の各処理はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process of this embodiment performed by each part of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of this embodiment can be implemented by a processor that operates based on information such as a program and a memory that stores information such as the program. In the processor, for example, the function of each section may be implemented by separate hardware, or the function of each section may be implemented by integrated hardware. For example, a processor includes hardware, which may include circuitry for processing digital signals and/or circuitry for processing analog signals. For example, the processor can be configured with one or more circuit devices (such as ICs) or one or more circuit elements (such as resistors and capacitors) mounted on a circuit board. The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as GPU (Graphics Processing Unit) or DSP (Digital Signal Processor) can be used. Alternatively, the processor may be a hardware circuit based on ASIC. The processor may also include amplifier circuits, filter circuits, and the like that process analog signals. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD) or an optical storage device such as an optical disk device. For example, the memory stores instructions readable by a computer, and the instructions are executed by the processor to implement the processing of each part of the processing unit 100 . The instruction here may be an instruction set that constitutes a program, or may be an instruction that instructs a hardware circuit of a processor to operate.

処理部100は、ゲーム処理部106、編集処理部108、取得部110、分析部111、移動処理部112、テクスチャ生成部114、画像生成部120、音生成部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes a game processing unit 106 , an editing processing unit 108 , an acquisition unit 110 , an analysis unit 111 , a movement processing unit 112 , a texture generation unit 114 , an image generation unit 120 and a sound generation unit 130 . As described above, each process of this embodiment executed by these units can be realized by a processor (or processor and memory). It should be noted that various modifications such as omitting some of these constituent elements (each section) or adding other constituent elements are possible.

ゲーム処理部106はプレーヤがゲームをプレイするための種々のゲーム処理を行う。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。 The game processing unit 106 performs various game processes for the player to play the game. Game processing includes, for example, processing for starting a game when a game start condition is satisfied, processing for progressing a started game, processing for ending a game when a game end condition is satisfied, or calculating a game result. processing, etc.

編集処理部108は撮影画像をプレーヤが編集するための編集処理を行う。取得部110は、撮影部162により撮影された撮影画像の取得処理を行う。例えば撮影部162から撮影画像の情報を受信したり読み出したりする処理を行う。分析部111は、対象物に対する分析処理を行う。例えば対象物の撮影画像に基づいて対象物のシルエット分析などの分析処理を行う。 The edit processing unit 108 performs edit processing for the player to edit the shot image. The acquisition unit 110 performs acquisition processing of the captured image captured by the imaging unit 162 . For example, it performs a process of receiving or reading information of a captured image from the imaging unit 162 . The analysis unit 111 performs analysis processing on the object. For example, analysis processing such as silhouette analysis of the object is performed based on the photographed image of the object.

移動処理部112は、仮想空間においてプリミティブ等のオブジェクトを移動させる処理を行う。例えば本実施形態では、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理が行われる。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブで構成されるオブジェクト)を仮想空間に配置設定する処理が行われる。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)が決定され、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトが配置される。具体的には、記憶部170の仮想空間情報記憶部177には、仮想空間情報として、仮想空間でのオブジェクトの位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報が、オブジェクト番号に対応づけて記憶される。この仮想空間情報であるオブジェクト情報を、例えば各フレーム毎に更新する処理などが行われる。そして移動処理部112は、このように設定された仮想空間において、プリミティブ等のオブジェクトを移動させる処理を行う。例えばプリミティブ等のオブジェクトの情報を更新する処理を行う。またオブジェクトを動作させるモーション処理など行う。 The movement processing unit 112 performs processing for moving objects such as primitives in the virtual space. For example, in the present embodiment, processing for setting a virtual space (object space) in which a plurality of objects are arranged is performed. For example, moving objects (people, robots, cars, trains, airplanes, ships, monsters or animals, etc.), maps (terrain), buildings, spectator seats, courses (roads), trees, walls, water surfaces, etc. A process of arranging and setting objects (objects composed of primitives such as polygons, free-form surfaces, subdivision surfaces, etc.) in the virtual space is performed. That is, the position and rotation angle (synonymous with orientation and direction) of the object in the world coordinate system are determined, and at that position (X, Y, Z) at that rotation angle (rotation angle around the X, Y, Z axes) the object is placed. Specifically, in the virtual space information storage unit 177 of the storage unit 170, object information such as the position, rotation angle, movement speed, movement direction, etc. of an object in the virtual space is stored as virtual space information. are stored in association with A process of updating the object information, which is the virtual space information, for each frame, for example, is performed. Then, the movement processing unit 112 performs processing for moving objects such as primitives in the virtual space thus set. For example, a process of updating information of objects such as primitives is performed. It also performs motion processing for moving objects.

テクスチャ生成部114は、プリミティブにマッピングするテクスチャの生成処理を行う。例えば取得部110により取得された撮影画像に基づいてテクスチャを生成する処理を行う。 The texture generation unit 114 performs processing for generating textures to be mapped onto primitives. For example, processing for generating a texture is performed based on the captured image acquired by the acquisition unit 110 .

画像生成部120は、画像の生成処理を行う。例えば処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178に描画する。これにより、仮想空間において仮想カメラから見える仮想空間画像が生成される。なお画像生成部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。 The image generator 120 performs image generation processing. For example, drawing processing is performed based on the results of various processes performed by the processing unit 100 to generate an image and display it on the display unit 190 . Specifically, geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. coordinates, texture coordinates, color data, normal vectors or alpha values, etc.) are created. Based on this drawing data (primitive surface data), an object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is drawn in the drawing buffer 178 . As a result, a virtual space image viewed from the virtual camera in the virtual space is generated. Note that the drawing processing performed by the image generation unit 120 can be realized by vertex shader processing, pixel shader processing, or the like.

音生成部130は、処理部100で行われる種々の処理の結果に基づいて音の生成処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などを生成し、音出力部192に出力させる。 The sound generation unit 130 performs sound generation processing based on the results of various processes performed by the processing unit 100 . Specifically, it generates music (music, BGM), sound effects, voice, or the like, and causes the sound output unit 192 to output it.

そして本実施形態の画像生成システムは、図1に示すように、取得部110と記憶部170と移動処理部112とテクスチャ生成部114と画像生成部120を含む。 The image generation system of this embodiment includes an acquisition unit 110, a storage unit 170, a movement processing unit 112, a texture generation unit 114, and an image generation unit 120, as shown in FIG.

取得部110は、撮影部162により対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する。撮影画像群は、例えばデジタルカメラにより撮影された複数の静止画であってもよいし、デジタルカメラやビデオカメラにより撮影された動画を構成する複数の画像であってもよい。この場合には撮影画像群は例えばMPEG等により符号化された動画を構成する画像群になる。即ち撮影画像群はMPEG等のムービー映像であってもよい。なお本実施形態の画像生成システムは撮影部162を有していなくてもよく、この場合には、取得部110は、I/F部194や通信部196を介して撮影画像を取得する。 The acquiring unit 110 acquires a captured image group obtained by capturing an object from a plurality of capturing directions using the capturing unit 162 . The captured image group may be, for example, a plurality of still images captured by a digital camera, or may be a plurality of images forming a moving image captured by a digital camera or a video camera. In this case, the photographed image group becomes a group of images constituting a moving image encoded by MPEG or the like. That is, the photographed image group may be movie images such as MPEG. Note that the image generation system of this embodiment may not have the imaging unit 162 , and in this case, the acquisition unit 110 acquires the captured image via the I/F unit 194 and the communication unit 196 .

記憶部170は、取得された撮影画像群を記憶する。例えば取得部110が撮影画像群を取得すると、取得された撮影画像群の情報が記憶部170に保存されて記憶される。具体的には記憶部170の撮影画像情報記憶部176が撮影画像群の情報を記憶する。 The storage unit 170 stores the acquired photographed image group. For example, when the acquisition unit 110 acquires a group of captured images, information on the acquired group of captured images is saved and stored in the storage unit 170 . Specifically, the captured image information storage unit 176 of the storage unit 170 stores the information of the captured image group.

移動処理部112は、移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う。例えば移動制御情報に基づいて、仮想空間においてプリミティブを並進移動させたり回転移動させる処理を行う。移動制御情報は、プリミティブの移動制御を行うための情報である。移動制御情報としては、例えば操作部160などを用いてプレーヤにより入力される操作入力情報を用いることができる。或いはプリミティブの一連の移動を制御する移動制御情報を記憶部170に記憶しておき、記憶された移動制御情報を記憶部170から読み出すことで、プリミティブの移動制御を行うようにしてもよい。このようにすれば、移動制御情報に応じてプリミティブが自動的に移動するような移動制御を実現できる。これにより、例えば対象物に対応する表示物(例えば魚や動物等)の観賞を可能にするような画像生成システムなどを実現できる。 The movement processing unit 112 performs processing for moving primitives in the virtual space based on the movement control information. For example, based on the movement control information, the primitive is translated or rotated in the virtual space. The movement control information is information for controlling the movement of primitives. Operation input information input by the player using the operation unit 160, for example, can be used as the movement control information. Alternatively, movement control information for controlling a series of movements of primitives may be stored in the storage unit 170, and the stored movement control information may be read from the storage unit 170 to control the movement of primitives. In this way, it is possible to implement movement control such that the primitive automatically moves according to the movement control information. As a result, for example, an image generation system that enables viewing of display objects (for example, fish, animals, etc.) corresponding to the target object can be realized.

テクスチャ生成部114は、プリミティブの移動制御情報に応じて撮影画像群(第1、第2の撮影画像群の一方の撮影画像群)から選択された撮影画像に基づいて、プリミティブにマッピングするテクスチャを生成する処理を行う。例えばプリミティブの移動制御情報に基づいて、撮影画像群(第1、第2の撮影画像群の一方の撮影画像群)から当該移動制御情報に対応する撮影画像を記憶部170から読み出す。そしてテクスチャ生成部114は、読み出された撮影画像に基づいてテクスチャを生成する。例えば対象物を撮影した撮影画像のうち、対象物の映る部分をテクスチャの画像として生成する。具体的には、撮影画像のうちの背景の画像の部分を透明にし、対象物の画像の部分を切り抜いて、テクスチャを生成する。当該テクスチャをプリミティブにマッピングすることで、対象物に対応する表示物の画像を表示できるようになる。ここでプリミティブは、例えばプリミティブ面であり、例えばポリゴンである。具体的にはプリミティブは、仮想カメラに対して正対して配置されるビルボードポリゴンである。なおプリミティブは、自由曲面やサブディビジョンサーフェイスなどであってもよい。 The texture generation unit 114 creates a texture to be mapped onto the primitive based on the captured image selected from the captured image group (one of the first and second captured image groups) according to the movement control information of the primitive. Do the process to generate. For example, based on the movement control information of the primitive, a photographed image corresponding to the movement control information is read from the storage unit 170 from the photographed image group (one photographed image group of the first and second photographed image groups). The texture generation unit 114 then generates a texture based on the read photographed image. For example, of a photographed image of an object, a portion of the object in which the object is captured is generated as a texture image. Specifically, the background image portion of the captured image is made transparent, and the image portion of the object is cut out to generate the texture. By mapping the texture to the primitive, it becomes possible to display the image of the display object corresponding to the target object. Here, the primitive is, for example, a primitive surface, such as a polygon. Specifically, the primitives are billboard polygons placed facing the virtual camera. The primitive may be a free-form surface, a subdivision surface, or the like.

画像生成部120は、移動制御情報に応じて変化するテクスチャを、プリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する。例えば移動制御情報に応じて撮影画像群から選択された撮影画像に基づくテクスチャを、プリミティブにマッピングすることで、プリミティブにマッピングされるテクスチャが、プリミティブの移動制御情報に応じて変化するようになる。即ち対象物を複数の撮影方向から撮影することで得られた撮影画像群の中から、プリミティブの移動制御状態に適合した撮影画像を選択し、選択された撮影画像に基づき生成されたテクスチャを、プリミティブにマッピングする。このようにすることで、プリミティブの移動制御の状態に応じたテクスチャの画像がプリミティブにマッピングされて、対象物に対応する表示物が表示された仮想空間画像を生成できるようになる。 The image generation unit 120 maps textures that change according to movement control information to primitives to generate a virtual space image seen from a virtual camera in the virtual space. For example, by mapping a texture based on a captured image selected from a captured image group according to movement control information to a primitive, the texture mapped to the primitive changes according to the movement control information of the primitive. That is, from among a group of captured images obtained by capturing images of an object from a plurality of capturing directions, a captured image that conforms to the primitive movement control state is selected, and a texture generated based on the selected captured image is Mapping to primitives. By doing so, a texture image corresponding to the movement control state of the primitive is mapped to the primitive, and a virtual space image in which a display object corresponding to the object is displayed can be generated.

また移動処理部112は、プリミティブと仮想カメラの位置関係が固定された状態で、プリミティブ及び仮想カメラを移動制御情報に応じて移動させる処理を行う。例えばプリミティブと仮想カメラとの距離が一定距離になるようにプリミティブと仮想カメラの位置関係を固定する。一例としては、プリミティブが仮想カメラと正対し、且つ、プリミティブと仮想カメラとの距離が一定距離になるようにプリミティブと仮想カメラの位置関係を固定する。プリミティブが仮想カメラに正対する状態は、例えば仮想カメラの視線方向がプリミティブの面に直交する状態である。そして移動処理部112は、このようにプリミティブと仮想カメラの位置関係が固定された状態で、プリミティブ及び仮想カメラを一体にして移動させる処理を行う。例えば仮想空間において上、下、左又は右に並進移動させる移動制御情報である場合には、移動処理部112は、プリミティブ及び仮想カメラを上、下、左又は右に並進移動させる処理を行う。或いは、仮想空間においてX軸、Y軸又はZ軸回りに回転移動させる移動制御情報である場合には、移動処理部112は、プリミティブ及び仮想カメラをX軸、Y軸又はZ軸回りに回転移動させる処理を行う。 The movement processing unit 112 also performs processing for moving the primitive and the virtual camera according to the movement control information while the positional relationship between the primitive and the virtual camera is fixed. For example, the positional relationship between the primitive and the virtual camera is fixed so that the distance between the primitive and the virtual camera is constant. As an example, the positional relationship between the primitive and the virtual camera is fixed so that the primitive faces the virtual camera and the distance between the primitive and the virtual camera is constant. The state in which the primitive faces the virtual camera is, for example, the state in which the line-of-sight direction of the virtual camera is orthogonal to the surface of the primitive. Then, the movement processing unit 112 performs processing for moving the primitive and the virtual camera integrally while the positional relationship between the primitive and the virtual camera is thus fixed. For example, in the case of movement control information for upward, downward, leftward, or rightward translational movement in the virtual space, the movement processing unit 112 performs processing for upward, downward, leftward, or rightward translational movement of the primitive and the virtual camera. Alternatively, in the case of the movement control information for rotating around the X-axis, Y-axis or Z-axis in the virtual space, the movement processing unit 112 rotates the primitive and the virtual camera around the X-axis, Y-axis or Z-axis. process to cause

また撮影部162は、対象物と、対象物の背景を撮影する。撮影部162は画像生成システムが有するものであってもよいし、画像生成システムとは別個に設けられるものであってもよい。テクスチャ生成部114は、撮影画像の各ピクセルの色が、背景の色に対応する色か否かを判断する。そして背景の色に対応する色のピクセルであると判断された場合には、背景の色に対応する色のピクセルを透明にする処理を行うことで、テクスチャを生成する。例えばテクスチャ生成部114は、撮影画像の各ピクセル毎に、各ピクセルの色が背景に対応する色か否かを判断する。例えば撮影部162により対象物を撮影する際に、背景の色が緑又は青等の所定色に設定される。例えば対象物の色とは異なる所定色に、背景の色が設定される。例えば対象物が複数の色を有する場合には、これらの複数の色のいずれとも異なる所定色に、背景の色が設定される。例えば撮影時において対象物の周囲に配置される背景物が所定色に設定される。背景の色は、対象物の色と補色の関係の色に設定されていることが望ましい。そしてテクスチャ生成部114は、処理対象となるピクセルが、背景に対応する色(例えば緑又は青等)のピクセルであると判断された場合には、当該ピクセルを透明にする処理を行う。例えば半透明処理であるα合成において、当該ピクセルのα値を0に設定することで、当該ピクセルを透明なピクセルにする。なお以上のようなピクセル毎の処理はピクセルシェーダなどにより実現できる。 Further, the photographing unit 162 photographs the object and the background of the object. The imaging unit 162 may be included in the image generation system, or may be provided separately from the image generation system. The texture generation unit 114 determines whether the color of each pixel in the captured image corresponds to the background color. Then, when it is determined that the pixel has a color corresponding to the background color, a texture is generated by performing processing to make the pixel having a color corresponding to the background color transparent. For example, the texture generation unit 114 determines whether or not the color of each pixel of the captured image corresponds to the background. For example, when the photographing unit 162 photographs an object, the background color is set to a predetermined color such as green or blue. For example, the background color is set to a predetermined color different from the color of the object. For example, if the object has multiple colors, the background color is set to a predetermined color different from any of these multiple colors. For example, a background object arranged around an object at the time of photographing is set to a predetermined color. The background color is preferably set to a color that is complementary to the color of the object. Then, when the pixel to be processed is determined to be a pixel of a color (for example, green or blue) corresponding to the background, the texture generation unit 114 performs processing to make the pixel transparent. For example, in alpha compositing, which is translucent processing, by setting the alpha value of the pixel to 0, the pixel is made transparent. Note that the pixel-by-pixel processing as described above can be realized by a pixel shader or the like.

またテクスチャ生成部114は、撮影画像群により構成される動画のシーク制御を移動制御情報に基づいて行うことで、撮影画像群から撮影画像を選択し、選択された撮影画像に基づいてテクスチャを生成する。例えば撮影画像群の動画(ムービー)の早送りや巻き戻しのシーク制御を行い、移動制御情報に対応する撮影画像をシークして選択する。そして選択された撮影画像に基づいてテクスチャを生成する。このようにして生成されたテクスチャが、移動制御情報に応じて並進移動や回転移動するプリミティブにマッピングされる。 Further, the texture generation unit 114 selects a captured image from the captured image group and generates a texture based on the selected captured image by performing seek control of a moving image composed of the captured image group based on the movement control information. do. For example, it performs seek control for fast-forwarding and rewinding of a moving image (movie) of the captured image group, and seeks and selects the captured image corresponding to the movement control information. A texture is then generated based on the selected photographed image. Textures generated in this manner are mapped onto primitives that are translated or rotated according to the movement control information.

また撮影画像群(第1、第2の撮影画像群)は、対象物に対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる画像群である。望ましくは後述の図9に示すように、撮影画像群は、対象物に対する撮影部162の撮影方向の変化が360度の撮影方向範囲となる画像群である。例えば撮影部162の撮影方向は対象物の方に向いており、対象物を注視する方向に撮影方向が設定されている。撮影方向範囲は、対象物を注視した状態で撮影方向の角度が0度~βと変化する範囲である。そして本実施形態ではβが180度以上に設定されており、望ましくは図9に示すようにβ=360度になっている。 The photographed image group (first and second photographed image groups) is a group of images in which the change in the photographing direction of the photographing unit 162 with respect to the object is a photographing direction range of 180 degrees or more. Desirably, as shown in FIG. 9, which will be described later, the photographed image group is an image group in which the change in the photographing direction of the photographing unit 162 with respect to the object is within a photographing direction range of 360 degrees. For example, the imaging direction of the imaging unit 162 is directed toward the object, and the imaging direction is set in the direction in which the object is gazed at. The shooting direction range is a range in which the angle of the shooting direction changes from 0 degrees to β while the object is being gazed at. In this embodiment, β is set to 180 degrees or more, preferably β=360 degrees as shown in FIG.

また移動処理部112は、移動制御情報に応じてプリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行う。例えばプリミティブを基準にして第2のプリミティブを回転移動するなどの移動処理を行う。そして画像生成部120は、テクスチャがマッピングされたプリミティブの画像と、第2のプリミティブの画像とを含む画像を、仮想空間画像として生成する。例えばプリミティブは、対象物に対応する表示物の画像を表示するためのものであり、当該プリミティブには、対象物の撮影画像に基づくテクスチャがマッピングされる。一方、第2のプリミティブは、例えば対象物に対応する表示物の付随物の画像を表示するためのものである。付随物は、例えば表示物のエフェクト、所持品、装飾品、装備品、武器又は防具などの表示物であり、第2のプリミティブの画像は、表示物のエフェクト、所持品、装飾品、装備品、武器又は防具などの画像になる。第2のプリミティブは、例えばビルボードポリゴン等のポリゴンであってもよいし、自由曲面やサブディビジョンサーフェイスなどであってもよい。或いは第2のプリミティブは、表示物の付随物を表す3次元オブジェクトを構成するものであってもよい。このような第2のプリミティブを用いれば、現実世界の対象物には無いエフェクト、所持品、装飾品、装備品、武器又は防具等の画像を、対象物に対応する表示物に付加して表示できるようになる。 The movement processing unit 112 also performs movement processing of a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information. For example, a movement process such as rotationally moving the second primitive with reference to the primitive is performed. Then, the image generation unit 120 generates, as a virtual space image, an image including the texture-mapped primitive image and the second primitive image. For example, the primitive is for displaying an image of a display object corresponding to the object, and texture based on the photographed image of the object is mapped to the primitive. On the other hand, the second primitive is for displaying, for example, an image of an accompanying object corresponding to the object. The accompaniment is, for example, a display item such as an effect of a display item, a possession, an accessory, equipment, a weapon or armor, and a second primitive image is an effect of a display item, an accessory, an accessory, an accessory, or the like. , images of weapons or armor. The second primitive may be, for example, a polygon such as a billboard polygon, a free-form surface, a subdivision surface, or the like. Alternatively, the second primitive may constitute a three-dimensional object representing an appendage of the representation. By using such a second primitive, images such as effects, belongings, ornaments, equipment, weapons, and armor that are not found in objects in the real world can be displayed by adding them to display objects corresponding to the objects. become able to.

また移動処理部112は、対象物の分析結果に基づき設定される第2のプリミティブの初期配置位置から、プリミティブを基準に第2のプリミティブを移動させる処理を行う。例えば初期配置位置からプリミティブを基準に第2のプリミティブを移動させる処理を、移動制御情報に基づいて行う。例えば分析部111が、現実世界の物体である対象物の分析処理を行う。例えば分析部111は、対象物のシルエット分析等の分析処理を行って、対象物の種類や形状等を特定する。そして移動処理部112は、対象物の種類や形状等に応じた初期配置位置に、第2のプリミティブを配置し、当該初期配置位置から、プリミティブを基準に第2のプリミティブを回転移動したり並進移動させる処理を行う。例えば対象物が第1の種類や第1の形状である場合には、第1の初期配置位置に第2のプリミティブを配置して移動処理を行い、対象物が第2の種類や第2の形状である場合には、第2の初期配置位置に第2のプリミティブを配置して移動処理を行う。 Further, the movement processing unit 112 performs processing for moving the second primitive based on the primitive from the initial placement position of the second primitive set based on the analysis result of the object. For example, a process of moving the second primitive from the initial placement position with reference to the primitive is performed based on the movement control information. For example, the analysis unit 111 performs analysis processing of a target object, which is an object in the real world. For example, the analysis unit 111 performs analysis processing such as silhouette analysis of the target object to identify the type, shape, and the like of the target object. Then, the movement processing unit 112 arranges the second primitive at the initial arrangement position according to the type and shape of the target object, and rotates or translates the second primitive from the initial arrangement position with reference to the primitive. Perform processing to move. For example, when the object is of the first type or the first shape, the second primitive is placed at the first initial placement position and the movement processing is performed, and the object is of the second type or the second shape. If it is a shape, the second primitive is placed at the second initial placement position and movement processing is performed.

また画像生成部120は、第2のプリミティブの隠面消去処理を、移動制御情報に応じて行う。即ち第2のプリミティブは、移動制御情報に応じてプリミティブに対する相対的位置関係が変化するように回転移動したり、並進移動する。そしてプリミティブにより表される表示物に対して、第2のプリミティブにより表される付随物が、仮想カメラから見て隠れる位置に来たと移動制御情報に基づき判断された場合に、第2のプリミティブの隠面消去処理を行う。そしてあたかも、プリミティブにより表される表示物によって、第2のプリミティブにより表される付随物が隠れて見えるようにする隠面消去処理を行う。このようにすることで表示物とその付随物の画像を矛盾なく表示することが可能になる。 The image generator 120 also performs hidden surface removal processing for the second primitive in accordance with the movement control information. That is, the second primitive rotates or translates so that the relative positional relationship with respect to the primitive changes according to the movement control information. Then, when it is determined based on the movement control information that the accompanying object represented by the second primitive has come to a position hidden from the virtual camera with respect to the display object represented by the primitive, the second primitive is moved. Perform hidden surface removal processing. Then, hidden surface removal processing is performed so that the attached object represented by the second primitive appears to be hidden by the display object represented by the primitive. By doing so, it is possible to display images of the display object and its accompanying objects without contradiction.

また第2のプリミティブの画像は、例えばエフェクト画像である。例えば第2のプリミティブの画像は、光、炎、煙、噴射、点滅、爆発、武器攻撃又は魔法攻撃などを表す特殊なグラフィックであるエフェクト(ゲームエフェクト)の画像である。このように第2のプリミティブの画像としてエフェクトの画像を用いれば、現実世界の対象物では発生できないエフェクトを、ゲーム空間である仮想空間内において発生できるようになる。 The image of the second primitive is, for example, an effect image. For example, the second primitive image is an effect (game effect) image, which is a special graphic representing light, flame, smoke, jetting, blinking, explosion, weapon attack, magic attack, or the like. By using the effect image as the second primitive image in this way, it is possible to generate an effect in the virtual space, which is the game space, that cannot be generated with the object in the real world.

また画像生成部120は、仮想空間画像として、プリミティブの画像と、仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成する。そして生成された仮想空間画像に対してポストエフェクト処理を行う。例えばぼかし処理、明るさの調整処理又は色相の調整処理などのポストエフェクト処理を行う。具体的には画像生成部120は、他のオブジェクトが表示される仮想空間画像に対して、プリミティブにより表される表示物が違和感なく表示されるようにするポストエフェクト処理を行う。例えばプリミティブにより表される表示物の輪郭をぼかすようなポストエフェクト処理を行って、表示物と仮想空間画像の境界である輪郭が目立たなくなるようにする。また表示物の明るさと、周囲の仮想空間画像の明るさに差があった場合に、画像生成部120は、この差を小さくするようなポストエフェクト処理を行う。例えばプリミティブにマッピングされるテクスチャは、現実世界において対象物を撮影することで得られる撮影画像に基づき生成されている。このため、撮影環境に応じてテクスチャの画像の明るさも変動し、表示物の画像の明るさと、表示物の周囲の仮想空間画像の明るさとの間に差が生じてしまうが、この明るさの差を低減するようなポストエフェクト処理を画像生成部120が行う。 The image generator 120 also generates, as a virtual space image, an image including a primitive image and images of a plurality of objects set in the virtual space. Then, post-effect processing is performed on the generated virtual space image. For example, post-effect processing such as blur processing, brightness adjustment processing, or hue adjustment processing is performed. Specifically, the image generation unit 120 performs post-effect processing on a virtual space image in which other objects are displayed so that objects represented by primitives are displayed without discomfort. For example, post-effect processing is performed to blur the outline of the display object represented by the primitive so that the outline, which is the boundary between the display object and the virtual space image, becomes inconspicuous. Also, if there is a difference between the brightness of the displayed object and the brightness of the surrounding virtual space image, the image generator 120 performs post-effect processing to reduce this difference. For example, a texture mapped to a primitive is generated based on a photographed image obtained by photographing an object in the real world. For this reason, the brightness of the texture image also fluctuates according to the shooting environment, and a difference occurs between the brightness of the image of the displayed object and the brightness of the virtual space image around the displayed object. The image generator 120 performs post-effect processing to reduce the difference.

また取得部110は、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得する。即ち、プリミティブに対応する表示物とは異なる他の表示物に対応する他の対象物を撮影した他の表示物用の撮影画像群を取得する。例えばプリミティブにより表される表示物がキャラクタであった場合に、他の表示物は、例えば当該キャラクタと戦う敵キャラクタなどである。そしてテクスチャ生成部114は、他の表示物用の移動制御情報に応じて他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成する。そして画像生成部120は、他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、仮想空間画像を生成する。例えば移動処理部112は、他の表示物用の移動制御情報に応じて、他の表示物用のプリミティブを仮想空間において移動させる処理を行う。そして、このように移動する他の表示物用のプリミティブに対して、他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャをマッピングする。これにより、例えば敵キャラクタなどの他の表示物のリアルな画像を、少ない処理負荷で生成することが可能になる。 The acquiring unit 110 also acquires a captured image group for another display object obtained by capturing another object corresponding to another display object from a plurality of shooting directions. That is, a captured image group for another display object obtained by capturing another target object corresponding to another display object different from the display object corresponding to the primitive is acquired. For example, if the displayed object represented by the primitive is a character, the other displayed object is, for example, an enemy character that fights against the character. Then, the texture generation unit 114 generates the texture for the other display object based on the captured image selected from the captured image group for the other display object according to the movement control information for the other display object. The image generation unit 120 then maps the texture for the other display object, which changes according to the movement control information for the other display object, onto the primitive for the other display object, thereby generating a virtual space image. For example, the movement processing unit 112 performs processing for moving primitives for other display objects in the virtual space according to movement control information for other display objects. Then, the texture for the other display object that changes according to the movement control information for the other display object is mapped onto the primitive for the other display object that moves in this way. This makes it possible to generate realistic images of other displayed objects, such as enemy characters, with a small processing load.

また画像生成部120は、プリミティブの周囲にパーティクルが表示される画像を、仮想空間画像として生成する。例えば仮想空間において、プリミティブの周囲にパーティクルが配置されるようにパーティクルを発生して、仮想空間画像を生成する。例えば画像生成部120は、パーティクルを発生させるエフェクト処理(ポストエフェクト処理)を行う。このようにプリミティブの周囲にパーティクルが存在することで、プリミティブに対応する表示物が、仮想空間内において違和感なく移動する仮想空間画像を生成できるようになる。 The image generator 120 also generates an image in which particles are displayed around the primitive as a virtual space image. For example, in a virtual space, particles are generated so that the particles are arranged around primitives to generate a virtual space image. For example, the image generator 120 performs effect processing (post-effect processing) for generating particles. Since particles are present around the primitives in this way, it is possible to generate a virtual space image in which the displayed objects corresponding to the primitives move naturally in the virtual space.

また本実施形態の画像生成システムは、後述の図18に示すように、カメラ等の撮影部162と、対象物POBが配置される配置部10(載置部)と、回転移動機構12を含むことができる。回転移動機構12は、配置部10に配置された対象物POBに対する撮影部162の撮影方向を変化させるための回転移動を行う機構である。図18では、モーターなどの駆動部により実現される回転移動機構12により、ターンテーブルのように配置部10を回転させることにより、対象物POBに対する撮影部162の撮影方向を変化させている。このような配置部10と回転移動機構12を設けることで、対象物POBに対する撮影部162の撮影方向が所定角度以上の撮影方向範囲となる撮影画像群を取得できるようになる。 18, the image generation system of this embodiment includes a photographing unit 162 such as a camera, a placement unit 10 (placement unit) on which the object POB is placed, and a rotation movement mechanism 12. be able to. The rotational movement mechanism 12 is a mechanism that performs rotational movement for changing the photographing direction of the photographing unit 162 with respect to the object POB arranged in the arrangement unit 10 . In FIG. 18, by rotating the placement unit 10 like a turntable with a rotary movement mechanism 12 realized by a driving unit such as a motor, the photographing direction of the photographing unit 162 with respect to the object POB is changed. By providing the placement unit 10 and the rotational movement mechanism 12 as described above, it is possible to acquire a group of captured images in which the imaging direction of the imaging unit 162 with respect to the object POB is in the imaging direction range of a predetermined angle or more.

また本実施形態の画像生成システムは、対象物を空中に浮遊させた状態で支持する支持部を含んでもよい。例えば後述の図19に示すように、支持部16により対象物POBを支持することで、対象物POBを空中に浮遊させた状態で撮影部162により撮影できるようにする。例えば対象物POBの脚部等が配置部10から離れた状態で、対象物POBを支持部16により支持して、撮影部162により対象物POBを複数の撮影方向から撮影して撮影画像群を取得するようにする。このようにすることで、例えばアニメなどにおいて飛行可能なキャラクタとして登場するロボットなどのプラモデルを対象物POBとして撮影して、仮想空間に登場させることが可能になる。 Further, the image generation system of the present embodiment may include a support section that supports the object in a state of being suspended in the air. For example, as shown in FIG. 19, which will be described later, by supporting the object POB with the supporting portion 16, the object POB can be photographed by the photographing portion 162 while floating in the air. For example, the target object POB is supported by the support unit 16 in a state where the legs or the like of the target object POB are separated from the placement unit 10, and the image capturing unit 162 captures the target object POB from a plurality of capturing directions to obtain a group of captured images. get it. By doing so, for example, a plastic model such as a robot that appears as a flying character in animation can be photographed as the object POB and made to appear in the virtual space.

また取得部110は、第1の撮影画像群と第2の撮影画像群を取得する。なお取得する撮影画像群は2つに限定されず、3つ以上の撮影画像群を取得してもよい。即ち取得部110は、第1~第Kの撮影画像群(Kは2以上の整数)を取得できる。第1の撮影画像群は、撮影部162により対象物を複数の撮影方向から撮影することで得られる撮影画像群である。一方、第2の撮影画像群は、ポーズを変化させた対象物、付随物を付加した対象物又は形状変形させた対象物を複数の撮影方向から撮影することで得られる画像群である。例えば第1の撮影画像群における対象物のポーズ(姿勢)を変化させた対象物(第2の対象物)を、撮影部162により複数の撮影方向から撮影することで第2の撮影画像群を取得する。或いは、第1の撮影画像群における対象物に対して、武器、防具、装備品、装飾品又は所持品などの付随物を付加(装備、所持)した対象物(第2の対象物)を、撮影部162により複数の撮影方向から撮影することで第2の撮影画像群を取得する。或いは、第1の撮影画像群における対象物を形状変形させた対象物(第2の対象物)を、撮影部162により複数の撮影方向から撮影することで第2の撮影画像群を取得する。例えば異なる形状に対象物が変形する変身状態に設定して、複数の撮影方向から撮影して、第2の撮影画像群を取得する。或いは、第1の撮影画像群を加工した画像群を第2の撮影画像群として取得してもよい。例えば第1の撮影画像群の縮小拡大などのサイズ変更の加工処理を行ったり、第1の撮影画像群に対してぼかし処理などの画像エフェクト処理の加工処理を行ったり、第1の撮影画像群の色、明るさ又はコントラストを変更する加工処理を行ったり、或いは第1の撮影画像群の左右反転、上下反転又は回転などの加工処理を行ったりすることで、第2の撮影画像群を取得する。そして記憶部170(撮影画像情報記憶部176)は、このようにして取得された第1、第2の撮影画像群を記憶し、移動処理部112は、仮想空間においてプリミティブを移動させる処理を行う。そしてテクスチャ生成部114は、第1、第2の撮影画像群から、プリミティブにマッピングするテクスチャを生成し、画像生成部120は、生成されたテクスチャを、プリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する。例えばテクスチャ生成部114は、第1、第2の撮影画像群から、所定手順の処理により得られた撮影画像に基づいて、テクスチャを生成する。そして画像生成部120は、所定手順の処理により得られた撮影画像に基づくテクスチャを、仮想空間内で移動するプリミティブにマッピングすることで、対象物に対応する表示物が表示された仮想空間画像を生成する。 The acquisition unit 110 also acquires a first captured image group and a second captured image group. Note that the number of captured image groups to be acquired is not limited to two, and three or more captured image groups may be acquired. That is, the acquisition unit 110 can acquire the first to Kth captured image groups (K is an integer equal to or greater than 2). A first captured image group is a captured image group obtained by capturing an object from a plurality of capturing directions by the capturing unit 162 . On the other hand, the second photographed image group is a group of images obtained by photographing an object with a changed pose, an object with attached objects, or an object whose shape has been deformed from a plurality of photographing directions. For example, an object (second object) obtained by changing the pose (attitude) of the object in the first group of photographed images is photographed from a plurality of photographing directions by the photographing unit 162, thereby obtaining the second photographed image group. get. Alternatively, an object (second object) obtained by adding (equipping or possessing) accessories such as weapons, armor, equipment, accessories, or belongings to the object in the first captured image group, A second photographed image group is acquired by photographing from a plurality of photographing directions by the photographing unit 162 . Alternatively, a second captured image group is obtained by capturing an object (second object) obtained by deforming the shape of the object in the first captured image group from a plurality of capturing directions by the capturing unit 162 . For example, a transformation state in which the object is transformed into different shapes is set, and images are taken from a plurality of shooting directions to acquire a second group of shot images. Alternatively, an image group obtained by processing the first captured image group may be acquired as the second captured image group. For example, processing such as size change processing such as reduction and enlargement of the first captured image group is performed, processing processing such as image effect processing such as blur processing is performed on the first captured image group, and processing of the first captured image group is performed. Acquire a second captured image group by performing processing such as changing the color, brightness or contrast of the first captured image group, or performing processing such as horizontal inversion, vertical inversion or rotation of the first captured image group do. The storage unit 170 (captured image information storage unit 176) stores the first and second captured image groups thus acquired, and the movement processing unit 112 performs processing to move the primitive in the virtual space. . Then, the texture generation unit 114 generates textures to be mapped onto the primitives from the first and second captured image groups, and the image generation unit 120 maps the generated textures onto the primitives, and the virtual camera in the virtual space. Generate a virtual space image that can be seen from For example, the texture generation unit 114 generates textures from the first and second captured image groups based on the captured images obtained by performing a predetermined procedure. The image generation unit 120 maps the texture based on the captured image obtained by the processing of the predetermined procedure to primitives that move in the virtual space, thereby generating a virtual space image in which the object corresponding to the object is displayed. Generate.

またテクスチャ生成部114は、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択する。そして選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成する。例えばプレーヤが操作部160を用いて入力した操作入力情報を取得し、この操作入力情報に基づいて、第1、第2の撮影画像群の一方の撮影画像群を選択する。例えば操作入力情報に基づいてプレーヤが第1の操作を行ったと判断された場合には、第1の撮影画像群を選択し、第1の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。一方、プレーヤが第2の操作を行ったと判断された場合には、第2の撮影画像群を選択し、第2の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。このようにすれば、第1、第2の撮影画像群のうち、プレーヤの操作入力情報に対応した撮影画像群から撮影画像を選択して、テクスチャを生成し、対象物に対応する表示物を表示するためのプリミティブにマッピングできるようになる。従って、プレーヤの操作入力情報に応じた適切な撮影画像がマッピングされた表示物を、仮想空間に登場させることが可能になる。 Also, the texture generation unit 114 selects one of the first and second captured image groups according to the player's operation input information. Then, a texture is generated based on the photographed images of one of the selected photographed image groups. For example, operation input information input by the player using the operation unit 160 is acquired, and one of the first and second captured image groups is selected based on this operation input information. For example, when it is determined that the player has performed the first operation based on the operation input information, the first captured image group is selected, and based on the captured images of the first captured image group, the primitives are mapped. generate a texture that On the other hand, when it is determined that the player has performed the second operation, the second captured image group is selected, and textures mapped to primitives are generated based on the captured images of the second captured image group. . In this manner, a photographed image is selected from the photographed image group corresponding to the operation input information of the player from among the first and second photographed image groups, the texture is generated, and the display object corresponding to the target object is displayed. Allows mapping to primitives for display. Therefore, it is possible to cause a display object on which an appropriate photographed image corresponding to the player's operation input information is mapped to appear in the virtual space.

またテクスチャ生成部114は、対象物の分析結果と、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択し、選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成する。例えば分析部111は、対象物のシルエット分析等の分析処理を行って、対象物の種類や形状等を特定する。そしてテクスチャ生成部114は、対象物の分析結果である対象物の種類や形状等と、プレーヤの操作入力情報とに基づいて、第1、第2の撮影画像群の一方の撮影画像群を選択する。例えば、分析処理により、対象物が第1の種類又は第1の形状であることが分析され、操作入力情報に基づいてプレーヤが第1の操作を行ったと判断された場合には、第1の撮影画像群を選択し、第1の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。一方、分析処理により、対象物が第2の種類又は第2の形状であることが分析され、操作入力情報に基づいてプレーヤが第2の操作を行ったと判断された場合には、第2の撮影画像群を選択し、第2の撮影画像群の撮影画像に基づいて、プリミティブにマッピングされるテクスチャを生成する。このようにすることで、対象物の分析結果とプレーヤの操作入力情報の両方に応じた適切な撮影画像がマッピングされた表示物を、仮想空間に登場させることが可能になる。 Further, the texture generation unit 114 selects one of the first and second captured image groups according to the analysis result of the object and the player's operation input information, and selects one of the selected captured image groups. Generates textures based on the captured images. For example, the analysis unit 111 performs analysis processing such as silhouette analysis of the target object to identify the type, shape, and the like of the target object. Then, the texture generation unit 114 selects one of the first and second captured image groups based on the type, shape, etc. of the target object, which is the analysis result of the target object, and the player's operation input information. do. For example, the analysis process analyzes that the object is of the first type or the first shape, and if it is determined that the player has performed the first operation based on the operation input information, the first operation is performed. A captured image group is selected, and textures mapped to primitives are generated based on the captured images of the first captured image group. On the other hand, the analysis processing analyzes that the object is of the second type or the second shape, and if it is determined that the player has performed the second operation based on the operation input information, the second operation is performed. A captured image group is selected, and textures mapped to primitives are generated based on the captured images of the second captured image group. By doing so, it is possible to make a display object on which an appropriate photographed image is mapped according to both the analysis result of the target object and the operation input information of the player appear in the virtual space.

またテクスチャ生成部114は、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像を合成することで、テクスチャを生成する。例えば第1、第2の撮影画像群の撮影画像のα合成などの合成処理を行うことで、合成画像を生成し、合成画像に基づいてテクスチャを生成し、表示物に対応するプリミティブにマッピングする。例えば第1の撮影画像群の撮影画像に基づくテクスチャをプリミティブにマッピングした後、第1、第2の撮影画像群の撮影画像の合成画像に基づくテクスチャをプリミティブにマッピングする。そして、その後に、第2の撮影画像群の撮影画像に基づくテクスチャをプリミティブにマッピングする。このようにすれば、第1の撮影画像群の撮影画像に基づく表示物の画像から、第2の撮影画像群の撮影画像に基づく表示物の画像へとスムーズに切り替えることができ、擬似的なモーション補間処理などを実現することが可能になる。 Also, the texture generation unit 114 generates a texture by synthesizing the captured image of the first captured image group and the captured image of the second captured image group. For example, by performing synthesis processing such as α-synthesis of the captured images of the first and second captured image groups, a synthesized image is generated, texture is generated based on the synthesized image, and mapped onto a primitive corresponding to the display object. . For example, after mapping the texture based on the captured image of the first captured image group to the primitive, the texture based on the combined image of the captured images of the first and second captured image groups is mapped to the primitive. After that, textures based on the captured images of the second captured image group are mapped to the primitives. In this way, it is possible to smoothly switch from the image of the display object based on the captured image of the first captured image group to the image of the display object based on the captured image of the second captured image group. Motion interpolation processing and the like can be realized.

またゲーム処理部106は、対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定されたゲームパラメータに基づいてゲーム処理を行う。例えば対象物の分析結果に基づいて、対象物の種類や形状等が特定される。そして対象物の種類や形状等に基づいて、対象物に対応するキャラクタ等の表示物のゲームパラメータが設定される。例えば攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、特殊スキル、ヒットポイント、マジックポイント又はレベル等のゲームパラメータが設定される。そして設定されたゲームパラメータに基づいて、キャラクタ等の表示物が登場するゲームの処理が行われる。例えばゲームの開始処理、ゲームの進行処理、ゲームの終了処理又はゲーム成績の演算処理などが行われる。 The game processing unit 106 also sets game parameters for the game played by the player based on the analysis result of the object, and performs game processing based on the set game parameters. For example, the type, shape, etc. of the object are specified based on the analysis result of the object. Then, based on the type, shape, etc. of the object, game parameters of a display object such as a character corresponding to the object are set. For example, game parameters such as attack power, defense power, endurance, movement ability, running ability, special ability, special skill, hit points, magic points, or level are set. Then, based on the set game parameters, game processing in which display objects such as characters appear is performed. For example, a game start process, a game progress process, a game end process, or a game result calculation process is performed.

また取得部110は、第1の撮影画像群を受け付けた後、第2の撮影画像群を受け付けた場合に、第2の撮影画像群が第1の撮影画像群と異なる撮影画像群か否かを判断する。そして異なる撮影画像群と判断された場合に、第2の撮影画像群を記憶部170に記憶する。即ち、第2の撮影画像群を受け付けた場合に、第2の撮影画像群が、過去に撮影した第1の撮影画像群と異なる撮影群か否かを判断する。そして取得部110は、第2の撮影画像群が、第1の撮影画像群とは異なる撮影画像群である場合に、当該第2の撮影画像群を記憶部170に記憶して保存する。例えば第2の撮影画像群に映る対象物が、ポーズを変化させた対象物、付随物を付加した対象物、或いは形状変形した対象物である場合には、第2の撮影像群が第1の撮影画像群とは異なる撮影画像群であると判断されるようになる。第3の撮影画像群を受け付けた場合にも、第3の撮影画像群が第1の撮影画像群や第2の撮影画像群と異なる撮影画像群か否かを判断し、異なる撮影画像群である場合に、第3の撮影画像群を記憶部170に記憶して保存する。異なる撮影画像群か否かは、例えば撮影画像に映る対象物の形状又は色などに基づいて判断できる。 Further, when receiving the second group of captured images after receiving the first group of captured images, the acquiring unit 110 determines whether the second group of captured images is a group of captured images different from the first group of captured images. to judge. Then, when the photographed image group is determined to be different, the second photographed image group is stored in the storage unit 170 . That is, when the second captured image group is received, it is determined whether or not the second captured image group is different from the previously captured first captured image group. Then, when the second captured image group is a captured image group different from the first captured image group, the acquisition unit 110 stores and saves the second captured image group in the storage unit 170 . For example, if the object appearing in the second photographed image group is the object whose pose has been changed, the object to which an accompanying object has been added, or the object whose shape has been deformed, the second photographed image group is determined to be a photographed image group different from the photographed image group of . Also when the third group of captured images is received, it is determined whether or not the third group of captured images is a group of captured images different from the first group of captured images and the second group of captured images. In some cases, the third captured image group is stored in the storage unit 170 and saved. Whether or not the photographed image groups are different can be determined based on, for example, the shape or color of the object appearing in the photographed images.

また編集処理部108は、第1、第2の撮影画像群からテクスチャを生成する際に撮影画像に対するプレーヤの編集を受け付ける編集処理を行う。例えば本実施形態では第1、第2の撮影画像群の撮影画像に基づいてテクスチャが生成されるが、当該テクスチャを生成する際に、撮影画像に対するプレーヤの編集を可能にする。例えば撮影画像を修正する編集や、撮影画像にマーク、アイコンなどの付加表示物を付加する編集や、撮影画像を変形するなどの編集を、プレーヤが行えるようにする。そして編集後の撮影画像に基づくテクスチャを生成して、仮想空間を移動するプリミティブにマッピングする。 Further, the editing processing unit 108 performs an editing process for accepting player's editing of the shot image when generating the texture from the first and second shot image groups. For example, in the present embodiment, textures are generated based on the captured images of the first and second captured image groups. When the textures are generated, the player can edit the captured images. For example, the player can perform editing such as correcting the captured image, adding additional display objects such as marks and icons to the captured image, and modifying the captured image. Then, textures are generated based on the edited photographed image and mapped onto primitives that move in the virtual space.

2.本実施形態の手法
次に本実施形態の手法について詳細に説明する。
2. Method of this Embodiment Next, the method of this embodiment will be described in detail.

2.1 概要
まず、本実施形態の手法の概要について説明する。従来より、フォトグラメトリと呼ばれる手法が知られており、このフォトグラメトリでは、現実世界の対象物を複数の撮影方向から撮影した撮影画像に基づいて3Dスキャンを行って、仮想空間に配置可能な3次元モデルを生成する。しかしながら、3Dスキャンでは、撮影画像の解像度に限界があるため、対象物が精細な形状を有していた場合に、この精細な形状を忠実に再現した3次元モデルを生成することは困難である。また3Dスキャンにより3次元モデルを生成する処理は、コンピュータの処理負荷が非常に重いため、対象物を撮影した後、短時間で、対象物に対応する3次元モデルの表示物を仮想空間に出現させることが難しいという問題もある。
2.1 Overview First, an overview of the method of this embodiment will be described. Conventionally, a technique called photogrammetry has been known, and in this photogrammetry, a 3D scan is performed based on the captured images of objects in the real world taken from multiple shooting directions, and can be placed in virtual space. generate a three-dimensional model. However, in 3D scanning, there is a limit to the resolution of captured images, so when an object has a fine shape, it is difficult to generate a 3D model that faithfully reproduces this fine shape. . In addition, the process of generating a 3D model by 3D scanning puts a heavy processing load on the computer. There is also the problem that it is difficult to

そこで本実施形態では、対象物の撮影画像に基づき3Dスキャンの解析処理を行うのではなく、対象物の撮影画像を用いてテクスチャを生成する。そして撮影画像に基づき生成されたテクスチャを仮想空間のプリミティブにマッピングすることで、対象物に対応する表示物が表示される仮想空間画像を生成する。具体的には移動制御情報に基づいて、ポリゴン等で実現されるプリミティブを仮想空間内で移動させる。移動制御情報としては、例えばプレーヤの操作入力情報を用いることができる。或いは予め決められた軌道に沿ってプリミティブを移動させるような移動制御情報であってもよい。そして、プリミティブの移動制御に用いる移動制御情報を用いて、対象物を撮影した複数の撮影画像の中から適切な撮影画像を選択する。そして選択された撮影画像に基づき生成されたテクスチャを、移動制御情報に基づき移動するプリミティブに対してマッピングして、仮想空間において仮想カメラから見える画像である仮想空間画像を生成する。即ち、プリミティブにテクスチャをマッピングすることで、対象物に対応するキャラクタ等の表示物の画像を生成し、この表示物の画像を含む仮想空間画像を生成する。このようにすることで、3Dスキャンのような負荷の重い処理を行うことなく、対象物の形状が忠実に再現された表示物の画像を含む仮想空間画像を生成できるようになる。 Therefore, in the present embodiment, the texture is generated using the photographed image of the object instead of performing the analysis processing of the 3D scanning based on the photographed image of the object. Then, by mapping the texture generated based on the captured image to the primitives in the virtual space, a virtual space image is generated in which the display object corresponding to the object is displayed. Specifically, based on the movement control information, primitives realized by polygons or the like are moved within the virtual space. As the movement control information, for example, player's operation input information can be used. Alternatively, it may be movement control information for moving a primitive along a predetermined trajectory. Then, using the movement control information used for primitive movement control, an appropriate photographed image is selected from a plurality of photographed images obtained by photographing the object. Then, the texture generated based on the selected captured image is mapped to the primitive that moves based on the movement control information to generate a virtual space image, which is an image viewed from the virtual camera in the virtual space. That is, by mapping textures on primitives, an image of a display object such as a character corresponding to the object is generated, and a virtual space image including the image of this display object is generated. By doing so, it becomes possible to generate a virtual space image including an image of a display object in which the shape of the object is faithfully reproduced without performing heavy-load processing such as 3D scanning.

具体的には図2(A)に示すように本実施形態では、撮影部162により対象物POBを複数の撮影方向から撮影する。図2(A)では、対象物POBは、ロボットのプラモデルである。この対象物POBを、ターンテーブルである配置部10に配置し、モーター等により実現される回転移動機構12を用いて配置部10を回転させる。例えば30~60秒程度の撮影時間において、配置部10を360度、回転させる。また対象物POBの背景として、グリーンバックやブルーバック等の単色の背景部20が配置されている。このようにすることで、例えば後述の図9のように360度の撮影方向範囲で撮影部162により対象物POBを撮影できるようになり、対象物POBを360度の撮影方向範囲で撮影した画像を得ることができる。具体的には撮影部162によりムービー撮影を行うことで、360度の撮影方向範囲で撮影した動画(ムービー)である撮影画像群を得ることができる。 Specifically, as shown in FIG. 2A, in this embodiment, the photographing unit 162 photographs the object POB from a plurality of photographing directions. In FIG. 2A, the object POB is a plastic model of a robot. This target object POB is placed on a placement section 10, which is a turntable, and the placement section 10 is rotated using a rotational movement mechanism 12 realized by a motor or the like. For example, the placement unit 10 is rotated 360 degrees during the imaging time of about 30 to 60 seconds. As the background of the object POB, a monochromatic background portion 20 such as a green background or a blue background is arranged. In this way, the object POB can be photographed by the photographing unit 162 in a 360-degree photographing direction range, for example, as shown in FIG. 9, which will be described later. can be obtained. Specifically, by shooting a movie using the shooting unit 162, it is possible to obtain a group of shot images that are moving images (movies) shot in a shooting direction range of 360 degrees.

そして本実施形態では、このような撮影の終了後、図2(B)に示すようにワンアクションの短い時間で、対象物POBに対応するキャラクタCH(広義には表示物)を、仮想空間に登場させて、このキャラクタCHを用いたゲームをプレーヤがプレイできるようにする。例えば図2(B)では、3次元のオブジェクト空間である仮想空間に、岩等の3次元のオブジェクトOB1、OB2、OB3が配置され、敵ロボットである敵キャラクタCHEも出現している。プレーヤはゲームコントローラー等の操作部160を操作することで、キャラクタCHをA1、A2に示すように動かすことができる。またロボットであるキャラクタCHの画像には、補助装置であるバーニアの噴射炎VNの画像も表示されている。 In the present embodiment, after such photographing is completed, the character CH (display object in a broad sense) corresponding to the target object POB is displayed in the virtual space in a short period of time with one action as shown in FIG. 2(B). The character CH is made to appear so that the player can play a game using this character CH. For example, in FIG. 2B, three-dimensional objects OB1, OB2, and OB3 such as rocks are arranged in a virtual space, which is a three-dimensional object space, and an enemy character CHE, which is an enemy robot, also appears. By operating the operation unit 160 such as a game controller, the player can move the character CH as indicated by A1 and A2. In the image of the robot character CH, an image of the jet flame VN of the vernier, which is an auxiliary device, is also displayed.

なお以下では対象物がロボットのプラモデルである場合を主に例にとり説明するが、本実施形態はこれに限定されない。対象物は例えば戦艦等の艦船、戦闘機等の飛行機、戦車、車又は怪獣等のプラモデル、模型であってもよい。また対象物は、プラモデル、模型には限定されず、現実世界に実在する物体であればよい。例えば対象物としては、人形、フィギュアや、車、バイク又は自動車などの現実世界の乗り物や、家電、文房具、時計などの日常品や、彫刻、絵などの美術品や、ビル、橋などの建造物などの種々の物体(被写体)を想定できる。 In the following description, the case where the object is a plastic model of a robot will be mainly described as an example, but the present embodiment is not limited to this. The object may be, for example, a ship such as a battleship, an airplane such as a fighter plane, a tank, a car, or a plastic model such as a monster. Also, the target object is not limited to a plastic model or model, and may be any object that actually exists in the real world. For example, objects include dolls, figures, real-world vehicles such as cars, motorcycles, and automobiles, everyday items such as home appliances, stationery, and clocks, works of art such as sculptures and paintings, and construction of buildings and bridges. Various objects (subjects) such as things can be assumed.

次に本実施形態の画像生成手法について図3(A)~図7を用いて詳細に説明する。まず図3(A)に示すように、ターンテーブルである配置部10に対象物POBを配置する。そして30~60秒の撮影時間で、B1、B2に示すように配置部10を360度だけ回転させながら、グリーンバック等の背景部20を背景として、撮影部162により対象物POBを撮影する。そして撮影部162の例えばムービー撮影により得られた動画のデータが処理装置200に取り込まれる。この動画が、撮影部162により対象物POBを複数の撮影方向から撮影することで得られる撮影画像群に対応する。 Next, the image generation method of this embodiment will be described in detail with reference to FIGS. 3A to 7. FIG. First, as shown in FIG. 3A, the object POB is placed on the placement section 10, which is a turntable. Then, for a photographing time of 30 to 60 seconds, the object POB is photographed by the photographing unit 162 against the background portion 20 such as a green screen while rotating the placement unit 10 by 360 degrees as shown in B1 and B2. Moving image data obtained by, for example, movie shooting by the shooting unit 162 is taken into the processing device 200 . This moving image corresponds to a group of photographed images obtained by photographing the object POB from a plurality of photographing directions by the photographing unit 162 .

なお、図3(A)では、本実施形態の画像生成システムを実現する処理装置200がPC(パーソナルコンピュータ)である場合の例が示されているが、本実施形態はこれに限定されない。画像生成システムを実現する処理装置200は、後述の図18に示すような業務用のゲーム装置であってもよいし、家庭用のゲーム装置などの他の形態の装置であってもよい。例えば処理装置200は、スマートフォン、タブレットPCなどの携帯型通信端末であってもよい。この場合には撮影部162は携帯型通信端末の内蔵カメラなどにより実現できる。 Although FIG. 3A shows an example in which the processing device 200 that implements the image generation system of the present embodiment is a PC (personal computer), the present embodiment is not limited to this. The processing device 200 that implements the image generation system may be a commercial game device as shown in FIG. 18, which will be described later, or may be another type of device such as a home game device. For example, the processing device 200 may be a mobile communication terminal such as a smart phone or a tablet PC. In this case, the photographing unit 162 can be realized by a built-in camera of the portable communication terminal or the like.

撮影部162の撮影により取得された動画である撮影画像群は、処理装置200の記憶部170に記憶される。例えば記憶部170の指定フォルダーに、例えば360度の撮影方向範囲での撮影画像群となる動画のデータが自動保存される。図3(B)は、撮影画像群(動画)に含まれる撮影画像IMの例である。この撮影画像IMは、図3(A)において対象物POBの背中側である後方側を、撮影部162より撮影した際の撮影画像である。撮影画像IMには、対象物POBの画像が映っていると共に、図3(A)の背景部20による背景BGの画像が映っている。背景BGは、例えばグリーンバックやブルーバックなどの単色背景である。なお図3(A)では撮影部162により対象物POBのムービー撮影を行うことで、撮影画像群を取得しているが、例えば撮影部162の撮影方向を変えながら、対象物POBのコマ撮り撮影を行うことで、撮影画像群を取得してもよい。 A group of captured images, which are moving images captured by the capturing unit 162 , are stored in the storage unit 170 of the processing device 200 . For example, in a specified folder of the storage unit 170, data of a moving image, which is a group of shot images in a shooting direction range of 360 degrees, for example, is automatically saved. FIG. 3B is an example of the captured image IM included in the captured image group (moving image). This photographed image IM is a photographed image obtained by photographing the rear side, that is, the back side of the object POB in FIG. The photographed image IM includes an image of the object POB and an image of the background BG formed by the background portion 20 of FIG. 3(A). The background BG is, for example, a monochromatic background such as a green background or a blue background. In FIG. 3A, a group of captured images is acquired by capturing a movie of the object POB by the capturing unit 162. For example, frame-by-frame capturing of the object POB is performed while changing the capturing direction of the capturing unit 162. You may acquire a picked-up image group by performing.

そして本実施形態では図4(A)に示すように、図3(B)の撮影画像IMに基づき生成されたテクスチャTEXが、プリミティブPMにマッピングされる。この場合に図4(B)に示すように、図3(B)の背景BGがリアルタイムで透過処理されて、対象物POBに対応するキャラクタCHだけが表示されるテクスチャTEXが、プリミティブPMにマッピングされる。即ち図4(B)に模式的に示されるように、テクスチャTEXのピクセルのうち、背景BGに対応するピクセルについては透明に設定され、キャラクタCHに対応するピクセルだけが切り抜かれたテクスチャTEXが生成される。キャラクタCHは、対象物POBに対応してゲームに登場する表示物である。キャラクタCHの画像は、図3(A)、図3(B)で説明した撮影画像IMに基づく画像であるため、3Dスキャンを用いる場合に比べて、対象物POBの精細な形状が忠実に再現された画像になる。 In this embodiment, as shown in FIG. 4A, the texture TEX generated based on the captured image IM of FIG. 3B is mapped onto the primitive PM. In this case, as shown in FIG. 4(B), the background BG in FIG. 3(B) is transparently processed in real time, and the texture TEX in which only the character CH corresponding to the object POB is displayed is mapped onto the primitive PM. be done. That is, as schematically shown in FIG. 4B, among the pixels of the texture TEX, the pixels corresponding to the background BG are set to transparent, and only the pixels corresponding to the character CH are cut out to generate the texture TEX. be done. A character CH is a display object that appears in the game corresponding to the object POB. Since the image of the character CH is based on the photographed image IM described with reference to FIGS. 3A and 3B, the detailed shape of the object POB can be reproduced more faithfully than when 3D scanning is used. image.

またプリミティブPMは、3次元のオブジェクト空間である仮想空間に配置設定されており、この仮想空間には、岩を表すオブジェクトOB1、OB2、OB3などの種々のオブジェクトが配置設定されている。そして本実施形態では、このプリミティブPMが、移動制御情報に応じて仮想空間において移動する。具体的にはプレーヤが操作部160を用いて入力した操作入力情報を、移動制御情報として、プリミティブPMが仮想空間において回転移動したり、並進移動する。或いはプリミティブPMを自動移動させる移動制御情報に基づいて、プリミティブPMが仮想空間において回転移動したり、並進移動してもよい。そして後述するように、図3(A)、図3(B)で撮影された動画の撮影画像群の中から、移動制御情報に応じて選択された撮影画像に基づいてテクスチャTEXが生成され、生成されたテクスチャTEXがプリミティブPMにマッピングされる。これにより、移動制御情報に応じて変化するテクスチャTEXを、プリミティブPMにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成できるようになる。そして本実施形態によれば、ロボットのプラモデルなどの対象物POBが、ゲーム空間である仮想空間に、そのままの形で出現するようになる。従って、プレーヤは、自身が所有するプラモデルなどの対象物POBが、あたかも仮想空間に本当に出現したかのような仮想現実を感じることが可能になり、これまでにないタイプの画像生成システムの実現が可能になる。 The primitive PM is placed in a virtual space that is a three-dimensional object space, and various objects such as objects OB1, OB2, and OB3 representing rocks are placed in this virtual space. In this embodiment, this primitive PM moves in the virtual space according to the movement control information. Specifically, the operation input information input by the player using the operation unit 160 is used as movement control information to rotate or translate the primitive PM in the virtual space. Alternatively, the primitive PM may rotate or translate in the virtual space based on movement control information for automatically moving the primitive PM. Then, as will be described later, a texture TEX is generated based on a photographed image selected from among the photographed images of the moving images photographed in FIGS. 3A and 3B in accordance with the movement control information. The generated texture TEX is mapped to the primitive PM. As a result, the texture TEX, which changes according to the movement control information, can be mapped onto the primitive PM to generate a virtual space image viewed from the virtual camera in the virtual space. According to this embodiment, the target object POB, such as a plastic model of a robot, appears in the virtual space, which is the game space, as it is. Therefore, the player can feel the virtual reality as if the object POB owned by the player, such as a plastic model, really appeared in the virtual space, and the realization of an unprecedented type of image generation system is possible. be possible.

図5は、仮想空間でのプリミティブPMと仮想カメラVCの関係を示す図である。仮想空間には、岩を表すオブジェクトOB1~OB3や、敵ロボットである敵キャラクタCHEなどが配置されている。VMは、仮想カメラVCのビューボリュームであり、仮想カメラVCの表示範囲(描画範囲)に相当する。 FIG. 5 is a diagram showing the relationship between the primitive PM and the virtual camera VC in the virtual space. Objects OB1 to OB3 representing rocks, an enemy character CHE that is an enemy robot, and the like are arranged in the virtual space. VM is the view volume of the virtual camera VC and corresponds to the display range (drawing range) of the virtual camera VC.

図5に示すように本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定されている。例えばプリミティブPMと仮想カメラVCの位置関係が固定され状態で、プリミティブPM及び仮想カメラVCを移動制御情報に応じて移動させる。例えばプリミティブPMと仮想カメラVCとを結ぶレールRLを移動制御情報に応じて移動させる。具体的には図5では、プリミティブPMとしてビルボードのポリゴンを用いている。例えばプリミティブPMと仮想カメラVCとの間の距離は一定であり、プリミティブPMは仮想カメラVCに正対するように配置される。例えば、プリミティブPMと仮想カメラVCとの間の距離が一定となり、且つ、仮想カメラVCの視線方向VLとプリミティブPMの面が直交するようにプリミティブPMが配置される。このようにすれば、プリミティブPMを3次元の仮想空間に配置した場合にも、プレーヤから見てプリミティブPMが平面に見えないようにする演出が可能になり、あたかも3次元の表示物であるキャラクタCHが仮想空間で存在しているかのように見える仮想現実感をプレーヤに与えることが可能になる。 As shown in FIG. 5, in this embodiment, the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, while the positional relationship between the primitive PM and the virtual camera VC is fixed, the primitive PM and the virtual camera VC are moved according to the movement control information. For example, the rail RL connecting the primitive PM and the virtual camera VC is moved according to the movement control information. Specifically, in FIG. 5, billboard polygons are used as primitive PMs. For example, the distance between the primitive PM and the virtual camera VC is constant, and the primitive PM is arranged to face the virtual camera VC. For example, the primitive PM is arranged such that the distance between the primitive PM and the virtual camera VC is constant, and the line-of-sight direction VL of the virtual camera VC is orthogonal to the plane of the primitive PM. In this way, even when the primitive PM is arranged in a three-dimensional virtual space, it is possible to produce an effect in which the primitive PM does not appear flat from the player's point of view. It is possible to give the player a virtual reality feeling as if the CH exists in the virtual space.

また本実施形態では図6に示すように、プリミティブPMにマッピングするテクスチャTEXの画像をプリミティブPMの移動制御情報に応じて変化させている。具体的には操作部160へのプレーヤの操作入力に合わせて、仮想カメラVCとプリミティブPMの位置関係を固定しながら、仮想カメラVCの位置を支点(回転中心)として、C1、C2、C3、C4に示すようにプリミティブPMを回転移動する。即ち仮想カメラVCとプリミティブPMを結ぶレールRLを、仮想カメラVCの位置を支点として回転させる。また並進移動の場合には、仮想カメラVCとプリミティブPMを一体として並進移動させる。即ち仮想カメラVCとプリミティブPMを結ぶレールRLを並進移動させる。例えば左方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点としてC1に示す方向にプリミティブPMを回転移動させる。右方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点としてC2に示す方向にプリミティブPMを回転移動させる。同様に、下方向、上方向を指示する操作入力が行われた場合には、仮想カメラVCの位置を支点として、各々、C3、C4に示す方向にプリミティブPMを回転移動させる。このようにすることで、移動制御情報である操作入力情報に応じたプリミティブPMの移動処理が実現される。 Further, in this embodiment, as shown in FIG. 6, the image of the texture TEX to be mapped onto the primitive PM is changed according to the movement control information of the primitive PM. Specifically, according to the player's operation input to the operation unit 160, C1, C2, C3, C3, C3, C3, C3, C1, C2, C3, C1, C2, C3, C1, C2, C3, C1, C2, C3, C1, C2, C3, C3, C3, C1, C2, C3, C3, C1, C2, C3, C1, C2, C3, C1, C3, C3, C3, C3, C3, C3 Rotate the primitive PM as indicated by C4. That is, the rail RL connecting the virtual camera VC and the primitive PM is rotated around the position of the virtual camera VC. In the case of translational movement, the virtual camera VC and the primitive PM are translated integrally. That is, the rail RL connecting the virtual camera VC and the primitive PM is translated. For example, when an operation input instructing the left direction is performed, the primitive PM is rotationally moved in the direction indicated by C1 with the position of the virtual camera VC as the fulcrum. When an operation input instructing the right direction is performed, the primitive PM is rotationally moved in the direction indicated by C2 with the position of the virtual camera VC as the fulcrum. Similarly, when an operation input instructing the downward direction or the upward direction is performed, the primitive PM is rotationally moved in the directions indicated by C3 and C4, respectively, with the position of the virtual camera VC as the fulcrum. By doing so, the process of moving the primitive PM according to the operation input information, which is the movement control information, is realized.

そしてこのようなプリミティブPMの移動に連動して、プリミティブPMにマッピングされるテクスチャTEXを変化させる。具体的には、図3(A)、図3(B)のようにムービー撮影された360度の撮影方向範囲での対象物POBの動画を、プリミティブPMの移動に連動して再生することで、プリミティブPMの移動に連動して、プリミティブPMにマッピングされるテクスチャTEXを変化させる。例えばプレーヤが左方向を指示する操作入力を行うことで、図6のC1に示すように仮想カメラVCの位置を支点としてプリミティブPMを回転移動させる場合には、この回転移動に合わせて、図6の再生方向DRに示すように動画再生を行う。例えば図6のD1に示すような後方側からの対象物POB(キャラクタCH)の撮影画像から、D2に示すような左後方側からの対象物POBの撮影画像に変化するというような動画再生を行う。更にD3に示すような左前方側からの対象物POBの撮影画像に変化させ、D4に示すような前方側からの対象物POBの撮影画像に変化するというような動画再生を行う。D1、D2、D3、D4に示す撮影画像が本実施形態の撮影画像群になる。このようにすれば、2次元の撮影画像によるテクスチャTEXを用いながらも、あたかも3次元の表示物であるキャラクタCHが仮想空間で回転移動しているかのように見える仮想空間画像を生成できるようになる。 In conjunction with such movement of the primitive PM, the texture TEX mapped to the primitive PM is changed. Specifically, as shown in FIGS. 3(A) and 3(B), a moving image of the object POB in a 360-degree photographing direction range is reproduced in conjunction with the movement of the primitive PM. , changes the texture TEX mapped to the primitive PM in conjunction with the movement of the primitive PM. For example, when the player performs an operation input pointing to the left direction to rotate the primitive PM around the position of the virtual camera VC as a fulcrum as shown in C1 in FIG. A moving image is reproduced as shown in the reproduction direction DR of . For example, it is possible to reproduce a moving image such that the photographed image of the object POB (character CH) from the rear side as shown in D1 in FIG. 6 changes to the photographed image of the object POB from the left rear side as shown in D2. conduct. Furthermore, moving image reproduction is performed such that the image is changed to the photographed image of the object POB from the left front side as shown in D3, and the photographed image of the object POB is changed to the photographed image of the object POB from the front side as shown in D4. The photographed images indicated by D1, D2, D3, and D4 constitute the photographed image group of this embodiment. By doing so, it is possible to generate a virtual space image that looks as if the character CH, which is a three-dimensional display object, is rotating and moving in the virtual space while using the texture TEX based on the two-dimensional photographed image. Become.

また本実施形態では図7に示すように、例えばバーニアの噴射炎VNやビーム砲が発射するビームBMなどの3Dのエフェクト表現を実現するエフェクト処理も行っている。本実施形態では、このようなエフェクト処理を実現するために、後述の図13(A)~図13(C)で説明するように、移動制御情報に応じてプリミティブPMに対する相対的位置関係が変化するプリミティブPMV、PMBを用意する。プリミティブPMV、PMBは第2のプリミティブであり、例えばポリゴンである。プリミティブPMVには噴射炎VNを表す画像(テクスチャ)が描かれ、プリミティブPMBにはビームBMを表す画像(テクスチャ)が描かれている。そしてプリミティブPMを移動させる移動制御情報(操作入力情報)に応じて、図7のE1、E2に示すようにプリミティブPMに対するプリミティブPMV、PMBの相対的位置関係を変化させる。そしてテクスチャTEXがマッピングされたプリミティブPMの画像と、プリミティブPMV、PMB(第2のプリミティブ)の画像とを含む画像を、仮想空間画像として生成する。 In addition, as shown in FIG. 7, this embodiment also performs effect processing for realizing 3D effect expression such as the jet flame VN of a vernier and the beam BM emitted by a beam cannon. In this embodiment, in order to realize such effect processing, the relative positional relationship with respect to the primitive PM changes according to the movement control information, as will be described later with reference to FIGS. Prepare primitives PMV and PMB to be used. Primitives PMV and PMB are second primitives, for example polygons. An image (texture) representing the jet flame VN is drawn on the primitive PMV, and an image (texture) representing the beam BM is drawn on the primitive PMB. Then, according to movement control information (operation input information) for moving the primitive PM, the relative positional relationship of the primitives PMV and PMB with respect to the primitive PM is changed as indicated by E1 and E2 in FIG. Then, an image including an image of the primitive PM to which the texture TEX is mapped and images of the primitives PMV and PMB (second primitives) is generated as a virtual space image.

例えばプリミティブPMが回転移動した場合に、それに連動させて噴射炎VN用のプリミティブPMVを図7のE1に示すように回転移動させる。即ち図7のF1に示すように、テクスチャTEXに描かれるキャラクタCHのバーニアの補助装置から、噴射炎VNが噴射して見えるように、噴射炎VNが描かれるプリミティブPMVを回転移動させる。またプリミティブPMが回転移動した場合に、それに連動させてビームBM用のプリミティブPMBを図7のE2に示すように回転移動させる。即ち図7のF2に示すように、テクスチャTEXに描かれるキャラクタCHのビーム砲からビームBMが発射して見えるように、ビームBMが描かれるプリミティブPMBを回転移動させる。 For example, when the primitive PM rotates, the primitive PMV for the injection flame VN is rotated as indicated by E1 in FIG. That is, as indicated by F1 in FIG. 7, the primitive PMV on which the jet flame VN is drawn is rotated so that the jet flame VN appears to be jetted from the auxiliary device of the vernier of the character CH drawn on the texture TEX. Further, when the primitive PM is rotationally moved, the primitive PMB for the beam BM is rotationally moved as indicated by E2 in FIG. 7 in conjunction therewith. That is, as indicated by F2 in FIG. 7, the primitive PMB on which the beam BM is drawn is rotationally moved so that the beam BM appears to be emitted from the beam cannon of the character CH drawn on the texture TEX.

このように本実施形態では、噴射炎VNの噴射やビームBMの発射などを表現するプリミティブPMV、PMBを、図6のD1~D4に示すような動画の再生に連動して移動させている。これにより噴射炎VNやビームBMなどのエフェクト表現をリアルに実現できる。また後述するように、仮想カメラVCの位置からのプリミティブPMV、PMBの描画順番についてもコントロールすることで、2次元のモデルでありながら、3次元のモデルのような見た目と、ゲームプレイを実現している。即ち本実施形態では図3(A)、図3(B)に示すように、プラモデルなどの対象物POBの撮影画像に基づいて、対象物POBに対応するキャラクタCHの画像を含む仮想空間画像を生成しているが、噴射炎VNやビームBMについては、現実世界の対象物POBでは表現できない。そこで噴射炎VNやビームBMについては、プリミティブPMに対する相対的位置関係が変化するプリミティブPMV、PMB(第2のプリミティブ)を用いて表現する。そして図6のD1~D4に示すようなキャラクタCHの動画再生に矛盾しないように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係を変化させる。これにより現実世界の対象物POBでは表現できない噴射炎VNやビームBMのエフェクト表現を実現できるようになる。 As described above, in this embodiment, the primitives PMV and PMB representing the injection of the jet flame VN and the emission of the beam BM are moved in conjunction with the reproduction of the moving images shown in D1 to D4 in FIG. This makes it possible to realistically express effects such as jet flame VN and beam BM. Also, as will be described later, by controlling the drawing order of the primitive PMV and PMB from the position of the virtual camera VC, it is possible to realize the appearance and gameplay of a 3D model while being a 2D model. ing. That is, in this embodiment, as shown in FIGS. 3A and 3B, a virtual space image including an image of the character CH corresponding to the object POB, such as a plastic model, is generated based on the photographed image of the object POB. However, the jet flame VN and the beam BM cannot be represented by the real-world object POB. Therefore, the jet flame VN and the beam BM are expressed using primitives PMV and PMB (second primitives) whose relative positional relationship with respect to the primitive PM changes. Then, the relative positional relationship of the primitives PMV and PMB with respect to the primitive PM is changed so as not to contradict the moving image reproduction of the character CH as shown in D1 to D4 in FIG. As a result, it becomes possible to realize effect expression of jet flame VN and beam BM that cannot be expressed with the object POB in the real world.

2.2 移動制御情報に応じたテクスチャのマッピング
次に本実施形態の手法の詳細について説明する。図8は撮影画像群に基づく仮想空間画像の生成処理のフローチャートである。まず対象物POBを複数の撮影方向から撮影することで得られる撮影画像群を取得する(ステップS1)。例えば図3(A)のように撮影部162でムービー撮影することで、対象物POBを撮影した動画である撮影画像群を取得して、処理装置200に取り込む。そして取得した撮影画像群を記憶部170に記憶する(ステップS2)。即ち処理装置200のメモリに、動画である撮影画像群のデータを記憶して保存する。次にプリミティブPMの移動制御情報に応じて選択された撮影画像に基づいて、テクスチャTEXを生成する(ステップS3)。例えば移動制御情報(操作入力情報)に基づいて、図6のD1~D4のような撮影画像群の中から対応する撮影画像を選択し、図4(A)、図4(B)で説明したようなテクスチャTEXを生成する。そして移動制御情報に応じて変化するテクスチャTEXを、移動制御情報に応じて移動するプリミティブPMにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS4)。例えば図6のC1~C4に示すように、移動制御情報(操作入力情報)に応じて、仮想カメラVCの位置を支点としてプリミティブPMが回転移動したり、仮想カメラVCとプリミティブPMが一体となって並進移動する。そして、このようなプリミティブPMの移動に連動して変化するテクスチャTEXをプリミティブPMにマッピングする。例えば図6のC1に示すようにプリミティブPMが仮想カメラVCの位置を支点(回転中心)として左方向に回転移動した場合には、図6のD1~D4に示すような撮影画像群の中から、プリミティブPMの回転角度に応じた撮影画像が選択されて、選択された撮影画像に基づくテクスチャTEXがプリミティブPMにマッピングされる。これにより2次元の撮影画像を用いながらも、対象物POBに対応する3次元モデルのキャラクタCHが仮想空間内において移動しているように見えるリアルな仮想空間画像を生成できるようになる。
2.2 Texture Mapping According to Movement Control Information Next, details of the technique of this embodiment will be described. FIG. 8 is a flowchart of processing for generating a virtual space image based on a captured image group. First, a photographed image group obtained by photographing the object POB from a plurality of photographing directions is acquired (step S1). For example, as shown in FIG. 3A, the image capturing unit 162 captures a movie, thereby obtaining a captured image group, which is a moving image of the target object POB, and imports it into the processing device 200 . Then, the captured image group obtained is stored in the storage unit 170 (step S2). That is, the data of the photographed image group, which is a moving image, is stored and saved in the memory of the processing device 200 . Next, the texture TEX is generated based on the photographed image selected according to the movement control information of the primitive PM (step S3). For example, based on movement control information (operation input information), a corresponding captured image is selected from a group of captured images such as D1 to D4 in FIG. Generate a texture TEX like this. Then, the texture TEX that changes according to the movement control information is mapped onto the primitive PM that moves according to the movement control information to generate a virtual space image seen from the virtual camera in the virtual space (step S4). For example, as indicated by C1 to C4 in FIG. 6, the primitive PM rotates about the position of the virtual camera VC, or the virtual camera VC and the primitive PM are integrated in accordance with the movement control information (operation input information). to move in translation. Then, the texture TEX that changes in conjunction with the movement of the primitive PM is mapped onto the primitive PM. For example, when the primitive PM rotates leftward about the position of the virtual camera VC as a fulcrum (rotational center) as indicated by C1 in FIG. , a photographed image corresponding to the rotation angle of the primitive PM is selected, and the texture TEX based on the selected photographed image is mapped onto the primitive PM. This makes it possible to generate a realistic virtual space image in which the three-dimensional model character CH corresponding to the object POB appears to be moving in the virtual space while using the two-dimensional photographed image.

また本実施形態では、撮影画像群(第1、第2の撮影画像群)は、対象物POBに対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる画像群になっている。例えば図9では、対象物POBに対する撮影方向DCMの変化が360度となる撮影方向範囲RDRで、撮影部162により対象物POBが撮影されている。例えば図9では、対象物POBの後方を撮影しているときの撮影部162の撮影方向DCMの角度が0度になっており、対象物POBの左側を撮影しているときの撮影方向DCMの角度が90度になっている。また対象物POBの前方を撮影しているときの撮影方向DCMの角度が180度になっており、対象物POBの右側を撮影しているときの撮影方向DCMの角度が270度になっている。図9の撮影方向範囲RDRは、撮影部162の撮影方向DCMが0度から360度まで変化する範囲となっている。但し、例えば撮影方向DCMの変化が0~90度及び360度~270度となるような180度の撮影方向範囲RDRに設定してもよいし、撮影方向範囲RDRを180度~360度の撮影方向範囲に設定してもよい。 Further, in the present embodiment, the captured image group (first and second captured image groups) is an image group in which the change in the imaging direction of the imaging unit 162 with respect to the object POB is 180 degrees or more. . For example, in FIG. 9, the object POB is photographed by the photographing unit 162 in the photographing direction range RDR in which the change of the photographing direction DCM with respect to the object POB is 360 degrees. For example, in FIG. 9, the angle of the imaging direction DCM of the imaging unit 162 when imaging the back of the object POB is 0 degrees, and the angle of the imaging direction DCM when imaging the left side of the object POB is 0 degrees. The angle is 90 degrees. Further, the angle of the imaging direction DCM when imaging the front of the object POB is 180 degrees, and the angle of the imaging direction DCM when imaging the right side of the object POB is 270 degrees. . A shooting direction range RDR in FIG. 9 is a range in which the shooting direction DCM of the shooting unit 162 changes from 0 degrees to 360 degrees. However, for example, the photographing direction range RDR may be set to 180 degrees such that the photographing direction DCM changes from 0 to 90 degrees and from 360 degrees to 270 degrees. You can also set the direction range.

このように対象物POBに対する撮影部162の撮影方向の変化が180度以上の撮影方向範囲となる撮影画像群を用いることで、プリミティブPMが様々な方向に回転移動等した場合にも、これに対応した適切な撮影画像に基づくテクスチャを生成してプリミティブPMにマッピングできるようになる。 By using a group of photographed images in which the change in the photographing direction of the photographing unit 162 with respect to the object POB is 180 degrees or more in this manner, even when the primitive PM is rotated in various directions, the photographing direction can be changed. It becomes possible to generate a texture based on a suitable corresponding photographed image and map it to the primitive PM.

なお図3(A)、図9では、例えば対象物POBの主軸に沿った鉛直方向を回転軸として撮影方向DCMを回転させた場合について示しているが、本実施形態はこれに限定されない。例えば対象物POBの主軸に直交する方向である水平方向を回転軸として撮影方向DCMを回転させながら対象物POBを撮影することで、撮影画像群を取得してもよい。このようにすれば例えば図6のC3やC4の方向にプリミティブPMを回転移動させる場合にも、当該回転移動に応じた適切な撮影画像に基づくテクスチャTEXをプリミティブPMにマッピングできるようになる。また図3(A)では対象物POBの方を回転させることで、図9に示すような撮影方向範囲RDRでの撮影画像群を取得しているが、撮影部162の方を対象物POBを中心として回転させることで、撮影方向範囲RDRでの撮影画像群を取得してもよい。即ち対象物POBを注視するような撮影方向DCMで、対象物POBを中心とする円上で撮影部162を移動させる。 Note that FIGS. 3A and 9 show the case where the imaging direction DCM is rotated around the vertical direction along the main axis of the object POB, for example, but the present embodiment is not limited to this. For example, the photographed image group may be obtained by photographing the object POB while rotating the photographing direction DCM about the horizontal direction, which is the direction orthogonal to the main axis of the object POB, as the rotation axis. In this way, even when the primitive PM is rotationally moved in the direction of C3 or C4 in FIG. 6, for example, it is possible to map the texture TEX based on the suitable photographed image corresponding to the rotational movement to the primitive PM. In FIG. 3A, by rotating the object POB, a group of photographed images in the photographing direction range RDR as shown in FIG. 9 is obtained. A captured image group in the shooting direction range RDR may be acquired by rotating around the center. That is, the photographing unit 162 is moved on a circle centered on the object POB in the photographing direction DCM such that the object POB is gazed at.

また図9のように複数の撮影方向で撮影する場合に、撮影方向の数、即ち撮影画像群の画像数はできる限り多いことが望ましい。例えば1秒間の画像のフレーム数をp(例えばp=30、60等)とした場合に、撮影方向の数に相当する撮影画像群の画像数は、p以上であることが望ましい。即ち、少なくともp個の撮影方向で対象物POBを撮影し、少なくともp個の撮影画像を含む撮影画像群を取得する。このようにすれば、少なくとも1秒間の間は、スムーズで適切なテクスチャの動画を再生して、プリミティブPMにマッピングできるようになる。 Further, when photographing is performed in a plurality of photographing directions as shown in FIG. 9, it is desirable that the number of photographing directions, that is, the number of images in the photographed image group is as large as possible. For example, when the number of image frames per second is p (eg, p=30, 60, etc.), the number of images in the captured image group corresponding to the number of shooting directions is preferably p or more. That is, the object POB is photographed in at least p photographing directions, and a photographed image group including at least p photographed images is obtained. In this way, smooth and well-textured animation can be played back and mapped onto the primitive PM for at least one second.

また本実施形態では、プリミティブPMの移動制御情報に応じて撮影画像群(第1、第2の撮影画像群)から選択された撮影画像に基づいて、プリミティブPMにマッピングするテクスチャを生成している。具体的には、例えば撮影画像群により構成される動画のシーク制御を移動制御情報に基づいて行うことで、撮影画像群から撮影画像を選択し、選択された撮影画像に基づいてテクスチャを生成する。 Further, in this embodiment, a texture to be mapped onto the primitive PM is generated based on the captured image selected from the captured image group (first and second captured image groups) according to the movement control information of the primitive PM. . Specifically, for example, a captured image is selected from the captured image group and a texture is generated based on the selected captured image by performing seek control of a moving image composed of a captured image group based on the movement control information. .

例えば図10では撮影画像IM1~IMjが撮影画像群であり、この撮影画像群から、プリミティブPMの移動制御情報に応じて選択された撮影画像IMiに基づきテクスチャが生成されて、プリミティブPMにマッピングされる。ここでi、jは1≦i≦jとなる整数である。例えばjは撮影画像群の画像数であり、前述のように1秒間の画像のフレーム数をpとした場合に、j≧pであることが望ましい。 For example, in FIG. 10, the photographed images IM1 to IMj are the photographed image group, and textures are generated from the photographed image group based on the photographed image IMi selected according to the movement control information of the primitive PM, and mapped to the primitive PM. be. Here, i and j are integers satisfying 1≤i≤j. For example, j is the number of images in the captured image group, and if p is the number of image frames per second as described above, it is desirable that j≧p.

そして図10では、IM1~IMjの撮影画像群により構成される動画のシーク制御が移動制御情報に基づいて行われる。例えば巻き戻しのシーク制御の場合には、図10の方向DS1へのシーク制御が行われて、IM1~IMjの撮影画像群の中から移動制御情報に応じた撮影画像が選択される。一方、早送りのシーク制御の場合には、方向DS2へのシーク制御が行われて、IM1~IMjの撮影画像群の中から移動制御情報に応じた撮影画像が選択される。例えば撮影画像IM1~IMjに対してシーク番号SN1~SNjが対応づけられていたとする。この場合に、例えばプリミティブPMの移動制御情報に応じて、シーク番号SN1~SNjのいずれかが選択され、選択されたシーク番号に対応づけられた撮影画像が選択されて、テクスチャが生成され、プリミティブPMにマッピングされる。例えば移動制御情報によりシーク番号SNiが選択された場合には、シーク番号SNiに対応づけられた撮影画像IMiが選択されて、テクスチャが生成され、プリミティブPMにマッピングされるようになる。このようにすれば、撮影画像群により構成される動画のシーク制御を有効活用して、プリミティブPMの移動制御情報に対応した適切な撮影画像を選択してテクスチャを生成し、プリミティブPMにマッピングできるようになる。 Then, in FIG. 10, seek control of a moving image composed of a group of photographed images IM1 to IMj is performed based on movement control information. For example, in the case of seek control for rewinding, seek control is performed in the direction DS1 in FIG. 10, and a photographed image corresponding to the movement control information is selected from a group of photographed images IM1 to IMj. On the other hand, in the case of fast-forward seek control, seek control is performed in the direction DS2, and a photographed image corresponding to the movement control information is selected from a group of photographed images IM1 to IMj. For example, it is assumed that seek numbers SN1 to SNj are associated with captured images IM1 to IMj. In this case, for example, one of the seek numbers SN1 to SNj is selected according to the movement control information of the primitive PM, the captured image associated with the selected seek number is selected, the texture is generated, and the primitive Mapped to PM. For example, when the seek number SNi is selected by the movement control information, the captured image IMi associated with the seek number SNi is selected, the texture is generated, and the texture is mapped onto the primitive PM. In this way, it is possible to effectively utilize the seek control of a moving image composed of a group of photographed images, select an appropriate photographed image corresponding to the movement control information of the primitive PM, generate a texture, and map it to the primitive PM. become.

また本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCを移動制御情報に応じて移動させる処理を行う。例えば図11(A)~図11(C)では、プリミティブPMに対してキャラクタCHの画像が描かれたテクスチャがマッピングされている。 Further, in the present embodiment, the processing of moving the primitive PM and the virtual camera VC according to the movement control information is performed while the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, in FIGS. 11A to 11C, a texture representing an image of the character CH is mapped onto the primitive PM.

なおキャラクタCHの画像は実際には2次元の画像であるが、図11(A)~図11(C)では、説明を理解しやすくするために、キャラクタCHの向く方向が分かるように模式的に記載している。以下の説明でも同様である。 Note that the image of the character CH is actually a two-dimensional image. described in The same applies to the following description.

図11(A)~図11(C)では、仮想カメラVCとプリミティブPMの間の距離は一定となっており、固定されている。即ち仮想カメラVCの視点位置PSとプリミティブPMの面との間の距離は一定になっている。またプリミティブPMは仮想カメラVCに正対するように配置されており、仮想カメラVCの視線方向VLがプリミティブPMの面に直交するように、プリミティブPMが配置されている。このように本実施形態では、プリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCを仮想空間において移動させる。例えばプリミティブPMとしてビルボードポリゴンを用いる。このようにすることで、プリミティブPMにテクスチャがマッピングされることにより表示されるキャラクタCH等の表示物の画像として、擬似的に3次元画像に見える画像を生成できるようになる。 In FIGS. 11A to 11C, the distance between the virtual camera VC and the primitive PM is constant and fixed. That is, the distance between the viewpoint position PS of the virtual camera VC and the plane of the primitive PM is constant. The primitive PM is arranged so as to face the virtual camera VC, and the primitive PM is arranged so that the line-of-sight direction VL of the virtual camera VC is orthogonal to the plane of the primitive PM. As described above, in this embodiment, the primitive PM and the virtual camera VC are moved in the virtual space while the positional relationship between the primitive PM and the virtual camera VC is fixed. For example, billboard polygons are used as primitive PMs. By doing so, it is possible to generate an image that looks like a pseudo three-dimensional image as an image of a display object such as the character CH that is displayed by mapping the texture onto the primitive PM.

そして図6のC1に示すように、例えば左方向を指示するプレーヤの操作入力が行われた場合には、図11(A)から図11(B)に示すように、仮想カメラVCの視点位置PSを支点(回転中心)としてプリミティブPMが左回りに回転移動する。このときに仮想カメラVCとプリミティブPMの間の距離は一定になっており、仮想カメラVCの視線方向VLはプリミティブPMの面に直交した状態になっている。このようにプリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCが、図6のC1に示すような左方向を指示する移動制御情報に基づいて、回転移動している。このときにプリミティブPMにマッピングされるキャラクタCHの画像は、図6のD2に示すように、左回り(反時計回り)に向きが変わるようにキャラクタCHを回転した画像になる。例えばキャラクタCHの画像は、キャラクタCHに対応する対象物POBを左後方側から見た画像になる。このようにすれば、プレーヤが左方向の操作指示を行った場合には、左回りに向きを変えたキャラクタCHの画像が、仮想空間画像として表示されるようになり、左方向の操作指示による移動制御情報に応じた適切なキャラクタCHの画像を表示することが可能になる。 As shown in C1 of FIG. 6, for example, when the player performs an operation input pointing to the left, the viewpoint position of the virtual camera VC is changed as shown in FIGS. 11A to 11B. The primitive PM rotates counterclockwise with the PS as a fulcrum (rotation center). At this time, the distance between the virtual camera VC and the primitive PM is constant, and the line-of-sight direction VL of the virtual camera VC is perpendicular to the plane of the primitive PM. With the positional relationship between the primitive PM and the virtual camera VC fixed as described above, the primitive PM and the virtual camera VC are rotationally moved based on the movement control information indicating the left direction as indicated by C1 in FIG. ing. The image of the character CH mapped to the primitive PM at this time is an image obtained by rotating the character CH so that the orientation changes to the left (counterclockwise), as indicated by D2 in FIG. For example, the image of the character CH is an image of the object POB corresponding to the character CH viewed from the left rear side. With this configuration, when the player issues a leftward operation instruction, the image of the character CH turned counterclockwise is displayed as a virtual space image. It is possible to display an appropriate image of the character CH according to the movement control information.

また図6のC2に示すように、例えば右方向を指示するプレーヤの操作入力が行われた場合には、図11(A)から図11(C)に示すように、仮想カメラVCの視点位置PSを支点としてプリミティブPMが右回りに回転移動する。このときに仮想カメラVCとプリミティブPMの間の距離は一定になっており、仮想カメラVCの視線方向VLはプリミティブPMの面に直交した状態になっている。このようにプリミティブPMと仮想カメラVCの位置関係が固定された状態で、プリミティブPM及び仮想カメラVCが、図6のC2に示すような右方向を指示する移動制御情報に基づいて、回転移動している。このときにプリミティブPMにマッピングされるキャラクタCHの画像は、右回り(時計回り)に向きが変わるようにキャラクタCHを回転した画像になる。例えばキャラクタCHの画像は、キャラクタCHに対応する対象物POBを右後方から見た画像になる。このようにすれば、プレーヤが右方向の操作指示を行った場合には、右回りに向きを変えたキャラクタCHの画像が、仮想空間画像として表示されるようになり、右方向の操作指示による移動制御情報に応じた適切なキャラクタCHの画像を表示することが可能になる。 As shown in C2 of FIG. 6, for example, when the player's operation input pointing to the right direction is performed, the viewpoint position of the virtual camera VC is changed as shown in FIGS. The primitive PM rotates clockwise with the PS as a fulcrum. At this time, the distance between the virtual camera VC and the primitive PM is constant, and the line-of-sight direction VL of the virtual camera VC is perpendicular to the plane of the primitive PM. With the positional relationship between the primitive PM and the virtual camera VC fixed as described above, the primitive PM and the virtual camera VC rotate and move based on the movement control information indicating the right direction as indicated by C2 in FIG. ing. At this time, the image of the character CH mapped to the primitive PM is an image obtained by rotating the character CH so that the orientation changes to the right (clockwise) direction. For example, the image of the character CH is an image of the object POB corresponding to the character CH viewed from the rear right. With this configuration, when the player issues a rightward operation instruction, the image of the character CH turned clockwise is displayed as a virtual space image. It is possible to display an appropriate image of the character CH according to the movement control information.

また本実施形態では図3(A)、図3(B)に示すように、撮影部162は、対象物POBと、対象物POBの背景BGを撮影する。例えば図3(A)の背景部20を撮影することで、図3(B)に示すように単色の背景BGが撮影されるようになる。そして撮影画像の各ピクセルの色が、背景の色に対応する色か否かを判断する。そして背景の色に対応する色のピクセルであると判断された場合には、背景の色に対応する色のピクセルを透明にする処理を行うことで、テクスチャを生成する。 Further, in the present embodiment, as shown in FIGS. 3A and 3B, the photographing unit 162 photographs the object POB and the background BG of the object POB. For example, by photographing the background portion 20 in FIG. 3A, a monochromatic background BG is photographed as shown in FIG. 3B. Then, it is determined whether or not the color of each pixel of the photographed image corresponds to the color of the background. Then, when it is determined that the pixel has a color corresponding to the background color, a texture is generated by performing processing to make the pixel having a color corresponding to the background color transparent.

図12に、背景の色に対応する色のピクセルを透明にする処理のフローチャートを示す。図12の処理は例えばピクセルシェーダにより実現できる。まず処理対象ピクセルの色を判断する(ステップS11)。そして処理対象ピクセルの色は背景の色に対応する色か否かを判断する(ステップS12)。例えばグリーンバックの場合には、処理対象ピクセルの色が緑である場合に、背景の色に対応する色であると判断される。ブルーバックの場合には、処理対象ピクセルの色が青である場合に、背景の色に対応する色であると判断される。そして処理対象ピクセルの色が背景の色に対応する色であると判断された場合には、処理対象ピクセルが透明に設定される(ステップS13)。α合成処理を例にとれば、処理対象ピクセルの色が背景の色に対応する色であると判断された場合には、当該処理対象ピクセルのα値がゼロに設定される。そして撮影画像の全てのピクセルを処理したか否かを判断し(ステップS14)、全てのピクセルを処理していない場合には、処理対象ピクセルを次のピクセルに設定して(ステップS15)、ステップS11に戻る。一方、撮影画像の全てのピクセルを処理した場合には、処理を終了する。 FIG. 12 shows a flow chart of processing for making pixels of a color corresponding to the background color transparent. The processing in FIG. 12 can be implemented by, for example, a pixel shader. First, the color of the pixel to be processed is determined (step S11). Then, it is determined whether or not the color of the pixel to be processed corresponds to the color of the background (step S12). For example, in the case of a green screen, when the color of the pixel to be processed is green, it is determined that the color corresponds to the background color. In the case of blue background, when the color of the pixel to be processed is blue, it is determined that the color corresponds to the background color. Then, when it is determined that the color of the pixel to be processed corresponds to the color of the background, the pixel to be processed is set to transparent (step S13). Taking the alpha compositing process as an example, if the color of the pixel to be processed is determined to correspond to the color of the background, the alpha value of the pixel to be processed is set to zero. Then, it is determined whether or not all the pixels of the captured image have been processed (step S14), and if not all the pixels have been processed, the pixel to be processed is set to the next pixel (step S15), and step Return to S11. On the other hand, when all the pixels of the captured image have been processed, the process ends.

図12に示すような処理を行うことで、図3(B)に示すような撮影画像IMから図4(B)に示すようなテクスチャTEXを生成できるようになる。これにより背景BGの部分に、仮想空間の他のオブジェクトが表示された適切な仮想空間画像を生成できるようになる。また図12に示す処理は、シェーダのプログラムによるピクセルシェーダにより実現でき、処理負荷が軽い簡素な処理で実現できる。従って図2(A)、図2(B)に示すように対象物POBを撮影してからワンアクションで、当該対象物POBに対応するキャラクタCH等の表示物を仮想空間に登場させる処理を、容易に実現することが可能になる。 By performing the processing shown in FIG. 12, the texture TEX shown in FIG. 4B can be generated from the captured image IM shown in FIG. 3B. This makes it possible to generate an appropriate virtual space image in which other objects in the virtual space are displayed in the background BG portion. Further, the processing shown in FIG. 12 can be realized by a pixel shader based on a shader program, and can be realized by simple processing with a light processing load. Therefore, as shown in FIGS. 2(A) and 2(B), the process of photographing the object POB and making a displayed object such as the character CH corresponding to the object POB appear in the virtual space with one action is as follows. It can be easily realized.

なお背景色は固定色である必要はなく、背景色を可変に設定できるようにしてもよい。例えば対象物POBの色に応じて、背景色を可変に設定する。例えば対象物POBに存在しない色に、背景色を設定したり、対象物POBの色の補色を背景色に設定する。具体的には図2(A)、図2(B)において、色を可変に設定できる背景部20を用いる。例えばプロジェクターにより、背景色となる所定色の光を投影することで、背景部20の色を可変に設定する。或いは背景部20として、曲面表示装置などの表示装置を用い、背景色となる所定色の画面を表示することで、背景部20の色を可変に設定する。このようにすることで、種々の対象物POBに応じた適切な色に背景色を設定できるようになる。 Note that the background color does not have to be a fixed color, and the background color may be set variably. For example, the background color is variably set according to the color of the object POB. For example, the background color is set to a color that does not exist in the object POB, or the complementary color of the color of the object POB is set as the background color. Specifically, in FIGS. 2A and 2B, a background portion 20 whose color can be variably set is used. For example, the color of the background portion 20 is variably set by projecting light of a predetermined color, which is the background color, using a projector. Alternatively, a display device such as a curved display device is used as the background portion 20 to display a screen of a predetermined color as the background color, thereby setting the color of the background portion 20 variably. By doing so, it becomes possible to set the background color to an appropriate color according to various objects POB.

また本実施形態では、移動制御情報に応じてプリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行う。そしてテクスチャがマッピングされたプリミティブの画像と、第2のプリミティブの画像とを含む画像を、仮想空間画像として生成する。 In addition, in this embodiment, movement processing is performed for a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information. Then, an image including the texture-mapped primitive image and the second primitive image is generated as a virtual space image.

例えば図13(A)では、第2のプリミティブとしてプリミティブPMV、PMBが、プリミティブPMの位置を基準に配置されている。図7で説明したように、プリミティブPMVはバーニアの噴射炎VNの画像を表示するためのプリミティブであり、プリミティブPMBはビーム砲が発射するビームBMの画像を表示するためのプリミティブである。なお噴射炎VNやビームBMの画像を3次元のオブジェクトを用いて生成してもよく、この場合にはプリミティブPMV、PMBは当該オブジェクトを構成するポリゴン等になる。 For example, in FIG. 13A, primitives PMV and PMB are arranged as a second primitive with reference to the position of primitive PM. As described with reference to FIG. 7, the primitive PMV is a primitive for displaying an image of the vernier jet flame VN, and the primitive PMB is a primitive for displaying an image of the beam BM fired by the beam cannon. The images of the jet flame VN and the beam BM may be generated using a three-dimensional object. In this case, the primitives PMV and PMB are polygons or the like that constitute the object.

そして図13(A)~図13(C)では、図11(A)~図11(C)で説明したように、移動制御情報に応じてプリミティブPMを移動する処理が行われている。またプリミティブPMにマッピングされるキャラクタCHの画像(テクスチャ)も、移動制御情報に応じた適切な撮影画像を用いて生成される。そして図13(A)~図13(C)では、移動制御情報に応じてプリミティブPMに対する相対的位置関係が変化するように、プリミティブPMV、PMBの移動処理が行われる。 13(A) to 13(C), as described with reference to FIGS. 11(A) to 11(C), the process of moving the primitive PM according to the movement control information is performed. An image (texture) of the character CH mapped onto the primitive PM is also generated using an appropriate photographed image corresponding to the movement control information. In FIGS. 13A to 13C, movement processing of the primitives PMV and PMB is performed so that the relative positional relationship with respect to the primitives PM changes according to the movement control information.

例えば図13(A)では、仮想カメラVCの視線方向VLの方向にキャラクタCHが向いている画像が、プリミティブPMにマッピングされている。具体的には、図9の撮影方向DCMが0度の場合のように、対象物POBを真後ろから撮影した撮影画像に基づき生成されたテクスチャが、キャラクタCHの画像としてプリミティブPMにマッピングされている。この場合には、キャラクタCHの真後ろの位置に、噴射炎VN用のプリミティブPMVが配置される。またキャラクタCHは例えば右手にビーム砲を持っているため、キャラクタCHの右前方向に、ビームBM用のプリミティブPMBが配置される。これにより図7に示すように、補助装置であるバーニアの位置から噴射炎VNが噴射されると共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 For example, in FIG. 13A, an image in which the character CH is directed in the line-of-sight direction VL of the virtual camera VC is mapped onto the primitive PM. Specifically, as in the case where the shooting direction DCM is 0 degrees in FIG. 9, the texture generated based on the photographed image of the object POB photographed directly behind is mapped to the primitive PM as the image of the character CH. . In this case, the primitive PMV for the injection flame VN is arranged at the position directly behind the character CH. Also, since the character CH has a beam cannon in its right hand, for example, a primitive PMB for beam BM is arranged in the front right direction of the character CH. As a result, as shown in FIG. 7, an appropriate virtual space image can be generated in which the jet flame VN is jetted from the position of the vernier, which is an auxiliary device, and the beam BM is jetted from the position of the beam cannon.

一方、図13(B)では、図6のC1に示すように、プレーヤにより左方向への操作指示が行われており、これにより、仮想カメラVCの位置を支点として、左回り(反時計回り)にプリミティブPMが回転移動している。このようなプリミティブPMの回転移動に伴い、プリミティブPMにマッピングされるキャラクタCHの画像も、図6のD2に示すように左回りに向きを変えた画像になる。そしてこのようにキャラクタCHの画像が左回りに向きを変えた画像になるのに連動するように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係も変化する。即ち、左回りに向きを変えたキャラクタCHの後方にプリミティブPMVが位置するように、プリミティブPMに対するプリミティブPMVの相対的位置関係を変化させる。具体的には、プリミティブPMを基準として左回りに、プリミティブPMVを回転移動させる。また左回りに向きを変えたキャラクタCHの右前方向にプリミティブPMBが位置するように、プリミティブPMに対するプリミティブPMBの相対的位置関係を変化させる。具体的には、プリミティブPMを基準として左回りに、プリミティブPMBを回転移動させる。このようにすることで、バーニアの位置から噴射炎VNが噴射される共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 On the other hand, in FIG. 13(B), as indicated by C1 in FIG. 6, the player has given an operation instruction to the left direction, so that the position of the virtual camera VC is used as a fulcrum to turn left (counterclockwise). ), the primitive PM is rotating. Along with such rotational movement of the primitive PM, the image of the character CH mapped on the primitive PM also turns counterclockwise as indicated by D2 in FIG. The relative positional relationship of the primitives PMV and PMB with respect to the primitive PM also changes so that the image of the character CH turns counterclockwise in this way. That is, the relative positional relationship of the primitive PMV with respect to the primitive PM is changed so that the primitive PMV is positioned behind the character CH whose direction is turned counterclockwise. Specifically, the primitive PMV is rotationally moved counterclockwise with respect to the primitive PM. Also, the relative positional relationship of the primitive PMB with respect to the primitive PM is changed so that the primitive PMB is positioned in the front right direction of the character CH whose direction is turned counterclockwise. Specifically, the primitive PMB is rotationally moved counterclockwise with respect to the primitive PM. By doing so, it becomes possible to generate an appropriate virtual space image in which the jet flame VN is ejected from the position of the vernier and the beam BM is emitted from the position of the beam cannon.

また図13(C)では、図6のC2に示すように、プレーヤにより右方向への操作指示が行われており、これにより、仮想カメラVCの位置を支点として、右回り(時計回り)にプリミティブPMが回転移動している。このようなプリミティブPMの回転移動に伴い、プリミティブPMにマッピングされるキャラクタCHの画像も、右回りに向きを変えた画像になる。そしてこのようにキャラクタCHの画像が右回りに向きを変えた画像になるのに連動するように、プリミティブPMに対するプリミティブPMV、PMBの相対的位置関係も変化する。即ち、右回りに向きを変えたキャラクタCHの後方にプリミティブPMVが位置するように、プリミティブPMを基準として右回りに、プリミティブPMVを回転移動させる。また右回りに向きを変えたキャラクタCHの右前方向にプリミティブPMBが位置するように、プリミティブPMを基準として右回りに、プリミティブPMBを回転移動させる。このようにすることで、バーニアの位置から噴射炎VNが噴射される共に、ビーム砲の位置からビームBMが発射される適切な仮想空間画像を生成できるようになる。 Also, in FIG. 13C, as shown in C2 of FIG. 6, the player has given an operation instruction to the right direction, so that the virtual camera VC moves rightward (clockwise) with the position of the virtual camera VC as a fulcrum. A primitive PM is rotating. Along with such rotational movement of the primitive PM, the image of the character CH mapped on the primitive PM also turns clockwise. The relative positional relationship of the primitives PMV and PMB with respect to the primitive PM also changes so that the image of the character CH turns clockwise in this way. That is, the primitive PMV is rotationally moved clockwise on the basis of the primitive PM so that the primitive PMV is positioned behind the character CH whose direction has been turned clockwise. Also, the primitive PMB is rotationally moved clockwise on the basis of the primitive PM so that the primitive PMB is positioned in the front right direction of the character CH whose direction is changed clockwise. By doing so, it becomes possible to generate an appropriate virtual space image in which the jet flame VN is ejected from the position of the vernier and the beam BM is emitted from the position of the beam cannon.

また本実施形態では、第2のプリミティブの隠面消去処理を、移動制御情報に応じて行う。例えば図13(B)では、ビームBMの画像は、仮想カメラVCから見てキャラクタCHに隠れて非表示になるべき画像になっている。例えば図13(A)のような位置関係においては、ビームBMの画像はキャラクタCHによって隠れずに表示されるべき画像になっている。しかしながら図13(B)のようなプリミティブPMの回転移動が行われて、プリミティブPMを基準にして左回りにプリミティブPMBが回転移動すると、プリミティブPMBのビームBMの画像は、キャラクタCHにより隠れて非表示になるべき画像になる。従って、この場合にはビームBM用のプリミティブPMBを隠面消去する処理を行う。このようにプリミティブPMBの隠面消去処理を行うことで、ビームBMの画像が仮想カメラVCから見て非表示になり、適切な仮想空間画像を生成できるようになる。即ち、通常ならば、仮想カメラVCから見たプリミティブPM、PMV、PMBの前後関係(奥行き値)を判断して隠面消去処理が行われる。この点、本実施形態では、プリミティブPMにマッピングされるキャラクタCHとビームBMや噴射炎VNとの前後関係を、移動制御情報に基づき判断して、隠面消去処理を行う。このようにすることで、適切な隠面消去が行われた仮想空間画像を生成できるようになる。 Further, in this embodiment, the hidden surface removal processing of the second primitive is performed according to the movement control information. For example, in FIG. 13B, the image of the beam BM is an image that should be hidden behind the character CH when viewed from the virtual camera VC. For example, in the positional relationship shown in FIG. 13A, the image of the beam BM is an image that should be displayed without being hidden by the character CH. However, when the primitive PM is rotationally moved as shown in FIG. 13B and the primitive PMB is rotationally moved counterclockwise with respect to the primitive PM, the image of the beam BM of the primitive PMB is hidden by the character CH. Becomes an image that should be displayed. Therefore, in this case, processing for hidden surface elimination is performed on the primitive PMB for the beam BM. By performing the hidden surface removal processing of the primitive PMB in this way, the image of the beam BM is hidden from the virtual camera VC, and an appropriate virtual space image can be generated. That is, normally, hidden surface removal processing is performed by judging the anteroposterior relationship (depth value) of the primitives PM, PMV, and PMB as seen from the virtual camera VC. In this regard, in this embodiment, the hidden surface removal process is performed by judging the anteroposterior relationship between the character CH mapped onto the primitive PM and the beam BM or jet flame VN based on the movement control information. By doing so, it becomes possible to generate a virtual space image in which hidden surface removal has been appropriately performed.

また本実施形態では対象物POBの分析結果に基づき設定される第2のプリミティブの初期配置位置から、プリミティブPMを基準に第2のプリミティブを移動させる処理を行う。例えば図14では、対象物POBのシルエット分析等の分析処理を行うことで、バーニアの噴射炎VNの噴射位置やビームBMの発射位置を特定する。即ち対象物POBの種類や形状に応じて、噴射炎VNの噴射位置やビームBMの発射位置は異なる。そこで、対象物POBの撮影画像に基づくシルエット分析等の分析処理を行うことで、対象物POBの種類や形状を特定して、噴射炎VNの噴射位置やビームBMの発射位置を特定する。そして図14に示すように、特定された噴射炎VNの噴射位置を、噴射炎VN用のプリミティブPMVの初期配置位置PI1に設定する。また、特定されたビームBMの発射位置を、ビームBM用のプリミティブPMBの初期配置位置PI2に設定する。そして、これらの初期配置位置PI1、PI2から、図13(A)~図13(C)に示すように、プリミティブPMVを基準にプリミティブPMV、PMBを移動させる処理を行う。即ちPI1、PI2を初期配置位置として、プリミティブPMVを基準にプリミティブPMV、PMBを回転移動させる。このようにすれば、対象物POBの分析結果に応じた適切な初期配置位置PI1、PI2にプリミティブPMV、PMBを配置し、移動制御情報に応じてプリミティブPMが移動した場合に、その移動に連動した適切な位置に噴射炎VNの画像やビームBMの画像を表示できるようになる。 Further, in this embodiment, processing is performed to move the second primitive based on the primitive PM from the initial placement position of the second primitive set based on the analysis result of the target object POB. For example, in FIG. 14, the injection position of the injection flame VN of the vernier and the emission position of the beam BM are specified by performing analysis processing such as silhouette analysis of the object POB. That is, the ejection position of the jet flame VN and the ejection position of the beam BM differ according to the type and shape of the object POB. Therefore, by performing analysis processing such as silhouette analysis based on the photographed image of the object POB, the type and shape of the object POB are specified, and the ejection position of the jet flame VN and the emission position of the beam BM are specified. Then, as shown in FIG. 14, the specified injection position of the injection flame VN is set to the initial placement position PI1 of the primitive PMV for the injection flame VN. Also, the identified beam BM emission position is set to the initial arrangement position PI2 of the primitive PMB for the beam BM. Then, as shown in FIGS. 13A to 13C, the primitives PMVs and PMBs are moved from these initial placement positions PI1 and PI2 with reference to the primitives PMVs. That is, with PI1 and PI2 as initial placement positions, the primitives PMV and PMB are rotationally moved with reference to the primitive PMV. In this way, the primitives PMV and PMB are placed at the appropriate initial placement positions PI1 and PI2 according to the analysis result of the target object POB, and when the primitive PM moves according to the movement control information, the movement is interlocked with the movement. The image of the injection flame VN and the image of the beam BM can be displayed at the appropriate position.

なお対象物POBにおいて、噴射炎VNの噴射位置やビームBMの発射位置にマーカを取り付けて、対象物POBの分析処理において、このマーカの認識処理を行うことで、第2のプリミティブの初期配置位置を決定してもよい。即ち、マーカの認識処理の結果に基づいて、噴射炎VN用のプリミティブPMVの初期配置位置PI1やビームBM用のプリミティブPMBの初期配置位置PI2に決定する。 In the target object POB, markers are attached to the jetting position of the jet flame VN and the emitting position of the beam BM, and in the analysis processing of the target object POB, the initial arrangement position of the second primitive is obtained by performing the recognition processing of these markers. may be determined. That is, the initial arrangement position PI1 of the primitive PMV for the jet flame VN and the initial arrangement position PI2 of the primitive PMB for the beam BM are determined based on the result of the marker recognition processing.

また本実施形態では、プリミティブPMV、PMBの画像である噴射炎VN、ビームBMの画像は、エフェクト画像である。即ち本実施形態では対象物POBを撮影部162により実写することで、テクスチャを生成して、対象物POBに対応するキャラクタCHの画像を表示しているが、噴射炎VNやビームBMなどのエフェクトの画像は、撮影部162による実写によっては撮影できない。そこで本実施形態では、噴射炎VNやビームBMなどのエフェクトの画像については、プリミティブPMに対して相対的に配置されたプリミティブPMV、PMBを用いて生成するようにしている。このようにすれば、撮影部162による実写によっては撮影できないエフェクトの画像を、対象物POBに対応するキャラクタCHの画像に付随して表示できるようになる。 In this embodiment, the images of the jet flame VN and the beam BM, which are the images of the primitive PMV and PMB, are effect images. That is, in the present embodiment, the image of the object POB is photographed by the photographing unit 162 to generate the texture and display the image of the character CH corresponding to the object POB. cannot be photographed by photographing by the photographing unit 162 . Therefore, in the present embodiment, images of effects such as jet flame VN and beam BM are generated using primitives PMV and PMB arranged relative to primitive PM. In this way, an effect image that cannot be photographed by the photographing unit 162 can be displayed along with the image of the character CH corresponding to the object POB.

また本実施形態では、仮想空間画像として、プリミティブの画像と、仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成し、生成された仮想空間画像に対してポストエフェクト処理を行う。例えば図15では、仮想空間画像として、プリミティブPMの画像であるキャラクタCHの画像と、仮想空間に設定される岩のオブジェクトOB1、OB2、OB3や敵キャラクタCHEのオブジェクトの画像を含む画像が生成されている。そして、このように生成された仮想空間画像に対してポストエフェクト処理を行う。例えば、ぼかし処理、明るさの調整処理又は色相の調整処理などのポストエフェクト処理を行う。例えば、他のオブジェクトOB1、OB2、OB3等が表示される仮想空間画像に対して、プリミティブPMにより表されるキャラクタCHの画像が違和感なく表示されるようにするポストエフェクト処理を行う。例えばプリミティブPMにより表されるキャラクタCHの輪郭をぼかすようなポストエフェクト処理を行って、キャラクタCHと仮想空間画像の境界である輪郭が目立たなくなるようにする。またキャラクタCHの画像の明るさと、周囲の仮想空間画像の明るさに差があった場合に、この差を小さくするようなポストエフェクト処理を行う。このようにすることで、撮影画像に基づき生成されるキャラクタCHの画像が、周囲の仮想空間に対して違和感なく溶け込んで見えるような高品質でリアルな仮想空間画像を生成できるようになる。 Also, in this embodiment, an image including a primitive image and images of a plurality of objects set in the virtual space is generated as the virtual space image, and post-effect processing is performed on the generated virtual space image. For example, in FIG. 15, as virtual space images, an image of a character CH, which is an image of a primitive PM, and an image including rock objects OB1, OB2, and OB3 set in the virtual space and an object image of an enemy character CHE are generated. ing. Then, post-effect processing is performed on the virtual space image generated in this manner. For example, post-effect processing such as blur processing, brightness adjustment processing, or hue adjustment processing is performed. For example, post-effect processing is performed on the virtual space image in which the other objects OB1, OB2, OB3, etc. are displayed so that the image of the character CH represented by the primitive PM is displayed in a natural manner. For example, post-effect processing is performed to blur the outline of the character CH represented by the primitive PM so that the outline, which is the boundary between the character CH and the virtual space image, becomes inconspicuous. Also, if there is a difference between the brightness of the image of the character CH and the brightness of the surrounding virtual space image, post-effect processing is performed to reduce this difference. By doing so, it is possible to generate a high-quality and realistic virtual space image in which the image of the character CH generated based on the captured image blends seamlessly into the surrounding virtual space.

また本実施形態では、他の表示物に対応する他の対象物を複数の撮影方向から撮影することで得られる他の表示物用の撮影画像群を取得する。そして他の表示物用の移動制御情報に応じて、他の表示物用の撮影画像群から選択された撮影画像に基づいて、他の表示物用のテクスチャを生成する。そして他の表示物用の移動制御情報に応じて変化する他の表示物用のテクスチャを、他の表示物用のプリミティブにマッピングして、仮想空間画像を生成する。ここで他の表示物は、例えば敵キャラクタである。 Further, in this embodiment, a group of photographed images for another display object obtained by photographing another object corresponding to another display object from a plurality of photographing directions is acquired. Then, according to the movement control information for the other display object, the texture for the other display object is generated based on the photographed image selected from the group of photographed images for the other display object. Then, the texture for the other display object, which changes according to the movement control information for the other display object, is mapped to the primitive for the other display object to generate a virtual space image. Here, another display object is, for example, an enemy character.

例えば図16では、他の表示物である敵キャラクタCHE1、CHE2の画像を含む仮想空間画像を生成している。この場合には敵キャラクタCHE1、CHE2に対応する対象物を複数の撮影方向から撮影することで得られる撮影画像群を取得する。例えば図3(A)、図3(B)と同様の手法により、敵キャラクタCHE1、CHE2に対応する敵ロボットのプラモデルを複数の撮影方向から撮影することで、敵キャラクタCHE1、CHE2用(他の表示物用)の撮影画像群を取得する。そして敵キャラクタCHE1、CHE2用の移動制御情報に応じて、敵キャラクタCHE1、CHE2用の撮影画像群から選択された撮影画像に基づいて、敵キャラクタCHE1、CHE2用のテクスチャTEXE1、TEXE2を生成する。即ち、敵キャラクタCHE1、CHE2は、敵キャラクタCHE1、CHE2用の移動制御情報に基づいて仮想空間内を移動する。この敵キャラクタCHE1、CHE2用の移動制御情報に基づいて、敵キャラクタCHE1、CHE2用の撮影画像群から撮影画像を選択して、敵キャラクタCHE1、CHE2用のテクスチャTEXE1、TEXE2を生成する。このようにすることで、プレーヤのキャラクタCHの場合と同様に、移動制御情報を反映させたテクスチャTEXE1、TEXE2を生成できるようになる。そして図16に示すように、生成されたテクスチャTEXE1、TEXE2を、敵キャラクタCHE1、CHE2用のプリミティブPME1、PME2にマッピングすることで、仮想空間画像を生成する。 For example, in FIG. 16, a virtual space image including images of enemy characters CHE1 and CHE2, which are other displayed objects, is generated. In this case, a group of photographed images obtained by photographing objects corresponding to enemy characters CHE1 and CHE2 from a plurality of photographing directions is obtained. For example, in the same manner as in FIGS. 3A and 3B, plastic models of enemy robots corresponding to enemy characters CHE1 and CHE2 are photographed from a plurality of photographing directions. (for display object) is acquired. Textures TEXE1 and TEXE2 for the enemy characters CHE1 and CHE2 are generated based on the captured images selected from the group of captured images for the enemy characters CHE1 and CHE2 according to the movement control information for the enemy characters CHE1 and CHE2. That is, the enemy characters CHE1 and CHE2 move in the virtual space based on the movement control information for the enemy characters CHE1 and CHE2. Based on the movement control information for the enemy characters CHE1 and CHE2, captured images are selected from a group of captured images for the enemy characters CHE1 and CHE2 to generate textures TEXE1 and TEXE2 for the enemy characters CHE1 and CHE2. By doing so, textures TEXE1 and TEXE2 that reflect the movement control information can be generated, as in the case of the player's character CH. Then, as shown in FIG. 16, a virtual space image is generated by mapping the generated textures TEXE1 and TEXE2 onto the primitives PME1 and PME2 for the enemy characters CHE1 and CHE2.

このようにすれば、敵キャラクタCHE1、CHE2についても、キャラクタCHの場合と同様に、敵キャラクタCHE1、CHE2に対応する対象物である敵ロボットのプラモデルを、仮想空間内に出現させるような演出が可能になる。これにより、プレーヤのロボットのプラモデルと敵ロボットのプラモデルとが仮想空間において対戦するというような、これまでにないゲームを実現できる。また敵キャラクタCHE1、CHE2の画像についても、敵キャラクタCHE1、CHE2用の移動制御情報を反映させた画像にすることができ、よりリアルな画像の生成が可能になる。例えば図16では、敵キャラクタCHE1については、プリミティブPME1を基準に右前方を向くような画像が生成され、キャラクタCHの方を向いている敵キャラクタCHE1の画像が、仮想空間画像として生成されるようになる。また敵キャラクタCHE2については、プリミティブPME2を基準に左前方を向くような画像が生成され、キャラクタCHの方を向いている敵キャラクタCHE2の画像が、仮想空間画像として生成されるようになる。これによりプレーヤの仮想現実感の向上等を図れる。 In this manner, for the enemy characters CHE1 and CHE2, as in the case of the character CH, an effect can be achieved in which plastic models of the enemy robots, which are objects corresponding to the enemy characters CHE1 and CHE2, appear in the virtual space. be possible. As a result, it is possible to realize an unprecedented game in which the plastic model of the player's robot and the plastic model of the enemy robot compete in a virtual space. In addition, the images of the enemy characters CHE1 and CHE2 can also be images that reflect the movement control information for the enemy characters CHE1 and CHE2, making it possible to generate more realistic images. For example, in FIG. 16, for the enemy character CHE1, an image is generated that looks forward right with respect to the primitive PME1, and an image of the enemy character CHE1 that faces the character CH is generated as a virtual space image. become. As for the enemy character CHE2, an image is generated that looks forward left based on the primitive PME2, and an image of the enemy character CHE2 that faces the character CH is generated as a virtual space image. As a result, the player's sense of virtual reality can be improved.

また本実施形態では、プリミティブPMの周囲にパーティクルが表示される画像を、仮想空間画像として生成する。例えば図17では、キャラクタCHの画像がマッピングされるプリミティブPMの周囲にパーティクルPTを発生させている。パーティクルPTの表示処理は、運動する粒子により構成される事象を表現するための処理であり、例えば物理シミュレーションによりパーティクルPTの移動等を制御する。例えばパーティクルPTの発生時の初速や重さ、重力や空気抵抗などの環境条件を設定することで、より精密なパーティクル制御を実現できる。一例としては、パーティクルPTの頂点座標を管理するバッファを記憶部170に設け、再帰的にシェーダ計算を行うことで、パーティクルPTの挙動を制御する。 Also, in this embodiment, an image in which particles are displayed around the primitive PM is generated as a virtual space image. For example, in FIG. 17, particles PT are generated around the primitive PM on which the image of the character CH is mapped. The display processing of the particles PT is processing for representing an event composed of particles in motion, and for example, controls the movement of the particles PT by physics simulation. For example, more precise particle control can be achieved by setting environmental conditions such as the initial velocity and weight of the particles PT, gravity, and air resistance when they are generated. As an example, the storage unit 170 is provided with a buffer for managing the vertex coordinates of the particles PT, and the behavior of the particles PT is controlled by recursively performing shader calculations.

即ち、本実施形態では対象物POBの2次元の撮影画像を用いて、擬似的に3次元画像に見えるキャラクタCHの画像を生成している。一方、仮想空間の他のオブジェクトについては3次元モデルにより表現されている。このため、何ら工夫を行わないと、擬似的な3次元画像であるキャラクタCHの画像と、3次元モデルである他のオブジェクトの画像との間に違和感が生じてしまい、プレーヤの仮想現実感を損ねるおそれがある。この点、図17に示すようにキャラクタCHの画像がマッピングされるプリミティブPMの周囲にパーティクルPTを発生すれば、プリミティブPMが仮想空間内を移動したときに、周囲に存在するパーティクルPTが要因となって、3次元の空間感を創出できる。これにより、あたかも3次元モデルのキャラクタCHが、3次元の仮想空間を移動しているかのような仮想現実感を、プレーヤに与えることが可能になる。 That is, in the present embodiment, the image of the character CH that looks like a pseudo three-dimensional image is generated using the two-dimensional captured image of the object POB. On the other hand, other objects in the virtual space are represented by three-dimensional models. Therefore, unless some measures are taken, the image of the character CH, which is a pseudo three-dimensional image, and the image of another object, which is a three-dimensional model, will cause a sense of incongruity, and the player's sense of virtual reality will be spoiled. There is a risk of loss. In this regard, if the particles PT are generated around the primitive PM to which the image of the character CH is mapped as shown in FIG. It becomes possible to create a three-dimensional sense of space. This makes it possible to give the player a virtual reality feeling as if the three-dimensional model character CH were moving in a three-dimensional virtual space.

図18に本実施形態の画像生成システムの業務用のゲーム装置210への適用例を示す。図18の画像生成システムでは、本体装置である業務用のゲーム装置210に加えて、撮影部162と、対象物POBが配置される配置部10と、回転移動機構12とが設けられている。具体的には図18の画像生成システムでは、撮影用筐体220が設けられており、この撮影用筐体220に、撮影部162と配置部10と回転移動機構12が設けられている。また撮影用筐体220には背景部20も設けられている。回転移動機構12は、配置部10に配置された対象物POBに対する撮影部162の撮影方向を変化させるための回転移動を行う機構である。図18では回転移動機構12が配置部10を回転させることで、対象物POBに対する撮影部162の撮影方向を変化させている。ゲーム装置210(本体側筐体)と撮影用筐体220は、例えば有線又は無線により通信接続されており、例えば回転移動機構12による配置部10の回転を、ゲーム装置210により制御できるようになっている。 FIG. 18 shows an application example of the image generating system of this embodiment to a business game device 210 . In the image generation system of FIG. 18, in addition to the commercial game device 210 which is the main device, a photographing section 162, an arrangement section 10 in which the object POB is arranged, and a rotational movement mechanism 12 are provided. Specifically, in the image generation system of FIG. 18, a photographing housing 220 is provided, and this photographing housing 220 is provided with a photographing section 162 , a placement section 10 , and a rotational movement mechanism 12 . A background section 20 is also provided in the imaging housing 220 . The rotational movement mechanism 12 is a mechanism that performs rotational movement for changing the photographing direction of the photographing unit 162 with respect to the object POB arranged in the arrangement unit 10 . In FIG. 18, the rotational movement mechanism 12 rotates the placement unit 10 to change the photographing direction of the photographing unit 162 with respect to the object POB. The game device 210 (body-side housing) and the shooting housing 220 are connected for communication, for example, by wire or wirelessly. ing.

図18の画像生成システムでは、プレーヤは、まず撮影用筐体220の配置部10に、プレーヤが撮影を希望するロボットのプラモデルなどの対象物POBを配置する。そしてゲーム装置210においてプレーヤが例えば撮影を指示する操作を行うと、回転移動機構12が配置部10を回転させ、撮影部162が、図9に示すように360度の撮影方向範囲での対象物POBの撮影を行う。そして、撮影により得られた動画(撮影画像群)のデータは、ゲーム装置210に転送され、ゲーム装置210の記憶部170に保存される。そして図2(A)、図2(B)に示すように、プレーヤは、対象物POBの撮影からワンアクションで、対象物POBに対応するキャラクタCHが仮想空間に登場するゲームを、プレイできるようになる。これにより、プレーヤは、自身が所有するプラモデル等の対象物POBに対応するキャラクタCHを仮想空間に登場させて、キャラクタCHを用いたゲームを楽しむことが可能になり、これまでにないゲームの実現が可能になる。 In the image generation system of FIG. 18, the player first places an object POB, such as a plastic model of a robot that the player wishes to photograph, in the arrangement section 10 of the photographing housing 220 . Then, when the player performs an operation for instructing, for example, photographing on the game device 210, the rotation movement mechanism 12 rotates the placement unit 10, and the photographing unit 162 moves the object within a 360-degree photographing direction range as shown in FIG. Take a picture of POB. Data of the moving image (captured image group) obtained by shooting is transferred to the game device 210 and stored in the storage unit 170 of the game device 210 . As shown in FIGS. 2A and 2B, the player can play a game in which the character CH corresponding to the object POB appears in the virtual space with one action after photographing the object POB. become. As a result, the player can make the character CH corresponding to the object POB such as a plastic model owned by the player appear in the virtual space and enjoy the game using the character CH, realizing an unprecedented game. becomes possible.

また図19に示すように、対象物POBを空中に浮遊させた状態で支持する支持部16を設けることが望ましい。図19では、棒状の支持部16の一端が配置部10に取り付けられている。そしてロボットのプラモデルである対象物POBの臀部に穴部が設けられており、この穴部に対して、棒状の支持部16の他端を差し込むことで、対象物POBを空中に浮遊させた状態で支持できる。このようにすれば、対象物POBに対応するキャラクタCHとして、空中に浮遊した状態のポーズのキャラクタCHを出現させることが可能になり、プレーヤの多様な要望に応えることが可能になる。 Also, as shown in FIG. 19, it is desirable to provide a support portion 16 for supporting the object POB in a state of being suspended in the air. In FIG. 19 , one end of a rod-shaped support portion 16 is attached to the placement portion 10 . A hole is provided in the buttocks of the object POB, which is a plastic model of the robot. By inserting the other end of the rod-shaped support part 16 into this hole, the object POB is suspended in the air. can be supported by In this way, it is possible to make the character CH in a floating pose appear as the character CH corresponding to the object POB, and it is possible to meet various demands of the player.

なお図19では棒状の支持部16の他端を、対象物POBの臀部の穴部に差し込むことで、対象物POBを空中に浮遊させた状態で支持しているが、本実施形態の支持手法はこれには限定されない。例えばピアノ線などの細くて透明な線状部材により、対象物POBを宙づりにすることで、対象物POBを空中に浮遊させた状態で支持するようにしてもよい。或いは、対象物POBの頭部に穴部を設け、支持部16の他端を、この頭部の穴部に差し込むことで、逆さまの状態で対象物POBを空中に浮遊させて支持するようにしてもよい。この場合には、取得された撮影画像群の撮影画像の上下反転処理を行えばよい。 In FIG. 19, the other end of the rod-shaped support portion 16 is inserted into the hole of the buttocks of the object POB to support the object POB in a floating state in the air. is not limited to this. For example, by suspending the object POB in the air using a thin transparent linear member such as a piano wire, the object POB may be supported while floating in the air. Alternatively, by providing a hole in the head of the object POB and inserting the other end of the support part 16 into the hole in the head, the object POB can be floated in the air and supported upside down. may In this case, the photographed images of the acquired photographed image group may be vertically inverted.

2.3 第1、第2の撮影画像群からのテクスチャの生成
以上では、撮影画像群が1つである場合について主に説明した。以下では、第1、第2の撮影画像群などの複数の撮影画像群の撮影画像に基づいて、テクスチャを生成して、プリミティブPMにマッピングし、仮想空間画像を生成する手法について説明する。図20は、第1、第2の撮影画像群に基づく仮想空間画像の生成処理のフローチャートである。
2.3 Generating Textures from First and Second Groups of Photographed Images The case where there is one group of photographed images has been mainly described above. A method of generating a texture based on captured images of a plurality of captured image groups such as the first and second captured image groups, mapping the textures onto the primitive PM, and generating a virtual space image will be described below. FIG. 20 is a flowchart of virtual space image generation processing based on the first and second captured image groups.

まず、撮影部162により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群を取得する(ステップS21)。即ち図3(A)、図3(B)で説明した撮影手法により、第1の撮影画像群(第1の動画)を取得する。次に、ポーズを変化させた対象物、付随物を付加した対象物又は形状変形させた対象物を複数の撮影方向から撮影することで得られる第2の撮影画像群を取得する(ステップS22)。例えば後述の図21(A)、図21(B)に示すように、第1の撮影画像群における対象物のポーズを変化させた対象物POBを、複数の撮影方向(360度の撮影方向範囲)から撮影することで、第2の撮影画像群(第2の動画)を取得する。或いは図22(A)に示すように、第1の撮影画像群における対象物に対してキャノン砲CNのような武器や、防具等の付随物を付加した対象物POBを、複数の撮影方向から撮影することで、第2の撮影画像群を取得する。或いは図22(B)に示すように、第1の撮影画像群における対象物を形状変形させた対象物POBを、複数の撮影方向から撮影することで、第2の撮影画像群を取得する。或いは図23に示すように、第1の撮影画像群を加工することで第2の撮影画像群を取得する。そして、このようにして取得した第1、第2の撮影画像群を記憶部170に記憶して保存する(ステップS23)。 First, a first photographed image group obtained by photographing an object from a plurality of photographing directions by the photographing unit 162 is obtained (step S21). That is, a first captured image group (first moving image) is obtained by the imaging method described with reference to FIGS. 3A and 3B. Next, a second photographed image group obtained by photographing the object with the changed pose, the object with the attached object, or the object with the deformed shape from a plurality of photographing directions is acquired (step S22). . For example, as shown in FIGS. 21(A) and 21(B) described later, an object POB obtained by changing the pose of the object in the first photographed image group is captured in a plurality of photographing directions (a 360-degree photographing direction range). ) to acquire a second captured image group (second moving image). Alternatively, as shown in FIG. 22A, an object POB in which a weapon such as a cannon CN or accessories such as armor are added to the object in the first photographed image group is photographed from a plurality of photographing directions. A second photographed image group is acquired by photographing. Alternatively, as shown in FIG. 22B, a second captured image group is obtained by capturing an object POB obtained by deforming the shape of the object in the first captured image group from a plurality of capturing directions. Alternatively, as shown in FIG. 23, a second captured image group is obtained by processing the first captured image group. Then, the first and second captured image groups acquired in this way are stored and saved in the storage unit 170 (step S23).

次に第1、第2の撮影画像群から、プリミティブにマッピングするテクスチャを生成する(ステップS24)。例えば図4(A)、図4(B)、図12等で説明した手法により、第1、第2の撮影画像群の撮影画像に基づいてテクスチャを生成する。そして、生成されたテクスチャをプリミティブにマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS25)。例えば仮想空間においてプリミティブを移動させる処理を行い、第1、第2の撮影画像群から生成されたテクスチャを、仮想空間において移動するプリミティブにマッピングすることで、プリミティブにテクスチャがマッピングされた画像を含む仮想空間画像を生成する。 Next, textures to be mapped to primitives are generated from the first and second photographed image groups (step S24). For example, textures are generated based on the captured images of the first and second captured image groups by the method described with reference to FIGS. Then, the generated texture is mapped to primitives to generate a virtual space image seen from the virtual camera in the virtual space (step S25). For example, by performing processing to move primitives in virtual space and mapping textures generated from the first and second captured image groups to the primitives that move in virtual space, images in which textures are mapped to primitives are included. Generate a virtual space image.

このようにすれば、第1の撮影画像群のみならず、第2の撮影画像群を用いて、テクスチャを生成し、生成されたテクスチャがマッピングされたプリミティブの画像を含む仮想空間画像を生成できるようになる。例えば対象物の撮影画像だけではなく、ポーズを変化させた対象物の撮影画像、付随物を付加した対象物の撮影画像、形状変形させた対象物の撮影画像、或いは対象物の撮影画像を加工した撮影画像に基づいて、テクスチャを生成し、当該テクスチャがマッピングされたプリミティブの画像を含む仮想空間画像を生成できるようになる。従って、対象物に対応する表示物を仮想空間に出現させることができると共に、様々な態様の対象物の撮影画像による仮想空間画像を生成することが可能になる。 In this way, textures are generated using not only the first captured image group but also the second captured image group, and a virtual space image including primitive images to which the generated textures are mapped can be generated. become. For example, not only the photographed image of the object, but also the photographed image of the object with changed pose, the photographed image of the object with attached objects, the photographed image of the object whose shape is deformed, or the photographed image of the object is processed. A texture is generated based on the photographed image, and a virtual space image including a primitive image to which the texture is mapped can be generated. Therefore, it is possible to make a display object corresponding to the target object appear in the virtual space, and to generate virtual space images based on captured images of various modes of the target object.

例えば図21(A)は対象物POBの一例である。この対象物POBは、ロボットのプラモデルであり、配置部10に配置されている。そして回転移動機構12により配置部10を回転させることで、複数の撮影方向で撮影された対象物POBの撮影画像群を取得できる。図3(B)で説明したように、この撮影画像群の撮影画像は、対象物POBが映ると共に、背景部20による背景BGが映る画像になる。 For example, FIG. 21A is an example of the object POB. This target object POB is a plastic model of a robot and is arranged in the arrangement section 10 . By rotating the placement unit 10 with the rotation movement mechanism 12, it is possible to obtain a group of captured images of the object POB captured in a plurality of capturing directions. As described with reference to FIG. 3B, the photographed images of this photographed image group are images in which the object POB is captured and the background BG by the background section 20 is captured.

そして図21(B)では、ポーズを変化させた対象物POBが配置部10に配置されている。即ち図21(B)の対象物POBは、図21(A)とは異なったポーズをとっている。図21(B)の対象物POBは、図21(A)の対象物POB自体の関節等を曲げてポーズを変えたものであってもよいし、図21(A)の対象物POBとは別個にプレーヤが用意した対象物(第2の対象物)であってもよい。例えば図21(A)に示すような基本ポーズの対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第1の撮影画像群が取得される。また図21(B)に示すような所定ポーズの対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第2の撮影画像群が取得される。更にポーズを変化させて異ならせた対象物POBを撮影することで、第3、第4の撮影画像群というように3つ以上の撮影画像群を取得してもよい。 Then, in FIG. 21B, the object POB whose pose has been changed is arranged in the arrangement section 10 . That is, the object POB in FIG. 21(B) takes a pose different from that in FIG. 21(A). The object POB shown in FIG. 21B may be the object POB shown in FIG. It may be an object (second object) separately prepared by the player. For example, the object POB in the basic pose as shown in FIG. 21A is arranged in the arrangement unit 10, and photographed from a plurality of photographing directions to acquire a first photographed image group. Also, by arranging the target object POB in a predetermined pose as shown in FIG. Furthermore, three or more photographed image groups such as the third and fourth photographed image groups may be acquired by photographing the object POB with different poses.

また図22(A)では、付随物であるキャノン砲CNを付加した対象物POBが配置部10に配置されている。即ち図22(A)の対象物POBは、図21(A)にはないキャノン砲CNが付加されている。図22(A)の対象物POBは、図21(A)の対象物POB自体にキャノン砲CN等の付随物を付加したものであってもよいし、図21(A)の対象物POBとは別個にプレーヤが用意した付随物付きの対象物(第2の対象物)であってもよい。例えば図21(A)に示すようなキャノン砲CNを有しない対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第1の撮影画像群が取得される。また図22(A)に示すようなキャノン砲CNを装備した対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第2の撮影画像群が取得される。更に異なる付随物を付加した対象物POBを撮影することで、第3、第4の撮影画像群というように3つ以上の撮影画像群を取得してもよい。なお対象物POBに付加される付随物はキャノン砲CNには限定されず、キャノン砲CN以外の武器や、防具、装備品(武器、防具以外の装備品)、装飾品(アクセサリー、飾り等)、又は所持品(バッグ、時計等)などであってもよい。 Also, in FIG. 22A, the object POB to which the accompanying cannon CN is added is arranged in the arrangement section 10 . That is, the object POB in FIG. 22(A) is added with a cannon CN that is not in FIG. 21(A). The object POB of FIG. 22(A) may be the object POB itself of FIG. may be an object with an accompanying object (second object) separately prepared by the player. For example, an object POB without a cannon CN as shown in FIG. 21A is arranged in the arrangement unit 10, and photographed from a plurality of photographing directions to obtain a first photographed image group. Also, the object POB equipped with the cannon CN as shown in FIG. 22A is arranged in the arrangement unit 10 and photographed from a plurality of photographing directions to obtain a second photographed image group. Further, by photographing the object POB to which different accompanying objects are added, three or more photographed image groups such as the third and fourth photographed image groups may be acquired. Attachments added to the target object POB are not limited to the cannon CN, but weapons other than the cannon CN, armor, equipment (equipment other than weapons and armor), decorations (accessories, ornaments, etc.) , or personal belongings (bag, watch, etc.).

また図22(B)では、変身等により形状変形した対象物POBが配置部10に配置されている。即ち図22(B)の対象物POBは、図21(A)とは異なる形状に形状変形したものになっている。例えば地上用のロボットから、飛行機形状のロボットに形状変形している。図22(B)の対象物POBは、図21(A)の対象物POB自体のパーツ等を変更して形状変形させたものであってもよいし、図21(A)の対象物POBとは別個にプレーヤが用意した対象物(第2の対象物)であってもよい。例えば図21(A)に示すような通常タイプの対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第1の撮影画像群が取得される。また図22(B)に示すような特殊な形状に形状変形した対象物POBを配置部10に配置して、複数の撮影方向から撮影することで、第2の撮影画像群が取得される。更に異なる第3、第4の形状に形状変形した対象物POBを撮影することで、第3、第4の撮影画像群というように3つ以上の撮影画像群を取得してもよい。 Also, in FIG. 22B, the object POB whose shape has been deformed by transformation or the like is arranged in the arrangement section 10 . That is, the object POB in FIG. 22(B) is deformed into a shape different from that in FIG. 21(A). For example, a ground robot is transformed into an airplane-shaped robot. The object POB of FIG. 22(B) may be obtained by changing the parts of the object POB itself of FIG. may be an object (second object) separately prepared by the player. For example, a first captured image group is acquired by arranging a normal type target object POB as shown in FIG. Also, the object POB deformed into a special shape as shown in FIG. 22B is arranged in the placement unit 10 and photographed from a plurality of photographing directions to obtain a second photographed image group. Furthermore, three or more photographed image groups such as third and fourth photographed image groups may be acquired by photographing the object POB deformed into third and fourth different shapes.

また図23では、第1の撮影画像群の加工を行うことで第2の撮影画像群を取得している。例えば第1の撮影画像群の撮影画像に映るキャラクタ等の表示物が水平方向に引き延ばされるようなサイズ変更の拡大処理を行うことで、第2の撮影画像群が取得されている。例えば第1の撮影画像群の撮影画像に映るキャラクタ等の表示物の表示態様と、第2の撮影画像群の撮影画像に映るキャラクタ等の表示物の表示態様とを、異ならせるような加工処理が行われている。或いは第1の撮影画像群に対してぼかし処理などの画像エフェクト処理の加工処理を行ったり、第1の撮影画像群の色、明るさ又はコントラストを変更する加工処理を行ったり、或いは第1の撮影画像群の左右反転、上下反転又は回転などの加工処理を行ったりすることで、第2の撮影画像群を取得してもよい。或いは、敵からの攻撃によりキャラクタ等の表示物が破壊されるように見える加工処理を行って、第2の撮影画像群を取得してもよい。 Also, in FIG. 23, the second captured image group is obtained by processing the first captured image group. For example, the second photographed image group is acquired by performing enlargement processing for size change such that a display object such as a character appearing in the photographed images of the first photographed image group is stretched in the horizontal direction. For example, processing to make the display mode of a display object such as a character appearing in the shot images of the first shot image group and the display aspect of the display object such as a character appearing in the shot images of the second shot image group different. is being done. Alternatively, processing processing such as image effect processing such as blur processing may be performed on the first captured image group, processing processing may be performed to change the color, brightness or contrast of the first captured image group, or the first captured image group may be processed. A second group of captured images may be acquired by performing processing such as left-right inversion, up-down inversion, or rotation of a group of captured images. Alternatively, the second captured image group may be obtained by performing processing such that displayed objects such as characters are destroyed by an attack from an enemy.

また本実施形態では、図24に示すように、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択する。例えばプレーヤが第1の操作入力を行ったと判断された場合には、第1、第2の撮影画像群のうちの第1の撮影画像群を選択する。一方、プレーヤが第2の操作入力を行ったと判断された場合には、第1、第2の撮影画像群のうちの第2の撮影画像群を選択する。そして選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成し、生成されたテクスチャをプリミティブにマッピングすることで、仮想カメラから見える仮想空間画像を生成する。このようにすれば、プレーヤの操作入力情報に応じた適切な撮影画像群を選択し、選択された撮影画像群の撮影画像に基づくテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 Further, in this embodiment, as shown in FIG. 24, one of the first and second captured image groups is selected according to the player's operation input information. For example, when it is determined that the player has performed the first operation input, the first captured image group is selected from the first and second captured image groups. On the other hand, when it is determined that the player has performed the second operation input, the second captured image group is selected from the first and second captured image groups. Then, textures are generated based on the captured images of one of the selected captured image groups, and the generated textures are mapped to the primitives, thereby generating a virtual space image viewed from the virtual camera. In this way, an appropriate captured image group is selected according to the operation input information of the player, and the texture-mapped image based on the captured image of the selected captured image group is displayed on the display object corresponding to the target object. It can be generated as an image.

例えばプレーヤが、キャラクタを移動させるなどの通常の操作入力(第1の操作入力)を行っている場合には、図21(A)に示すような通常ポーズの対象物POBを撮影することにより得られた第1の撮影画像群を選択する。一方、プレーヤが、武器により敵を攻撃する操作入力(第2の操作入力)を行った場合には、図21(B)に示すような武器により攻撃するポーズの対象物POBを撮影することにより得られた第2の撮影画像群を選択する。これにより、武器により攻撃するポーズのキャラクタの画像を含む仮想空間画像を生成できるようになる。或いは、プレーヤがキャノン砲CNを装着する操作入力(第2の操作入力)を行った場合には、図22(A)に示すようなキャノン砲CNを装着した対象物POBを撮影することにより得られた第2の撮影画像群を選択する。これにより、キャノン砲CNを装備したキャラクタの画像を含む仮想空間画像を生成できるようになる。或いは、プレーヤが特殊形状に形状変形(変身)する操作入力(第2の操作入力)を行った場合には、図22(B)に示すような特殊形状に形状変形した対象物POBを撮影することにより得られた第2の撮影画像群を選択する。これにより、特殊形状に変形したキャラクタの画像を含む仮想空間画像を生成できるようになる。 For example, when the player performs a normal operation input (first operation input) such as moving a character, the object POB in the normal pose as shown in FIG. select the first group of captured images. On the other hand, when the player performs an operation input (second operation input) for attacking an enemy with a weapon, the target object POB is photographed in a pose of attacking with the weapon as shown in FIG. 21(B). A second captured image group obtained is selected. This makes it possible to generate a virtual space image including an image of the character in an attacking pose with a weapon. Alternatively, when the player performs an operation input (second operation input) to mount the cannon CN, the object POB to which the cannon CN is mounted as shown in FIG. select the second group of captured images. As a result, a virtual space image including an image of a character equipped with a cannon CN can be generated. Alternatively, when the player performs an operation input (second operation input) for deforming (transforming) into a special shape, the object POB deformed into a special shape as shown in FIG. 22B is photographed. A second captured image group obtained by the above is selected. As a result, it becomes possible to generate a virtual space image including an image of a character transformed into a special shape.

また本実施形態では、対象物の分析結果と、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択し、選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成する。このようにすれば、プレーヤの操作入力情報のみならず、対象物の分析結果に応じた適切な撮影画像群を選択し、選択された撮影画像群の撮影画像に基づくテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。図25はこのような手法による仮想空間画像の生成処理を説明するフローチャートである。 Further, in this embodiment, one of the first and second captured image groups is selected according to the analysis result of the object and the player's operation input information, and the selected one captured image group is selected. A texture is generated based on the captured image. In this manner, not only the operation input information of the player but also the appropriate photographed image group corresponding to the analysis result of the object is selected, and an image in which the texture based on the photographed image of the selected photographed image group is mapped is generated. , can be generated as an image of a display object corresponding to the object. FIG. 25 is a flow chart for explaining virtual space image generation processing by such a method.

まず撮影画像等に基づく対象物の分析処理を行う(ステップS31)。例えば対象物のシルエット分析等を行って、対象物の種類や形状を特定する。またプレーヤの操作入力情報を判断する(ステップS32)。例えば操作部160を用いてプレーヤが入力した操作入力情報に基づいて、プレーヤがどのような操作入力を行ったかを判断する。そして対象物の分析結果と、プレーヤの操作入力情報に応じて、第1、第2の撮影画像群の一方の撮影画像群を選択する(ステップS33)。例えば対象物の分析結果に基づいて、対象物の種類を特定し、プレーヤが、その種類の対象物について用意された特定の操作入力を行ったかを判断する。そして、選択された一方の撮影画像群の撮影画像に基づいて、テクスチャを生成し、生成されたテクスチャをマッピングして、仮想空間において仮想カメラから見える仮想空間画像を生成する(ステップS34、S35)。 First, the object is analyzed based on the photographed image or the like (step S31). For example, silhouette analysis of the object is performed to specify the type and shape of the object. Also, the operation input information of the player is determined (step S32). For example, based on the operation input information input by the player using the operation unit 160, it is determined what kind of operation input the player has performed. Then, one of the first and second captured image groups is selected according to the analysis result of the object and the player's operation input information (step S33). For example, based on the analysis result of the object, the type of the object is identified, and it is determined whether the player has performed a specific operation input prepared for that type of object. Then, textures are generated based on the captured images of one of the selected captured image groups, and the generated textures are mapped to generate a virtual space image seen from the virtual camera in the virtual space (steps S34, S35). .

例えば対象物が、ロボットのプラモデルである場合には、複数種類のロボットのプラモデルが存在するため、シルエット分析等により、どの種類のロボットのプラモデルを撮影したのかを特定する。そして、第1の種類のロボットのプラモデルである場合には、プレーヤが第1の操作入力を行ったときに、対応するキャラクタが特殊技を繰り出すようなゲームの設定になっていたとする。この場合には、撮影画像に基づく分析処理により、対象物であるロボットのプラモデルが第1の種類であることが特定され、且つ、プレーヤが第1の操作入力を行った場合に、特殊技を繰り出すときに使用される第2の撮影画像群を選択する。そして第2の撮影画像群の撮影画像に基づき生成されたテクスチャを、プリミティブにマッピングして、仮想空間画像を生成する。このようにすることで、第1の種類のロボットのプラモデルに対応するキャラクタが特殊技を繰り出す画像が生成されるようになり、仮想現実感の向上等を図れるようになる。 For example, if the target object is a plastic model of a robot, there are a plurality of types of plastic models of the robot, so silhouette analysis or the like is used to identify which type of plastic model of the robot is photographed. In the case of the plastic model of the first type of robot, the game is set such that when the player performs the first operation input, the corresponding character performs a special technique. In this case, the analysis processing based on the photographed image specifies that the plastic model of the robot, which is the target object, is of the first type, and when the player performs the first operation input, the special technique is executed. Select a second group of captured images to be used when moving out. Then, textures generated based on the captured images of the second captured image group are mapped to primitives to generate virtual space images. By doing so, an image in which the character corresponding to the plastic model of the first type of robot performs a special technique is generated, and the virtual reality can be improved.

また本実施形態では、移動制御情報に基づいて仮想空間においてプリミティブを移動させる処理を行う。そして図26に示すように、第1、第2の撮影画像群の一方の撮影画像群から移動制御情報に応じて選択された撮影画像に基づいて、テクスチャを生成する。そして移動制御情報に応じて変化するテクスチャを、プリミティブにマッピングして、仮想空間画像を生成する。このようにすれば、図3(A)~図11(C)で説明した手法により仮想空間画像を生成することが可能になり、移動制御情報に応じたキャラクタ等の表示物の適切な画像を生成できるようになる。 Further, in this embodiment, a process of moving the primitive in the virtual space is performed based on the movement control information. Then, as shown in FIG. 26, a texture is generated based on a photographed image selected from one of the first and second photographed image groups according to the movement control information. Then, the texture that changes according to the movement control information is mapped onto the primitive to generate a virtual space image. In this way, it becomes possible to generate a virtual space image by the method described with reference to FIGS. be able to generate.

また本実施形態では、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像を合成することで、テクスチャを生成する。 Further, in the present embodiment, the texture is generated by synthesizing the photographed images of the first photographed image group and the photographed images of the second photographed image group.

例えば図27(A)では、第1の撮影画像群である撮影画像IMX1~IMXjと、第2の撮影画像群である撮影画像IMY1~IMYjが取得されている。そして第1の撮影画像群の撮影画像IMXiと、第2の撮影画像群の撮影画像IMYiの合成を行うことで、合成画像IMXYを生成する。例えばα合成などの合成処理を行って、合成画像IMXYを生成する。そして合成画像IMXYに基づいてテクスチャを生成して、プリミティブにマッピングする。これにより、プリミティブの画像を含む仮想空間画像が生成される。このようにすれば、第1の撮影画像群の撮影画像と第2の撮影画像群の撮影画像の両方が反映させたテクスチャを生成し、生成されたテクスチャがマッピングされた画像を、対象物に対応する表示物の画像として生成できるようになる。 For example, in FIG. 27A, captured images IMX1 to IMXj as a first captured image group and captured images IMY1 to IMYj as a second captured image group are acquired. Then, the captured image IMXi of the first captured image group and the captured image IMYi of the second captured image group are combined to generate a combined image IMXY. For example, synthesis processing such as α synthesis is performed to generate a synthesized image IMXY. A texture is then generated based on the composite image IMXY and mapped to the primitive. As a result, a virtual space image including images of primitives is generated. In this manner, the texture is generated by reflecting both the captured image of the first captured image group and the captured image of the second captured image group, and the image mapped with the generated texture is applied to the object. It becomes possible to generate an image of the corresponding display object.

例えば図27(B)において、第1の撮影画像群が、対象物が第1のポーズである場合の撮影画像群であり、第2の撮影画像群が、対象物が第2のポーズである場合の撮影画像群であったとする。第1のポーズは例えば図21(A)に示すようなポーズであり、第2のポーズは例えば図21(B)に示すようなポーズである。そして図24、図25で説明したように、プレーヤの操作入力情報などに基づいて、第1の撮影画像群に基づくテクスチャによるキャラクタの画像の生成から、第2の撮影画像群に基づくテクスチャによるキャラクタの画像の生成に切り替える処理を行ったとする。このようにすることで、第1のポーズのキャラクタの画像が表示される仮想空間画像から、第2のポーズのキャラクタの画像が表示される仮想空間画像に切り替える処理が可能になる。例えば図21(A)のポーズのキャラクタの画像が表示される仮想空間画像から、図21(B)のポーズのキャラクタの画像が表示される仮想空間画像に切り替える処理が可能になる。この場合に、当該切り替え処理の切り替え期間において、第1、第2の撮影画像群の撮影画像の合成画像IMXYに基づくテクスチャを生成して、プリミティブにマッピングする。このようにすれば、第1のポーズと第2のポーズを補間するようなポーズのキャラクタの画像を、切り替え期間において表示できるようになる。例えば図21(A)のポーズと図21(B)のポーズを補間するような中間ポーズのキャラクタの画像を、切り替え期間において表示できるようになる。これによりモーション補間のような処理が可能になり、キャラクタのポーズのスムーズな切り替え処理を実現できるようになる。 For example, in FIG. 27B, the first group of captured images is a group of captured images when the object is in the first pose, and the second group of captured images is a group of captured images when the object is in the second pose. Assume that it is a group of captured images in the case. The first pose is, for example, the pose shown in FIG. 21(A), and the second pose is, for example, the pose shown in FIG. 21(B). Then, as described with reference to FIGS. 24 and 25, based on the player's operation input information, the character image is generated with the texture based on the first captured image group, and the character is generated with the texture based on the second captured image group. Suppose that the processing to switch to the generation of the image of By doing so, it becomes possible to switch from the virtual space image in which the image of the character in the first pose is displayed to the virtual space image in which the image of the character in the second pose is displayed. For example, it is possible to switch from the virtual space image in which the image of the character in the pose of FIG. 21A is displayed to the virtual space image in which the image of the character in the pose of FIG. 21B is displayed. In this case, during the switching period of the switching process, a texture based on the composite image IMXY of the captured images of the first and second captured image groups is generated and mapped to the primitive. By doing so, it is possible to display the image of the character in a pose that interpolates the first pose and the second pose during the switching period. For example, it is possible to display an image of a character in an intermediate pose that interpolates the pose of FIG. 21(A) and the pose of FIG. 21(B) during the switching period. This makes it possible to perform processing such as motion interpolation, enabling smooth transition processing between character poses.

なお、図21(A)のような対象物POBを撮影することによる第1の撮影画像群の撮影画像と、図21(A)のような形状変形した対象物POBを撮影することによる第2の撮影画像群の撮影画像の合成画像を用いて、図27(B)のような切り替え処理を行ってもよい。このようにすれば、キャラクタがスムーズに形状変形するような仮想空間画像を生成できるようになる。 Note that the photographed image of the first photographed image group obtained by photographing the object POB as shown in FIG. 21A and the second photographed image obtained by photographing the shape-deformed object POB such as FIG. Switching processing as shown in FIG. By doing so, it is possible to generate a virtual space image in which the character is smoothly deformed.

また本実施形態では、対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定されたゲームパラメータに基づいてゲーム処理を行う。図28に、このような処理を行う場合のフローチャートを示す。 Further, in this embodiment, the game parameters of the game played by the player are set based on the analysis result of the object, and the game processing is performed based on the set game parameters. FIG. 28 shows a flowchart for performing such processing.

まず撮影画像等に基づく対象物の分析処理を行う(ステップS41)。例えば対象物のシルエット分析等を行って、対象物の種類や形状を特定する。そして対象物の分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定する(ステップS42)。例えば対象物に対応するキャラクタ等の攻撃力、守備力、耐久力、移動能力、走行能力、特殊能力、特殊スキル、ヒットポイント、マジックポイント又はレベル等のゲームパラメータを設定する。例えばゲームパラメータの基本値である初期パラメータ値を設定する。そして設定されたゲームパラメータに基づいて、ゲーム処理を実行する(ステップS43)。例えば、設定されたゲームパラメータに基づいて、キャラクタ等が登場するゲームの処理が行われる。例えばゲームの開始処理、ゲームの進行処理、ゲームの終了処理又はゲーム成績の演算処理などが行われる。 First, an object analysis process is performed based on a photographed image or the like (step S41). For example, silhouette analysis of the object is performed to specify the type and shape of the object. Then, the game parameters of the game played by the player are set based on the analysis result of the object (step S42). For example, game parameters such as attack power, defense power, endurance, movement ability, running ability, special ability, special skill, hit point, magic point, or level of the character corresponding to the object are set. For example, initial parameter values, which are basic game parameter values, are set. Then, the game process is executed based on the set game parameters (step S43). For example, based on the set game parameters, a game process in which a character or the like appears is performed. For example, a game start process, a game progress process, a game end process, or a game result calculation process is performed.

このようにすれば、対象物の撮影画像に基づくキャラクタ等の表示物を表示できると共に、対象物の分析結果に基づいて、キャラクタ等の表示物が登場するゲームの処理に用いられるゲームパラメータを設定できるようになる。これにより対象物に対応する表示物が仮想空間に登場するゲームを実現できると共に、当該ゲームの処理のゲームパラメータについても、対象物の分析結果である対象物の種類等に基づき設定できるようになるため、これまでにない面白味のあるゲームを実現できるようになる。 In this way, a display object such as a character can be displayed based on the photographed image of the object, and game parameters used in the processing of the game in which the display object such as the character appears can be set based on the analysis result of the object. become able to. As a result, it is possible to realize a game in which displayed objects corresponding to the objects appear in the virtual space, and to set the game parameters for the processing of the game based on the type of the object, which is the analysis result of the object. Therefore, it becomes possible to realize a game with unprecedented interest.

なお、対象物のシルエット分析等の分析結果のみならず、プレーヤ情報に基づいて、ゲームパラメータを設定してもよい。例えばプレーヤの個人情報などに基づいて、初期値として設定されるゲームパラメータの値を変化させる。 It should be noted that the game parameters may be set based on the player information as well as the result of analysis such as silhouette analysis of the object. For example, based on the player's personal information, etc., the value of the game parameter set as the initial value is changed.

また本実施形態では、第1の撮影画像群を受け付けた後、第2の撮影画像群を受け付けた場合に、第2の撮影画像群が第1の撮影画像群と異なる撮影画像群か否かを判断する。そして、異なる撮影画像群と判断された場合に、第2の撮影画像群を記憶部170に記憶する。例えば撮影部162により対象物を撮影した場合に、撮影された第2の撮影画像群(第2の動画)が、過去に撮影された第1の撮影画像群(第1の動画)と異なる撮影画像群(動画)か否かを判断する。そして異なる撮影画像群であることを条件に、撮影された第2の撮影画像群(第2の動画)を記憶部170に保存する。例えば第2の撮影画像群が、第1の撮影画像群と同じ対象物を撮影した撮影画像群である場合には、記憶部170に保存しないようにする。図29は、このような撮影画像群の保存処理を説明するフローチャートである。 Further, in the present embodiment, when receiving a second group of captured images after receiving a first group of captured images, whether or not the second group of captured images is a group of captured images different from the first group of captured images is determined. to judge. Then, when the captured image group is determined to be different, the second captured image group is stored in the storage unit 170 . For example, when an object is photographed by the photographing unit 162, the photographed second photographed image group (second moving image) is different from the previously photographed first photographed image group (first moving image). It is determined whether or not it is an image group (moving image). Then, on condition that the captured image groups are different, the captured second captured image group (second moving image) is stored in the storage unit 170 . For example, if the second group of captured images is a group of captured images obtained by capturing the same object as the first group of captured images, they are not stored in the storage unit 170 . FIG. 29 is a flowchart for explaining such processing for saving a captured image group.

まず第1の撮影画像群を受け付けて、記憶部170に記憶して保存する(ステップS51)。そして第2の撮影画像群が受け付けられたか否かを判断する(ステップS52)。例えば撮影部162による撮影により第2の撮影画像群が取得されて受け付けられたか否かを判断する。そして第2の撮影画像群が受け付けられた場合に、第2の撮影画像群は第1の撮影画像群と異なる撮影画像群か否かを判断する(ステップS53)。そして第2の撮影画像群が第1の撮影画像群と異なる撮影画像群であると判断された場合に、第2の撮影画像群を記憶部170に記憶して保存する(ステップS54)。 First, the first captured image group is received and stored in the storage unit 170 (step S51). Then, it is determined whether or not the second captured image group has been received (step S52). For example, it is determined whether or not the second captured image group has been acquired by the imaging unit 162 and accepted. Then, when the second group of photographed images is accepted, it is determined whether the second group of photographed images is a group of photographed images different from the first group of photographed images (step S53). Then, when it is determined that the second group of captured images is a group of captured images different from the first group of captured images, the second group of captured images is stored and saved in the storage unit 170 (step S54).

以上のような処理を行えば、同じような撮影画像群(動画)が記憶部170に対して無駄に保存されてしまう事態を防止できる。一方、第2の撮影画像群に映る対象物が、第1の撮影画像群の対象物のポーズを変化させた対象物、付随物を付加した対象物、或いは形状変形した対象物である場合には、第2の撮影像群が第1の撮影画像群とは異なる撮影画像群であると判断される。このようにすることで、図20に示すように、第1、第2の撮影画像群から適切なテクスチャを生成して、プリミティブにマッピングし、対象物に対応する表示物が表示された仮想空間画像を生成できるようになる。 By performing the above-described processing, it is possible to prevent a situation in which a group of similar captured images (moving images) are wastefully stored in the storage unit 170 . On the other hand, when the object appearing in the second group of captured images is the object in which the pose of the object in the first group of captured images has been changed, the object to which accompaniments have been added, or the object whose shape has been deformed. is determined that the second group of captured images is a group of captured images different from the first group of captured images. By doing so, as shown in FIG. 20, an appropriate texture is generated from the first and second photographed image groups, mapped to the primitive, and the virtual space in which the display object corresponding to the target object is displayed. images can be generated.

また本実施形態では、第1、第2の撮影画像群からテクスチャを生成する際に、撮影画像に対するプレーヤの編集を受け付ける。即ちプレーヤによる撮影画像に対する編集を可能にする編集処理を行う。例えば図30に示すように第1、第2の撮影画像群から選択された撮影画像に対するプレーヤの編集を受け付ける。例えば撮影画像を修正する編集や、撮影画像にマーク、アイコンなどの付加表示物を付加する編集や、撮影画像を変形するなどの編集を、プレーヤが行われるようにする。そして編集後の撮影画像に基づいて、テクスチャを生成し、生成されたテクスチャをプリミティブにマッピングすることで、プリミティブの画像を含む仮想空間画像を生成する。 Further, in this embodiment, when textures are generated from the first and second groups of captured images, editing of the captured images by the player is accepted. That is, an editing process is performed to enable the player to edit the photographed image. For example, as shown in FIG. 30, the player's editing of the photographed image selected from the first and second photographed image groups is accepted. For example, the player can perform editing such as correcting the captured image, adding additional display items such as marks and icons to the captured image, and modifying the captured image. Then, textures are generated based on the edited photographed image, and the generated textures are mapped to the primitives, thereby generating a virtual space image including the images of the primitives.

このようにすれば、対象物の撮影画像そのものを用いるのではなく、プレーヤが所望の編集を行った後の撮影画像を用いて、テクスチャを生成し、当該テクスチャがマッピングされたプリミティブの画像を表示できるようになる。これにより、プリミティブの画像により、対象物に対応するキャラクタ等の表示物の画像を表示する場合に、修正された撮影画像に基づいて表示物の画像を表示したり、マーク、アイコンなどの付加表示物が付加された表示物の画像を表示できるようになる。 In this way, instead of using the photographed image of the object itself, the photographed image after desired editing by the player is used to generate the texture, and the image of the primitive to which the texture is mapped is displayed. become able to. As a result, when an image of a display object such as a character corresponding to an object is displayed using a primitive image, the image of the display object can be displayed based on the corrected photographed image, or additional displays such as marks and icons can be displayed. It becomes possible to display an image of a display object to which an object is added.

また本実施形態では、撮影部162による対象物の撮影と、対象物に対応するキャラクタ等を用いたゲームのプレイに対して、共通のポイントを消費するようにしてもよい。即ち、対象物の撮影に必要なコストと、ゲームプレイに必要なコストを共通化する。例えば、プレーヤがゲームプレイにより獲得したポイントを消費することで、対象物の撮影を許可するようにする。例えばゲームプレイを有料にして、プレーヤは、実通貨や、ゲーム内通貨などの仮想通貨を支払ってゲームをプレイする。そして、ゲームにおいてプレーヤがポイントを獲得すると、獲得したポイントの消費を条件にして、撮影部162による対象物の撮影を許可するようにする。例えば、プレーヤが初めてゲームプレイを行う際には、プレーヤが所持するプラモデルなどの対象物についての1回の撮影を許可する。そしてプレーヤは、撮影した対象物に対応するキャラクタ等が登場するゲームをプレイする。そして、このゲームにおいてプレーヤがポイントを獲得し、ポイントが一定値以上に達すると、プレーヤによる次の撮影を許可する。これによりプレーヤは、例えば図21(B)に示すようなポーズを異ならせたプラモデル(広義には対象物)や、図22(A)に示すような武器を装備させたプラモデルや、図22(B)に示すような形状変形したプラモデルを撮影できるようになる。そしてこれらのプラモデルに対応するキャラクタをゲームに登場させて、ゲームをプレイできるようになるため、繰り返しゲームプレイしても飽きが来にくいゲームを実現できるようになる。 Further, in the present embodiment, common points may be consumed for photographing an object by the photographing unit 162 and for playing a game using a character or the like corresponding to the object. That is, the cost required for photographing an object and the cost required for game play are made common. For example, the player is permitted to shoot an object by spending points earned by playing the game. For example, game play is charged, and the player pays real currency or virtual currency such as in-game currency to play the game. Then, when the player acquires points in the game, the photographing unit 162 is permitted to photograph the object on condition that the acquired points are consumed. For example, when the player plays the game for the first time, the player is permitted to take a picture of an object such as a plastic model possessed by the player once. The player then plays a game in which a character or the like corresponding to the photographed object appears. When the player obtains points in this game and the points reach a certain value or more, the player is permitted to take the next photograph. As a result, the player can, for example, use plastic models (objects in a broad sense) with different poses as shown in FIG. 21(B), plastic models equipped with weapons as shown in FIG. B) It becomes possible to photograph a deformed plastic model. Characters corresponding to these plastic models can be made to appear in the game, and the game can be played.

また本実施形態では、撮影画像からテクスチャを生成する際に種々の補正処理や修正処理を行ってもよい。例えばAI(Artificial Intelligence)などの機械学習を利用して、撮影画像からテクスチャを生成するようにしてもよい。例えばプレーヤが対象物を撮影することで取得された撮影画像を記憶部170に記憶して蓄積し、蓄積された撮影画像に基づいてAIなどの機械学習を行ってもよい。そして機械学習により生成された学習済みモデルを用いて、撮影画像に対する補正処理や修正処理などを行って、テクスチャを生成し、生成されたテクスチャをプリミティブにマッピングするようにしてもよい。 Further, in this embodiment, various correction processes and correction processes may be performed when generating textures from captured images. For example, machine learning such as AI (Artificial Intelligence) may be used to generate textures from captured images. For example, captured images acquired by the player capturing an object may be stored in the storage unit 170 and accumulated, and machine learning such as AI may be performed based on the accumulated captured images. Then, using a trained model generated by machine learning, correction processing, modification processing, or the like may be performed on the captured image to generate textures, and the generated textures may be mapped to primitives.

なお、上記のように本実施形態について詳細に説明したが、本開示の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本開示の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(対象物、表示物等)と共に記載された用語(プラモデル、キャラクタ等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また撮影画像群の取得処理、プリミティブの移動処理、テクスチャの生成処理、仮想空間画像の生成処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本開示の範囲に含まれる。 Although the present embodiment has been described in detail as above, those skilled in the art will easily understand that many modifications are possible without substantially departing from the novel matters and effects of the present disclosure. Accordingly, all such modifications are intended to be included within the scope of this disclosure. For example, a term (plastic model, character, etc.) that is described at least once in the specification or drawings together with a different term (object, display object, etc.) that has a broader definition or has the same meaning cannot be used anywhere in the specification or drawings. Different terms can be substituted. In addition, the acquisition processing of the photographed image group, the primitive movement processing, the texture generation processing, the virtual space image generation processing, etc. are not limited to those described in the present embodiment, and equivalent methods, processing, and configurations are also possible in the present invention. Included within the scope of disclosure.

POB 対象物、PM、PMV、PMB、PME1、PME2 プリミティブ、
TEX、TEXE1、TEXE2 テクスチャ、PT パーティクル、
CH キャラクタ、CHE、CHE1、CHE2 敵キャラクタ、CN キャノン砲、
OB1~OB3 オブジェクト、IM 撮影画像、BG 背景、
RDR 撮影方向範囲、VC 仮想カメラ、VL 視線方向、
PS 視点位置、RL レール、VM ビューボリューム、
VN 噴射炎、BM ビーム、DCM 撮影方向、
10 配置部、12 回転移動機構、16 支持部、20 背景部、
100 処理部、106 ゲーム処理部、108 編集処理部、110 取得部、
111 分析部、112 移動処理部、114 テクスチャ生成部、
120 画像生成部、130 音生成部、160 操作部、162 撮影部、
170 記憶部、176 撮影画像情報記憶部、177 仮想空間情報記憶部、
178 描画バッファ、180 情報記憶媒体、190 表示部、192 音出力部、
194 I/F部、195 携帯型情報記憶媒体、196 通信部、
200 処理装置、210 ゲーム装置、220 撮影用筐体
POB object, PM, PMV, PMB, PME1, PME2 primitive,
TEX, TEXE1, TEXE2 Texture, PT Particle,
CH character, CHE, CHE1, CHE2 enemy character, CN cannon,
OB1 to OB3 Object, IM Photographed image, BG Background,
RDR shooting direction range, VC virtual camera, VL viewing direction,
PS viewpoint position, RL rail, VM view volume,
VN jet flame, BM beam, DCM shooting direction,
10 placement part, 12 rotation movement mechanism, 16 support part, 20 background part,
100 processing unit, 106 game processing unit, 108 editing processing unit, 110 acquisition unit,
111 analysis unit, 112 movement processing unit, 114 texture generation unit,
120 image generation unit, 130 sound generation unit, 160 operation unit, 162 imaging unit,
170 storage unit, 176 captured image information storage unit, 177 virtual space information storage unit,
178 drawing buffer, 180 information storage medium, 190 display unit, 192 sound output unit,
194 I/F unit, 195 portable information storage medium, 196 communication unit,
200 processing device, 210 game device, 220 housing for photographing

Claims (19)

撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含み、
前記テクスチャ生成部は、
前記第1の撮影画像群の撮影画像と前記第2の撮影画像群の撮影画像を合成することで、前記テクスチャを生成することを特徴とする画像生成システム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs processing for moving primitives in a virtual space;
a texture generation unit that generates a texture to be mapped onto the primitive from the first and second captured image groups;
an image generation unit that maps the texture onto the primitive to generate a virtual space image viewed from a virtual camera in the virtual space;
including
The texture generation unit
An image generating system, wherein the texture is generated by synthesizing a photographed image of the first photographed image group and a photographed image of the second photographed image group.
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含み、
前記移動処理部は、
前記プリミティブと前記仮想カメラの位置関係が固定された状態で、前記プリミティブ及び前記仮想カメラを移動制御情報に応じて移動させる処理を行い、
前記テクスチャ生成部は、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記テクスチャとして生成し、
前記画像生成部は、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間画像を生成することを特徴とする画像生成システム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs processing for moving primitives in a virtual space;
a texture generation unit that generates a texture to be mapped onto the primitive from the first and second captured image groups;
an image generation unit that maps the texture onto the primitive to generate a virtual space image viewed from a virtual camera in the virtual space;
including
The movement processing unit
performing a process of moving the primitive and the virtual camera according to movement control information in a state where the positional relationship between the primitive and the virtual camera is fixed;
The texture generation unit
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; generating an image as the texture;
The image generator is
By mapping the texture generated from the photographed image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and the virtual space An image generation system characterized by generating an image.
請求項2において、
前記移動処理部は、
前記移動制御情報に応じて前記プリミティブに対する相対的位置関係が変化する第2のプリミティブの移動処理を行い、
前記画像生成部は、
前記テクスチャがマッピングされた前記プリミティブの画像と、前記第2のプリミティブの画像とを含む画像を、前記仮想空間画像として生成することを特徴とする画像生成システム。
In claim 2,
The movement processing unit
performing movement processing of a second primitive whose relative positional relationship with respect to the primitive changes according to the movement control information;
The image generator is
An image generation system, wherein an image including an image of the primitive to which the texture is mapped and an image of the second primitive is generated as the virtual space image.
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含み、
前記取得部は、
前記第1の撮影画像群を受け付けた後、前記第2の撮影画像群を受け付けた場合に、前記第2の撮影画像群が前記第1の撮影画像群と異なる撮影画像群か否かを判断することを特徴とする画像生成システム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs processing for moving primitives in a virtual space;
a texture generation unit that generates a texture to be mapped onto the primitive from the first and second captured image groups;
an image generation unit that maps the texture onto the primitive to generate a virtual space image viewed from a virtual camera in the virtual space;
including
The acquisition unit
After receiving the first group of captured images, when receiving the second group of captured images, determining whether the second group of captured images is a group of captured images different from the first group of captured images. An image generation system characterized by:
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
前記第1、第2の撮影画像群から前記テクスチャを生成する際に撮影画像に対するプレーヤの編集を受け付ける編集処理部と、
を含むことを特徴とする画像生成システム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space an image generator that generates a virtual space image seen from a virtual camera;
an editing processing unit that receives a player's editing of the shot image when generating the texture from the first and second shot image groups;
An image generation system comprising:
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含むことを特徴とする画像生成システム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space an image generator that generates a virtual space image seen from a virtual camera;
An image generation system comprising:
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
前記第1、第2の撮影画像群における前記対象物を分析し、分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定された前記ゲームパラメータに基づいてゲーム処理を行うゲーム処理部と、
を含むことを特徴とする画像生成システム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space an image generator that generates a virtual space image seen from a virtual camera;
A game in which the object in the first and second captured image groups is analyzed, game parameters of a game played by the player are set based on the analysis results, and game processing is performed based on the set game parameters. a processing unit;
An image generation system comprising:
撮影部と、対象物が配置される配置部と、背景部とを有する撮影用筐体と、
前記撮影部により前記対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
を含み、
前記撮影部は、前記対象物と、前記背景部を撮影し、
前記テクスチャ生成部は、
前記撮影部の撮影画像の各ピクセルの色が、前記背景部の色に対応する色か否かを判断して、前記背景部の色に対応する色のピクセルであると判断された場合には、前記背景部の色に対応する色のピクセルを透明にする処理を行うことで、前記テクスチャを生成することを特徴とする画像生成システム。
a photographing housing having a photographing unit, an arrangement unit in which an object is arranged, and a background unit;
A first photographed image group obtained by photographing the object from a plurality of photographing directions by the photographing unit, the object with a changed pose, the object with attached objects, or the object with deformed shape an acquisition unit that acquires an image group obtained by photographing an object from a plurality of photographing directions, or a second photographed image group that is an image group obtained by processing the first photographed image group;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space an image generator that generates a virtual space image seen from a virtual camera;
including
The photographing unit photographs the object and the background,
The texture generation unit
determining whether or not the color of each pixel of the captured image of the imaging unit corresponds to the color of the background portion; 7. An image generation system, wherein the texture is generated by performing processing to make pixels of a color corresponding to the color of the background portion transparent.
請求項1乃至8のいずれかにおいて、
前記テクスチャ生成部は、
プレーヤの操作入力情報に応じて、前記第1、第2の撮影画像群の一方の撮影画像群を選択し、選択された前記一方の撮影画像群の撮影画像に基づいて、前記テクスチャを生成することを特徴とする画像生成システム。
In any one of claims 1 to 8,
The texture generation unit
One of the first and second groups of captured images is selected according to player's operation input information, and the texture is generated based on the selected captured image of the selected one group of captured images. An image generation system characterized by:
請求項9において、
前記テクスチャ生成部は、
前記対象物の分析結果と、前記プレーヤの前記操作入力情報に応じて、前記第1、第2の撮影画像群の前記一方の撮影画像群を選択し、選択された前記一方の撮影画像群の撮影画像に基づいて、前記テクスチャを生成することを特徴とする画像生成システム。
In claim 9,
The texture generation unit
one of the first and second captured image groups is selected according to the analysis result of the object and the operation input information of the player; An image generation system that generates the texture based on a photographed image.
請求項1乃至10のいずれかにおいて、
前記第1、第2の撮影画像群は、前記対象物に対する前記撮影部の撮影方向の変化が180度以上の撮影方向範囲となる画像群であることを特徴とする画像生成システム。
In any one of claims 1 to 10,
The image generating system, wherein the first and second captured image groups are image groups in which the change in the imaging direction of the imaging unit with respect to the object is an imaging direction range of 180 degrees or more.
請求項1乃至11のいずれかにおいて、
前記画像生成部は、
前記仮想空間画像として、前記プリミティブの画像と、前記仮想空間に設定される複数のオブジェクトの画像とを含む画像を生成し、生成された画像に対してポストエフェクト処理を行うことを特徴とする画像生成システム。
In any one of claims 1 to 11,
The image generator is
An image characterized by generating an image including an image of the primitive and images of a plurality of objects set in the virtual space as the virtual space image, and performing post-effect processing on the generated image. generation system.
請求項1乃至12のいずれかにおいて、
前記撮影部と、
前記対象物が配置される配置部と、
前記配置部に配置された前記対象物に対する前記撮影部の撮影方向を変化させるための回転移動を行う回転移動機構と、
を含むことを特徴とする画像生成システム。
In any one of claims 1 to 12,
the imaging unit;
an arrangement unit in which the object is arranged;
a rotational movement mechanism that performs rotational movement for changing an imaging direction of the imaging unit with respect to the object placed in the placement unit;
An image generation system comprising:
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部として、
コンピュータを機能させ、
前記テクスチャ生成部は、
前記第1の撮影画像群の撮影画像と前記第2の撮影画像群の撮影画像を合成することで、前記テクスチャを生成することを特徴とするプログラム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs processing for moving primitives in a virtual space;
a texture generation unit that generates a texture to be mapped onto the primitive from the first and second captured image groups;
As an image generation unit that maps the texture to the primitive and generates a virtual space image viewed from a virtual camera in the virtual space,
make your computer work
The texture generation unit
A program for generating the texture by synthesizing the captured image of the first captured image group and the captured image of the second captured image group.
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部として、
コンピュータを機能させ、
前記移動処理部は、
前記プリミティブと前記仮想カメラの位置関係が固定された状態で、前記プリミティブ及び前記仮想カメラを移動制御情報に応じて移動させる処理を行い、
前記テクスチャ生成部は、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記テクスチャとして生成し、
前記画像生成部は、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを、前記プリミティブにマッピングして、前記仮想空間画像を生成することを特徴とするプログラム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs processing for moving primitives in a virtual space;
a texture generation unit that generates a texture to be mapped onto the primitive from the first and second captured image groups;
As an image generation unit that maps the texture to the primitive and generates a virtual space image viewed from a virtual camera in the virtual space,
make your computer work
The movement processing unit
performing a process of moving the primitive and the virtual camera according to movement control information in a state where the positional relationship between the primitive and the virtual camera is fixed;
The texture generation unit
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; generating an image as the texture;
The image generator is
By mapping the texture generated from the photographed image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and the virtual space A program characterized by generating images.
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記第1、第2の撮影画像群から、前記プリミティブにマッピングするテクスチャを生成するテクスチャ生成部と、
前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部として、
コンピュータを機能させ、
前記取得部は、
前記第1の撮影画像群を受け付けた後、前記第2の撮影画像群を受け付けた場合に、前記第2の撮影画像群が前記第1の撮影画像群と異なる撮影画像群か否かを判断することを特徴とするプログラム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs processing for moving primitives in a virtual space;
a texture generation unit that generates a texture to be mapped onto the primitive from the first and second captured image groups;
As an image generation unit that maps the texture to the primitive and generates a virtual space image viewed from a virtual camera in the virtual space,
make your computer work
The acquisition unit
After receiving the first group of captured images, when receiving the second group of captured images, determining whether the second group of captured images is a group of captured images different from the first group of captured images. A program characterized by:
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
前記第1、第2の撮影画像群から前記テクスチャを生成する際に撮影画像に対するプレーヤの編集を受け付ける編集処理部として、
コンピュータを機能させることを特徴とするプログラム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space an image generator that generates a virtual space image seen from a virtual camera;
An editing processing unit that receives a player's editing of the shot image when generating the texture from the first and second shot image groups,
A program characterized by making a computer work.
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部として、
コンピュータを機能させることを特徴とするプログラム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space As an image generator that generates a virtual space image seen from a virtual camera,
A program characterized by making a computer work.
撮影部により対象物を複数の撮影方向から撮影することで得られる第1の撮影画像群と、ポーズを変化させた前記対象物、付随物を付加した前記対象物又は形状変形させた前記対象物を複数の撮影方向から撮影することで得られる画像群、或いは前記第1の撮影画像群を加工した画像群である第2の撮影画像群と、を取得する取得部と、
取得された前記第1、第2の撮影画像群を記憶する記憶部と、
移動制御情報に基づいて、仮想空間においてプリミティブを移動させる処理を行う移動処理部と、
前記プリミティブの前記移動制御情報に基づいて前記第1、第2の撮影画像群の一方の撮影画像群から2次元画像である撮影画像を選択し、選択された前記撮影画像に映る前記対象物の画像を、前記プリミティブにマッピングするテクスチャとして生成するテクスチャ生成部と、
前記移動制御情報に基づき選択された前記撮影画像により生成された前記テクスチャを前記プリミティブにマッピングすることで、前記移動制御情報に応じて変化する前記テクスチャを前記プリミティブにマッピングして、前記仮想空間において仮想カメラから見える仮想空間画像を生成する画像生成部と、
前記第1、第2の撮影画像群における前記対象物を分析し、分析結果に基づいて、プレーヤがプレイするゲームのゲームパラメータを設定し、設定された前記ゲームパラメータに基づいてゲーム処理を行うゲーム処理部として、
コンピュータを機能させることを特徴とするプログラム。
A first photographed image group obtained by photographing an object from a plurality of photographing directions by a photographing unit, the object with a different pose, the object with attached objects, or the object with a deformed shape. an acquisition unit that acquires a group of images obtained by shooting from a plurality of shooting directions, or a second group of captured images that is a group of images obtained by processing the first group of captured images;
a storage unit that stores the acquired first and second captured image groups;
a movement processing unit that performs a process of moving a primitive in a virtual space based on the movement control information ;
selecting a photographed image that is a two-dimensional image from one of the first and second photographed image groups based on the movement control information of the primitive; a texture generation unit that generates an image as a texture to be mapped onto the primitive;
By mapping the texture generated from the captured image selected based on the movement control information to the primitive, the texture that changes according to the movement control information is mapped to the primitive, and in the virtual space an image generator that generates a virtual space image seen from a virtual camera;
A game in which the object in the first and second captured image groups is analyzed, game parameters of a game played by the player are set based on the analysis results, and game processing is performed based on the set game parameters. As a processing unit,
A program characterized by making a computer work.
JP2018248127A 2018-12-28 2018-12-28 Image generation system and program Active JP7335695B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018248127A JP7335695B2 (en) 2018-12-28 2018-12-28 Image generation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018248127A JP7335695B2 (en) 2018-12-28 2018-12-28 Image generation system and program

Publications (2)

Publication Number Publication Date
JP2020107252A JP2020107252A (en) 2020-07-09
JP7335695B2 true JP7335695B2 (en) 2023-08-30

Family

ID=71449207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018248127A Active JP7335695B2 (en) 2018-12-28 2018-12-28 Image generation system and program

Country Status (1)

Country Link
JP (1) JP7335695B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058045A (en) 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
JP2003141560A (en) 2001-10-31 2003-05-16 Koei:Kk Image generating method, recording medium, image generator, and program
JP2004173940A (en) 2002-11-27 2004-06-24 Nec Interchannel Ltd Fighting game system by information terminal, its method, information terminal and program
JP2006326021A (en) 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
US20150163402A1 (en) 2013-12-10 2015-06-11 Google Inc. Method and Apparatus for Centering Swivel Views
JP2017118979A (en) 2015-12-28 2017-07-06 株式会社バンダイナムコエンターテインメント Game device and program
JP6434667B1 (en) 2018-04-19 2018-12-05 株式会社 ディー・エヌ・エー Program, system, and method for providing virtual space

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002058045A (en) 2000-08-08 2002-02-22 Komatsu Ltd System and method for entering real object into virtual three-dimensional space
JP2003141560A (en) 2001-10-31 2003-05-16 Koei:Kk Image generating method, recording medium, image generator, and program
JP2004173940A (en) 2002-11-27 2004-06-24 Nec Interchannel Ltd Fighting game system by information terminal, its method, information terminal and program
JP2006326021A (en) 2005-05-27 2006-12-07 Dainippon Printing Co Ltd Fighting video game apparatus, fighting management server, program, and recording medium
US20150163402A1 (en) 2013-12-10 2015-06-11 Google Inc. Method and Apparatus for Centering Swivel Views
JP2017118979A (en) 2015-12-28 2017-07-06 株式会社バンダイナムコエンターテインメント Game device and program
JP6434667B1 (en) 2018-04-19 2018-12-05 株式会社 ディー・エヌ・エー Program, system, and method for providing virtual space

Also Published As

Publication number Publication date
JP2020107252A (en) 2020-07-09

Similar Documents

Publication Publication Date Title
US20090244064A1 (en) Program, information storage medium, and image generation system
JP5128276B2 (en) GAME DEVICE, GAME PROGRAM, COMPUTER-READABLE INFORMATION STORAGE MEDIUM, GAME SYSTEM, AND GAME PROCESSING METHOD
JP6362634B2 (en) Image generation system, game device, and program
JP2010033298A (en) Program, information storage medium, and image generation system
JP7418956B2 (en) Image generation system and program
JP2019152899A (en) Simulation system and program
JP2017138915A (en) Image generation system and program
JP7323751B2 (en) game system and program
JP3249955B2 (en) Image generation system and information storage medium
US6646642B1 (en) Method of creating image frames, storage medium and apparatus for executing program
JP2020204856A (en) Image generation system and program
JP4610748B2 (en) Image generation system, program, and information storage medium
JP3990258B2 (en) Image generation system, program, and information storage medium
JP4502678B2 (en) Program, information storage medium, and image generation system
JP4868586B2 (en) Image generation system, program, and information storage medium
JP6732463B2 (en) Image generation system and program
JP7335695B2 (en) Image generation system and program
JP7104539B2 (en) Simulation system and program
JP4447000B2 (en) Image generation system, program, and information storage medium
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4721476B2 (en) Image generation system and information storage medium
JP2004334801A (en) Image-generating system, program, and information storage medium
JP4632855B2 (en) Program, information storage medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP2003275460A (en) Game device and information storage medium

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20201207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230324

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230818

R150 Certificate of patent or registration of utility model

Ref document number: 7335695

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150