[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP5482394B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP5482394B2
JP5482394B2 JP2010090154A JP2010090154A JP5482394B2 JP 5482394 B2 JP5482394 B2 JP 5482394B2 JP 2010090154 A JP2010090154 A JP 2010090154A JP 2010090154 A JP2010090154 A JP 2010090154A JP 5482394 B2 JP5482394 B2 JP 5482394B2
Authority
JP
Japan
Prior art keywords
texture
image
coordinates
value
rendered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010090154A
Other languages
Japanese (ja)
Other versions
JP2011086277A (en
Inventor
泰大 古田
泰久 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010090154A priority Critical patent/JP5482394B2/en
Priority to US12/778,992 priority patent/US20100289798A1/en
Priority to CN201010178591.3A priority patent/CN101908221B/en
Publication of JP2011086277A publication Critical patent/JP2011086277A/en
Application granted granted Critical
Publication of JP5482394B2 publication Critical patent/JP5482394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Image Generation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、テクスチャーを貼り付けてレンダリングする際に用いられる画像データを処理する画像処理方法および画像処理装置に関する。   The present invention relates to an image processing method and an image processing apparatus for processing image data used when rendering by applying a texture.

従来、この種の画像処理方法としては、リアルタイムで3次元モデルをレンダリングしてディスプレイに表示するものや(例えば、特許文献1参照)、3次元モデルを予めレンダリングしてビットマップ画像を作成して保存しておきディスプレイの表示はビットマップ画像を読み込んで行なうものなどが提案されている。   Conventionally, as this type of image processing method, a three-dimensional model is rendered in real time and displayed on a display (see, for example, Patent Document 1), and a three-dimensional model is rendered in advance to create a bitmap image. It has been proposed to save and display the display by reading a bitmap image.

特開平07−152925号公報Japanese Patent Application Laid-Open No. 07-152925

前者の手法では、画面の表示周期よりも短い周期でレンダリング処理を行なう必要があるため、高い演算能力が要求される。したがって、用いるコンピューターによっては、演算能力に不足が生じ、レイトレーシングなどの高品質のレンダリングは行なうことができない。一方、後者の手法では、ビットマップ画像を表示するだけであるから、予め高品質のレンダリングを行なってビットマップ画像を作成しておくことにより、高品質の画像を表示することができるものの、現状では後から異なるテクスチャーに差し替えて使用することはできない。また、こうした画像データはサイズも大きく、搭載するメモリの容量によっては効率的に管理することも求められる。   In the former method, since it is necessary to perform the rendering process at a cycle shorter than the display cycle of the screen, a high calculation capability is required. Therefore, depending on the computer to be used, there is a shortage in computing ability, and high quality rendering such as ray tracing cannot be performed. On the other hand, since the latter method only displays a bitmap image, it is possible to display a high-quality image by creating a bitmap image by performing high-quality rendering in advance. Then you can't replace it with a different texture later. Further, such image data is large in size and is required to be managed efficiently depending on the capacity of the mounted memory.

本発明の画像処理方法および画像処理装置は、3次元モデルのレンダリング画像を効率良く管理することを主目的とする。
本発明の画像処理方法および画像処理装置は、上述の主目的を達成するために以下の手段を採った。
An image processing method and an image processing apparatus according to the present invention are mainly intended to efficiently manage a rendering image of a three-dimensional model.
The image processing method and the image processing apparatus of the present invention employ the following means in order to achieve the main object described above.

本発明の画像処理方法は、テクスチャーを3次元モデルに貼り付けてレンダリングしたレンダリング済み画像の座標と前記テクスチャーの座標との対応関係および前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す画像描画情報を取得し、前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を示す前記画像描画情報を線形圧縮方式により圧縮することを特徴とする。   According to the image processing method of the present invention, the correspondence between the coordinates of the rendered image obtained by pasting the texture on the three-dimensional model and the coordinates of the texture, the color of each pixel of the rendered image, and the pixel of the texture Image drawing information indicating a correspondence relationship between colors is acquired, and the image drawing information indicating a correspondence relationship between the coordinates of the rendered image and the coordinates of the texture is compressed by a linear compression method.

この本発明の画像処理方法では、テクスチャーとレンダリング済み画像との対応関係を示す画像描画情報のうち、少なくとも、レンダリング済み画像の座標とテクスチャーの座標との対応関係を示す画像描画情報については、線形圧縮方式により圧縮する。これにより、レンダリング済み画像を効率よく、かつ、画質の低下を抑制しながら管理する。   In the image processing method of the present invention, among the image drawing information indicating the correspondence between the texture and the rendered image, at least the image drawing information indicating the correspondence between the coordinate of the rendered image and the coordinate of the texture is linear. Compress using the compression method. Thereby, the rendered image is managed efficiently and while suppressing the deterioration of the image quality.

こうした本発明の画像処理方法において、レンダリング済み画像の画素ごとの色とテクスチャーの画素ごとの色との対応関係を示す画像描画情報は、JPEG圧縮方式であるものとすることもできる。   In such an image processing method of the present invention, the image drawing information indicating the correspondence between the color for each pixel of the rendered image and the color for each pixel of the texture may be a JPEG compression method.

また、本発明の画像処理方法において、レンダリング済み画像の座標とテクスチャーの座標とのいずれか一方の値を三角形分割により線形近似することによりデータを圧縮するものとすることもできる。こうすれば、画質の劣化を抑制しながら比較的簡易な処理により圧縮率を高めることができる。   In the image processing method of the present invention, data may be compressed by linearly approximating one of the values of the rendered image coordinates and the texture coordinates by triangulation. In this way, the compression rate can be increased by a relatively simple process while suppressing the deterioration of the image quality.

本発明の画像処理方法において、座標毎に異なる階調値が設定された所定パターンをテクスチャーとして3次元モデルに貼り付けてレンダリングし、該レンダリングによりビットマップ画像として得られたレンダリング済み画像を解析することによりレンダリング済み画像の座標とテクスチャーの座標との対応関係を設定して画像描画情報として保存し、所望のテクスチャーを画像として表示する際には、前記保存した画像描画情報に基づいて前記レンダリング済み画像中に前記所望のテクスチャーを配置して表示するものとすることもできる。こうすれば、3次元モデルをレンダリングした画像を所望のテクスチャーを差し替えて表示することができると共にリアルタイムで3次元モデルをレンダリングして表示するものに比して処理負担を少なくすることができる。ここで、画像の表示には、画像をフレーム単位で描画して動画像として表示するものが含まれる。この態様の本発明の画像処理方法において、前記レンダリング済み画像の各座標の階調値から対応する前記所定パターンの座標を特定することにより前記対応関係を導出するものとすることもできる。これらの態様の本発明の画像処理方法において、前記所定パターンは、テクスチャーの座標を2進数で表現したときのビット数と同数のパターンであって、各パターンには座標を2進数で表現したときの各ビットが対応づけられるとともに、各パターンの各座標の階調値は当該対応づけられたビットの値に応じた値に設定されているものとすることもできる。こうすれば、対応関係をより正確に設定することができる。この場合、前記2進数は、グレイコード(交番2進数)であるものとすることもできる。こうすれば、隣接する座標に移行する際に常に1ビットの変化しか生じないから、画像の階調値の誤差に起因して誤ったデータが取得されてしまうのを抑制することができる。これらの態様の本発明の画像処理方法において、前記所定パターンとして前記対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンを前記3次元モデルに貼り付けてレンダリングし、前記レンダリング済み画像における前記第1ベタ塗りパターンの階調値であるバイアス値をレンダリング済み画像の画素ごとの色とテクスチャーの画素ごとの色との対応関係を示す前記画像描画情報として保存し、前記保存したバイアス値に基づいて前記所望のテクスチャーの階調値をオフセットすることにより前記レンダリング済み画像の階調値に変換して表示するものとすることもできる。こうすれば、3次元モデルのレンダリングによる効果のうち元のテクスチャーに依存しないものを反映させることができる。この場合、バイアス値を線形圧縮方式により圧縮するものとすることもできる。さらに、これらの態様の本発明の画像処理方法において、前記所定パターンとして前記対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンと最大階調値でベタ塗りしてなる第2ベタ塗りパターンとを前記3次元モデルに貼り付けてそれぞれレンダリングし、前記レンダリング済み画像における前記第2ベタ塗りパターンの階調値と前記第1ベタ塗りパターンの階調値との偏差であるゲインを算出してレンダリング済み画像の画素ごとの色とテクスチャーの画素ごとの色との対応関係を示す前記画像描画情報として保存し、前記保存したゲインに基づいて前記所望のテクスチャーの階調値を前記レンダリング済み画像の階調値に変換して表示するものとすることもできる。こうすれば、3次元モデルのレンダリングによる効果のうち元のテクスチャーの階調値に影響を受けるものを反映させることができる。この場合、前記レンダリング済み画像にn枚(nは自然数)のテクスチャーを配置して表示する場合には、(n−1)枚の前記第1ベタ塗りパターンと1枚の前記第2ベタ塗りパターンとからなるセットをn個設定するとともに各セット毎に前記3次元モデルに前記第2ベタ塗りパターンを貼り付ける箇所が異なる第1のセット群と、n枚の前記第1ベタ塗りパターンからなる第2のセットとをそれぞれセット毎に前記3次元モデルに貼り付けてレンダリングし、前記第1のセット群を各セット毎にレンダリングすることにより得られる各レンダリング済み画像の階調値と前記第2のセットをレンダリングすることにより得られるレンダリング済み画像の階調値とを前記第1のセット群の各セット毎に比較することにより、前記3次元モデルにテクスチャーが貼り付けられた領域であるテクスチャー領域を特定し、該特定したテクスチャー領域に対して前記ゲインを算出するものとすることもできる。こうすれば、テクスチャー領域をより容易に特定することができる。なお、テクスチャーおよびレンダリング済み画像が複数の色成分(例えば3色)によって構成される場合、各色成分について第1のセット群と第2のセットを3次元モデルに貼り付けてレンダリングし、各色成分についてゲインを算出すればよい。   In the image processing method of the present invention, a predetermined pattern in which different gradation values are set for each coordinate is pasted and rendered as a texture on a three-dimensional model, and a rendered image obtained as a bitmap image by the rendering is analyzed Thus, the correspondence between the coordinates of the rendered image and the coordinates of the texture is set and saved as image drawing information, and when displaying a desired texture as an image, the rendering is performed based on the saved image drawing information. The desired texture may be arranged and displayed in the image. By doing so, it is possible to display an image obtained by rendering the three-dimensional model by replacing a desired texture, and it is possible to reduce the processing burden as compared with the case where the three-dimensional model is rendered and displayed in real time. Here, the display of the image includes an image that is drawn in units of frames and displayed as a moving image. In this aspect of the image processing method of the present invention, the correspondence relationship may be derived by specifying the corresponding coordinates of the predetermined pattern from the gradation value of each coordinate of the rendered image. In the image processing method of the present invention of these aspects, the predetermined pattern is a pattern having the same number of bits when the texture coordinates are expressed in binary numbers, and each pattern has coordinates expressed in binary numbers. It is also possible to associate each bit of, and set the gradation value of each coordinate of each pattern to a value corresponding to the value of the associated bit. In this way, the correspondence can be set more accurately. In this case, the binary number may be a gray code (alternate binary number). In this way, since only 1-bit change always occurs when moving to an adjacent coordinate, it is possible to suppress erroneous data from being acquired due to an error in the gradation value of the image. In the image processing method of the present invention according to these aspects, in addition to the correspondence setting pattern for setting the correspondence as the predetermined pattern, the first solid pattern formed by solid painting with a minimum gradation value is further described. A bias value, which is a gradation value of the first solid pattern in the rendered image, is rendered by pasting on a three-dimensional model, and the correspondence relationship between the color of each pixel of the rendered image and the color of each pixel of the texture It is also possible to store the image drawing information as shown and to convert the gradation value of the desired texture based on the stored bias value into the gradation value of the rendered image for display. . By doing this, it is possible to reflect the effect of rendering the three-dimensional model that does not depend on the original texture. In this case, the bias value may be compressed by a linear compression method. Furthermore, in the image processing method of the present invention of these aspects, in addition to the correspondence setting pattern for setting the correspondence as the predetermined pattern, a first solid pattern that is further solid-coated with a minimum gradation value And the second solid pattern formed by applying a solid color with the maximum gradation value are pasted on the three-dimensional model and rendered, respectively, and the gradation value of the second solid pattern and the first solid pattern in the rendered image are rendered. A gain that is a deviation from the gradation value of the paint pattern is calculated and stored as the image drawing information indicating the correspondence between the color of each pixel of the rendered image and the color of each pixel of the texture, and the saved gain is stored in the stored gain. Based on this, the gradation value of the desired texture may be converted into the gradation value of the rendered image and displayed. In this way, it is possible to reflect the effect of the original texture gradation value among the effects of rendering the three-dimensional model. In this case, when n (n is a natural number) textures are arranged and displayed on the rendered image, (n-1) first solid coating patterns and one second solid coating pattern are displayed. And a first set group consisting of n sets of first solid coating patterns, each of which has a different location where the second solid coating pattern is applied to the three-dimensional model. 2 sets are rendered on the 3D model for each set and rendered, and the first set group is rendered for each set. By comparing the gradation value of the rendered image obtained by rendering the set with each set of the first set group, the three-dimensional model Identifying a texture region which is a texture pasted region can also be made to calculate the gain with respect to the specified texture region. In this way, the texture area can be specified more easily. When the texture and the rendered image are composed of a plurality of color components (for example, three colors), the first set group and the second set are pasted and rendered on the three-dimensional model for each color component, and each color component is rendered. What is necessary is just to calculate a gain.

本発明の画像処理装置は、テクスチャーを3次元モデルに貼り付けてレンダリングしたレンダリング済み画像の座標と前記テクスチャーの座標との対応関係および前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す画像描画情報を取得する画像描画情報取得手段と、前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を示す前記画像描画情報を線形圧縮方式により圧縮する圧縮手段と、を備えることを要旨とする。   The image processing apparatus according to the present invention provides a correspondence relationship between coordinates of a rendered image obtained by pasting a texture on a three-dimensional model and the coordinates of the texture, a color for each pixel of the rendered image, and a pixel for each pixel of the texture. Image drawing information acquisition means for acquiring image drawing information indicating a correspondence relationship with a color, and compression means for compressing the image drawing information indicating a correspondence relation between the coordinates of the rendered image and the coordinates of the texture by a linear compression method And a gist of the above.

この本発明の画像処理装置では、テクスチャーとレンダリング済み画像との対応関係を示す画像描画情報のうち、少なくとも、レンダリング済み画像の座標とテクスチャーの座標との対応関係を示す画像描画情報については、線形圧縮方式により圧縮する。これにより、レンダリング済み画像を効率よく、かつ、画質の低下を抑制しながら管理することができる。   In the image processing apparatus of the present invention, among the image drawing information indicating the correspondence between the texture and the rendered image, at least the image drawing information indicating the correspondence between the coordinate of the rendered image and the coordinate of the texture is linear. Compress using the compression method. As a result, the rendered image can be managed efficiently and while suppressing deterioration in image quality.

特殊テクスチャーを説明する説明図。Explanatory drawing explaining a special texture. 特殊テクスチャーを説明する説明図。Explanatory drawing explaining a special texture. 非テクスチャー領域およびテクスチャー領域の説明図。Explanatory drawing of a non-texture area | region and a texture area | region. 画像処理方法に用いるコンピューター20の構成の概略を示す構成図。The block diagram which shows the outline of a structure of the computer 20 used for an image processing method. 特殊テクスチャー生成処理の一例を示すフローチャート。The flowchart which shows an example of a special texture production | generation process. 特殊テクスチャーの一例を示す説明図。Explanatory drawing which shows an example of a special texture. セット毎に特殊テクスチャーをレンダリングする様子を示す説明図。Explanatory drawing which shows a mode that a special texture is rendered for every set. レンダリング済み画像解析処理の一例を示すフローチャート。10 is a flowchart illustrating an example of rendered image analysis processing. バイアスBc,t(x,y)とゲインGc,t(x,y)を説明する説明図。Explanatory drawing explaining bias Bc, t (x, y) and gain Gc, t (x, y). 圧縮処理の一例を示すフローチャート。The flowchart which shows an example of a compression process. 線形圧縮処理の一例を示すフローチャート。The flowchart which shows an example of a linear compression process. 平面αと画素Cとの関係を示す説明図。Explanatory drawing which shows the relationship between the plane (alpha) and the pixel C. FIG. 平面βと画素Pとの関係を示す説明図。Explanatory drawing which shows the relationship between plane (beta) and the pixel P. FIG. 点集合G={A,B,C,P}を三角形分割する様子を示す説明図Explanatory drawing which shows a mode that a point set G = {A, B, C, P} is triangulated 線形圧縮の様子を示す説明図。Explanatory drawing which shows the mode of linear compression. 3つの差し替え用テクスチャーを示す説明図。Explanatory drawing which shows the texture for three replacements. 差し替え用テクスチャーのスライドショー表示の一例を示す説明図。Explanatory drawing which shows an example of the slide show display of the texture for replacement. 変形例の特殊テクスチャーを示す説明図。Explanatory drawing which shows the special texture of a modification. 変形例の特殊テクスチャーを用いてレンダリングする様子を示す説明図。Explanatory drawing which shows a mode that it renders using the special texture of a modification. 変形例の特殊テクスチャーを示す説明図。Explanatory drawing which shows the special texture of a modification.

次に、本発明の一実施形態の概略を説明する。
本発明の一実施形態は、仮想的な3次元の構造体に対して2次元のテクスチャーを貼り付け、貼り付け後の3次元の構造体を所定方向から眺めた状態を示す2次元の画像(以下、レンダリング済み画像と呼ぶ)を生成するレンダリング処理に関連した技術である。すなわち、本発明の一実施形態は、該レンダリング処理を行う際に扱う画像データを効率よく管理する圧縮方式を提供するための形態であり、当該圧縮方式は、レンダリング処理によって、テクスチャーが貼り付けられるテクスチャー領域と該テクスチャーが貼り付けられない領域とが併存するレンダリング済み画像が生成される場合に適用される。
Next, an outline of an embodiment of the present invention will be described.
One embodiment of the present invention is a two-dimensional image (a two-dimensional image) showing a state in which a two-dimensional texture is pasted on a virtual three-dimensional structure and the pasted three-dimensional structure is viewed from a predetermined direction. Hereinafter, the technique is related to a rendering process for generating a rendered image). That is, an embodiment of the present invention is a mode for providing a compression method for efficiently managing image data handled when the rendering process is performed. In the compression method, a texture is pasted by the rendering process. This is applied when a rendered image in which a texture area coexists with an area where the texture is not pasted is generated.

本実施形態においては、少ないリソースで上述のレンダリング処理を実施可能にするため、3次元モデルにテクスチャーが貼り付けられた後のレンダリング済み画像を比較して、テクスチャーからレンダリング済み画像を生成するための係数を画像描画情報として予め定義しておく構成としてある。   In the present embodiment, in order to enable the above-described rendering processing with fewer resources, the rendered image after the texture is pasted on the three-dimensional model is compared, and the rendered image is generated from the texture. The coefficient is defined in advance as image drawing information.

この係数は、任意のテクスチャーの画素の位置とレンダリング済み画像の画素の位置との対応関係および、各画素間での色の変化を規定した数式であり、以下の工程を経て算出される。
(A)貼り付けられるテクスチャーの特定
(B)レンダリング処理が輝度に与える影響の特定
(C)画素の位置の対応関係の特定
これらの工程は、任意のテクスチャーではなく、上述の係数を特定するために生成された所定パターンのテクスチャー(以下、特殊テクスチャーと呼ぶ)を利用して実施される。なお、特殊テクスチャーの大きさ(縦横の画素数)は、上述の2次元のテクスチャーと同数に設定される。以下、該(A)〜(C)の概略を説明する。
This coefficient is a mathematical expression that defines the correspondence between the pixel position of an arbitrary texture and the pixel position of the rendered image and the color change between the pixels, and is calculated through the following steps.
(A) Identification of texture to be pasted (B) Identification of influence of rendering processing on luminance (C) Identification of correspondence of pixel positions These steps are not for an arbitrary texture but for specifying the above-mentioned coefficients This is carried out using a predetermined pattern texture (hereinafter referred to as a special texture). Note that the size (number of vertical and horizontal pixels) of the special texture is set to the same number as the above-described two-dimensional texture. Hereinafter, the outline of (A) to (C) will be described.

(A)貼り付けられるテクスチャーの特定
図1Aは、レンダリング処理の概要を説明するための図である。本実施形態におけるレンダリング処理では、n枚(nは自然数)の2次元のテクスチャーを仮想的な3次元の構造体の各面に貼り付けたことを想定し、テクスチャーが貼り付けられた状態で当該3次元の構造体を所定方向から眺めた2次元の画像をレンダリング済み画像とする。従って、レンダリング済み画像においては、3次元の構造体の向きに応じて最大n枚のテクスチャーが視認される状態になる。同図1Aにおいては、仮想的な直方体Rに対して2次元のテクスチャーT1〜T6を貼り付けた場合のレンダリング済み画像をI0として示しており、6枚のテクスチャーT1〜T6のうち、3枚のテクスチャーT1〜T3が視認される例を示している。なお、同図1Aの例においては、仮想的な直方体Rが台上に置かれたことを想定しており、台上には直方体Rの影Sが形成されている。
(A) Identification of Texture to be Pasted FIG. 1A is a diagram for explaining an outline of rendering processing. In the rendering processing in the present embodiment, assuming that n (n is a natural number) two-dimensional texture is pasted on each surface of a virtual three-dimensional structure, the texture is pasted. A two-dimensional image obtained by viewing the three-dimensional structure from a predetermined direction is set as a rendered image. Therefore, in the rendered image, a maximum of n textures are visually recognized according to the direction of the three-dimensional structure. In FIG. 1A, a rendered image when a two-dimensional texture T 1 to T 6 is pasted on a virtual rectangular parallelepiped R is shown as I 0 , and six textures T 1 to T 6 are displayed. Of these, an example is shown in which three textures T 1 to T 3 are visually recognized. In the example of FIG. 1A, it is assumed that a virtual rectangular parallelepiped R is placed on a table, and a shadow S of the rectangular parallelepiped R is formed on the table.

このようなレンダリング処理は、3次元の構造体の特定の面に特定のテクスチャーを貼り付けることによって実現されるため、レンダリング済み画像のある座標には必ず一つのテクスチャーが対応し、複数のテクスチャーが対応することはない。すなわち、レンダリング済み画像の座標とテクスチャーの座標とは一対一の関係にある。そこで、本実施形態においては、特定の一枚のみを白、該特定の一枚以外を黒としたn枚の特殊テクスチャーを生成し、さらに、n枚の全てを黒とした特殊テクスチャーを生成し、レンダリング済み画像を比較することによって上述の特定の一枚である白い特殊テクスチャーが対応するレンダリング済み画像の位置を特定する。なお、ここでは、白の特殊テクスチャーが第2ベタ塗りパターンに相当し、黒の特殊テクスチャーが第1ベタ塗りパターンに相当する。   Since such a rendering process is realized by pasting a specific texture on a specific surface of a three-dimensional structure, a single texture always corresponds to a certain coordinate of the rendered image, and a plurality of textures There is no correspondence. That is, there is a one-to-one relationship between the coordinates of the rendered image and the coordinates of the texture. Therefore, in the present embodiment, n special textures are generated in which only one specific sheet is white and other than the specific one is black, and further, a special texture in which all n sheets are black is generated. Then, by comparing the rendered images, the position of the rendered image corresponding to the white special texture which is the above-mentioned specific sheet is specified. Here, the white special texture corresponds to the second solid pattern, and the black special texture corresponds to the first solid pattern.

図1B〜図1Dは、右側に示す6個の矩形にて、図1Aに示すテクスチャーT1〜T6の替わりに貼り付けられる特殊テクスチャーの例を示しており、図1Bにおいては、テクスチャーT1に相当する特殊テクスチャーのみが白、テクスチャーT2〜T6に相当する特殊テクスチャーが黒である例を示している。また、図1Cは、テクスチャーT1〜T6に相当する特殊テクスチャーが黒である例を示している。そして、以上の図1Bおよび図1Cに示す特殊テクスチャーに基づくレンダリング処理によって生成されたレンダリング済み画像をそれぞれI1,I2として示している。 FIGS. 1B to 1D show examples of special textures that are pasted in place of the textures T 1 to T 6 shown in FIG. 1A with six rectangles shown on the right side. In FIG. 1B, the texture T 1 is shown. only special texture corresponding white, special texture corresponding to the texture T 2 through T 6 indicates an example in which black. FIG. 1C shows an example in which the special texture corresponding to the textures T 1 to T 6 is black. The rendered images generated by the rendering process based on the special texture shown in FIGS. 1B and 1C are shown as I 1 and I 2 , respectively.

本実施形態においては、以上のようにして生成されたレンダリング済み画像I1,I2を比較することによって第2ベタ塗りパターンの特殊テクスチャーに対応するレンダリング済み画像の位置を特定する。すなわち、レンダリング済み画像の画素ごとにレンダリング済み画像I1,I2の輝度を比較すると、第2ベタ塗りパターンの特殊テクスチャーが貼り付けられた画素においては輝度に差異が生じるが、第1ベタ塗りパターンの特殊テクスチャーが貼り付けられた画素に差異は生じない。そこで、例えば、レンダリング済み画像I1の輝度がレンダリング済み画像I2の輝度よりも大きいか否かを判定する処理を各画素について行えば、レンダリング済み画像I1の輝度がレンダリング済み画像I2の輝度よりも大きいと判定された画素については、第2ベタ塗りパターンの特殊テクスチャーが貼り付けられたと判定することができる。 In this embodiment, the position of the rendered image corresponding to the special texture of the second solid pattern is specified by comparing the rendered images I 1 and I 2 generated as described above. That is, when the luminances of the rendered images I 1 and I 2 are compared for each pixel of the rendered image, the luminance is different in the pixels to which the special texture of the second solid pattern is pasted, but the first solid color There is no difference in the pixels to which the special texture of the pattern is pasted. Therefore, for example, if the process of determining whether the luminance of the rendered image I 1 is greater than the luminance of the rendered image I 2 is performed for each pixel, the luminance of the rendered image I 1 is that of the rendered image I 2 . For a pixel determined to be larger than the luminance, it can be determined that the special texture of the second solid coating pattern is attached.

すなわち、図1Bに示すように、テクスチャーT1を第2ベタ塗りパターンの特殊テクスチャーとしてレンダリング処理を行った場合のレンダリング済み画像I1と、図1Cに示すように、全てのテクスチャーを第1ベタ塗りパターンの特殊テクスチャーとしてレンダリング処理を行った場合のレンダリング済み画像I2とを比較することによって、テクスチャーT1が対応するレンダリング済み画像の位置が特定される。同様に、図1Dに示すように、テクスチャーT2を第2ベタ塗りパターンの特殊テクスチャーとしてレンダリング処理を行った場合のレンダリング済み画像I3とレンダリング済み画像I2とを比較することによって、テクスチャーT2が対応するレンダリング済み画像の位置が特定される。従って、n枚のテクスチャーのいずれか一枚を白、他を黒とした特殊テクスチャーをレンダリングしたレンダリング済み画像のそれぞれについて以上の処理を行えば、レンダリング済み画像においてn枚のテクスチャーが貼り付けられる位置が特定される。 That is, as shown in FIG. 1B, the rendered image I 1 when the texture T 1 is rendered as a special texture of the second solid pattern, and all the textures as the first solid as shown in FIG. 1C. The position of the rendered image corresponding to the texture T 1 is specified by comparing the rendered image I 2 when the rendering process is performed as the special texture of the paint pattern. Similarly, as shown in FIG. 1D, by comparing the rendered image I 3 and the rendered image I 2 when the rendering process is performed using the texture T 2 as the special texture of the second solid pattern, the texture T 2 is compared. The position of the rendered image corresponding to 2 is specified. Therefore, if the above processing is performed for each rendered image obtained by rendering a special texture in which any one of n textures is white and the others are black, the position where n textures are pasted in the rendered image Is identified.

(B)レンダリング処理が輝度に与える影響の特定
次に、レンダリング済み画像の各画素について、レンダリング処理が輝度に与える影響を特定する。図1Aに示すような、レンダリング処理は、各テクスチャーT1〜T6を仮想的な3次元の構造体に貼り付けた後に、仮想的な位置に設定された光源からの光や当該3次元の構造体の形状に起因する陰影等に所定の影響を受けるとみなしてレンダリング済み画像の輝度値を特定する。従って、当該所定の影響は、レンダリング済み画像の画素ごとに規定することができる。さらに、本実施形態においては、レンダリング済み画像の画素ごとの輝度値が、テクスチャーT1〜T6に依存しない定数成分(以下、バイアスBと呼ぶ)とテクスチャーT1〜T6の輝度に比例する比例成分(以下、ゲインGと呼ぶ)との和によって規定されるとみなす。
(B) Identification of Effect of Rendering Process on Brightness Next, the influence of the rendering process on luminance is specified for each pixel of the rendered image. As shown in FIG. 1A, the rendering process is performed by pasting each texture T 1 to T 6 on a virtual three-dimensional structure, and then the light from the light source set at the virtual position or the three-dimensional structure. The brightness value of the rendered image is specified on the assumption that the image is affected by a predetermined shadow or the like due to the shape of the structure. Therefore, the predetermined influence can be defined for each pixel of the rendered image. Further, in the present embodiment, the luminance value of each pixel of the rendered image, constant component that does not depend on the texture T 1 through T 6 (hereinafter, referred to as bias B) to be proportional to the brightness of the texture T 1 through T 6 It is considered to be defined by the sum of the proportional component (hereinafter referred to as gain G).

そこで、レンダリング済み画像の画素ごとにバイアスBとゲインGとを特定すれば、レンダリング処理が輝度に与える影響を特定することができる。この影響は、図1Cに示すような、n枚のテクスチャーを全て第1ベタ塗りパターンの特殊テクスチャーに取り替えてレンダリング処理を行ったレンダリング済み画像I2と図1B,図1Dに示すようなn枚のテクスチャーの特定の一枚を第2ベタ塗りパターンの特殊テクスチャー、他を第1ベタ塗りパターンの特殊テクスチャーに取り替えてレンダリング処理を行ったレンダリング済み画像I1,I3等を利用して特定することができる。 Therefore, if the bias B and the gain G are specified for each pixel of the rendered image, the influence of the rendering process on the luminance can be specified. As shown in FIG. 1C, this effect is caused by rendering the image I 2 in which all the n textures are replaced with the special texture of the first solid pattern and the rendering process is performed as shown in FIGS. 1B and 1D. One of the specified textures is specified using the special texture of the second solid pattern, and the other is replaced with the special texture of the first solid pattern, and the rendered images I 1 and I 3 are used for specification. be able to.

すなわち、図1Cに示すレンダリング済み画像I2は、n枚の全てが第1ベタ塗りパターンの特殊テクスチャーであり、当該第1ベタ塗りパターンの特殊テクスチャーを仮想的な3次元の構造体に貼り付けて生成したレンダリング済み画像の各画素において有意な輝度値(0より大きい輝度値)となるのであれば、当該輝度値は元のテクスチャーの影響を受けることなく有意な値となっていることが分かる。そこで、第1ベタ塗りパターンの特殊テクスチャーを仮想的な3次元の構造体に貼り付けて生成したレンダリング済み画像の各画素における輝度値をバイアスBとして定義することができる。 That is, in the rendered image I 2 shown in FIG. 1C, all n sheets are special textures of the first solid pattern, and the special texture of the first solid pattern is pasted on a virtual three-dimensional structure. If each pixel of the rendered image generated in this way has a significant luminance value (a luminance value greater than 0), it can be seen that the luminance value is a significant value without being affected by the original texture. . Therefore, the luminance value at each pixel of the rendered image generated by pasting the special texture of the first solid pattern on the virtual three-dimensional structure can be defined as the bias B.

一方、第2ベタ塗りパターンの特殊テクスチャーが貼り付けられた部分に相当するレンダリング済み画像の各画素における輝度値からバイアスBを減じれば、ゲインGを特定することができる。そこで、第2ベタ塗りパターンの特殊テクスチャーが貼り付けられた位置に対応したレンダリング済み画像の各画素からバイアスBを減じることによって各画素のゲインGを特定する。   On the other hand, the gain G can be specified by subtracting the bias B from the luminance value at each pixel of the rendered image corresponding to the portion to which the special texture of the second solid pattern is pasted. Therefore, the gain G of each pixel is specified by subtracting the bias B from each pixel of the rendered image corresponding to the position where the special texture of the second solid pattern is pasted.

(C)画素の位置の対応関係の特定
次に、レンダリング前後の画素の位置の対応関係を特定する。すなわち、テクスチャーの各画素の位置と、レンダリング済み画像の各画素の位置との対応関係が特定される。当該対応関係の特定は、特殊テクスチャーをレンダリングしたレンダリング済み画像に基づいて、当該レンダリング済み画像の座標(x,y)とテクスチャーの座標(X,Y)とを対応づけることによって実施される。但し、本実施形態において当該対応関係の特定は、x座標とX座標との対応関係を特定し、y座標とY座標との対応関係を特定する処理を行うことによって実施され、前者および後者のそれぞれを行うための特殊テクスチャー(対応関係設定用パターン)が生成される。
(C) Identifying correspondence between pixel positions Next, correspondence between pixel positions before and after rendering is identified. That is, the correspondence relationship between the position of each pixel of the texture and the position of each pixel of the rendered image is specified. The correspondence is specified by associating the coordinates (x, y) of the rendered image with the coordinates (X, Y) of the texture based on the rendered image obtained by rendering the special texture. However, in this embodiment, the correspondence is specified by specifying the correspondence between the x coordinate and the X coordinate and performing the process of specifying the correspondence between the y coordinate and the Y coordinate. A special texture (corresponding relationship setting pattern) for performing each is generated.

図2A〜図2Cは、x座標とX座標との対応関係を特定するために生成される特殊テクスチャーの例を示す図である。これらの図においては、横方向の画素の位置をX座標、x座標が規定し、縦方向の画素の位置をY座標、y座標が規定する座標系を採用している。また、ここでは、X座標、Y座標ともに値域が1〜8のテクスチャーを想定しているため、特殊テクスチャーもX座標、Y座標ともに値域が1〜8である。図2Aには、特殊テクスチャーの一つにおいてX座標の値を矢印で示している。また、x座標とX座標との対応関係を特定するために生成される特殊テクスチャーは、n枚のテクスチャーの全てについて同じパターンである。例えば、図2Aに示す例は図1Aに示すように6枚のテクスチャーT1〜T6を仮想的な3次元の構造体に貼り付ける場合に生成される特殊テクスチャーの例を示している。当該図2Aに示す例において、6枚のテクスチャーT1〜T6の替わりとされる特殊テクスチャーのパターンは全て同一である。 2A to 2C are diagrams illustrating examples of special textures generated for specifying the correspondence between the x coordinate and the X coordinate. In these drawings, a coordinate system is adopted in which the position of the pixel in the horizontal direction is defined by the X coordinate and the x coordinate, and the position of the pixel in the vertical direction is defined by the Y coordinate and the y coordinate. Further, here, since a texture having a value range of 1 to 8 is assumed for both the X coordinate and the Y coordinate, the special texture also has a value range of 1 to 8 for both the X coordinate and the Y coordinate. In FIG. 2A, the value of the X coordinate in one of the special textures is indicated by an arrow. The special texture generated for specifying the correspondence between the x coordinate and the X coordinate is the same pattern for all n textures. For example, the example shown in FIG. 2A shows an example of a special texture generated when 6 textures T 1 to T 6 are pasted on a virtual three-dimensional structure as shown in FIG. 1A. In the example shown in FIG. 2A, the patterns of the special textures that are used instead of the six textures T 1 to T 6 are all the same.

但し、x座標とX座標との対応関係を特定するために生成される特殊テクスチャーにおいては、X座標のビット数と同数のパターンが生成される。例えば、図2A〜図2Cに示す例においては、X座標の値域が1〜8であって3ビットであるため、3種類の特殊テクスチャーが生成される。すなわち、図2A,2B,2Cのそれぞれにおいて特殊テクスチャーのパターンは異なるパターンであるが、図2Aに示す特殊テクスチャー同士で比較するとn枚の特殊テクスチャーのパターンは同一である。   However, in the special texture generated to specify the correspondence between the x coordinate and the X coordinate, the same number of patterns as the number of bits of the X coordinate are generated. For example, in the example illustrated in FIGS. 2A to 2C, the X coordinate range is 1 to 8 and 3 bits, so three types of special textures are generated. That is, the special texture patterns are different in each of FIGS. 2A, 2B, and 2C, but when compared with the special textures shown in FIG. 2A, the n special texture patterns are the same.

さらに、本実施形態においては、3種類の特殊テクスチャーから同じX座標値の輝度を順に抽出して得られる輝度の順列が全てのX座標値において異なるように、当該3種類の特殊テクスチャーのパターンが設定されている。例えば、X座標値1の輝度を図2A,2B,2Cの順に抽出して得られる順列は(黒、黒、黒)であり、X座標値2の輝度を図2A,2B,2Cの順に抽出して得られる順列は(白、黒、黒)である。このように、全てのX座標値についての順列が全て異なるように特殊テクスチャーのパターンが設定されていると、これら3種類の特殊テクスチャーをレンダリング処理した後の3種類のレンダリング済み画像の各座標における輝度値に基づいて、元の特殊テクスチャーのX座標値を特定することができる。例えば、3種類のレンダリング済み画像の各座標における輝度値を順に参照することによって元の特殊テクスチャーの輝度の順列を特定すれば、レンダリング済み画像の各座標に対応する特殊テクスチャーのX座標値を特定することができる。   Furthermore, in this embodiment, the patterns of the three types of special textures are different so that the luminance permutation obtained by sequentially extracting the luminances of the same X coordinate values from the three types of special textures is different in all the X coordinate values. Is set. For example, the permutation obtained by extracting the luminance of the X coordinate value 1 in the order of FIGS. 2A, 2B, 2C is (black, black, black), and the luminance of the X coordinate value 2 is extracted in the order of FIGS. 2A, 2B, 2C. The permutation obtained is (white, black, black). As described above, when the pattern of the special texture is set so that the permutations of all the X coordinate values are all different, the three types of rendered images at the respective coordinates after the rendering processing of the three types of special textures are performed. Based on the luminance value, the X coordinate value of the original special texture can be specified. For example, if the permutation of the brightness of the original special texture is specified by sequentially referring to the brightness value at each coordinate of three types of rendered images, the X coordinate value of the special texture corresponding to each coordinate of the rendered image is specified. can do.

より具体的には、図2A〜図2Cに示す例において、レンダリング済み画像I4,I5,I6の位置P1の輝度値を順に抽出して特定される元の特殊テクスチャーの輝度の順列は(黒、黒、黒)である。この順列は元の特殊テクスチャーのX座標値1の輝度に対応しており、他のX座標値の輝度がこの順列に対応することはない。従って、この順列が抽出されたレンダリング済み画像の位置P1には、特殊テクスチャーのX座標値1の画像が貼り付けられていると特定することができる。 More specifically, in the example shown in FIGS. 2A to 2C, the permutation of the brightness of the original special texture specified by sequentially extracting the brightness values at the position P 1 of the rendered images I 4 , I 5 , and I 6. Is (black, black, black). This permutation corresponds to the brightness of the X coordinate value 1 of the original special texture, and the brightness of other X coordinate values does not correspond to this permutation. Therefore, it can be specified that the image of the X coordinate value 1 of the special texture is pasted at the position P 1 of the rendered image from which this permutation has been extracted.

そこで、本実施形態においては、特殊テクスチャーのX座標のビット数と同数の種類の特殊テクスチャーを各n枚生成してレンダリング処理を行い、上述の(A)によってn枚のテクスチャーのいずれかが貼り付けられることが特定されたレンダリング済み画像の各位置の輝度値を順に抽出する。そして、抽出された順列に基づいて元の特殊テクスチャーのX座標値を特定することにより、x座標とX座標との対応関係を特定する構成としている。   Therefore, in this embodiment, n special textures of the same number as the number of bits of the X coordinate of the special texture are generated and rendered, and any of the n textures is pasted according to (A) above. The luminance value at each position of the rendered image that is specified to be attached is extracted in order. Then, by specifying the X coordinate value of the original special texture based on the extracted permutation, the correspondence relationship between the x coordinate and the X coordinate is specified.

このようなx座標とX座標との対応関係は、例えば、X座標値をグレイコードで表現することによって特定する構成が好ましい。図2A〜図2Cに示す特殊テクスチャーのパターンは、グレイコードを用いてx座標とX座標との対応関係を特定する際に利用されるパターンである。すなわち、これらの例においては、グレイコードを用いてx座標とX座標との対応関係を特定するために、X座標値をグレイコードで表現した場合の最下位のビットの値が0の場合を黒、1の場合を白として図2Aに示すパターンを生成している。同様に、X座標値をグレイコードで表現した場合の最下位よりも一つ上位のビット(中位ビットと呼ぶ)の値が0の場合を黒、1の場合を白として図2Bに示すパターンを生成し、最上位のビットの値が0の場合を黒、1の場合を白として図2Cに示すパターンを生成している。すなわち、図2Aに示す特殊テクスチャーのパターンはX座標値をグレイコードで表現した場合の最下位のビット値に基づいて決定され、図2B,図2Cに示す特殊テクスチャーのパターンはX座標値をグレイコードで表現した場合の中位ビット、最上位のビット値に基づいて決定される。すなわち、図2A〜図2Cに示す例においては、ビット数3と同数のパターンが形成され、かつ、図2A,2B,2Cのそれぞれには最下位ビット、中位ビット、最上位ビットが対応づけられている。   Such a correspondence relationship between the x-coordinate and the X-coordinate is preferably specified by, for example, expressing the X-coordinate value by a gray code. The special texture patterns shown in FIGS. 2A to 2C are patterns used when the correspondence between the x coordinate and the X coordinate is specified using the gray code. That is, in these examples, in order to specify the correspondence between the x coordinate and the X coordinate using the gray code, the value of the least significant bit when the X coordinate value is expressed by the gray code is 0. The pattern shown in FIG. 2A is generated by setting the case of black 1 to white. Similarly, the pattern shown in FIG. 2B is assumed to be black when the value of the bit one higher than the least significant bit (referred to as the middle bit) in the case where the X coordinate value is expressed in gray code is 0, and white when it is 1. The pattern shown in FIG. 2C is generated with black when the value of the most significant bit is 0 and white when 1. That is, the special texture pattern shown in FIG. 2A is determined based on the least significant bit value when the X coordinate value is expressed by a Gray code, and the special texture pattern shown in FIGS. It is determined based on the middle bit and the most significant bit value when expressed in code. That is, in the example shown in FIGS. 2A to 2C, the same number of patterns as the number of bits 3 are formed, and the least significant bit, the middle bit, and the most significant bit are associated with FIGS. 2A, 2B, and 2C, respectively. It has been.

図2Dは、当該パターンの生成を説明する図である。同図2Dに示すように、X座標値1を示すグレイコードは(000)であり、最下位ビットが0、中位ビットが0、最上位ビットが0である。従って、図2Aに示す特殊テクスチャーのX座標値1の輝度は黒、図2Bに示す特殊テクスチャーのX座標値1の輝度は黒、図2Cに示す特殊テクスチャーのX座標値1の輝度は黒となる。同様に、X座標値2を示すグレイコードは(001)であり、最下位ビットが1、中位ビットが0、最上位ビットが0である。従って、図2Aに示す特殊テクスチャーのX座標値2の輝度は白、図2Bに示す特殊テクスチャーのX座標値2の輝度は黒、図2Cに示す特殊テクスチャーのX座標値2の輝度は黒となる。同様の処理をX座標値3〜8まで続けることにより、図2A〜図2Cのパターンが生成される。   FIG. 2D is a diagram illustrating generation of the pattern. As shown in FIG. 2D, the Gray code indicating the X coordinate value 1 is (000), the least significant bit is 0, the middle bit is 0, and the most significant bit is 0. Therefore, the brightness of the X coordinate value 1 of the special texture shown in FIG. 2A is black, the brightness of the X coordinate value 1 of the special texture shown in FIG. 2B is black, and the brightness of the X coordinate value 1 of the special texture shown in FIG. Become. Similarly, the Gray code indicating the X coordinate value 2 is (001), the least significant bit is 1, the middle bit is 0, and the most significant bit is 0. Therefore, the brightness of the X coordinate value 2 of the special texture shown in FIG. 2A is white, the brightness of the X coordinate value 2 of the special texture shown in FIG. 2B is black, and the brightness of the X coordinate value 2 of the special texture shown in FIG. Become. By continuing the same processing to the X coordinate values 3 to 8, the patterns of FIGS. 2A to 2C are generated.

このようにグレイコードによって複数の種類の特殊テクスチャーのパターンを決定しておけば、当該複数の種類の特殊テクスチャーから生成したレンダリング済み画像の各座標の輝度値から特定される元の特殊テクスチャーの輝度によって、元の特殊テクスチャーのX座標値をグレイコードで表現した値を決定することができる。ここで、レンダリング済み画像の各座標の輝度値から特定される元の特殊テクスチャーの輝度は、例えば、レンダリング済み画像の輝度値から上述のバイアスBを減じた値がゲインGの1/2より大きいか否かを判定することによって特定することができる。すなわち、元の特殊テクスチャーが黒の場合、レンダリング済み画像の輝度値から上述のバイアスBを減じた値はほぼ0になり、元の特殊テクスチャーが白の場合、レンダリング済み画像の輝度値から上述のバイアスBを減じた値はほぼゲインGと同値になる。従って、レンダリング済み画像の各位置の輝度値から各位置のバイアスBを減じた値が各位置のゲインGの1/2より大きければ元の特殊テクスチャーが白、レンダリング済み画像の各位置の輝度値から各位置のバイアスBを減じた値が各位置のゲインGの1/2以下であれば元の特殊テクスチャーが黒であるとみなすことができる。   In this way, if the patterns of multiple types of special textures are determined by the Gray code, the brightness of the original special texture specified from the brightness value of each coordinate of the rendered image generated from the multiple types of special textures. Thus, it is possible to determine a value expressing the X coordinate value of the original special texture in the gray code. Here, the luminance of the original special texture specified from the luminance value of each coordinate of the rendered image is, for example, a value obtained by subtracting the above-described bias B from the luminance value of the rendered image is larger than ½ of the gain G. It can be specified by determining whether or not. That is, when the original special texture is black, the value obtained by subtracting the above-mentioned bias B from the luminance value of the rendered image is almost 0, and when the original special texture is white, the luminance value of the rendered image is The value obtained by subtracting the bias B is almost the same as the gain G. Therefore, if the value obtained by subtracting the bias B at each position from the luminance value at each position of the rendered image is larger than ½ of the gain G at each position, the original special texture is white, and the luminance value at each position of the rendered image. If the value obtained by subtracting the bias B at each position is equal to or less than ½ of the gain G at each position, the original special texture can be regarded as black.

そこで、X座標値をグレイコードで表現した場合の最下位ビット値に基づいて生成された特殊テクスチャーをレンダリングしてレンダリング済み画像を生成し、当該レンダリング済み画像の各座標の輝度値から元の特殊テクスチャーが白であると判定される場合には、その位置におけるグレイコード表現のX座標値の最下位ビット値を1とする。また、レンダリング済み画像の各座標の輝度値から元の特殊テクスチャーが黒であると判定される場合、その位置におけるグレイコード表現のX座標値の最下位ビット値を0とする。以上の処理を、複数の種類の特殊テクスチャーのそれぞれについて実施することにより、レンダリング済み画像の各位置に対応するグレイコード表現のX座標値の全ビットを決定することができ、この結果、x座標とX座標との対応関係を定義することができる。   Therefore, the rendered image is generated by rendering the special texture generated based on the least significant bit value when the X coordinate value is expressed in gray code, and the original special value is obtained from the luminance value of each coordinate of the rendered image. When it is determined that the texture is white, the least significant bit value of the X coordinate value of the gray code expression at that position is set to 1. When the original special texture is determined to be black from the luminance value of each coordinate of the rendered image, the least significant bit value of the X coordinate value of the Gray code expression at that position is set to 0. By performing the above processing for each of a plurality of types of special textures, it is possible to determine all bits of the X coordinate value of the gray code representation corresponding to each position of the rendered image, and as a result, the x coordinate And the X coordinate can be defined.

例えば、図2Aに示す例において、レンダリング済み画像I4の位置P1(x,y)の輝度値からバイアスB(x,y)を減じた値はゲインG(x,y)の1/2以下であるため、元の特殊テクスチャーが黒であると判定される。従って、位置P1(x,y)に対応するテクスチャーのX座標値の最下位ビットは0となる。同様に、図2Bに示す例において、レンダリング済み画像I5の位置P1(x,y)の輝度値からバイアスB(x,y)を減じた値はゲインG(x,y)の1/2以下であるため、元の特殊テクスチャーが黒であると判定される。従って、位置P1(x,y)に対応するテクスチャーのX座標値の中位ビッドは0となる。図2Cに示す例において、レンダリング済み画像I6の位置P1(x,y)の輝度値からバイアスB(x,y)を減じた値はゲインG(x,y)の1/2以下であるため、元の特殊テクスチャーが黒であると判定される。従って、位置P1(x,y)に対応するテクスチャーのX座標値の最上位ビットは0となる。従って、位置P1(x,y)に対応するX座標値のグレイコード表現は(000)であり、X座標値1であることが特定される。 For example, in the example shown in FIG. 2A, the value obtained by subtracting the bias B (x, y) from the luminance value at the position P 1 (x, y) of the rendered image I 4 is ½ of the gain G (x, y). Since it is the following, it is determined that the original special texture is black. Accordingly, the least significant bit of the X coordinate value of the texture corresponding to the position P 1 (x, y) is 0. Similarly, in the example shown in FIG. 2B, the value obtained by subtracting the bias B (x, y) from the luminance value at the position P 1 (x, y) of the rendered image I 5 is 1 / of the gain G (x, y). Since it is 2 or less, it is determined that the original special texture is black. Therefore, the middle bid of the X coordinate value of the texture corresponding to the position P 1 (x, y) is zero. In the example shown in FIG. 2C, the value obtained by subtracting the bias B (x, y) from the luminance value at the position P 1 (x, y) of the rendered image I 6 is equal to or less than ½ of the gain G (x, y). Therefore, it is determined that the original special texture is black. Therefore, the most significant bit of the X coordinate value of the texture corresponding to the position P 1 (x, y) is 0. Therefore, the Gray code representation of the X coordinate value corresponding to the position P 1 (x, y) is (000), and the X coordinate value 1 is specified.

以上のような処理は、複数の種類のレンダリング済み画像の各座標における輝度値に基づいて元の特殊テクスチャーの輝度の順列を特定し、当該順列からX座標値を特定することによって、レンダリング済み画像の各座標に対応するX座標値を決定することと実質的に等価な処理となる。なお、Y座標値についても同様の処理を行うことによって、レンダリング済み画像の各座標に対応するY座標値を特定することが可能になる。すなわち、図2A〜図2Cに示すパターンを90度回転させたような特殊テクスチャーによってX座標値における判定と同様の判定を行えば、Y座標値をグレイコードで表現した値とy座標との対応関係を特定することが可能になる。   The processing as described above identifies the permutation of the original special texture luminance based on the luminance value at each coordinate of a plurality of types of rendered images, and identifies the X coordinate value from the permutation, thereby rendering the rendered image. This is a process substantially equivalent to determining the X coordinate value corresponding to each coordinate. It is possible to specify the Y coordinate value corresponding to each coordinate of the rendered image by performing the same process for the Y coordinate value. That is, if a determination similar to the determination in the X coordinate value is performed with a special texture obtained by rotating the patterns shown in FIGS. 2A to 2C by 90 degrees, the correspondence between the Y coordinate value represented by the Gray code and the y coordinate It becomes possible to specify the relationship.

以上のように(A)〜(C)の各工程を実行すれば、レンダリング済み画像の任意の座標(x,y)に対応するテクスチャーの座標(X,Y)を特定することができる。また、レンダリング済み画像の任意の座標(x,y)においてレンダリング処理が輝度に与える影響を特定することができる。従って、各工程によって特定された座標の対応関係およびレンダリング処理が輝度に与える影響を示す情報を保存しておけば、当該保存された情報に基づいて任意のテクスチャーからレンダリング済み画像を生成する処理を極めて少ないリソースで高速に実行することが可能である。また、レンダリング処理において想定した仮想的な3次元の構造体や照明の位置等が明らかでない場合、すなわち、レンダリング処理後の画像と処理前のテクスチャーのみが明らかである場合であっても、レンダリング処理を再現することが可能になる。   If the steps (A) to (C) are executed as described above, the texture coordinates (X, Y) corresponding to the arbitrary coordinates (x, y) of the rendered image can be specified. Further, it is possible to specify the influence of the rendering process on the luminance at an arbitrary coordinate (x, y) of the rendered image. Therefore, if information indicating the correspondence between coordinates specified in each step and the effect of rendering processing on luminance is stored, processing for generating a rendered image from an arbitrary texture based on the stored information is performed. It is possible to execute at high speed with very few resources. In addition, even if the virtual three-dimensional structure assumed in the rendering process, the position of illumination, etc. are not clear, that is, only the image after rendering and the texture before processing are clear, the rendering process Can be reproduced.

本実施形態においては、以上のように、レンダリング前のテクスチャーとレンダリング済み画像との対応関係を関数によって表現する。すなわち、レンダリング済み画像の座標値(x,y)を変数とし、各座標値について、貼り付けられるテクスチャーを示すI(x,y)、バイアスB(x,y)、ゲインG(x,y)、テクスチャーの座標X(x,y)、Y(x,y)を画像描画情報として規定すれば、任意のテクスチャーからレンダリング済み画像を生成することが可能になる。   In the present embodiment, as described above, the correspondence relationship between the texture before rendering and the rendered image is expressed by a function. That is, the coordinate value (x, y) of the rendered image is used as a variable, and for each coordinate value, I (x, y) indicating the texture to be pasted, bias B (x, y), gain G (x, y) If the texture coordinates X (x, y) and Y (x, y) are defined as image drawing information, a rendered image can be generated from an arbitrary texture.

ここで、バイアスB(x,y)、ゲインG(x,y)、座標X(x,y)、座標Y(x,y)は変数x,yに応じてバイアスB(x,y)、ゲインG(x,y)、座標X(x,y)、座標Y(x,y)の階調値が変化する関数であり、本実施形態においては、これらの関数を圧縮することによってレンダリング済み画像を効率よく、かつ、画質の低下を抑制しながら管理する構成としている。すなわち、バイアスB(x,y)、ゲインG(x,y)についてはJPEG圧縮方式によって高圧縮率で圧縮する構成とし、座標X(x,y)、座標Y(x,y)については線形圧縮方式によって画質の低下を抑制する構成としている。   Here, the bias B (x, y), the gain G (x, y), the coordinate X (x, y), and the coordinate Y (x, y) are bias B (x, y), This is a function in which the tone values of the gain G (x, y), the coordinate X (x, y), and the coordinate Y (x, y) change. In the present embodiment, rendering is performed by compressing these functions. The configuration is such that images are managed efficiently and while suppressing deterioration in image quality. That is, the bias B (x, y) and the gain G (x, y) are compressed at a high compression rate by the JPEG compression method, and the coordinates X (x, y) and the coordinates Y (x, y) are linear. The configuration is such that deterioration in image quality is suppressed by a compression method.

具体的には、座標X(x,y)は、テクスチャーの座標Xとレンダリング済み画像の座標(x,y)との対応関係を示し、座標Y(x,y)は、テクスチャーの座標Yとレンダリング済み画像の座標(x,y)との対応関係を示している。従って、不可逆圧縮方式によって座標の対応関係に誤差が生じた場合、レンダリング済み画像においてテクスチャーが貼り付けられるべき本来の位置と実際にテクスチャーが貼り付けられる位置とに誤差が生じることになる。ここで、当該誤差がテクスチャーの隣接画素間で急激に変化するとレンダリング済み画像の画質が著しく劣化するが、当該誤差がテクスチャーの画素ごとに徐々に変化する場合にはレンダリング済み画像の画質低下は抑制される。   Specifically, the coordinate X (x, y) indicates the correspondence between the texture coordinate X and the coordinate (x, y) of the rendered image, and the coordinate Y (x, y) indicates the coordinate Y of the texture. The correspondence relationship with the coordinates (x, y) of the rendered image is shown. Therefore, when an error occurs in the correspondence between coordinates due to the lossy compression method, an error occurs between the original position where the texture should be pasted and the position where the texture is actually pasted in the rendered image. Here, if the error changes abruptly between adjacent pixels of the texture, the quality of the rendered image is significantly degraded. However, if the error changes gradually for each pixel of the texture, the degradation of the quality of the rendered image is suppressed. Is done.

そこで、本実施形態においては、座標X(x,y)、座標Y(x,y)を線形圧縮方式によって圧縮する構成としている。すなわち、例えば、JPEG圧縮方式においては、画像をMCU(Minimum Coded Unit)に分割して圧縮処理を行うため、MCUの境界にて誤差が急激に変化するブロックノイズが発生し得る。しかし、線形圧縮においては、隣接する画素間で階調値が線形的に変化するように圧縮がなされるため、圧縮に起因して誤差が発生したとしても当該誤差はテクスチャーの画素ごとに徐々に変化することになる。従って、座標X(x,y)、座標Y(x,y)を線形圧縮方式によって圧縮することにより、画質の低下を抑制することが可能になる。   Therefore, in the present embodiment, the coordinates X (x, y) and the coordinates Y (x, y) are compressed by a linear compression method. That is, for example, in the JPEG compression method, since an image is divided into MCUs (Minimum Coded Units) and subjected to compression processing, block noise in which an error rapidly changes at an MCU boundary may occur. However, in linear compression, compression is performed so that the gradation value changes linearly between adjacent pixels. Therefore, even if an error occurs due to compression, the error is gradually reduced for each texture pixel. Will change. Therefore, by compressing the coordinates X (x, y) and the coordinates Y (x, y) by the linear compression method, it is possible to suppress deterioration in image quality.

なお、線形圧縮は各種の手法によって行うことが可能であり、例えば、x−y平面上に座標Xの値を高さとした3次元のグラフで座標X(x,y)を表現したときに当該グラフ上で座標Xの値が示す高さ方向の凹凸を、表面の全てが多角形(例えば三角形)によって構成された近似的な凹凸で表現することによって実現可能である。なお、表面の全てが三角形となるように近似的な凹凸を定義する場合、当該三角形のx−y平面への投影がドロネーの三角形分割で分割された三角形となるように三角形を決定する構成を採用可能である。また、近似は、三角形が示す近似的な座標Xの値と、座標Xの真の値との誤差が所定値以内となるまで三角形分割によって三角形の数を増加させることによって実現可能である。   The linear compression can be performed by various methods. For example, when the coordinate X (x, y) is expressed by a three-dimensional graph having the value of the coordinate X on the xy plane. It can be realized by expressing the unevenness in the height direction indicated by the value of the coordinate X on the graph as an approximate unevenness in which the entire surface is constituted by a polygon (for example, a triangle). In addition, when defining approximate unevenness so that all of the surfaces are triangular, the configuration is such that the triangle is determined so that the projection of the triangle onto the xy plane becomes a triangle divided by Delaunay triangulation. It can be adopted. The approximation can be realized by increasing the number of triangles by triangulation until the error between the approximate coordinate X value indicated by the triangle and the true value of the coordinate X is within a predetermined value.

次に、本発明の実施の形態を具体的な例とともに図面を用いて説明する。図4は、本発明の一実施形態である画像処理方法に用いるコンピューター20とビューワー40の構成の概略を示す構成図である。本実施形態のコンピューター20は、中央演算処理装置としてのCPUや処理プログラムを記憶するROM、データを一時的に記憶するRAM、グラフィックプロセッサー(GPU)、ハードディスク(HDD)、ディスプレイ22などからなる汎用のコンピューターとして構成されており、その機能ブロックとしては、仮想的な3次元の構造体を示す3次元モデリングデータ(以下、3次元モデルという)やこれに貼り付けるテクスチャーデータ(以下、テクスチャーという)などを記憶する記憶部31と、3次元モデルに貼り付ける前処理用の特殊なテクスチャーを生成する特殊テクスチャー生成処理部32と、3次元モデルをレンダリングしてビットマップ画像を生成するレンダリング処理部34と、レンダリングにより得られたビットマップ画像としてのレンダリング済み画像を解析するレンダリング済み画像解析処理部36と、生成したレンダリング済み画像やレンダリング済み画像解析処理部36の解析により得られる各種データを圧縮する圧縮処理部38とを備える。   Next, embodiments of the present invention will be described together with specific examples with reference to the drawings. FIG. 4 is a configuration diagram showing an outline of the configuration of the computer 20 and the viewer 40 used in the image processing method according to the embodiment of the present invention. The computer 20 of this embodiment is a general-purpose computer comprising a central processing unit (CPU), a ROM for storing processing programs, a RAM for temporarily storing data, a graphic processor (GPU), a hard disk (HDD), a display 22 and the like. It is configured as a computer, and its functional blocks include 3D modeling data (hereinafter referred to as 3D model) indicating a virtual 3D structure and texture data (hereinafter referred to as texture) to be attached to this. A storage unit 31 for storing, a special texture generation processing unit 32 for generating a special texture for preprocessing to be pasted on the three-dimensional model, a rendering processing unit 34 for generating a bitmap image by rendering the three-dimensional model, Bits obtained by rendering Includes a rendered image analysis processing section 36 for analyzing the rendered image as a map image, and a compression processing unit 38 compresses the various kinds of data obtained by analyzing the rendered image and the rendered image analysis processing unit 36 which generated.

特殊テクスチャー生成処理部32は、レンダリング処理部34でレンダリングされる3次元モデルに貼り付ける特殊テクスチャーを生成する処理部であり、具体的には、値0.0〜1.0の階調値範囲内で階調値が値1.0の白ベタのパターン(第2ベタ塗りパターン)や、階調値が値0.0の黒ベタのパターン(第1ベタ塗りパターン),値0.0と値1.0の階調値が横方向に交互に現われる縦縞模様のパターン(対応関係設定用パターン),値0.0と値1.0の階調値が縦方向に交互に現われる横縞模様のパターン(対応関係設定用パターン)を生成する。なお、これらの各パターンがもつ役割については後述する。   The special texture generation processing unit 32 is a processing unit that generates a special texture to be pasted on the three-dimensional model rendered by the rendering processing unit 34. Specifically, the special texture generation processing unit 32 has a gradation value range of 0.0 to 1.0. Among them, a white solid pattern (second solid pattern) having a gradation value of 1.0, a black solid pattern (first solid pattern) having a gradation value of 0.0, and a value of 0.0 A vertical stripe pattern (correspondence setting pattern) in which gradation values of 1.0 appear alternately in the horizontal direction, and a horizontal stripe pattern in which gradation values of 0.0 and 1.0 appear alternately in the vertical direction. A pattern (correspondence setting pattern) is generated. The role of each pattern will be described later.

レンダリング処理部34は、3Dレンダリング用のソフトウエアがコンピューター20にインストールされることにより機能する処理部であり、3次元モデルに特殊テクスチャー生成処理部32で生成されたテクスチャーを貼り付けてレンダリングすることにより所定のフレームレート(例えば、1秒間に30回や60回など)でフレーム単位にビットマップ画像を再生して動画を表示する。本実施形態では、光源からの光をたどりながらオブジェクト面の反射や光の屈折などを計算してレンダリングするレイトレーシング法を用いてレンダリング処理を行なうものとした。   The rendering processing unit 34 is a processing unit that functions when software for 3D rendering is installed in the computer 20. The rendering processing unit 34 performs rendering by pasting the texture generated by the special texture generation processing unit 32 on the three-dimensional model. Thus, a bitmap image is reproduced frame by frame at a predetermined frame rate (for example, 30 times or 60 times per second) to display a moving image. In the present embodiment, the rendering process is performed using a ray tracing method that calculates and renders reflection of an object surface, light refraction, and the like while tracing light from a light source.

レンダリング済み画像解析処理部36は、レンダリング処理部34により生成されたビットマップ画像(レンダリング済み画像)を解析することにより、特殊テクスチャーに代えて写真などの所望の画像データを自由に差し替えてレンダリング済み画像をビューワー40側で表示できるようにするための画像描画情報を生成する。   The rendered image analysis processing unit 36 analyzes the bitmap image (rendered image) generated by the rendering processing unit 34 to freely replace desired image data such as a photograph in place of the special texture, and has been rendered. Image drawing information for enabling an image to be displayed on the viewer 40 side is generated.

圧縮処理部38は、レンダリング済み画像解析処理部36により解析に伴って生成された画像描画情報を圧縮するための処理部であり、本実施形態では、画質の劣化を抑制しながら全体の圧縮率を高めるために、複数種の圧縮方式を使い分けてデータを圧縮するものとした。圧縮方式の詳細については後述する。   The compression processing unit 38 is a processing unit for compressing the image drawing information generated along with the analysis by the rendered image analysis processing unit 36. In the present embodiment, the overall compression rate is suppressed while suppressing deterioration in image quality. In order to improve the data, the data is compressed by using different types of compression methods. Details of the compression method will be described later.

本実施形態のビューワー40は、コンピューター20のレンダリング処理部34で得られたレンダリング済み画像やレンダリング済み画像解析処理部36により解析されると共に圧縮処理部38により圧縮された画像描画情報などを記憶する記憶部41と、メモリーカードMCに記憶されている写真などの画像データの入力を司る入力処理部42と、入力処理部42により入力された画像データや記憶部41に記憶されているレンダリング済み画像,画像描画情報をデコード(展開)する展開処理部44と、レンダリング済み画像に入力した画像データをテクスチャーとして合成して描画する描画処理部46と、を備える。このビューワー40は、ユーザーからの指示によりメモリーカードMCに記憶されている複数の画像データを順次読み込むと共に読み込んだ画像データを画像描画情報を用いて3次元モデルのレンダリング済み画像に貼り付けて順次再生を行なうスライドショー表示を行なうことができるようになっている。   The viewer 40 according to the present embodiment stores a rendered image obtained by the rendering processing unit 34 of the computer 20, image rendering information analyzed by the rendered image analysis processing unit 36 and compressed by the compression processing unit 38. A storage unit 41, an input processing unit 42 that controls input of image data such as photographs stored in the memory card MC, image data input by the input processing unit 42, and rendered images stored in the storage unit 41 , A development processing unit 44 that decodes (decompresses) image drawing information, and a drawing processing unit 46 that combines and renders image data input to the rendered image as a texture. The viewer 40 sequentially reads a plurality of image data stored in the memory card MC according to an instruction from a user, and pastes the read image data on a rendered image of a three-dimensional model using image drawing information, and sequentially reproduces the image data. The slide show display can be performed.

次に、こうして構成された本実施形態のコンピューター20の特殊テクスチャー生成処理部32やレンダリング処理部34,レンダリング済み画像解析処理部36,圧縮処理部38の動作と、ビューワー40の展開処理部44や描画処理部46の動作について説明する。まず、特殊テクスチャー生成処理部32の処理について説明する。図5は、特殊テクスチャー生成処理の一例を示すフローチャートである。   Next, the operations of the special texture generation processing unit 32, the rendering processing unit 34, the rendered image analysis processing unit 36, and the compression processing unit 38 of the computer 20 of the present embodiment configured as described above, the decompression processing unit 44 of the viewer 40, The operation of the drawing processing unit 46 will be described. First, the processing of the special texture generation processing unit 32 will be described. FIG. 5 is a flowchart illustrating an example of the special texture generation process.

特殊テクスチャー生成処理では、まず、複数のセットのうちのいずれのセットであるのかを特定するための対象セット番号iを値1に初期化し(ステップS100)、対象セット番号iに対してRGBの色成分毎にn個の特殊テクスチャーを生成して(ステップS110)、対象セット番号iを値1だけインクリメントし(ステップS120)、対象セット番号iと値nとを比較して(ステップS130)、対象セット番号iが値n以下のときにはステップS110に戻って次の対象セット番号iに対してn個の特殊テクスチャーを生成する処理を繰り返し、対象セット番号iが値nを超えたときには次の処理に進む。ここで、対象セット番号iが値1から値nまでの特殊テクスチャーの生成は、次式(1)に示すように、1番からn番までの対象テクスチャー番号jを1番から値1ずつシフトしながら対象テクスチャー番号jと対象セット番号iと比較し、両者が一致する対象テクスチャー番号jに対しては最小値0.0(黒)〜最大値1.0(白)の階調値範囲で全座標(X,Y)に値1.0の階調値を設定することにより白ベタの特殊テクスチャー(第2ベタ塗りパターン)を生成し、両者が一致しない対象テクスチャー番号jに対しては全座標(X,Y)に値0.0の階調値を設定することにより黒ベタの特殊テクスチャー(第1ベタ塗りパターン)を生成することにより行なわれる。ここで、式(1)中の「c」は、画像データのRGB値の各色に対応する値を示し、「n」は1画面に配置するテクスチャーの数を示し、「b」はテクスチャーの座標を2進数で表わしたときのビット数を示し、「Tc,i,j(X,Y)」は色成分c,対象セット番号i,対象テクスチャー番号jにおける特殊テクスチャーの座標(X,Y)の階調値を示す(以下、同じ)。なお、ここでは、全ての色成分について、全座標に階調値の最大値が設定されたパターンを白ベタと呼び、全座標に階調値の最小値が設定されたパターンを黒ベタと呼んでいる(以下、同じ)。
In the special texture generation process, first, the target set number i for identifying which set of the plurality of sets is initialized to a value 1 (step S100), and the RGB color for the target set number i is initialized. N special textures are generated for each component (step S110), the target set number i is incremented by 1 (step S120), the target set number i and the value n are compared (step S130), and the target When the set number i is less than or equal to the value n, the process returns to step S110 to repeat the process of generating n special textures for the next target set number i, and when the target set number i exceeds the value n, the next process is performed. move on. Here, the generation of the special texture with the target set number i from the value 1 to the value n shifts the target texture number j from the first to the nth by the value 1 from the first as shown in the following equation (1). While comparing the target texture number j and the target set number i, the target texture number j that matches the target texture number j is in the gradation value range from the minimum value 0.0 (black) to the maximum value 1.0 (white). A white solid special texture (second solid paint pattern) is generated by setting a gradation value of 1.0 to all coordinates (X, Y). This is done by generating a black solid special texture (first solid coating pattern) by setting a gradation value of 0.0 to the coordinates (X, Y). Here, “c” in the formula (1) indicates a value corresponding to each color of the RGB values of the image data, “n” indicates the number of textures arranged on one screen, and “b” indicates the texture coordinates. Indicates the number of bits when expressed as a binary number, and “Tc, i, j (X, Y)” is the color component c, the target set number i, and the coordinate (X, Y) of the special texture in the target texture number j. Indicates a gradation value (hereinafter the same). Here, for all color components, a pattern in which the maximum gradation value is set for all coordinates is called white solid, and a pattern in which the minimum gradation value is set for all coordinates is called black solid. (Hereinafter the same).

対象セット番号iが値1〜値nの特殊テクスチャー(n個のセットから成る第1のセット群)を生成すると、次に、対象セット番号iが値(n+1)の色成分毎のn個の特殊テクスチャーを生成し(ステップS140)(第2のセット)、対象セット番号iを値1だけインクリメントする(ステップS150)。ここで、対象セット番号iが値(n+1)の特殊テクスチャーの生成は、次式(2)に示すように、1番からn番までのすべての対象テクスチャー番号jに対して全座標(X,Y)に値0.0の階調値を設定することにより黒ベタの特殊テクスチャーを生成することにより行なわれる。
When a special texture having a target set number i having a value 1 to a value n (a first set group consisting of n sets) is generated, then n number of color components having a target set number i having a value (n + 1) are generated. A special texture is generated (step S140) (second set), and the target set number i is incremented by 1 (step S150). Here, the generation of the special texture having the target set number i of the value (n + 1) is performed on all coordinates (X, X, X) for all the target texture numbers j from 1 to n as shown in the following equation (2). This is done by generating a solid black special texture by setting a gradation value of 0.0 to Y).

対象セット番号iが値(n+1)の特殊テクスチャーを生成すると、次に、対象セット番号iに対してテクスチャーの座標を交番2進数(グレイコード)表現としたときの第[i−(n+2)]ビットに対応する縦縞模様の色成分毎のn個の特殊テクスチャーを次式(3)により生成して(ステップS160)、対象セット番号iを値1だけインクリメントし(ステップS170)、対象セット番号iと値(n+b+1)とを比較し(ステップS180)、対象セット番号iが値(n+b+1)以下のときにはステップS160に戻って次の対象セット番号iに対してn個の特殊テクスチャーを生成する処理を繰り返し、対象セット番号iが値(n+b+1)を超えたときには次の処理に進む。以上の処理により、レンダリング済み画像のx座標と特殊テクスチャーのX座標との対応関係を設定するための対応関係設定用パターンが生成される。ここで、式(3)中の「gray(a)」は数値aのグレイコード(交番2進数符号)表現であり、「and(a,b)」はaとbのビット毎の論理積を示す(以下、同じ)。(n+2)番から(n+b+1)番までの対象セット番号iは、それぞれテクスチャーの座標を2進数で表現したときに第(b−1)ビット(最下位ビット)から第0ビット(最上位ビット)までの各ビットに対応しており、対象セット番号iに対応するビットの値が値1のときには値1.0(白)の階調値を設定し、対応するビットの値が値0のときには値0.0(黒)の階調値を設定することにより縦縞模様の特殊テクスチャーが生成される。本実施形態では、テクスチャーの座標を交番2進数で表現しており、例えば、テクスチャー数nが値3で座標が値1〜8の3ビット(b=3)とすると、対象セット番号iが第2ビット(最下位ビット)を示す値5の特殊テクスチャーとしてはX座標値1については黒の階調値が設定されX座標値2,3については白の階調値が設定されX座標値4,5については黒の階調値が設定されX座標値6,7については白の階調値が設定されX座標値8については黒の階調値が設定される。また、対象セット番号iが第1ビットを示す値6の特殊テクスチャーとしてはX座標値1,2については黒の階調値が設定されX座標値3〜6については白の階調値が設定されX座標値7,8については黒の階調値が設定され、対象セット番号iが第0ビット(最上位ビット)を示す値7の特殊テクスチャーとしてはX座標値1〜4については黒の階調値が設定されX座標値5〜8については白の階調値が設定されることになる。
When the special texture having the target set number i of the value (n + 1) is generated, the [i− (n + 2)] when the texture coordinates are expressed in an alternating binary number (gray code) with respect to the target set number i. N special textures for each color component of the vertical stripe pattern corresponding to the bit are generated by the following equation (3) (step S160), the target set number i is incremented by 1 (step S170), and the target set number i Is compared with the value (n + b + 1) (step S180), and when the target set number i is equal to or smaller than the value (n + b + 1), the process returns to step S160 to generate n special textures for the next target set number i. Repeatedly, when the target set number i exceeds the value (n + b + 1), the process proceeds to the next process. With the above processing, a correspondence setting pattern for setting the correspondence between the x coordinate of the rendered image and the X coordinate of the special texture is generated. Here, “gray (a)” in Equation (3) is a gray code (alternate binary code) representation of the numerical value a, and “and (a, b)” is the logical product of a and b for each bit. Shown (same below). The target set numbers i from (n + 2) to (n + b + 1) are the (b-1) th bit (least significant bit) to 0th bit (most significant bit) when the texture coordinates are expressed in binary numbers, respectively. The gradation value of 1.0 (white) is set when the value of the bit corresponding to the target set number i is 1, and the value of the corresponding bit is 0. A special texture having a vertical stripe pattern is generated by setting a gradation value of 0.0 (black). In this embodiment, the texture coordinates are expressed in alternating binary numbers. For example, if the texture number n is 3 and the coordinates are 3 bits (b = 3), the target set number i is the first number. As a special texture of value 5 indicating 2 bits (least significant bit), a black gradation value is set for the X coordinate value 1 and a white gradation value is set for the X coordinate values 2 and 3, and the X coordinate value 4 , 5, black gradation values are set, X coordinate values 6, 7 are set to white gradation values, and X coordinate value 8 is set to black gradation values. Further, as a special texture having a target set number i with a value 6 indicating the first bit, a black gradation value is set for the X coordinate values 1 and 2, and a white gradation value is set for the X coordinate values 3 to 6. As for the X coordinate values 7 and 8, a black gradation value is set, and as the special texture having the target set number i indicating the 0th bit (most significant bit), the X coordinate values 1 to 4 are black. A gradation value is set, and for the X coordinate values 5 to 8, a white gradation value is set.

対象セット番号iが値(n+2)〜値(n+b+1)の特殊テクスチャーを生成すると、次に、対象セット番号iに対してテクスチャーのy座標を交番2進数表現としたときの第[i−(n+b+2)]ビットに対応する横縞模様の色成分毎のn個の特殊テクスチャーを次式(4)により生成して(ステップS185)、対象セット番号iを値1だけインクリメントし(ステップS190)、対象セット番号iと値(n+2b+1)とを比較し(ステップS195)、対象セット番号iが値(n+2b+1)以下のときにはステップS185に戻って次の対象セット番号iに対してn個の特殊テクスチャーを生成する処理を繰り返し、対象セット番号iが値(n+2b+1)を超えたときには、全ての特殊テクスチャーの生成が完了したとして、本ルーチンを終了する。以上の処理により、レンダリング済み画像のy座標と特殊テクスチャーのY座標との対応関係を設定するための対応関係設定用パターンが生成される。(n+b+2)番から(n+2b+1)番までの対象セット番号iは、それぞれテクスチャーの座標を2進数で表現したときに第(b−1)ビット(最下位ビット)から第0ビット(最上位ビット)からまでの各ビットに対応しており、対象セット番号iに対応するビットの値が値1のときには値1.0(白)の階調値を設定し、対応するビットの値が値0のときには値0.0(黒)の階調値を設定することにより横縞模様の特殊テクスチャーが生成される。本実施形態では、テクスチャーの座標を交番2進数で表現しており、例えば、テクスチャー数nが値3でy座標が値1〜8の3ビット(b=3)とすると、対象セット番号iが第2ビット(最下位ビット)を示す値8の特殊テクスチャーとしてはY座標値1については黒の階調値が設定されY座標値2,3については白の階調値が設定されY座標値4,5については黒の階調値が設定されY座標値6,7については白の階調値が設定されY座標値8については黒の階調値が設定される。また、対象セット番号iが第1ビットを示す値9の特殊テクスチャーとしてはY座標値1,2については黒の階調値が設定されY座標値3〜6については白の階調値が設定されY座標値7,8については黒の階調値が設定され、対象セット番号iが第0ビット(最上位ビット)を示す値10の特殊テクスチャーとしてはY座標値1〜4については黒の階調値が設定されY座標値値5〜8については白の階調値が設定されることになる。図6に、テクスチャー数nが値3で座標のビット数bが値3のときに生成される特殊テクスチャーの一覧を示す。
When the special texture having the target set number i of the value (n + 2) to the value (n + b + 1) is generated, the [i− (n + b + 2) when the y coordinate of the texture is expressed as an alternating binary number with respect to the target set number i. )] N special textures for each color component of the horizontal stripe pattern corresponding to the bit are generated by the following equation (4) (step S185), the target set number i is incremented by 1 (step S190), and the target set is set. The number i is compared with the value (n + 2b + 1) (step S195). When the target set number i is equal to or smaller than the value (n + 2b + 1), the process returns to step S185 to generate n special textures for the next target set number i. When the process is repeated and the target set number i exceeds the value (n + 2b + 1), the generation of all the special textures is completed. This routine is terminated. With the above processing, a correspondence setting pattern for setting the correspondence between the y coordinate of the rendered image and the Y coordinate of the special texture is generated. The target set numbers i from (n + b + 2) to (n + 2b + 1) are the (b-1) th bit (least significant bit) to 0th bit (most significant bit) when the texture coordinates are expressed in binary numbers, respectively. And when the value of the bit corresponding to the target set number i is 1, the gradation value of 1.0 (white) is set, and the value of the corresponding bit is 0. Sometimes a special texture with a horizontal stripe pattern is generated by setting a gradation value of 0.0 (black). In this embodiment, the texture coordinates are expressed by alternating binary numbers. For example, if the texture number n is 3 and the y coordinate is 3 bits (b = 3), the target set number i is As a special texture having a value 8 indicating the second bit (least significant bit), a black gradation value is set for the Y coordinate value 1 and a white gradation value is set for the Y coordinate values 2 and 3, and the Y coordinate value is set. Black gradation values are set for 4 and 5, white gradation values are set for Y coordinate values 6 and 7, and black gradation values are set for Y coordinate value 8. As the special texture having the target set number i of 9 indicating the first bit, a black gradation value is set for the Y coordinate values 1 and 2, and a white gradation value is set for the Y coordinate values 3 to 6. A black gradation value is set for the Y coordinate values 7 and 8, and a special texture with the target set number i indicating the 0th bit (the most significant bit) is a black value for the Y coordinate values 1 to 4. A gradation value is set, and a white gradation value is set for the Y coordinate values 5 to 8. FIG. 6 shows a list of special textures generated when the number of textures n is 3 and the number of coordinate bits b is 3.

レンダリング処理部34は、セット毎に、対応するn個の特殊テクスチャーを3次元モデルに貼り付けてレンダリング処理を行なう。図7にレンダリング処理の様子を示す。本実施形態では、3次元モデルを動画としてレンダリングし、テクスチャー数nが値3でビット数bが値3としたから、合計10セット分のレンダリング処理が行なわれて10セット分の動画が生成されることになる。この動画は、フレーム1〜Tまでの各フレーム毎に生成されたビットマップ画像(レンダリング済み画像)により構成される。なお、図7においては、10セット分のレンダリング済み画像のそれぞれから、共通のフレーム番号のビットマップ画像を抜き出して示している。   For each set, the rendering processing unit 34 performs rendering processing by pasting the corresponding n special textures onto the three-dimensional model. FIG. 7 shows the rendering process. In this embodiment, since the three-dimensional model is rendered as a moving image, the number of textures n is 3 and the number of bits b is 3, the rendering process for a total of 10 sets is performed and 10 sets of moving images are generated. Will be. This moving image is composed of bitmap images (rendered images) generated for each frame from frames 1 to T. In FIG. 7, bitmap images having a common frame number are extracted from each of 10 sets of rendered images.

次に、レンダリング処理部34により生成されたレンダリング済み画像を解析する処理について説明する。図8は、レンダリング済み画像解析処理部36により実行されるレンダリング済み画像解析処理の一例を示すフローチャートである。   Next, processing for analyzing a rendered image generated by the rendering processing unit 34 will be described. FIG. 8 is a flowchart illustrating an example of a rendered image analysis process executed by the rendered image analysis processing unit 36.

レンダリング済み画像解析処理では、まず、次式(5)に示すように各フレーム番号t(=1〜T)におけるレンダリング済み画像の座標(x,y)に貼り付けられるテクスチャー番号を示す変数It(x,y)を値0に初期化し(ステップS200)、対象フレームtにおけるセット番号1〜nのレンダリング済み画像中の白ベタ領域(座標)を特定して、この白ベタ領域の変数It(x,y)に対応するテクスチャー番号を設定する(ステップS210)。この処理は、次式(6)に示すように、対象セット番号iを1番からn番まで順次シフトしながら対象セット番号iのレンダリング済み画像の階調値(各色成分毎の階調値の総和)とセット番号(n+1)のレンダリング済み画像の階調値(各色成分毎の階調値の総和)とを比較することにより行なうことができる。すなわち、対象セット番号iにおいては番号iと等しいテクスチャー番号の特殊テクスチャーが白ベタに設定されており、セット番号(n+1)においては全テクスチャー番号の特殊テクスチャーが黒ベタに設定されている。従って、対象セット番号iのレンダリング済み画像の階調値がセット番号(n+1)のレンダリング済み画像の階調値より大きい場合には、座標(x,y)にテクスチャー番号iの特殊テクスチャーが貼り付けられていたことが分かる。ここで、式(5)中の「w」はレンダリング済み画像の幅方向のサイズを示し、「h」はレンダリング済み画像の高さ方向のサイズを示す。また、式(6)中の「Ac,i,t(x,y)」は色成分c,セット番号i(1〜n),フレーム番号tにおけるレンダリング済み画像の座標(x,y)の階調値を示す(以下、同じ)。
In the rendered image analysis process, first, as shown in the following equation (5), a variable It () indicating the texture number to be pasted to the coordinates (x, y) of the rendered image at each frame number t (= 1 to T). x, y) is initialized to a value of 0 (step S200), a white solid area (coordinates) in the rendered image of the set numbers 1 to n in the target frame t is specified, and a variable It (x , y) is set (step S210). As shown in the following equation (6), this processing is performed by sequentially shifting the target set number i from No. 1 to n, and the gradation value of the rendered image of the target set number i (the gradation value for each color component). This can be done by comparing the sum of the tone values of the rendered image with the set number (n + 1) (the sum of the tone values for each color component). That is, in the target set number i, the special texture having the texture number equal to the number i is set to white solid, and in the set number (n + 1), the special texture having all texture numbers is set to black solid. Therefore, when the gradation value of the rendered image with the target set number i is larger than the gradation value of the rendered image with the set number (n + 1), the special texture with the texture number i is pasted to the coordinates (x, y). You can see that it was done. Here, “w” in equation (5) indicates the size in the width direction of the rendered image, and “h” indicates the size in the height direction of the rendered image. In addition, “Ac, i, t (x, y)” in the equation (6) is the rank of the coordinate (x, y) of the rendered image at the color component c, the set number i (1 to n), and the frame number t Indicates the key value (hereinafter the same).

続いて、次式(7)によりセット番号(n+1)のレンダリング済み画像の階調値をバイアスBc,t(x,y)として設定すると共に(ステップS220)、変数It(x,y)が値0でないレンダリング済み画像の座標(x,y)、即ちテクスチャーが貼り付けられる領域について次式(8)によりゲインGc, t(x,y)を計算する(ステップS230)。ここで、式(8)中の「Ac,It(x,y),t(x,y)」は色成分c,変数It(x,y)に格納されたセット番号i,フレーム番号tにおけるレンダリング済み画像の座標(x,y)の階調値を示す。図9に、バイアスBc,t(x,y)とゲインGc,t(x,y)との関係を示す。3次元モデルにテクスチャーを貼り付けてレンダリングする場合、図示するように、元のテクスチャーの階調値に依存しないオフセット分がバイアスBc,t(x,y)に相当し、元のテクスチャーの階調値の変化に対するレンダリング済み画像の階調値の変化の傾きがゲインGc,t(x,y)に相当する。
Subsequently, the gradation value of the rendered image with the set number (n + 1) is set as the bias Bc, t (x, y) by the following equation (7) (step S220), and the variable It (x, y) is a value. The gain Gc, t (x, y) is calculated by the following equation (8) for the coordinates (x, y) of the rendered image that is not 0, that is, the region where the texture is pasted (step S230). Here, “Ac, It (x, y), t (x, y)” in the equation (8) is the color component c and the set number i and the frame number t stored in the variable It (x, y). Indicates the gradation value of the coordinates (x, y) of the rendered image. FIG. 9 shows the relationship between the bias Bc, t (x, y) and the gain Gc, t (x, y). When rendering with a texture attached to a 3D model, as shown in the figure, the offset that does not depend on the gradation value of the original texture corresponds to the bias Bc, t (x, y), and the gradation of the original texture The gradient of the change in the gradation value of the rendered image with respect to the change in value corresponds to the gain Gc, t (x, y).

そして、次式(9)によりテクスチャーのグレイコード表現の座標(X't(x,y),Y't(x, y))を値0に初期化し(ステップS240)、セット番号(n+2)〜(n+2b+1)のレンダリング済み画像の座標(x,y)とテクスチャーの座標(X't(x,y),Y't(x,y))との対応関係を設定する(ステップS250)。ここで、座標の対応関係は、次式(10)により設定され、具体的には、番号iを1番からb番まで順次シフトしながらセット番号(i+n+1)のレンダリング済み画像の階調値Ac,i+n+1,t(x,y)からバイアスBc,t(x,y)を減じたもの(各色成分毎の総和)がセット番号iのレンダリング済み画像のゲインGc,t(x,y)を値2で割ったもの(各色成分毎の総和)よりも大きいか否か即ちセット番号(i+n+1)における白と黒の縦縞模様のパターンのうち座標(x,y)が白か否かを判定し白のときには交番2進数表現の座標X't(x,y)の対応する第(i−1)ビットの値に値1を設定し、番号iを1番からb番まで順次シフトしながらセット番号(i+b+n+1)のレンダリング済み画像の階調値Ac,i+b+n+1,t(x,y)からバイアスBc,t(x,y)を減じたもの(各色成分毎の総和)がセット番号iのレンダリング済み画像のゲインGc,t(x,y)を値2で割ったもの(各色成分毎の総和)よりも大きいか否か即ちセット番号(i+b+n+1)における白と黒の横縞模様のパターンのうち座標(x,y)が白か否かを判定し白のときには座標Y't(x,y)の対応する第(i−1)ビットの値を値1に設定することにより行なわれる。ここで、式(10)中の「or(a,b)」はaとbのビット毎の論理和を示す。
Then, the coordinates (X′t (x, y), Y′t (x, y)) of the texture gray code expression are initialized to the value 0 by the following equation (9) (step S240), and the set number (n + 2) Correspondences between the coordinates (x, y) of the rendered image (n + 2b + 1) and the coordinates (X′t (x, y), Y′t (x, y)) of the texture are set (step S250). Here, the correspondence relationship of coordinates is set by the following equation (10). Specifically, the gradation value Ac of the rendered image of the set number (i + n + 1) while sequentially shifting the number i from 1 to b. , i + n + 1, t (x, y) minus the bias Bc, t (x, y) (the sum for each color component) is the gain Gc, t (x, Whether or not y) is greater than the value divided by 2 (sum of each color component), that is, whether or not the coordinates (x, y) are white in the white and black vertical stripe pattern in the set number (i + n + 1) When the value is white, a value 1 is set to the corresponding (i-1) -th bit value of the coordinate X't (x, y) in the alternating binary number expression, and the number i is sequentially shifted from the 1st to the bth. While subtracting the bias Bc, t (x, y) from the gradation value Ac, i + b + n + 1, t (x, y) of the rendered image of the set number (i + b + n + 1) (for each color component Total Is larger than the value obtained by dividing the gain Gc, t (x, y) of the rendered image with the set number i by the value 2 (the sum for each color component), that is, white and black horizontal stripes at the set number (i + b + n + 1) It is determined whether or not the coordinates (x, y) of the pattern are white. If the coordinates are white, the value of the (i−1) -th bit corresponding to the coordinates Y′t (x, y) is set to the value 1. It is done by. Here, “or (a, b)” in the expression (10) indicates a logical sum of bits a and b.

座標の対応関係を設定すると、グレイコード表現のテクスチャーの座標(X't(x,y),Y't(x,y))を次式(11)を用いて復号化して復号化後座標(Xt(x,y),Yt(x,y))を算出し(ステップS260)、値1〜Tまでの全フレームについて処理が完了したか否かを判定し(ステップS270)、全フレームについて処理が完了していないときには次のフレームを対象フレームtに設定してステップS210に戻って処理を繰り返し、全フレームについて処理が完了したときに本処理を終了する。ここで、式(11)中の「gray-1(a)」はグレイコードaを復号化した値を示し、「Xt(x,y)」はフレーム番号tのレンダリング済み画像の座標(x,y)に対応するテクスチャーのx座標を示し、「Yt(x,y)」はフレーム番号tのレンダリング済み画像の座標(x,y)に対応するテクスチャーのy座標を示す。なお、本実施形態では、座標(X't(x,y),Y't(x,y))の原点を(1,1)としているから、グレイコードを復号化した値に値1を加算している。画像描画情報としては、変数It(x,y)とバイアスBc,t(x,y)とゲインGc,t(x,y)と座標(Xt(x,y),Yt(x,y))とが含まれる。
When the correspondence relationship of coordinates is set, the coordinates (X't (x, y), Y't (x, y)) of the texture of the gray code expression are decoded using the following equation (11) to obtain the decoded coordinates (Xt (x, y), Yt (x, y)) is calculated (step S260), and it is determined whether or not the processing has been completed for all the frames having values 1 to T (step S270). When the process is not completed, the next frame is set as the target frame t, and the process returns to step S210 to repeat the process. When the process is completed for all frames, the process is terminated. Here, “gray −1 (a)” in Expression (11) indicates a value obtained by decoding the Gray code a, and “Xt (x, y)” indicates the coordinates (x, y) represents the x coordinate of the texture, and “Yt (x, y)” represents the y coordinate of the texture corresponding to the coordinate (x, y) of the rendered image of frame number t. In this embodiment, since the origin of the coordinates (X′t (x, y), Y′t (x, y)) is (1,1), the value 1 is set to the value obtained by decoding the Gray code. It is adding. Image rendering information includes variable It (x, y), bias Bc, t (x, y), gain Gc, t (x, y), and coordinates (Xt (x, y), Yt (x, y)) And are included.

次に、レンダリング済み画像解析処理部36により解析されて得られた画像描画情報を圧縮する処理、特に座標(Xt(x,y),Yt(x,y))を圧縮する処理について説明する。図10は、圧縮処理部38により実行される圧縮処理の一例を示すフローチャートである。   Next, processing for compressing image drawing information obtained by analysis by the rendered image analysis processing unit 36, particularly processing for compressing coordinates (Xt (x, y), Yt (x, y)) will be described. FIG. 10 is a flowchart illustrating an example of the compression processing executed by the compression processing unit 38.

圧縮処理では、まず、バイアスBc,t(x,y)およびゲインGc,t(x,y)についてJPEG圧縮方式によって圧縮する(ステップS300)。次に、座標(Xt(x,y),Yt(x,y))について線形圧縮方式により圧縮し(ステップS310)、圧縮データを保存して(ステップS320)、本ルーチンを終了する。なお、以上の圧縮処理は、テクスチャーが貼り付けられるテクスチャー領域とテクスチャーがが貼り付けられない非テクスチャー領域とを分離し、各領域のいずれかまたは双方に対して実施する構成であっても良い。また、画像描画情報としてのIt(x,y)を圧縮しても良い。   In the compression process, first, the bias Bc, t (x, y) and the gain Gc, t (x, y) are compressed by the JPEG compression method (step S300). Next, the coordinates (Xt (x, y), Yt (x, y)) are compressed by the linear compression method (step S310), the compressed data is saved (step S320), and this routine is terminated. Note that the above compression processing may be performed by separating the texture area to which the texture is pasted and the non-texture area to which the texture is not pasted, and performing either one or both of the areas. Further, It (x, y) as image drawing information may be compressed.

図11は、図10のステップS310により実行される線形圧縮処理の一例を示すフローチャートである。本実施形態における線形圧縮処理は、レンダリング済み画像の座標Xt(x,y),Yt(x,y)のそれぞれを三角形分割により線形近似する方式である。すなわち、x-y平面において座標値Xtを高さとしたグラフにおいて、この高さに近似させた複数の三角形でx-y平面の上部空間を覆い、当該複数の三角形と座標値Xtとの差分が所定の基準以下になるように設定する。そして、当該三角形の表面が座標(x、y)における座標値Xtであるとみなす構成としている。具体的には、まず、対象テクスチャー領域を設定する(ステップS400)。すなわち、座標Xt(x,y)は、It(x,y)≠0の座標(x,y)、つまりテクスチャーが貼り付けられる座標に対してのみ定義されるため、ここでは、全座標(x,y)のなかから、It(x,y)≠0となっている領域の一つを対象テクスチャー領域として設定する。なお、It(x,y)≠0となっている領域が一つしかなければ当該一つの領域が対象テクスチャー領域となり、It(x,y)≠0となっている領域がx-y平面内で分離して複数個存在する場合には各領域を一つずつ対象テクスチャー領域とし、それぞれの対象テクスチャー領域に対してステップS410以降の処理を行う。なお、本実施形態においては、テクスチャー領域について座標Xt(x,y),Yt(x,y)のそれぞれを線形圧縮する構成としているが、非テクスチャー領域について任意の座標値Xt,Ytを設定し全座標(x,y)についてまとめて線形圧縮を行う構成であっても良い。   FIG. 11 is a flowchart showing an example of the linear compression process executed in step S310 of FIG. The linear compression processing in the present embodiment is a method in which each of the coordinates Xt (x, y) and Yt (x, y) of the rendered image is linearly approximated by triangulation. That is, in the graph in which the coordinate value Xt is the height in the xy plane, the upper space of the xy plane is covered with a plurality of triangles approximated to this height, and the difference between the plurality of triangles and the coordinate value Xt is below a predetermined reference Set to be. Then, the surface of the triangle is regarded as the coordinate value Xt at the coordinates (x, y). Specifically, first, a target texture area is set (step S400). That is, since the coordinate Xt (x, y) is defined only for the coordinate (x, y) where It (x, y) ≠ 0, that is, the coordinate to which the texture is pasted, all coordinates (x , y), one of the regions where It (x, y) ≠ 0 is set as the target texture region. If there is only one region where It (x, y) ≠ 0, that one region is the target texture region, and the region where It (x, y) ≠ 0 is separated in the xy plane. If there are a plurality of target texture areas, each area is set as a target texture area, and the processing from step S410 is performed on each target texture area. In this embodiment, each of the coordinates Xt (x, y) and Yt (x, y) is linearly compressed for the texture area, but arbitrary coordinate values Xt and Yt are set for the non-texture area. The configuration may be such that linear compression is performed collectively for all coordinates (x, y).

対象テクスチャー領域を設定すると、この対象テクスチャー領域内の階調値z(座標値Xtあるいは座標値Yt)の平均をとることにより平均階調値zaを算出すると共に(ステップS410)、対象テクスチャー領域内の各画素の階調値zと平均階調値zaとの偏差Δzを計算し(ステップS420)、計算した偏差Δzが閾値zrefよりも大きいか否かを判定する(ステップS430)。いずれの画素についての偏差Δzも閾値zref以下のときには次のテクスチャー領域があるか否かを判定し(ステップS560)、次のテクスチャー領域があるときにはステップS400に戻ってこのテクスチャー領域を対象テクスチャー領域に設定して処理を繰り返し、いずれかの画素についての偏差Δzが閾値zrefよりも大きいときには、階調値が最大z1の画素A(x1,y1,z1)と階調値が最小z2の画素B(x2,y2,z2)を検索し(ステップS440)、A−B直線に直交しx-y平面に平行な直線及び2点A,Bを含む平面αを設定し(ステップS450)、設定した平面αとの距離L1が最も大きい画素C(x3,y3,z3)を検索する(ステップS460)。図12に平面αと画素Cとの関係を示す。こうして画素Cを検索すると、距離L1が閾値Lrefよりも大きいか否かを判定し(ステップS470)、距離L1が閾値Lref以下のときには次の処理に進み、距離L1が閾値Lrefよりも大きいときには点集合G={A,B,C}を設定し(ステップS480)、上記3点A,B,Cを含む平面βを設定する(ステップS490)。図13に平面βと画素Pとの関係を示す。次に、平面との距離Lpが最も大きい画素P(xp,yp,zp)を検索する(ステップS500)。なお、S500が初めて実行される場合、距離Lpの算出対象となる平面はステップS490で設定した平面βであり、S500の実行が2回目以降である場合、距離Lpの算出対象となる平面はステップS540で再設定した平面である。   When the target texture area is set, the average gradation value za is calculated by taking the average of the gradation values z (coordinate value Xt or coordinate value Yt) in the target texture area (step S410), and in the target texture area A deviation Δz between the gradation value z and the average gradation value za of each pixel is calculated (step S420), and it is determined whether or not the calculated deviation Δz is larger than a threshold value zref (step S430). When the deviation Δz for any pixel is equal to or smaller than the threshold value zref, it is determined whether or not there is a next texture area (step S560), and when there is a next texture area, the process returns to step S400 to make this texture area the target texture area. When the deviation Δz for any pixel is larger than the threshold value zref, the pixel A (x1, y1, z1) with the maximum gradation value z1 and the pixel B (with the gradation value of the minimum z2) are repeated. x2, y2, z2) are searched (step S440), a straight line orthogonal to the AB line and parallel to the xy plane and a plane α including two points A and B are set (step S450). The pixel C (x3, y3, z3) having the longest distance L1 is searched (step S460). FIG. 12 shows the relationship between the plane α and the pixel C. When the pixel C is searched in this way, it is determined whether or not the distance L1 is greater than the threshold value Lref (step S470). When the distance L1 is less than or equal to the threshold value Lref, the process proceeds to the next process, and when the distance L1 is greater than the threshold value Lref A set G = {A, B, C} is set (step S480), and a plane β including the three points A, B, C is set (step S490). FIG. 13 shows the relationship between the plane β and the pixel P. Next, the pixel P (xp, yp, zp) having the longest distance Lp from the plane is searched (step S500). When S500 is executed for the first time, the plane for which the distance Lp is calculated is the plane β set in step S490, and when S500 is executed for the second time or later, the plane for which the distance Lp is calculated is the step. This is the plane reset in S540.

そして、距離Lpが閾値Lrefよりも大きいか否かを判定し(ステップS510)、距離Lpが閾値Lref以下のときには次の処理に進み、距離Lpが閾値Lrefよりも大きいときには画素Pを新たに加えた点集合Gを設定し(ステップS520)、設定した点集合Gに対して三角形分割して(ステップS530)、平面を再設定する(ステップS540)。図14は点集合G={A,B,C,P}を三角形分割する様子を示す説明図である。図示するように、3点A,B,Cを含む三角平面と3点A,B,Pを含む三角平面とを両者が共有する直線A−Bで分割し、直線A−Bを境に各三角平面を延長することにより平面を再設定する。平面を再設定すると、ステップS500に戻って再設定した平面との距離Lpが最も大きい新たな画素P(xp,yp,zp)を検索し(ステップS510)、距離Lpが閾値Lref以下となるまでステップS500〜S540の処理を繰り返す。ステップS510で距離Lpが閾値Lref以下となると、設定した平面を対象テクスチャー領域の形状に切り抜いて(ステップS550)、次のテクスチャー領域があるときには(ステップS560)、ステップS400に戻ってこのテクスチャー領域を対象テクスチャー領域に設定してステップS400〜S560の処理を繰り返し、次のテクスチャー領域がないときには各テクスチャー領域毎に切り抜いた各平面を組み合わせ(ステップS570)、これを列(y座標方向)毎にx座標方向に順次走査し(ステップS580)、これにより得られる始点a、傾きΔa、長さlを保存して(ステップS590)、本処理を終了する。当該保存された始点a、傾きΔa、長さlを示す情報が線形圧縮された座標Xt(x,y)あるいは座標Yt(x,y)を示す情報となる。図15に、線形圧縮の様子を示す。線形圧縮は、図示するように、走査ラインs1に対して始点a0,a1,a2と傾きΔa0,Δa1,Δa2と長さl0,l1,l2を求めてこれを各走査ラインs2,s3・・毎に繰り返し、結果を保存することにより行なわれる。   Then, it is determined whether or not the distance Lp is larger than the threshold value Lref (step S510). When the distance Lp is equal to or smaller than the threshold value Lref, the process proceeds to the next process. When the distance Lp is larger than the threshold value Lref, a pixel P is newly added. The set point set G is set (step S520), the set point set G is triangulated (step S530), and the plane is reset (step S540). FIG. 14 is an explanatory diagram showing a state in which the point set G = {A, B, C, P} is triangulated. As shown in the figure, a triangular plane including three points A, B, and C and a triangular plane including three points A, B, and P are divided by a straight line AB that is shared by both, and each line is divided by a straight line AB. Reset the plane by extending the triangular plane. When the plane is reset, the process returns to step S500 to search for a new pixel P (xp, yp, zp) having the largest distance Lp with the reset plane (step S510), and until the distance Lp becomes equal to or smaller than the threshold Lref. The processes in steps S500 to S540 are repeated. When the distance Lp is less than or equal to the threshold value Lref in step S510, the set plane is cut out to the shape of the target texture area (step S550), and when there is a next texture area (step S560), the process returns to step S400 to return to this texture area. Set the target texture area and repeat the processing of steps S400 to S560. When there is no next texture area, the planes cut out for each texture area are combined (step S570), and this is x for each column (y coordinate direction). Scanning is sequentially performed in the coordinate direction (step S580), the starting point a, the inclination Δa, and the length l obtained thereby are stored (step S590), and this process is terminated. The stored information indicating the starting point a, the slope Δa, and the length l is information indicating the linearly compressed coordinates Xt (x, y) or coordinates Yt (x, y). FIG. 15 shows the state of linear compression. In the linear compression, as shown in the figure, the starting points a0, a1, a2 and the slopes Δa0, Δa1, Δa2 and the lengths l0, l1, l2 are obtained for the scanning line s1, and are obtained for each scanning line s2, s3,. This is done by repeatedly saving the result.

コンピューター20の圧縮処理部38により圧縮された画像描画情報(バイアスBc,(x,y),ゲインGc,t(x,y),座標Xt(x,y),Yt(x,y))および変数It(x,y)はビューワー40の記憶部41に記憶され、ビューワー40の展開処理部44により線形圧縮した座標Xt(x,y),Yt(x,y)については線形圧縮用の解凍処理によりJPEG圧縮したバイアスBc,t(x,y),ゲインGc,t(x,y)についてはJPEG解凍処理によりそれぞれ解凍した上で描画処理部46による描画処理に用いられる。描画処理部46では、メモリーカードMCに記憶されている写真などの複数の画像データを差し替え用テクスチャーとして読み込むと共に次式(12)を用いてレンダリング済み画像に合成して順次描画することにより、テクスチャーを差し替えながら3次元モデルのレンダリング済み画像を表示するスライドショー再生を行なうことができる。ここで、式(12)中の「Uc,It(x,y)(Xt(x,y),Yt(x,y))」は色成分c,テクスチャー番号iにおける差し替え用テクスチャーの座標(X,Y)の階調値(0.0〜1.0)を示し、「Pc,t(x,y)」は色成分c,フレーム番号tにおける表示画像(レンダリング済み画像)の座標(x,y)の階調値(0.0〜1.0)を示す。式(12)に示すように、表示画像の階調値Pc,t(x,y)の設定は、変数It(x,y)が値0でないテクスチャー配置領域に対しては表示画像の座標(x,y)に対応する差し替え用テクスチャーの座標(Xt(x,y),Yt(x,y))の階調値にゲインGc,t(x,y)を乗じてバイアスBc,t(x,y)を加えたものを設定することにより行なわれる。図16にテクスチャー番号が1〜3の3つの差し替え用テクスチャーを示し、図17にレンダリング済み画像に図16の差し替え用テクスチャーを配置して描画する様子を示す。前述したように、座標Xt(x,y),Yt(x,y)として線形圧縮により圧縮したものを用いているから、比較的高い圧縮率でデータ量を抑えながら差し替え用テクスチャーを配置したときの画像の歪みを抑制することができる。
Image drawing information (bias Bc, (x, y), gain Gc, t (x, y), coordinates Xt (x, y), Yt (x, y))) compressed by the compression processing unit 38 of the computer 20 and The variable It (x, y) is stored in the storage unit 41 of the viewer 40, and the coordinates Xt (x, y) and Yt (x, y) linearly compressed by the expansion processing unit 44 of the viewer 40 are decompressed for linear compression. The bias Bc, t (x, y) and the gain Gc, t (x, y) JPEG compressed by the processing are decompressed by the JPEG decompression processing and used for the rendering processing by the rendering processing unit 46. The drawing processing unit 46 reads a plurality of image data such as photographs stored in the memory card MC as replacement textures and combines them into a rendered image using the following equation (12) and sequentially draws the textures. It is possible to perform a slide show reproduction that displays the rendered image of the three-dimensional model while replacing. Here, “Uc, It (x, y) (Xt (x, y), Yt (x, y))” in Expression (12) is the coordinate (X of the replacement texture in the color component c and texture number i. , Y) indicates a gradation value (0.0 to 1.0), and “Pc, t (x, y)” indicates the coordinates (x, t) of the display image (rendered image) in the color component c and frame number t. y) represents the gradation value (0.0 to 1.0). As shown in the equation (12), the gradation value Pc, t (x, y) of the display image is set with respect to the texture arrangement region where the variable It (x, y) is not 0 (the coordinate of the display image ( Bias Bc, t (x) by multiplying the tone value of the replacement texture coordinate (Xt (x, y), Yt (x, y)) corresponding to x, y) by the gain Gc, t (x, y) , y) is set. FIG. 16 shows three replacement textures having texture numbers 1 to 3, and FIG. 17 shows a state in which the replacement texture of FIG. 16 is arranged and rendered on the rendered image. As described above, since the coordinates Xt (x, y) and Yt (x, y) are compressed by linear compression, when the replacement texture is placed while suppressing the data volume with a relatively high compression ratio The distortion of the image can be suppressed.

以上説明した実施例の画像処理方法によれば、3次元モデルに特殊テクスチャーを貼り付けてレンダリングすると共にレンダリング済み画像を解析することにより得られる画像描画情報の一つとしての座標(x,y)とテクスチャーの座標(X,Y)との対応関係を示す画像描画情報(Xt(x,y),Yt(x,y))を線形圧縮方式により圧縮するため、全体の画質の劣化を抑制しながら高い圧縮率によりデータを圧縮することができる。また、コンピューター20側では、座標(X,Y)を2進数表現したときの各ビットの値に対応するx座標用の縦縞模様のパターンとy座標用の横縞模様のパターンとを特殊テクスチャーとして3次元モデルに貼り付けてレンダリングし、レンダリングによりビットマップ画像として得られたレンダリング済み画像を解析することによりレンダリング済み画像の座標(x,y)とテクスチャーの座標(Xt(x,y),Yt(x,y))との対応関係を設定して画像描画情報として保存し、ビューワー40側でレンダリング済み画像を用いて画像を表示するときには、予め記憶した画像描画情報によりテクスチャーの座標(Xt(x,y),Yt(x,y))の階調値に基づいて表示画像の座標(x,y)に描画するから、3次元モデルのレンダリング済み画像をテクスチャーを自由に差し替えて再生することができると共にリアルタイムで3次元モデルをレンダリングして表示するものに比して処理負担を少なくすることができる。しかも、ゲインGc,t(x,y)やバイアスBc,t(x,y)を用いてテクスチャーの階調値を変換して表示画像の階調値を設定するから、3次元モデルをレンダリングしたときの屈折光や鏡面反射,影などの影響も反映させることができる。さらに、座標の対応関係を特定するための特殊テクスチャーとして交番2進数に対応する縦縞模様のパターンと横縞模様のパターンとを形成するから、隣接する座標に移行する際には常に1ビットの変化となり、画像の階調値の誤差に起因して誤ったデータが取得されてしまうのを抑制することができる。   According to the image processing method of the embodiment described above, the coordinates (x, y) as one of the image drawing information obtained by pasting and rendering the special texture on the three-dimensional model and analyzing the rendered image The image rendering information (Xt (x, y), Yt (x, y)) that shows the correspondence between the texture and the texture coordinates (X, Y) is compressed by the linear compression method. However, the data can be compressed with a high compression rate. On the computer 20 side, the vertical stripe pattern for x coordinate and the horizontal stripe pattern for y coordinate corresponding to the value of each bit when coordinates (X, Y) are expressed in binary are used as a special texture. Render by pasting to the dimensional model and analyzing the rendered image obtained as a bitmap image by rendering, and the coordinates of the rendered image (x, y) and texture coordinates (Xt (x, y), Yt ( x, y)) is set and saved as image drawing information, and when the image is displayed using the rendered image on the viewer 40 side, the texture coordinates (Xt (x ), y), Yt (x, y)), based on the gradation value of the display image, it is rendered at the coordinates (x, y) of the display image. In addition, the processing load can be reduced as compared with the case where the three-dimensional model is rendered and displayed in real time. In addition, since the tone value of the texture is converted by using the gain Gc, t (x, y) and the bias Bc, t (x, y) and the tone value of the display image is set, the three-dimensional model is rendered. It is also possible to reflect the effects of refracted light, specular reflection, and shadows. Furthermore, since a vertical striped pattern and a horizontal striped pattern corresponding to alternating binary numbers are formed as a special texture for specifying the correspondence of coordinates, a change of 1 bit always occurs when moving to adjacent coordinates. Therefore, it is possible to suppress erroneous data from being acquired due to an error in the gradation value of the image.

本実施形態では、座標Xt(x,y),Yt(x,y)を線形圧縮方式により圧縮するものとしたが、これに限定されるものではなく、バイアスBc,t(x,y)やゲインGc,t(x,y)を線形圧縮により圧縮するものとしても良い。また、線形圧縮対象となる座標系がx−y座標系であっても良い。すなわち、座標の対応関係をxt(X,Y),yt(X,Y)と規定し、X-Y平面上での高さxtやyt等を三角形分割を利用した線形近似にて表現する構成であっても良い。また、上述のJPEG圧縮方式に代えて他の圧縮方式たとえばJPEG2000やGIF,TIFF、デフレート圧縮などの可逆圧縮処理により圧縮するものとしてもよい。   In this embodiment, the coordinates Xt (x, y) and Yt (x, y) are compressed by the linear compression method, but the present invention is not limited to this, and the bias Bc, t (x, y) and The gain Gc, t (x, y) may be compressed by linear compression. Further, the coordinate system to be linearly compressed may be an xy coordinate system. That is, the coordinate correspondence is defined as xt (X, Y), yt (X, Y), and the height xt, yt, etc. on the XY plane is expressed by linear approximation using triangulation. May be. Further, instead of the above-described JPEG compression method, the compression may be performed by other compression methods such as JPEG2000, GIF, TIFF, deflate compression or the like.

本実施形態では、座標(X,Y)を2進数表現したときの各ビットの値に対応するx座標用の縦縞模様のパターンとy座標用の横縞模様のパターンとをテクスチャーとして用いて3次元モデルに貼り付けてレンダリングすると共にレンダリング結果を解析することにより画像描画情報を生成するものとしたが、用いるパターンはこれに限られず、x座標方向(横方向)に濃淡(階調値)が徐々に変化するパターンとy座標方向(縦方向)に濃淡が徐々に変換するパターンとを用いるものとしてもよい。この場合、前述した式(3)により得られるセット番号(n+2)〜(n+b+1)の縦縞模様のパターンに代えて次式(13)により得られるセット番号(n+2)の1つのパターンを用いると共に式(4)により得られるセット番号(n+b+2)〜(n+2b+1)の横縞模様のパターンに代えて次式(14)により得られるセット番号(n+3)の1つのパターンを用いるものとすればよい。
In the present embodiment, a three-dimensional pattern is obtained by using a vertical stripe pattern for x coordinates and a horizontal stripe pattern for y coordinates corresponding to the value of each bit when coordinates (X, Y) are expressed in binary notation as a texture. Image rendering information is generated by pasting and rendering the model and analyzing the rendering result. However, the pattern used is not limited to this, and the gradation (gradation value) gradually increases in the x-coordinate direction (lateral direction). It is also possible to use a pattern that changes to a pattern and a pattern in which shading gradually changes in the y-coordinate direction (vertical direction). In this case, a single pattern of the set number (n + 2) obtained by the following equation (13) is used instead of the vertical stripe pattern of the set numbers (n + 2) to (n + b + 1) obtained by the equation (3) described above and the equation Instead of the horizontal stripe pattern of the set numbers (n + b + 2) to (n + 2b + 1) obtained by (4), one pattern of the set number (n + 3) obtained by the following equation (14) may be used.

式(13)のパターンと式(14)のパターンとを用いる場合、座標の対応関係の設定は、次式(15)により求めることができる。図18に特殊テクスチャーの一例を示し、図19に図18の特殊テクスチャーを3次元モデルに貼り付けてレンダリングする様子を示す。これにより、生成すべき特殊テクスチャーの数を減らすことができる。
When the pattern of Expression (13) and the pattern of Expression (14) are used, the setting of the coordinate correspondence can be obtained by the following Expression (15). FIG. 18 shows an example of the special texture, and FIG. 19 shows a state where the special texture of FIG. 18 is pasted on the three-dimensional model and rendered. Thereby, the number of special textures to be generated can be reduced.

本実施形態では、対象セット番号iが値(n+2)〜値(n+b+1)の縦縞模様パターンの特殊テクスチャーを座標を交番2進数表現したときに各ビットの値に対応するものとすると共に対象セット番号iが値(n+b+2)〜値(n+2b+1)の横縞模様パターンの特殊テクスチャーを座標を交番2進数表現したときの各ビットの値に対応するものとしたが、これらのパターンを、座標を一般の2進数表現したときに各ビットの値に対応するものとして生成するものとしてもよい。この場合の特殊テクスチャーの一例を図20に示す。   In the present embodiment, the special texture of the vertical stripe pattern whose target set number i is a value (n + 2) to a value (n + b + 1) corresponds to the value of each bit when the coordinates are expressed in alternating binary numbers, and the target set number The special texture of the horizontal stripe pattern with i being the value (n + b + 2) to the value (n + 2b + 1) is assumed to correspond to the value of each bit when the coordinates are expressed in alternating binary numbers. It may be generated as a value corresponding to the value of each bit when expressed in decimal. An example of the special texture in this case is shown in FIG.

本実施形態では、ビューワー40により画像を再生するものとしたが、画像を再生できる機器であれば、液晶画面付きの携帯電話やプリンターなど如何なる機器を用いるものとしても構わない。   In the present embodiment, an image is reproduced by the viewer 40, but any device such as a mobile phone with a liquid crystal screen or a printer may be used as long as the device can reproduce an image.

なお、本発明は上述した実施形態に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の態様で実施し得ることはいうまでもない。   It should be noted that the present invention is not limited to the above-described embodiment, and it goes without saying that the present invention can be implemented in various modes as long as it belongs to the technical scope of the present invention.

20 コンピューター、22 ディスプレイ、31 記憶部、32 特殊テクスチャー生成処理部、34 レンダリング処理部、36 レンダリング済み画像解析処理部、38 圧縮処理部、40 ビューワー、41 記憶部、42 入力処理部、44 展開処理部、46 描画処理部、MC メモリーカード。   20 computers, 22 displays, 31 storage units, 32 special texture generation processing units, 34 rendering processing units, 36 rendered image analysis processing units, 38 compression processing units, 40 viewers, 41 storage units, 42 input processing units, 44 decompression processings Part, 46 drawing processing part, MC memory card.

Claims (13)

テクスチャーを3次元モデルに貼り付けてレンダリングしたレンダリング済み画像の座標と前記テクスチャーの座標との対応関係および前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す画像描画情報を取得し、
前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を示す前記画像描画情報を線形圧縮方式により圧縮する
ことを含む画像処理方法。
An image showing the correspondence between the coordinates of a rendered image rendered by pasting a texture on a three-dimensional model and the coordinates of the texture, and the correspondence between the color of each pixel of the rendered image and the color of each pixel of the texture Get drawing information
An image processing method comprising: compressing the image drawing information indicating a correspondence relationship between the coordinates of the rendered image and the coordinates of the texture by a linear compression method.
前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す前記画像描画情報をJPEG圧縮方式により圧縮する
請求項1記載の画像処理方法。
The image processing method according to claim 1, wherein the image drawing information indicating a correspondence relationship between a color for each pixel of the rendered image and a color for each pixel of the texture is compressed by a JPEG compression method.
前記線形圧縮方式は、前記レンダリング済み画像の座標と前記テクスチャーの座標とのいずれか一方の値を三角形分割により線形近似することによりデータを圧縮する
請求項1または請求項2に記載の画像処理方法。
The image processing method according to claim 1, wherein the linear compression method compresses data by linearly approximating one of the values of the rendered image coordinates and the texture coordinates by triangulation. .
請求項1〜3のいずれかに記載の画像処理方法であって、
座標毎に異なる階調値が設定された所定パターンをテクスチャーとして3次元モデルに貼り付けてレンダリングし、
該レンダリングによりビットマップ画像として得られたレンダリング済み画像を解析することにより前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を設定して前記画像描画情報として保存し、
所望のテクスチャーを画像として表示する際には、前記保存した画像描画情報に基づいて前記レンダリング済み画像中に前記所望のテクスチャーを配置して表示する
画像処理方法。
The image processing method according to any one of claims 1 to 3,
Render by pasting a predetermined pattern with different gradation values for each coordinate as a texture to a 3D model,
By analyzing the rendered image obtained as a bitmap image by the rendering, a correspondence relationship between the coordinates of the rendered image and the coordinates of the texture is set and stored as the image drawing information,
An image processing method, wherein when displaying a desired texture as an image, the desired texture is arranged and displayed in the rendered image based on the stored image drawing information.
前記レンダリング済み画像の各座標の階調値から対応する前記所定パターンの座標を特定することにより前記対応関係を導出する請求項4記載の画像処理方法。   The image processing method according to claim 4, wherein the correspondence relationship is derived by specifying the corresponding coordinates of the predetermined pattern from the gradation value of each coordinate of the rendered image. 前記所定パターンは、前記テクスチャーの座標を2進数で表現したときのビット数と同数のパターンであって、各パターンには座標を2進数で表現したときの各ビットが対応づけられるとともに、各パターンの各座標の階調値は当該対応づけられたビットの値に応じた値に設定されている請求項4または5記載の画像処理方法。   The predetermined pattern is the same number of bits as the number of bits when the texture coordinates are expressed in binary, and each pattern is associated with each bit when the coordinates are expressed in binary. 6. The image processing method according to claim 4, wherein the gradation value of each coordinate is set to a value corresponding to the value of the associated bit. 前記2進数は、グレイコード(交番2進数)である請求項6記載の画像処理方法。   The image processing method according to claim 6, wherein the binary number is a gray code (alternate binary number). 請求項4ないし7いずれか1項に記載の画像処理方法であって、
前記所定パターンとして前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンを前記3次元モデルに貼り付けてレンダリングし、
前記レンダリング済み画像における前記第1ベタ塗りパターンの階調値であるバイアス値を前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す前記画像描画情報として保存し、
前記保存したバイアス値に基づいて前記所望のテクスチャーの階調値をオフセットすることにより前記レンダリング済み画像の階調値に変換して表示する
画像処理方法。
An image processing method according to any one of claims 4 to 7,
In addition to the correspondence setting pattern for setting the correspondence between the coordinates of the rendered image and the coordinates of the texture as the predetermined pattern, a first solid pattern that is further solid-coated with the minimum gradation value Render by pasting to a 3D model,
A bias value, which is a gradation value of the first solid pattern in the rendered image, is stored as the image drawing information indicating a correspondence relationship between a color for each pixel of the rendered image and a color for each pixel of the texture. ,
An image processing method for converting and displaying the gradation value of the rendered image by offsetting the gradation value of the desired texture based on the stored bias value.
前記バイアス値を前記線形圧縮方式により圧縮する請求項8記載の画像処理方法。   The image processing method according to claim 8, wherein the bias value is compressed by the linear compression method. 請求項4ないし9いずれか1項に記載の画像処理方法であって、
前記所定パターンとして前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を設定するための対応関係設定用パターンに加えてさらに最小階調値でベタ塗りしてなる第1ベタ塗りパターンと最大階調値でベタ塗りしてなる第2ベタ塗りパターンとを前記3次元モデルに貼り付けてそれぞれレンダリングし、
前記レンダリング済み画像における前記第2ベタ塗りパターンの階調値と前記第1ベタ塗りパターンの階調値との偏差であるゲインを算出して前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す前記画像描画情報として保存し、
前記保存したゲインに基づいて前記所望のテクスチャーの階調値を前記レンダリング済み画像の階調値に変換して表示する
画像処理方法。
An image processing method according to any one of claims 4 to 9,
In addition to the correspondence setting pattern for setting the correspondence between the coordinates of the rendered image and the coordinates of the texture as the predetermined pattern, the first solid coating pattern formed by solid painting with the minimum gradation value and the maximum A second solid pattern that is solid with gradation values is pasted on the three-dimensional model and rendered,
By calculating a gain that is a deviation between the gradation value of the second solid pattern and the gradation value of the first solid pattern in the rendered image, the color of each pixel of the rendered image and the pixels of the texture Save as the image drawing information indicating the correspondence with each color,
An image processing method for converting a gradation value of the desired texture into a gradation value of the rendered image based on the stored gain and displaying the converted gradation value.
請求項10記載の画像処理方法であって、
前記レンダリング済み画像にn枚(nは自然数)のテクスチャーを配置して表示する場合には、(n−1)枚の前記第1ベタ塗りパターンと1枚の前記第2ベタ塗りパターンとからなるセットをn個設定するとともに各セット毎に前記3次元モデルに前記第2ベタ塗りパターンを貼り付ける箇所が異なる第1のセット群と、n枚の前記第1ベタ塗りパターンからなる第2のセットとをそれぞれセット毎に前記3次元モデルに貼り付けてレンダリングし、
前記第1のセット群を各セット毎にレンダリングすることにより得られる各レンダリング済み画像の階調値と前記第2のセットをレンダリングすることにより得られるレンダリング済み画像の階調値とを前記第1のセット群の各セット毎に比較することにより、前記3次元モデルにテクスチャーが貼り付けられた領域であるテクスチャー領域を特定し、該特定したテクスチャー領域に対して前記ゲインを算出する
画像処理方法。
The image processing method according to claim 10, comprising:
In the case where n (n is a natural number) textures are arranged and displayed on the rendered image, (n−1) sheets of the first solid pattern and one second solid pattern are included. A second set comprising n sets, a first set group in which the second solid coating pattern is applied to the three-dimensional model for each set, and a set of n first solid coating patterns. And render each set to the 3D model,
The gradation value of each rendered image obtained by rendering the first set group for each set and the gradation value of the rendered image obtained by rendering the second set are the first values. An image processing method for identifying a texture area, which is an area where a texture is pasted on the three-dimensional model, by comparing each set of the set groups, and calculating the gain for the identified texture area.
画像をフレーム単位で描画して動画像として表示する請求項1ないし11いずれか1項に記載の画像処理方法。   The image processing method according to claim 1, wherein the image is drawn in units of frames and displayed as a moving image. テクスチャーを3次元モデルに貼り付けてレンダリングしたレンダリング済み画像の座標と前記テクスチャーの座標との対応関係および前記レンダリング済み画像の画素ごとの色と前記テクスチャーの画素ごとの色との対応関係を示す画像描画情報を取得する画像描画情報取得手段と、
前記レンダリング済み画像の座標と前記テクスチャーの座標との対応関係を示す前記画像描画情報を線形圧縮方式により圧縮する圧縮手段と、
を備える画像処理装置。
An image showing the correspondence between the coordinates of a rendered image rendered by pasting a texture on a three-dimensional model and the coordinates of the texture, and the correspondence between the color of each pixel of the rendered image and the color of each pixel of the texture Image drawing information acquisition means for acquiring drawing information;
Compression means for compressing the image drawing information indicating the correspondence between the coordinates of the rendered image and the coordinates of the texture by a linear compression method;
An image processing apparatus comprising:
JP2010090154A 2009-05-13 2010-04-09 Image processing method and image processing apparatus Active JP5482394B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010090154A JP5482394B2 (en) 2009-05-13 2010-04-09 Image processing method and image processing apparatus
US12/778,992 US20100289798A1 (en) 2009-05-13 2010-05-12 Image processing method and image processing apparatus
CN201010178591.3A CN101908221B (en) 2009-05-13 2010-05-13 Image processing method and image processing apparatus

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2009116957 2009-05-13
JP2009116957 2009-05-13
JP2009213431 2009-09-15
JP2009213431 2009-09-15
JP2010090154A JP5482394B2 (en) 2009-05-13 2010-04-09 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2011086277A JP2011086277A (en) 2011-04-28
JP5482394B2 true JP5482394B2 (en) 2014-05-07

Family

ID=43068134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010090154A Active JP5482394B2 (en) 2009-05-13 2010-04-09 Image processing method and image processing apparatus

Country Status (3)

Country Link
US (1) US20100289798A1 (en)
JP (1) JP5482394B2 (en)
CN (1) CN101908221B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103425784B (en) * 2011-04-14 2017-09-22 苏州超擎图形软件科技发展有限公司 The method and device for simplifying of spatial data
US9214138B2 (en) 2012-12-28 2015-12-15 Microsoft Technology Licensing, Llc Redundant pixel mitigation
US9135742B2 (en) * 2012-12-28 2015-09-15 Microsoft Technology Licensing, Llc View direction determination
EP2902973B1 (en) * 2014-02-03 2018-06-27 Thomson Licensing Method and device for processing a geometry image of a 3d scene
CN103927184A (en) * 2014-04-29 2014-07-16 深圳第七大道网络技术有限公司 Optimization method and device for rendering on same screen
KR20210030147A (en) * 2019-09-09 2021-03-17 삼성전자주식회사 3d rendering method and 3d rendering apparatus
CN113643414B (en) * 2020-05-11 2024-02-06 北京达佳互联信息技术有限公司 Three-dimensional image generation method and device, electronic equipment and storage medium
CN112001996B (en) * 2020-08-24 2024-06-21 武汉航天远景科技股份有限公司 Three-dimensional model real-time rendering method based on runtime texture reorganization
CN113610907B (en) * 2021-08-04 2024-04-12 上海仙仙兔网络科技有限公司 Game map texture analysis system based on PBR physical rendering
CN114821284B (en) * 2022-06-30 2022-09-02 南通捷茜纺织科技有限公司 Intelligent adjusting method of plaiting machine for textile production

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5864342A (en) * 1995-08-04 1999-01-26 Microsoft Corporation Method and system for rendering graphical objects to image chunks
US6005582A (en) * 1995-08-04 1999-12-21 Microsoft Corporation Method and system for texture mapping images with anisotropic filtering
US20020154132A1 (en) * 1997-07-30 2002-10-24 Alain M. Dumesny Texture mapping 3d graphic objects
JPH11195132A (en) * 1997-10-31 1999-07-21 Hewlett Packard Co <Hp> Buffer for texture mapping and three-dimensional graphics processor and system therefor and method therefor and storage medium for storing processing program
US6480538B1 (en) * 1998-07-08 2002-11-12 Koninklijke Philips Electronics N.V. Low bandwidth encoding scheme for video transmission
US6525731B1 (en) * 1999-11-09 2003-02-25 Ibm Corporation Dynamic view-dependent texture mapping
JP2003141562A (en) * 2001-10-29 2003-05-16 Sony Corp Image processing apparatus and method for nonplanar image, storage medium, and computer program
US7027647B2 (en) * 2001-12-31 2006-04-11 Hewlett-Packard Development Company, L.P. Coder matched layer separation for compression of compound documents
US20030193503A1 (en) * 2002-04-10 2003-10-16 Mark Seminatore Computer animation system and method
US6999093B1 (en) * 2003-01-08 2006-02-14 Microsoft Corporation Dynamic time-of-day sky box lighting
GB2415344B (en) * 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
JP4643485B2 (en) * 2006-03-30 2011-03-02 株式会社東芝 Drawing apparatus, method and program
CN100582657C (en) * 2008-01-31 2010-01-20 武汉理工大学 Three-dimensional microcosmic appearance inclined scanning method and apparatus

Also Published As

Publication number Publication date
JP2011086277A (en) 2011-04-28
US20100289798A1 (en) 2010-11-18
CN101908221A (en) 2010-12-08
CN101908221B (en) 2012-11-28

Similar Documents

Publication Publication Date Title
JP5482394B2 (en) Image processing method and image processing apparatus
JP5573316B2 (en) Image processing method and image processing apparatus
US11158109B2 (en) UV mapping and compression
JP5722761B2 (en) Video compression apparatus, image processing apparatus, video compression method, image processing method, and data structure of video compression file
EP2092488B1 (en) Image compression and/or decompression
CN100357972C (en) Systems and methods for compressing computer graphics color data
JP5085642B2 (en) Method for compressing an image block, method for processing a compressed representation of an image block, block compressor and block decompressor
CN117178297A (en) Micro-grid for structured geometry of computer graphics
US8571339B2 (en) Vector-based image processing
EP2145317B1 (en) Multi-mode vector-based image processing
US8837842B2 (en) Multi-mode processing of texture blocks
JP5413081B2 (en) Image display method and image display apparatus
Yao et al. Adaptive geometry image
JP2010288268A (en) Image processing method and image processing apparatus
JP2010257224A (en) Moving image display device
JP2010288267A (en) Image processing method and image processing apparatus
JP5106992B2 (en) Method and apparatus for rendering 3D graphics data in consideration of fog effect
US9129447B2 (en) Method and device for generating graphic images
JP2011076145A (en) Image display method
Wang et al. Texture mapping for progressive mesh transmission
JP2011070569A (en) Image display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140203

R150 Certificate of patent or registration of utility model

Ref document number: 5482394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350