JP6814036B2 - Element image group generator and its program - Google Patents
Element image group generator and its program Download PDFInfo
- Publication number
- JP6814036B2 JP6814036B2 JP2016237273A JP2016237273A JP6814036B2 JP 6814036 B2 JP6814036 B2 JP 6814036B2 JP 2016237273 A JP2016237273 A JP 2016237273A JP 2016237273 A JP2016237273 A JP 2016237273A JP 6814036 B2 JP6814036 B2 JP 6814036B2
- Authority
- JP
- Japan
- Prior art keywords
- element image
- image group
- subject
- dimensional model
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008921 facial expression Effects 0.000 claims description 29
- 238000013507 mapping Methods 0.000 claims description 26
- 238000006243 chemical reaction Methods 0.000 description 169
- 238000000034 method Methods 0.000 description 40
- 238000004364 calculation method Methods 0.000 description 25
- 230000000295 complement effect Effects 0.000 description 15
- 239000000284 extract Substances 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 241000220225 Malus Species 0.000 description 3
- 241000234295 Musa Species 0.000 description 3
- 235000021016 apples Nutrition 0.000 description 3
- 235000021015 bananas Nutrition 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Generation (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、3次元モデルから予め生成した色情報のない第1要素画像群にテクスチャマッピングを施すことで、色情報のある第2要素画像群を生成する要素画像群生成装置及びそのプログラムに関する。 The present invention relates to an element image group generating device and a program thereof that generate a second element image group having color information by applying texture mapping to a first element image group having no color information generated in advance from a three-dimensional model.
従来のインテグラルフォトグラフィ(IP)方式では、1台のカメラで複数の微小レンズが配列されたレンズアレイを通して被写体を撮影する。このとき、カメラがレンズアレイの焦平面を撮影するため、レンズアレイを構成する各微小レンズは、微小なカメラと同じ働きをする。その結果、レンズアレイ越しに被写体を撮影した画像は、微小レンズの位置に応じた微小画像(要素画像)が並んだ要素画像群となる。要素画像群は、被写体からの光線情報を記憶した画像であり、記憶できる光線数がカメラの解像度に依存する。このため、IP方式の撮影には、高解像度のカメラが必要となる。また、撮像光学系の色収差や歪みによる影響を補正する必要もある。 In the conventional integral photography (IP) method, a single camera captures a subject through a lens array in which a plurality of minute lenses are arranged. At this time, since the camera captures the focal plane of the lens array, each minute lens constituting the lens array functions in the same manner as the minute camera. As a result, the image of the subject photographed through the lens array becomes an element image group in which minute images (element images) corresponding to the positions of the minute lenses are arranged. The element image group is an image in which light ray information from the subject is stored, and the number of light rays that can be stored depends on the resolution of the camera. Therefore, a high-resolution camera is required for IP-type shooting. It is also necessary to correct the effects of chromatic aberration and distortion of the imaging optical system.
また、従来から、コンピュータグラフィックス(CG)を用いて、IP方式の要素画像群を生成する技術が研究されている。従来技術では、計算機内で仮想3次元空間を生成し、3次元の被写体及び背景(セット)を実世界と同様に再現し、その仮想3次元空間において被写体からの光線を追跡することで、要素画像群を生成する。CGによる要素画像を生成する手法として、下記の特許文献1,2及び非特許文献1,2に記載の手法が知られている。これらの要素画像生成手法は、被写体からの光線を制御する奥行き制御レンズを通して、被写体からの光線を追跡するものである。これら手法では、要素画像群の画素数の回数だけ観察者側からカメラで撮影する必要がある。すなわち、非特許文献1の要素画像生成手法は、1画素毎に光線追跡法を用いるので、1画素毎に撮影を行うカメラと同等であり、撮影回数が要素画像群の画素数と同じになる。そこで、さらなる高速化のため、従来技術として、CGオブジェクトを正射影によるカメラで撮影し、これらの画像を要素画像群に変換する手法も知られている(特許文献3、非特許文献3)。このような要素画像変換手法では、カメラで撮影する回数が要素画像を形成する画素数で済む。
Further, conventionally, a technique for generating an element image group of an IP system by using computer graphics (CG) has been studied. In the conventional technology, a virtual three-dimensional space is generated in a computer, a three-dimensional subject and a background (set) are reproduced in the same manner as in the real world, and light rays from the subject are tracked in the virtual three-dimensional space to obtain elements. Generate a group of images. As a method for generating an element image by CG, the methods described in the following
前記した従来技術では、高精細な立体画像を生成するため、要素画像群の多画素化が必須である。しかし、前記した従来技術では、要素画像群の多画素化に伴って、要素画像群の生成に時間を要するため、より一層の高速化が必要となる。 In the above-mentioned conventional technique, in order to generate a high-definition stereoscopic image, it is indispensable to increase the number of pixels of the element image group. However, in the above-mentioned conventional technique, it takes time to generate the element image group as the number of pixels of the element image group increases, so that further speeding up is required.
そこで、本発明は、要素画像群の生成時間を短縮できる要素画像群生成装置及びそのプログラムを提供することを課題とする。 Therefore, an object of the present invention is to provide an element image group generating device and a program thereof that can shorten the generation time of the element image group.
前記した課題に鑑みて、本発明に係る要素画像群生成装置は、3次元モデルから予め生成した色情報のない第1要素画像群にテクスチャマッピングを施すことで、色情報のある第2要素画像群を生成する要素画像群生成装置であって、被写体画像入力手段と、3次元モデル記憶手段と、第1要素画像群記憶手段と、画素位置情報記憶手段と、特徴量算出手段と、3次元モデル選択手段と、第1要素画像群選択手段と、画素位置情報選択手段と、第2要素画像群生成手段と、を備える構成とした。 In view of the above-mentioned problems, the element image group generation device according to the present invention performs texture mapping on the first element image group without color information generated in advance from the three-dimensional model, thereby performing the texture mapping on the second element image with color information. An element image group generation device for generating a group, which is a subject image input means, a three-dimensional model storage means, a first element image group storage means, a pixel position information storage means, a feature amount calculation means, and three-dimensional. The configuration includes a model selection means, a first element image group selection means, a pixel position information selection means, and a second element image group generation means.
かかる構成によれば、要素画像群生成装置は、被写体画像入力手段によって、被写体画像を入力する。被写体画像は、被写体を撮影した撮影画像であり、被写体の色情報(テクスチャ)を含んでいる。
要素画像群生成装置は、3次元モデル記憶手段によって、複数の3次元モデルを予め記憶する。3次元モデルは、任意の人物の顔又は物体の3次元形状を表しており、色情報を含んでいない。
According to such a configuration, the element image group generating device inputs the subject image by the subject image input means. The subject image is a photographed image of the subject, and includes color information (texture) of the subject.
The element image group generating device stores a plurality of three-dimensional models in advance by the three-dimensional model storage means. The three-dimensional model represents the three-dimensional shape of the face or object of any person and does not include color information.
要素画像群生成装置は、第1要素画像群記憶手段によって、3次元モデルの位置及び方向に応じた第1要素画像群を予め記憶する。第1要素画像群は、色情報のない3次元モデルの要素画像で構成されている。
要素画像群生成装置は、画素位置情報記憶手段によって、3次元モデルと被写体画像と第1要素画像群の要素画像との画素位置を対応付けた画素位置情報を予め記憶する。
The element image group generating device stores in advance the first element image group according to the position and direction of the three-dimensional model by the first element image group storage means. The first element image group is composed of element images of a three-dimensional model without color information.
The element image group generating device stores in advance pixel position information in which the pixel positions of the three-dimensional model, the subject image, and the element image of the first element image group are associated with each other by the pixel position information storage means.
要素画像群生成装置は、特徴量算出手段によって、被写体画像から、被写体の形状を表した形状特徴量と、被写体の位置及び方向を表した状況特徴量とを算出する。
要素画像群生成装置は、3次元モデル選択手段によって、形状特徴量に基づいて、被写体に最も類似する3次元モデルを3次元モデル記憶手段から選択する。
要素画像群生成装置は、第1要素画像群選択手段によって、選択した3次元モデルについて、状況特徴量の位置及び方向に応じた第1要素画像群を第1要素画像群記憶手段から選択する。
The element image group generating device calculates a shape feature amount representing the shape of the subject and a situation feature amount representing the position and direction of the subject from the subject image by the feature amount calculating means.
The element image group generating device selects a three-dimensional model most similar to the subject from the three-dimensional model storage means based on the shape feature amount by the three-dimensional model selection means.
The element image group generation device selects the first element image group according to the position and direction of the situation feature amount from the first element image group storage means for the selected three-dimensional model by the first element image group selection means.
要素画像群生成装置は、画素位置情報選択手段によって、選択した3次元モデルについて、状況特徴量の位置及び方向に応じた画素位置情報を画素位置情報記憶手段から選択する。
要素画像群生成装置は、第2要素画像群生成手段によって、選択した画素位置情報の画素位置に基づいて、選択した第1要素画像群に被写体画像をテクスチャマッピングすることで、被写体の第2要素画像群を生成する。
The element image group generating device selects the pixel position information according to the position and direction of the situation feature amount from the pixel position information storage means for the selected three-dimensional model by the pixel position information selection means.
The element image group generating device texture-maps the subject image to the selected first element image group based on the pixel position of the selected pixel position information by the second element image group generating means, thereby performing the second element of the subject. Generate a group of images.
このように、要素画像群生成装置は、色情報のない第1要素画像群を予め記憶し、この第1要素画像群に対してテクスチャマッピングを施す。このため、要素画像群生成装置は、演算量が多い光線追跡法や正射影を都度行う必要がないので、演算量を抑え、第1要素画像群の生成時間を短縮することができる。 In this way, the element image group generating device stores the first element image group without color information in advance, and performs texture mapping on the first element image group. Therefore, since the element image group generating device does not need to perform the ray tracing method or the normal projection which requires a large amount of calculation each time, the amount of calculation can be suppressed and the generation time of the first element image group can be shortened.
本発明によれば、以下のような優れた効果を奏する。
本発明に係る要素画像群生成装置は、予め記憶した第1要素画像群に対してテクスチャマッピングを施すので、演算量が多い光線追跡法や正射影を都度行う必要がない。これにより、要素画像群生成装置は、第1要素画像群の生成時間を短縮し、素早く第2要素画像群を生成することができる。
According to the present invention, the following excellent effects are obtained.
Since the element image group generating device according to the present invention performs texture mapping on the first element image group stored in advance, it is not necessary to perform a ray tracing method or a normal projection that requires a large amount of calculation each time. As a result, the element image group generating device can shorten the generation time of the first element image group and quickly generate the second element image group.
以下、本発明の各実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の手段及び処理には同一の符号を付し、説明を省略した。 Hereinafter, each embodiment of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, the same means and processes are designated by the same reference numerals, and the description thereof is omitted.
(第1実施形態)
[立体画像表示システムの概略]
図1を参照し、本発明の第1実施形態に係る立体画像表示システム1の概略について、説明する。
図1に示すように、立体画像表示システム1は、IP方式で立体画像(要素画像群)を表示するものであり、被写体画像取得装置10と、要素画像群生成装置20と、IP立体画像表示装置30と、を備える。
(First Embodiment)
[Outline of stereoscopic image display system]
The outline of the stereoscopic
As shown in FIG. 1, the stereoscopic
被写体画像取得装置10は、被写体を撮影した被写体画像を取得するものであり、撮影手段11と、画像記憶手段13とを備える。
撮影手段11は、被写体を撮影する一般的なカメラである。本実施形態では、撮影手段11は、1台のカメラで構成されている。
画像記憶手段13は、撮影手段11が撮影した被写体画像を記憶するものであり、例えば、SSD(Solid State Drive)、HDD(Hard Disk Drive)、メモリ等の記憶媒体である。
The subject
The photographing means 11 is a general camera for photographing a subject. In the present embodiment, the photographing
The image storage means 13 stores a subject image taken by the photographing
要素画像群生成装置20は、IP立体画像表示装置30で表示する立体画像を生成するものである。本実施形態では、要素画像群生成装置20は、処理時間を短縮するため、テクスチャのない3次元モデル、及び、3次元モデルから生成した第1要素画像群を予め記憶しておく。そして、要素画像群生成装置20は、被写体画像取得装置10の被写体画像から、被写体に最も類似する3次元モデルを選択する。さらに、要素画像群生成装置20は、被写体画像取得装置10の被写体画像を用いて、選択した3次元モデルを表した第1要素画像群に被写体のテクスチャを貼り付ける。
なお、要素画像群生成装置20の構成は、後記する。
The element image
The configuration of the element image
IP立体画像表示装置30は、要素画像群生成装置20が生成した立体画像を表示するものである。IP立体画像表示装置30は、一般的なIP方式の表示装置であり、例えば、図示を省略したレンズアレイと、表示素子とを備える。
The IP stereoscopic
[要素画像群生成装置の構成]
以下、要素画像群生成装置20の構成について説明する。
要素画像群生成装置20は、被写体画像入力手段21と、データベース22と、特徴量算出手段23と、3次元モデル選択手段24と、第1要素画像群選択手段25と、テクスチャ座標変換テーブル選択手段(画素位置情報選択手段)26と、第2要素画像群生成手段27と、を備える。
[Configuration of element image group generator]
Hereinafter, the configuration of the element image
The element image
被写体画像入力手段21は、被写体画像取得装置10(画像記憶手段13)が記憶する被写体画像を入力するものである。そして、被写体画像入力手段21は、入力した被写体画像を特徴量算出手段23及び第2要素画像群生成手段27に出力する。
本実施形態では、被写体は、図2に示すように、人物の顔Fであることとする。従って、被写体画像は、被写体として、人物の顔Fを撮影した画像である。
The subject image input means 21 inputs a subject image stored by the subject image acquisition device 10 (image storage means 13). Then, the subject image input means 21 outputs the input subject image to the feature amount calculation means 23 and the second element image group generation means 27.
In the present embodiment, the subject is the face F of a person as shown in FIG. Therefore, the subject image is an image obtained by photographing the face F of a person as the subject.
データベース22は、要素画像群の生成に必要な各種情報を記憶したデータベースであり、3次元モデルデータベース(3次元モデル記憶手段)221と、第1要素画像群データベース(第1要素画像群記憶手段)223と、テクスチャ座標変換テーブルデータベース(画素位置情報記憶手段)225とを備える。
The
3次元モデルデータベース221は、複数の3次元モデルを予め記憶したデータベースである。本実施形態では、3次元モデルデータベース221は、図3に示すように、人物の顔の3次元モデルMを記憶する。3次元モデルMは、人物の顔の3次元形状を表している。
The three-
ここで、3次元モデルデータベース221は、様々な被写体に類似した3次元モデルMを選択できるように、多数の3次元モデルMを記憶することが好ましい。例えば、3次元モデルデータベース221は、人種、性別、体格、年齢が異なる人物について、その顔の3次元モデルMを記憶する。
Here, it is preferable that the three-
例えば、ポリゴンの3次元モデルは、三角形、四角形等の多角形(ポリゴン)を組み合わせることで、3次元形状を表現したモデルである。そして、ポリゴンの3次元モデルにテクスチャを貼り付けることで(テクスチャマッピング)、その質感を向上させることができる。つまり、本実施形態の3次元モデルMは、図3に示すように、顔の形状のみを表しており、顔のテクスチャ(色情報)が付加されていない。 For example, a three-dimensional model of a polygon is a model that expresses a three-dimensional shape by combining polygons such as triangles and quadrangles. Then, by pasting a texture on the three-dimensional model of the polygon (texture mapping), the texture can be improved. That is, as shown in FIG. 3, the three-dimensional model M of the present embodiment represents only the shape of the face, and the texture (color information) of the face is not added.
第1要素画像群データベース223は、第1要素画像群を予め記憶したデータベースである。ここで、第1要素画像群データベース223は、3次元モデルM毎に、その3次元モデルMの位置、方向及び顔の表情に応じた数の第1要素画像群90を記憶する。本実施形態では、第1要素画像群90は、図4に示すように、色情報(テクスチャ)のない3次元モデルMの要素画像91で構成されている。
The first element image group database 223 is a database in which the first element image group is stored in advance. Here, the first element image group database 223 stores a number of first
テクスチャ座標変換テーブルデータベース225は、テクスチャ座標変換テーブル(画素位置情報)を予め記憶するデータベースである。本実施形態では、テクスチャ座標変換テーブルデータベース225は、第1要素画像群90毎にテクスチャ座標変換テーブルを記憶する。テクスチャ座標変換テーブルは、3次元モデルMと、被写体画像と、第1要素画像群90の要素画像91との全画素について、その画素位置を対応付けた情報である。
The texture coordinate conversion table database 225 is a database that stores the texture coordinate conversion table (pixel position information) in advance. In the present embodiment, the texture coordinate conversion table database 225 stores the texture coordinate conversion table for each of the first element image groups 90. The texture coordinate conversion table is information in which the pixel positions of all the pixels of the three-dimensional model M, the subject image, and the
<3次元モデル、第1要素画像群、テクスチャ座標変換テーブルの生成方法>
以下、データベース22に記憶する3次元モデル、第1要素画像群90及びテクスチャ座標変換テーブルの生成方法について、具体的に説明する。
<How to generate 3D model, 1st element image group, texture coordinate conversion table>
Hereinafter, a method of generating the three-dimensional model, the first
3次元モデルMは、任意の手法で生成可能であり、例えば、フォトグラメトリで生成できる。フォトグラメトリは、3次元モデルMの元となる人物の顔を異なる視点から撮影し、各撮影画像(仮のテクスチャ画像)の視差から奥行き情報を求め、求めた奥行き情報に基づいて3次元モデルMを生成する手法である。 The three-dimensional model M can be generated by any method, for example, by photogrammetry. Photogrammetry captures the face of the person who is the source of the 3D model M from different viewpoints, obtains depth information from the parallax of each shot image (temporary texture image), and obtains depth information based on the obtained depth information. This is a method for generating M.
第1要素画像群90は、従来と同様、光線追跡法により生成できる。具体的には、光線追跡法では、3次元モデルMを配置した仮想3次元空間に、撮像素子とレンズアレイと奥行き制御レンズとを備える仮想カメラを配置する。そして、光線追跡法では、仮想カメラが備える撮像素子の画素毎にレンズアレイ及び奥行き制御レンズを通過し、3次元モデルMに達する光線の情報を算出する。なお、第1要素画像群90は、従来技術と同様、斜投影で生成してもよい。
The first
ここで、3次元モデルMの画素位置と、3次元モデルMの元となる撮影画像の画素位置との対応関係は、3次元モデルMを生成する際に求められる。また、被写体画像を撮影画像と同一サイズに正規化すれば、3次元モデルMの画素位置と、被写体画像の画素位置との対応関係も定まる。
また、光線追跡法又は斜投影により、3次元モデルMの画素位置と、第1要素画像群90を構成する各要素画像91の画素位置との対応関係も求められる。
このように、テクスチャ座標変換テーブルは、3次元モデルM及び第1要素画像群90を生成するときに求めることができる。
Here, the correspondence between the pixel positions of the three-dimensional model M and the pixel positions of the captured image that is the source of the three-dimensional model M is obtained when the three-dimensional model M is generated. Further, if the subject image is normalized to the same size as the captured image, the correspondence relationship between the pixel position of the three-dimensional model M and the pixel position of the subject image is also determined.
Further, a correspondence relationship between the pixel position of the three-dimensional model M and the pixel position of each
As described above, the texture coordinate conversion table can be obtained when the three-dimensional model M and the first
テクスチャ座標変換テーブルは、入力(x1,y1,R1,G1,B1)と、出力(x2,y2,R2,G2,B2)との対応関係を表す(図9の符号93)。x1,y1は、被写体画像の画素位置(座標)を表す。R1,G1,B1は、座標(x1,y1)のRGB値を表す。また、x2,y2は、第1要素画像群90を構成する要素画像91の画素位置(座標)を表す。R2,G2,B2は、座標(x2,y2)のRGB値を表す。ここで、1つの被写体画像に対して要素画像91が複数なので、テクスチャ座標変換テーブルは、1つの入力(x1,y1,R1,G1,B1)に対して、最大で要素画像91の数までの出力(x2,y2,R2,G2,B2)を有する。
The texture coordinate conversion table represents the correspondence between the input (x1, y1, R1, G1, B1) and the output (x2, y2, R2, G2, B2) (
図5(a)に示すように被写体画像92内で中央に顔Fが位置する場合、図5(b)に示すように右側に顔Fが位置する場合、図5(c)に示すように上側に顔Fが位置する場合など、顔Fの水平位置及び垂直位置に応じた第2要素画像群を生成する必要がある。
また、図6(a)に示すように手前側に顔Fが位置する場合、図6(b)に示すように奥側に顔Fが位置する場合など、顔Fの大きさが異なることから、顔Fの奥行き位置に応じた第2要素画像群を生成する必要がある。
When the face F is located in the center of the
Further, since the size of the face F is different, such as when the face F is located on the front side as shown in FIG. 6 (a) and when the face F is located on the back side as shown in FIG. 6 (b). , It is necessary to generate a second element image group according to the depth position of the face F.
また、図7に示すように、顔Fが水平軸(X軸)、垂直軸(Y軸)、奥行き軸(Z軸)の方向で回転している場合、顔Fの見え方が異なることから、顔Fの回転方向に応じた第2要素画像群を生成する必要がある。
また、図8(a)に示すように眼を開いている場合、図8(b)に示すように眼を閉じている場合など、顔Fの表情に応じた第2要素画像群を生成する必要がある。
なお、表情は、例えば、眼を閉じている、眼を開いている、口を閉じている、口を開いているなど、予め設定されている。
Further, as shown in FIG. 7, when the face F is rotated in the directions of the horizontal axis (X axis), the vertical axis (Y axis), and the depth axis (Z axis), the appearance of the face F is different. , It is necessary to generate a second element image group according to the rotation direction of the face F.
Further, a second element image group corresponding to the facial expression of the face F is generated, such as when the eyes are open as shown in FIG. 8A and when the eyes are closed as shown in FIG. 8B. There is a need.
The facial expression is set in advance, for example, the eyes are closed, the eyes are open, the mouth is closed, the mouth is open, and the like.
以上より、データベース22は、図9に示すように、3次元モデルM毎に、顔Fの位置(水平位置、垂直位置及び奥行き位置)、方向及び表情に応じて、第1要素画像群90及びテクスチャ座標変換テーブル93を予め記憶する。つまり、第1要素画像群90及びテクスチャ座標変換テーブル93は、1つの3次元モデルMに対して、顔Fの位置、方向及び表情の種類を組み合わせた数だけ存在する。
From the above, as shown in FIG. 9, the
なお、データベース22は、各3次元モデルMに、その3次元モデルMを一意に識別できる識別情報(ID)を付与することとする。つまり、識別情報を参照すれば、データベース22が記憶する3次元モデルMを特定できる。
The
図1に戻り、要素画像群生成装置20の構成について、説明を続ける。
特徴量算出手段23は、被写体画像入力手段21より入力した被写体画像92から、被写体の形状特徴量及び状況特徴量を算出するものである。
Returning to FIG. 1, the configuration of the element image
The feature amount calculation means 23 calculates the shape feature amount and the situation feature amount of the subject from the
本実施形態では、特徴量算出手段23は、形状特徴量として、顔Fを表した顔特徴量を算出する。具体的には、特徴量算出手段23は、被写体画像92から、眼、鼻、口等の顔特徴点を抽出する。そして、特徴量算出手段23は、抽出した顔特徴点から、両眼間距離(両眼の瞳孔間距離)、眼と鼻と口との距離、口の大きさ(口の左右両端距離)等の顔特徴量を算出する。
In the present embodiment, the feature amount calculation means 23 calculates the face feature amount representing the face F as the shape feature amount. Specifically, the feature amount calculation means 23 extracts facial feature points such as eyes, nose, and mouth from the
なお、特徴量算出手段23は、特許第4954945号公報に記載の手法を用いて、顔特徴量を算出してもよい。この従来技術は、被写体画像92に含まれる特徴点データを示す行列の因数行列を推定することにより、被写体画像取得装置10に対する顔Fの向きと、顔Fの特徴点の三次元位置とを交互に推定するものである。
The feature amount calculation means 23 may calculate the facial feature amount by using the method described in Japanese Patent No. 4954945. In this conventional technique, the orientation of the face F with respect to the subject
また、特徴量算出手段23は、状況特徴量として、顔Fの位置及び方向と、表情特徴量とを算出する。
顔Fの位置は、被写体画像92に含まれる顔Fの水平位置、垂直位置及び奥行き位置を表す。例えば、顔Fの水平位置及び垂直位置は、被写体画像92に含まれる顔領域の重心位置である。また、例えば、顔Fの奥行き位置は、TOF(Time Of Flight)や視差で求められる。
Further, the feature amount calculating means 23 calculates the position and direction of the face F and the facial expression feature amount as the situation feature amount.
The position of the face F represents the horizontal position, the vertical position, and the depth position of the face F included in the
顔Fの方向とは、予め設定した方向(例えば、正面)を基準としたとき、被写体画像92に含まれる顔Fの回転方向(回転角度)である。顔Fの方向は、被写体から見た回転方向であり、被写体画像92内では左右反転する。
ここで、顔Fの左右の回転方向は、図10に示すように、顔Fの右側LRの面積及び左側LLの面積を求め、この左右の面積比から求められる。例えば、左右の面積比が同じであれば正面方向、右側LRの面積が左側LLの面積より広ければ左方向となる。また、顔Fの上下の回転方向は、顔Fの上側の面積及び下側の面積を求め、この上下の面積比から求められる(不図示)。さらに、水平面に対する顔Fの回転方向(つまり、顔Fの傾斜)は、頭頂及び顎先を結ぶ線分と垂直軸とのなす角から求められる(不図示)。
The direction of the face F is a rotation direction (rotation angle) of the face F included in the
Here, the rotational direction of the left and right of the face F, as shown in FIG. 10, and measuring the area of the area and the left L L of the right L R of the face F, obtained from the area ratio of the left and right. For example, if the area ratio of the left and right are the same front direction, the area of the right L R becomes the left direction if wider than the area of the left L L. Further, the vertical rotation direction of the face F is obtained by obtaining the area on the upper side and the area on the lower side of the face F from the area ratio of the upper and lower sides (not shown). Further, the direction of rotation of the face F with respect to the horizontal plane (that is, the inclination of the face F) is obtained from the angle formed by the line segment connecting the crown and the chin tip and the vertical axis (not shown).
表情特徴量は、2つの顔特徴点の距離や3つ以上の顔特徴点で囲まれる領域面積に基づいて、顔Fの表情を表した特徴量である。例えば、表情特徴量は、眼を閉じている、眼を開いている、口を閉じている、口を開いている等を表している。 The facial expression feature amount is a feature amount expressing the facial expression of the face F based on the distance between the two facial feature points and the area of the area surrounded by three or more facial feature points. For example, facial expression features represent eyes closed, eyes open, mouth closed, mouth open, and the like.
なお、表情特徴量として、下記の参考文献に記載の特徴量を利用できる。この参考文献に記載の手法は、顔特徴点の相互関係に基づいて、直線特徴、三角形特徴、輝度平均による三角形特徴、輝度ヒストグラムによる三角形特徴を求めるものである。
参考文献:野宮他、「顔特徴点を用いた特徴選択と特徴抽出による表情認識に基づく映像中の表情表出シーン検出」、DEIM Forum 2011
As the facial expression feature amount, the feature amount described in the following references can be used. The method described in this reference is to obtain linear features, triangular features, triangular features by luminance average, and triangular features by luminance histogram based on the interrelationship of facial feature points.
References: Nomiya et al., "Facial expression expression scene detection in video based on facial expression recognition by feature selection and feature extraction using facial feature points", DEIM Forum 2011
特徴量算出手段23は、算出した形状特徴量及び状況特徴量を3次元モデル選択手段24に出力する。 The feature amount calculating means 23 outputs the calculated shape feature amount and the situation feature amount to the three-dimensional model selection means 24.
3次元モデル選択手段24は、特徴量算出手段23が算出した形状特徴量に基づいて、被写体画像92の顔Fに最も類似する3次元モデルMを3次元モデルデータベース221から選択するものである。例えば、3次元モデル選択手段24は、3次元モデルデータベース221の各3次元モデルMのうち、顔特徴量の両眼間距離、口の大きさ、及びに、眼と鼻と口との距離が最も近くなる3次元モデルMを選択する。そして、3次元モデル選択手段24は、選択した3次元モデルMの識別情報と、特徴量算出手段23から入力した状況特徴量とを第1要素画像群選択手段25に出力する。
The three-dimensional model selection means 24 selects the three-dimensional model M most similar to the face F of the
第1要素画像群選択手段25は、3次元モデル選択手段24が選択した3次元モデルMについて、特徴量算出手段23が算出した状況特徴量に応じた第1要素画像群90を第1要素画像群データベース223から選択するものである。つまり、第1要素画像群選択手段25は、顔Fの位置、方向及び表情に一致する第1要素画像群90を第1要素画像群データベース223から選択する。そして、第1要素画像群選択手段25は、選択した第1要素画像群90と、3次元モデル選択手段24から入力した3次元モデルMの識別情報及び状況特徴量とをテクスチャ座標変換テーブル選択手段26に出力する。
The first element image group selection means 25 displays the first
テクスチャ座標変換テーブル選択手段26は、3次元モデル選択手段24が選択した3次元モデルMについて、特徴量算出手段23が算出した状況特徴量に応じたテクスチャ座標変換テーブル93をテクスチャ座標変換テーブルデータベース225から選択するものである。つまり、テクスチャ座標変換テーブル選択手段26は、第1要素画像群選択手段25が選択した第1要素画像群90に対応するテクスチャ座標変換テーブル93をテクスチャ座標変換テーブルデータベース225から選択する。そして、テクスチャ座標変換テーブル選択手段26は、選択したテクスチャ座標変換テーブル93、及び、第1要素画像群選択手段25から入力した第1要素画像群90を第2要素画像群生成手段27に出力する。
The texture coordinate conversion table selection means 26 uses the texture coordinate conversion table 93 according to the situation feature amount calculated by the feature amount calculation means 23 for the three-dimensional model M selected by the three-dimensional model selection means 24. Choose from. That is, the texture coordinate conversion table selection means 26 selects the texture coordinate conversion table 93 corresponding to the first
第2要素画像群生成手段27は、テクスチャ座標変換テーブル選択手段26が選択したテクスチャ座標変換テーブル93の画素位置に基づいて、第1要素画像群選択手段25が選択した第1要素画像群90に被写体画像92をテクスチャマッピングするものである。
The second element image group generation means 27 selects the first
具体的には、第2要素画像群生成手段27は、被写体画像入力手段21より入力した被写体画像92から、図11に示すように、顔Fのテクスチャを抽出する。そして、第2要素画像群生成手段27は、テクスチャ座標変換テーブル93が表す第1要素画像群90と被写体画像92との画素位置の対応関係に従って、被写体画像92から抽出したテクスチャを、第1要素画像群90に貼り付ける。このようにして、第2要素画像群生成手段27は、第2要素画像群を生成する。図12に示すように、第2要素画像群94は、顔Fのテクスチャが貼り付けられた要素画像95で構成されている。
Specifically, the second element image group generating means 27 extracts the texture of the face F from the
[要素画像群生成装置の動作]
図13を参照し、要素画像群生成装置20の動作について説明する(適宜図1参照)。
データベース22は、3次元モデルM、第1要素画像群90及びテクスチャ座標変換テーブル93を予め記憶していることとする。
[Operation of element image group generator]
The operation of the element image
It is assumed that the
図13に示すように、被写体画像入力手段21は、被写体画像取得装置10から被写体画像92を入力する(ステップS1)。
特徴量算出手段23は、ステップS1で入力した被写体画像92から、顔特徴量を算出する(ステップS2)。
特徴量算出手段23は、ステップS1で入力した被写体画像92から、状況特徴量として、顔Fの位置及び方向と、表情特徴量とを算出する(ステップS3)。
As shown in FIG. 13, the subject image input means 21 inputs the
The feature amount calculation means 23 calculates the face feature amount from the
The feature amount calculation means 23 calculates the position and direction of the face F and the facial expression feature amount as the situation feature amount from the
3次元モデル選択手段24は、ステップS3で算出した顔特徴量に基づいて、被写体画像92の顔Fに最も類似する3次元モデルMを3次元モデルデータベース221から選択する(ステップS4)。
第1要素画像群選択手段25は、ステップS4で選択した3次元モデルMについて、ステップS3で算出した状況特徴量に応じた第1要素画像群90を第1要素画像群データベース223から選択する(ステップS5)。
The 3D model selection means 24 selects the 3D model M most similar to the face F of the
The first element image group selection means 25 selects the first
テクスチャ座標変換テーブル選択手段26は、ステップS4で選択した3次元モデルMについて、ステップS3で算出した状況特徴量に応じたテクスチャ座標変換テーブル93をテクスチャ座標変換テーブルデータベース225から選択する(ステップS6)。
第2要素画像群生成手段27は、ステップS6で選択したテクスチャ座標変換テーブル93の画素位置に基づいて、ステップS5で選択した第1要素画像群90に被写体画像92をテクスチャマッピングする(ステップS7)。
The texture coordinate conversion table selection means 26 selects the texture coordinate conversion table 93 according to the situational feature amount calculated in step S3 from the texture coordinate conversion table database 225 for the three-dimensional model M selected in step S4 (step S6). ..
The second element image group generating means 27 texture-maps the
[作用・効果]
以上のように、本発明の第1実施形態に係る要素画像群生成装置20は、予め記憶した第1要素画像群90に対してテクスチャマッピングを施すので、演算量が多い光線追跡法や正射影を都度行う必要がない。すなわち、要素画像群生成装置20は、従来技術のように、光線追跡法や正射影を都度行う場合に比べて、テクスチャマッピングを施すだけなので演算量を抑えられる。これにより、要素画像群生成装置20は、第1要素画像群90の生成時間を短縮し、リアルタイムで第2要素画像群94を生成することができる。
[Action / Effect]
As described above, since the element image
(第2実施形態)
図14を参照し、本発明の第2実施形態に係る立体画像表示システム1Bについて、第1実施形態と異なる点を説明する。
(Second Embodiment)
With reference to FIG. 14, the stereoscopic
第1実施形態では、テクスチャ座標変換テーブルデータベース225は、テクスチャ座標変換テーブル93を、水平位置、垂直位置、奥行き位置、回転方向及び表情に応じた数だけ記憶している。従って、テクスチャ座標変換テーブル93は、水平位置、垂直位置、奥行き位置、回転方向及び表情を組み合わせた膨大な数となる。
そこで、第2実施形態では、要素画像群生成装置20Bは、記憶するテクスチャ座標変換テーブル93の数を低減し、不足するテクスチャ座標変換テーブル93を補完する点が、第1実施形態と異なる。
In the first embodiment, the texture coordinate conversion table database 225 stores as many texture coordinate conversion tables 93 as the number corresponding to the horizontal position, the vertical position, the depth position, the rotation direction, and the expression. Therefore, the texture coordinate conversion table 93 has a huge number of combinations of horizontal position, vertical position, depth position, rotation direction, and facial expression.
Therefore, in the second embodiment, the element image
[要素画像群生成装置の構成]
図14に示すように、要素画像群生成装置20Bは、被写体画像入力手段21と、データベース22Bと、特徴量算出手段23と、3次元モデル選択手段24と、第1要素画像群選択手段25と、テクスチャ座標変換テーブル選択手段26Bと、第2要素画像群生成手段27Bと、テクスチャ座標変換テーブル補完手段(画素位置情報補間手段)28と、を備える。
[Configuration of element image group generator]
As shown in FIG. 14, the element image
データベース22Bは、3次元モデルデータベース221と、第1要素画像群データベース223と、テクスチャ座標変換テーブルデータベース(画素位置情報記憶手段)225Bと、を備える。
The
テクスチャ座標変換テーブルデータベース225Bは、テクスチャ座標変換テーブル93を予め記憶するデータベースである。
本実施形態では、テクスチャ座標変換テーブルデータベース225Bは、顔Fの位置変化に対応すべく、予め設定した基準位置(例えば、中心位置)に顔Fが位置するときのテクスチャ座標変換テーブル93を予め記憶する。
The texture coordinate conversion table database 225B is a database that stores the texture coordinate conversion table 93 in advance.
In the present embodiment, the texture coordinate conversion table database 225B stores in advance the texture coordinate conversion table 93 when the face F is positioned at a preset reference position (for example, the center position) in order to correspond to the position change of the face F. To do.
また、本実施形態では、テクスチャ座標変換テーブルデータベース225Bは、顔Fの方向変化に対応すべく、垂直軸(Y軸)、奥行き軸(Z軸)のそれぞれについて、予め定めた基準方向のみのテクスチャ座標変換テーブル93を予め記憶する。例えば、奥行き軸(Z軸)であれば、予め定めた基準方向を左回り(反時計回り)として、左回りのテクスチャ座標変換テーブル93を予め記憶する(Y軸も同様)。この場合、テクスチャ座標変換テーブルデータベース225Bは、奥行き軸(Z軸)について、右回り(時計回り)のテクスチャ座標変換テーブル93を記憶しない。 Further, in the present embodiment, the texture coordinate conversion table database 225B has a texture only in a predetermined reference direction for each of the vertical axis (Y axis) and the depth axis (Z axis) in order to correspond to the direction change of the face F. The coordinate conversion table 93 is stored in advance. For example, in the case of the depth axis (Z axis), the left-handed texture coordinate conversion table 93 is stored in advance with the predetermined reference direction as counterclockwise (counterclockwise) (the same applies to the Y-axis). In this case, the texture coordinate conversion table database 225B does not store the right-handed (clockwise) texture coordinate conversion table 93 with respect to the depth axis (Z-axis).
なお、テクスチャ座標変換テーブルデータベース225Bは、顔Fが上下対称ではないため、水平軸(X軸)に関しては、全ての角度でのテクスチャ座標変換テーブル93を予め記憶する。
また、本実施形態では、テクスチャ座標変換テーブルデータベース225Bは、第1実施形態と同様、表情毎にテクスチャ座標変換テーブル93を予め記憶する。
Since the face F is not vertically symmetrical in the texture coordinate conversion table database 225B, the texture coordinate conversion table 93 at all angles is stored in advance for the horizontal axis (X axis).
Further, in the present embodiment, the texture coordinate conversion table database 225B stores the texture coordinate conversion table 93 for each facial expression in advance as in the first embodiment.
テクスチャ座標変換テーブル選択手段26Bは、第1実施形態と同様、テクスチャ座標変換テーブル93を選択するものである。また、テクスチャ座標変換テーブル選択手段26Bは、選択すべきテクスチャ座標変換テーブル93をテクスチャ座標変換テーブルデータベース225Bが記憶していない場合、テクスチャ座標変換テーブル補完手段28に補完要求を出力する。このとき、テクスチャ座標変換テーブル選択手段26Bは、補完対象のテクスチャ座標変換テーブル93を特定するため、第1要素画像群選択手段25から入力した状況特徴量を補完要求に付加する。 The texture coordinate conversion table selection means 26B selects the texture coordinate conversion table 93 as in the first embodiment. Further, when the texture coordinate conversion table database 225B does not store the texture coordinate conversion table 93 to be selected, the texture coordinate conversion table selection means 26B outputs a completion request to the texture coordinate conversion table complement means 28. At this time, the texture coordinate conversion table selection means 26B adds the situation feature amount input from the first element image group selection means 25 to the completion request in order to specify the texture coordinate conversion table 93 to be complemented.
テクスチャ座標変換テーブル選択手段26Bは、テクスチャ座標変換テーブル補完手段28が補完したテクスチャ座標変換テーブル93、及び、第1要素画像群選択手段25から入力した第1要素画像群90を第2要素画像群生成手段27Bに出力する。
The texture coordinate conversion table selection means 26B uses the texture coordinate conversion table 93 complemented by the texture coordinate conversion table complement means 28 and the first
第2要素画像群生成手段27Bは、テクスチャ座標変換テーブル補完手段28がY軸に対する回転方向でテクスチャ座標変換テーブル93を補完する場合、テクスチャマッピング後に第2要素画像群94を左右反転させる。これにより、第2要素画像群生成手段27Bは、予め定めた基準方向と反対方向(例えば、右回り)に向いた第2要素画像群94を生成することができる。
When the texture coordinate conversion table complement means 28 complements the texture coordinate conversion table 93 in the rotation direction with respect to the Y axis, the second element image group generating means 27B flips the second
なお、第2要素画像群生成手段27Bは、テクスチャ座標変換テーブル93の出力に含まれる水平座標x2を左右反転させ、このテクスチャ座標変換テーブル93に基づいてテクスチャマッピングを行ってもよい。これによっても、第2要素画像群生成手段27Bは、基準方向と反対方向に向いた第2要素画像群94を生成できる。
他の点、第2要素画像群生成手段27Bは、第1実施形態と同様のため、説明を省略する。
The second element image group generation means 27B may invert the horizontal coordinates x2 included in the output of the texture coordinate conversion table 93 left and right, and perform texture mapping based on the texture coordinate conversion table 93. Also by this, the second element image group generation means 27B can generate the second
In other respects, the second element image group generating means 27B is the same as the first embodiment, and thus the description thereof will be omitted.
テクスチャ座標変換テーブル補完手段28は、テクスチャ座標変換テーブル選択手段26Bから入力した補完要求の状況特徴量(位置及び方向)に従って、テクスチャ座標変換テーブル93を補完するものである。 The texture coordinate conversion table complement means 28 complements the texture coordinate conversion table 93 according to the situational features (position and direction) of the completion request input from the texture coordinate conversion table selection means 26B.
<テクスチャ座標変換テーブルの補完:水平位置及び垂直位置の対応>
以下、テクスチャ座標変換テーブル93を補完する手法について、具体的に説明する。
まず、水平位置及び垂直位置に対応して補完する手法を説明する。
<Complementation of texture coordinate conversion table: Correspondence between horizontal position and vertical position>
Hereinafter, a method for complementing the texture coordinate conversion table 93 will be specifically described.
First, a method of complementing the horizontal position and the vertical position will be described.
テクスチャ座標変換テーブル補完手段28は、テクスチャ座標変換テーブルデータベース225Bから、顔Fが基準位置(CX,CY)にあるテクスチャ座標変換テーブル93を読み出す。次に、テクスチャ座標変換テーブル補完手段28は、状況特徴量に含まれる顔Fの水平位置GX及び垂直位置GYを抽出する。次に、テクスチャ座標変換テーブル補完手段28は、図15に示すように、顔Fの水平位置GXと、水平方向の基準位置CXとの位置ずれ量ΔXを算出する。次に、テクスチャ座標変換テーブル補完手段28は、顔Fの垂直位置GYと、垂直方向の基準位置CYとの位置ずれ量ΔYを算出する。そして、テクスチャ座標変換テーブル補完手段28は、水平方向の位置ずれ量ΔX及び垂直方向の位置ずれ量ΔYに応じて、顔Fが正面に位置するときのテクスチャ座標変換テーブル93が示す画素位置を移動させる。なお、ΔX,ΔYは、整数要素画像間隔とし、小数点以下を四捨五入する。
Texture coordinate conversion
<テクスチャ座標変換テーブルの補完:奥行き位置の対応>
テクスチャ座標変換テーブル補完手段28は、状況特徴量に含まれる顔Fの奥行き位置を抽出する。次に、テクスチャ座標変換テーブル補完手段28は、奥行き方向(Z軸方向)の手前側及び奥側からそれぞれ、抽出した顔Fの奥行き位置に最も近いテクスチャ座標変換テーブル93を1つ選択する。そして、テクスチャ座標変換テーブル補完手段28は、選択した2つのテクスチャ座標変換テーブル93から、顔Fの奥行き位置に対応するテクスチャ座標変換テーブル93を補完(例えば、内挿)する。
<Complementation of texture coordinate conversion table: Correspondence of depth position>
The texture coordinate conversion table complement means 28 extracts the depth position of the face F included in the situation feature amount. Next, the texture coordinate conversion table complementing means 28 selects one texture coordinate conversion table 93 closest to the depth position of the extracted face F from the front side and the back side in the depth direction (Z-axis direction), respectively. Then, the texture coordinate conversion table complementing means 28 complements (for example, interpolates) the texture coordinate conversion table 93 corresponding to the depth position of the face F from the two selected texture coordinate conversion tables 93.
ここで、テクスチャ座標変換テーブル補完手段28は、予め設定したIP立体画像表示装置30の表示可能な奥行き範囲内で、2つのテクスチャ座標変換テーブル93を選択することが好ましい。このように、要素画像群生成装置20Bは、IP立体画像表示装置30の解像度特性を考慮することで、奥行き方向のテクスチャ座標変換テーブル93の数を抑制すると共に、立体画像の解像度を一定以上に保つことができる。
Here, the texture coordinate conversion table complementing means 28 preferably selects two texture coordinate conversion tables 93 within the displayable depth range of the IP stereoscopic
<テクスチャ座標変換テーブルの補完:回転方向の対応>
テクスチャ座標変換テーブル補完手段28は、状況特徴量に含まれる顔Fの回転方向を抽出する。次に、テクスチャ座標変換テーブル補完手段28は、抽出した顔Fの回転方向に一致し、回転方向が反対方向のテクスチャ座標変換テーブル93を読み出す。
<Complementation of texture coordinate conversion table: Correspondence of rotation direction>
The texture coordinate conversion table complement means 28 extracts the rotation direction of the face F included in the situation feature amount. Next, the texture coordinate conversion table complementing means 28 reads out the texture coordinate conversion table 93 that matches the rotation direction of the extracted face F and the rotation direction is opposite.
次に、テクスチャ座標変換テーブル補完手段28は、読み出したテクスチャ座標変換テーブル93を逆方向に変換する。例えば、顔Fの回転方向が右回りであり、テクスチャ座標変換テーブルデータベース225Bが左回りのテクスチャ座標変換テーブル93のみを記憶し、右回りのテクスチャ座標変換テーブル93を記憶していないこととする。この場合、テクスチャ座標変換テーブル補完手段28は、顔Fの回転方向に負の係数(つまり、‘−1’)を乗算した値を算出する。これによって、要素画像群生成装置20Bは、該当する左回りのテクスチャ座標変換テーブル93を選択し、選択したテクスチャ座標変換テーブル93を右回りに変換できる。このように、要素画像群生成装置20Bは、顔Fの回転方向に対応したテクスチャ座標変換テーブル93を補完する。
Next, the texture coordinate conversion table complement means 28 converts the read texture coordinate conversion table 93 in the reverse direction. For example, it is assumed that the rotation direction of the face F is clockwise, and the texture coordinate conversion table database 225B stores only the counterclockwise texture coordinate conversion table 93 and does not store the clockwise texture coordinate conversion table 93. In this case, the texture coordinate conversion table complement means 28 calculates a value obtained by multiplying the rotation direction of the face F by a negative coefficient (that is, ‘-1’). As a result, the element image
なお、水平位置及び垂直位置、奥行き位置、回転方向の補完を個別に説明したが、テクスチャ座標変換テーブル補完手段28は、これらを2以上組み合わせてテクスチャ座標変換テーブル93を補完してもよい。 Although the completion of the horizontal position, the vertical position, the depth position, and the rotation direction has been described individually, the texture coordinate conversion table complement means 28 may complement the texture coordinate conversion table 93 by combining two or more of these.
[要素画像群生成装置の動作]
図16を参照し、要素画像群生成装置20Bの動作について説明する(適宜図14参照)。
データベース22Bは、3次元モデルM、第1要素画像群90及びテクスチャ座標変換テーブル93を予め記憶していることとする。
ステップS1〜S5の処理は、第1実施形態と同様のため、説明を省略する。
[Operation of element image group generator]
The operation of the element image
It is assumed that the
Since the processes of steps S1 to S5 are the same as those of the first embodiment, the description thereof will be omitted.
図16に示すように、テクスチャ座標変換テーブル選択手段26Bは、状況特徴量に応じたテクスチャ座標変換テーブル93をテクスチャ座標変換テーブルデータベース225Bが記憶しているか否かを判定する(ステップS10)。 As shown in FIG. 16, the texture coordinate conversion table selection means 26B determines whether or not the texture coordinate conversion table database 225B stores the texture coordinate conversion table 93 according to the situation feature amount (step S10).
テクスチャ座標変換テーブル93を記憶している場合(ステップS10でYes)、要素画像群生成装置20Bは、ステップS6の処理を行う。
ステップS6の処理は、第1実施形態と同様のため、説明を省略する。
When the texture coordinate conversion table 93 is stored (Yes in step S10), the element image
Since the process of step S6 is the same as that of the first embodiment, the description thereof will be omitted.
テクスチャ座標変換テーブル93を記憶していない場合(ステップS10でNo)、テクスチャ座標変換テーブル選択手段26Bは、状況特徴量を付加した補完要求をテクスチャ座標変換テーブル補完手段28に出力する(ステップS11)。 When the texture coordinate conversion table 93 is not stored (No in step S10), the texture coordinate conversion table selection means 26B outputs a completion request to which the situation feature amount is added to the texture coordinate conversion table complement means 28 (step S11). ..
テクスチャ座標変換テーブル補完手段28は、ステップS11の補完要求に従って、テクスチャ座標変換テーブル93を補完する。ここで、テクスチャ座標変換テーブル補完手段28は、水平位置、垂直位置、奥行き位置、回転方向に対応させて、テクスチャ座標変換テーブル93を補完する(ステップS12)。 The texture coordinate conversion table complement means 28 complements the texture coordinate conversion table 93 according to the completion request in step S11. Here, the texture coordinate conversion table complement means 28 complements the texture coordinate conversion table 93 in correspondence with the horizontal position, the vertical position, the depth position, and the rotation direction (step S12).
第2要素画像群生成手段27は、ステップS6で選択したテクスチャ座標変換テーブル93、又は、ステップS12で補完したテクスチャ座標変換テーブル93に基づいて、ステップS5で選択した第1要素画像群90に被写体画像92をテクスチャマッピングする(ステップS13)。
The second element image group generating means 27 is a subject in the first
[作用・効果]
以上のように、本発明の第2実施形態に係る要素画像群生成装置20Bは、顔Fの位置及び回転方向に対応したテクスチャ座標変換テーブル93を補完できるので、顔Fの位置及び回転方向毎にテクスチャ座標変換テーブル93を記憶する必要がなく、データベース22Bの容量を削減できる。
[Action / Effect]
As described above, the element image
(第3実施形態)
図1を参照し、本発明の第3実施形態に係る立体画像表示システム1Cについて、第1実施形態と異なる点を説明する。
(Third Embodiment)
With reference to FIG. 1, the stereoscopic
第1実施形態では、テクスチャ座標変換テーブル93は、3次元モデルM、被写体画像92及び第1要素画像群90の要素画像91について、全画素の画素位置を対応付けることとして説明した。
第3実施形態では、テクスチャ座標変換テーブル93は、3次元モデルMの頂点画素についてのみ画素位置を対応付ける点が、第1実施形態と異なる。
In the first embodiment, the texture coordinate conversion table 93 has been described as associating the pixel positions of all the pixels with respect to the three-dimensional model M, the
In the third embodiment, the texture coordinate conversion table 93 is different from the first embodiment in that the pixel positions are associated only with the vertex pixels of the three-dimensional model M.
[要素画像群生成装置の構成]
図1に示すように、要素画像群生成装置20Cは、被写体画像入力手段21と、データベース22Cと、特徴量算出手段23と、3次元モデル選択手段24と、第1要素画像群選択手段25と、テクスチャ座標変換テーブル選択手段26と、第2要素画像群生成手段27Cと、を備える。
[Configuration of element image group generator]
As shown in FIG. 1, the element image group generation device 20C includes a subject image input means 21, a database 22C, a feature amount calculation means 23, a three-dimensional model selection means 24, and a first element image group selection means 25. A texture coordinate conversion table selection means 26 and a second element image group generation means 27C are provided.
データベース22Cは、3次元モデルデータベース221と、第1要素画像群データベース223と、テクスチャ座標変換テーブルデータベース(画素位置情報記憶手段)225Cと、を備える。
The database 22C includes a three-
テクスチャ座標変換テーブルデータベース225Cは、テクスチャ座標変換テーブル93を予め記憶するデータベースである。
本実施形態では、テクスチャ座標変換テーブルデータベース225Cは、3次元モデルMの頂点画素におけるテクスチャ座標変換テーブル93を予め記憶する。ここで、テクスチャ座標変換テーブル93は、3次元モデルMと、被写体画像92と、第1要素画像群90の要素画像91との頂点画素の画素位置(頂点画素位置)を対応付けた情報である。つまり、テクスチャ座標変換テーブル93は、3次元モデルMの頂点画素以外の画素について、画素位置の対応関係を有していない。
なお、頂点画素とは、3次元モデルMを構成する多角形(ポリゴン)の頂点に対応した画素のことである。
The texture coordinate conversion table database 225C is a database that stores the texture coordinate conversion table 93 in advance.
In the present embodiment, the texture coordinate conversion table database 225C stores the texture coordinate conversion table 93 in the vertex pixels of the three-dimensional model M in advance. Here, the texture coordinate conversion table 93 is information in which the pixel positions (vertex pixel positions) of the vertex pixels of the three-dimensional model M, the
The vertex pixels are pixels corresponding to the vertices of the polygons constituting the three-dimensional model M.
第2要素画像群生成手段27Cは、3次元モデルMの頂点画素で被写体画像92を第1要素画像群90にテクスチャマッピングし、その頂点画素以外の画素で第1要素画像群90を補完するものである。具体的には、第2要素画像群生成手段27Cは、テクスチャ座標変換テーブル93を参照し、3次元モデルMの頂点画素について、被写体画像92から抽出したテクスチャを、第1要素画像群90に貼り付ける。また、第2要素画像群生成手段27Cは、3次元モデルMの頂点画素以外の画素について、第1要素画像群90を補完(例えば、内挿)する。
The second element image group generating means 27C texture-maps the
[要素画像群生成装置の動作]
図13を参照し、要素画像群生成装置20Cの動作について説明する(適宜図1参照)。
データベース22Cは、3次元モデルM、第1要素画像群90及びテクスチャ座標変換テーブル93を予め記憶していることとする。
ステップS1〜S6の処理は、第1実施形態と同様のため、説明を省略する。
[Operation of element image group generator]
The operation of the element image group generating device 20C will be described with reference to FIG. 13 (see FIG. 1 as appropriate).
It is assumed that the database 22C stores the three-dimensional model M, the first
Since the processes of steps S1 to S6 are the same as those of the first embodiment, the description thereof will be omitted.
第2要素画像群生成手段27Cは、ステップS6で選択したテクスチャ座標変換テーブル93に基づいて、ステップS5で選択した第1要素画像群90に被写体画像92をテクスチャマッピングする。ここで、第2要素画像群生成手段27Cは、3次元モデルMの頂点画素で被写体画像92をテクスチャマッピングし、その頂点画素以外の画素で第1要素画像群90を補完する(ステップS7C)。
The second element image group generating means 27C texture-maps the
[作用・効果]
以上のように、本発明の第3実施形態に係る要素画像群生成装置20Cは、3次元モデルMの頂点画素以外の画素についてテクスチャ座標変換テーブル93を記憶する必要がないので、データベース22Cの容量を削減できる。
[Action / Effect]
As described above, the element image group generating device 20C according to the third embodiment of the present invention does not need to store the texture coordinate conversion table 93 for pixels other than the apex pixels of the three-dimensional model M, so that the capacity of the database 22C Can be reduced.
なお、第3実施形態に係る要素画像群生成装置20Cは、第1実施形態だけでなく、第2実施形態に適用することもできる。この場合、要素画像群生成装置20Cは、3次元モデルMの頂点画素以外の画素について、テクスチャ座標変換テーブル93を補完(例えば、内挿)し、この補完したテクスチャ座標変換テーブル93に従って第1要素画像群90を補完する。
The element image group generating device 20C according to the third embodiment can be applied not only to the first embodiment but also to the second embodiment. In this case, the element image group generation device 20C complements (for example, interpolates) the texture coordinate conversion table 93 for pixels other than the vertex pixels of the three-dimensional model M, and the first element according to the complemented texture coordinate conversion table 93. The
(第4実施形態)
図17を参照し、本発明の第4実施形態に係る立体画像表示システム1Dについて、第3実施形態と異なる点を説明する。
(Fourth Embodiment)
With reference to FIG. 17, the stereoscopic
第3実施形態では、3次元モデルMの頂点画素についてのテクスチャ座標変換テーブル93を予め記憶することとして説明した。要素画像91の画素数が少ない場合(例えば、縦10画素、横10画素)、頂点画素が要素画像91に十分に含まれない場合がある。一方、多視点画像は、異なる視点から被写体を撮影した画像なので、ある視点で隠れていた頂点が別の視点では見えている場合がある。つまり、多視点画像は、要素画像91よりも多くの頂点画素を含む場合がある。
第4実施形態では、要素画像91から多視点画像を予め生成し、この多視点画像に含まれる頂点画素に対応する画素の情報を利用する点が、第3実施形態と異なる。
In the third embodiment, the texture coordinate conversion table 93 for the vertex pixels of the three-dimensional model M has been described as being stored in advance. When the number of pixels of the
The fourth embodiment is different from the third embodiment in that a multi-viewpoint image is generated in advance from the
[要素画像群生成装置の構成]
図17に示すように、要素画像群生成装置20Dは、被写体画像入力手段21と、データベース22Dと、特徴量算出手段23と、3次元モデル選択手段24と、第1要素画像群選択手段25と、テクスチャ座標変換テーブル選択手段26と、第2要素画像群生成手段27Dと、多視点画像選択手段29と、を備える。
[Configuration of element image group generator]
As shown in FIG. 17, the element image
データベース22Dは、3次元モデルデータベース221と、第1要素画像群データベース223と、テクスチャ座標変換テーブルデータベース(画素位置情報記憶手段)225Dと、多視点画像データベース(多視点画像記憶手段)227と、を備える。
The
テクスチャ座標変換テーブルデータベース225Dは、テクスチャ座標変換テーブル93を予め記憶するデータベースである。
本実施形態では、テクスチャ座標変換テーブル93は、3次元モデルMと、多視点画像と、被写体画像92と、第1要素画像群90の要素画像91との頂点画素位置を対応付けた情報である。
The texture coordinate
In the present embodiment, the texture coordinate conversion table 93 is information in which the vertex pixel positions of the three-dimensional model M, the multi-viewpoint image, the
多視点画像データベース227は、後記する多視点画像を予め記憶するデータベースである。本実施形態では、多視点画像データベース227は、第1要素画像群90毎に、多視点画像を予め記憶する。
The
<多視点画像>
図18を参照し、多視点画像の生成方法及び頂点画素について説明する。
図18(a)に示すように、第1要素画像群90は、テクスチャのない3次元モデルMを異なる視点で撮影した要素画像91で構成されている。例えば、図18(a)の要素画像91は、図4の第1要素画像群90で左上部分の3つの要素画像91に対応する。
<Multi-viewpoint image>
A method of generating a multi-viewpoint image and a vertex pixel will be described with reference to FIG.
As shown in FIG. 18A, the first
多視点画像は、各要素画像91で同じ位置から抽出した画素で構成されている。図18(a)に示すように、1つ目の多視点画像951は、各要素画像91の左上の画素から抽出した画素で構成されている。また、図18(b)に示すように、2つ目の多視点画像952は、各要素画像91の左上から2番目の画素から抽出した画素で構成されている。
The multi-viewpoint image is composed of pixels extracted from the same position in each
例えば、第1要素画像群90が横1920画素、縦1080画素であり、要素画像91が縦横10画素であることとする。この場合、1枚の第1要素画像群90から、100視点分(100枚)の多視点画像95を生成する。また、各多視点画像95は、横192画素、縦108画素の大きさになる。
For example, it is assumed that the first
このとき、被写体画像取得装置10は、実空間において、視点位置に対応した位置で被写体画像92を取得することが好ましい。これにより、多視点画像95と被写体画像92との視点が一致するので、高品質なテクスチャマッピングが可能となる。
At this time, it is preferable that the subject
図17に戻り、要素画像群生成装置20Dの構成について説明を続ける。
多視点画像選択手段29は、第1要素画像群選択手段25が選択した第1要素画像群90に対応する多視点画像95を、多視点画像データベース227から選択するものである。そして、多視点画像選択手段29は、選択した多視点画像95、及び、第1要素画像群選択手段25から入力した第1要素画像群90をテクスチャ座標変換テーブル選択手段26に出力する。
Returning to FIG. 17, the configuration of the element image
The multi-viewpoint image selection means 29 selects the
第2要素画像群生成手段27Dは、3次元モデルMの頂点画素で被写体画像92を第1要素画像群90にテクスチャマッピングし、その頂点画素以外の画素で第1要素画像群90を補完するものである。
The second element image group generation means 27D texture-maps the
まず、第2要素画像群生成手段27Dは、テクスチャ座標変換テーブル93において、多視点画像95上でテクスチャマッピングの対象となる頂点画素位置を求め、この多視点画像95の頂点画素位置に対応する3次元モデルM及び第1要素画像群90の頂点画素位置を求める。
First, the second element image group generation means 27D obtains the apex pixel position to be the target of texture mapping on the
次に、第2要素画像群生成手段27Dは、多視点画像95を介して、テクスチャマッピングを行う。
具体的には、第2要素画像群生成手段27Dは、求めた頂点画素位置の対応関係に従って、多視点画像95に被写体画像92をテクスチャマッピングする。そして、第2要素画像群生成手段27Dは、図18と逆の手順で、被写体のテクスチャが貼り付けられた多視点画像95から第1要素画像群90を生成する。つまり、第2要素画像群生成手段27Dは、各多視点画像95から同一位置(例えば、左上)の画素を抽出して、抽出した画素位置に対応する要素画像91(例えば、第1要素画像群90で左上の要素画像91)を生成する。
その後、第2要素画像群生成手段27Dは、頂点画素以外の画素で第1要素画像群90を補完する。
これにより、第2要素画像群生成手段27Dは、被写体画像92を読み出すためのメモリアクセス回数を低減し、より素早く第2要素画像群を生成できる。
Next, the second element image group generating means 27D performs texture mapping via the
Specifically, the second element image group generating means 27D texture-maps the
After that, the second element image group generating means 27D complements the first
As a result, the second element image group generating means 27D can reduce the number of memory accesses for reading the
なお、第2要素画像群生成手段27Dは、テクスチャ座標変換テーブル93から第1要素画像群90の画素位置を求められるので、直接、第1要素画像群90にテクスチャマッピングしてもよい。
Since the second element image group generating means 27D can obtain the pixel position of the first
[要素画像群生成装置の動作]
図19を参照し、要素画像群生成装置20Dの動作について説明する(適宜図1参照)。
データベース22Dは、3次元モデルM、第1要素画像群90、多視点画像95及びテクスチャ座標変換テーブル93を予め記憶していることとする。
ステップS1〜S5の処理は、第3実施形態と同様のため、説明を省略する。
[Operation of element image group generator]
The operation of the element image
It is assumed that the
Since the processes of steps S1 to S5 are the same as those of the third embodiment, the description thereof will be omitted.
多視点画像選択手段29は、ステップS5で選択した第1要素画像群90に対応する多視点画像95を、多視点画像データベース227から選択する(ステップS14)。
ステップS6,S10〜S12の処理は、第3実施形態と同様のため、説明を省略する。
The multi-viewpoint image selection means 29 selects the
Since the processes of steps S6 and S10 to S12 are the same as those of the third embodiment, the description thereof will be omitted.
第2要素画像群生成手段27Dは、3次元モデルMの頂点画素で被写体画像92を第1要素画像群90にテクスチャマッピングし、その頂点画素以外の画素で第1要素画像群90を補完する。ここで、第2要素画像群生成手段27Dは、テクスチャ座標変換テーブル93を参照し、多視点画像95の頂点画素位置に対応する3次元モデルM及び第1要素画像群90の頂点画素位置を求め、求めた頂点画素位置に従って、テクスチャマッピングを行う(ステップS15)。
The second element image group generation means 27D texture-maps the
[作用・効果]
以上のように、本発明の第4実施形態に係る要素画像群生成装置20Dは、頂点画素に対応する画素数が十分でない場合でも、多視点画像95に含まれる頂点画素に対応する画素の情報を利用できるので、より高品質なテクスチャマッピングを行うことができる。
なお、第4実施形態に係る要素画像群生成装置20Dは、第1実施形態だけでなく、第2実施形態,第3実施形態に適用することもできる。
[Action / Effect]
As described above, the element image
The element image
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 Although each embodiment of the present invention has been described in detail above, the present invention is not limited to each of the above-described embodiments, and includes design changes and the like within a range not deviating from the gist of the present invention.
(変形例1)
前記した各実施形態では、被写体画像の1画素(x1,y1)を要素画像の1画素(x2,y2)に対応させているが、本発明は、これに限定されない。
つまり、第2要素画像群生成手段は、被写体画像の複数画素を、要素画像の1画素に対応させてもよい。例えば、第2要素画像群生成手段は、下記の変換式(1)により、被写体画像の画素P1,P2,P3,P4から、要素画像の画素EI1を補完(例えば、線形補完)する。
(Modification example 1)
In each of the above-described embodiments, one pixel (x1, y1) of the subject image corresponds to one pixel (x2, y2) of the element image, but the present invention is not limited thereto.
That is, the second element image group generating means may correspond a plurality of pixels of the subject image to one pixel of the element image. For example, the second element image group generating means complements the pixel EI1 of the element image from the pixels P1, P2, P3, P4 of the subject image (for example, linear interpolation) by the following conversion formula (1).
EI1=αP1+βP2+γP3+ζP4 …式(1)
なお、変換式(1)では、α,β,γ,ζは、α+β+γ+ζ=1を満たす整数である。
EI1 = αP1 + βP2 + γP3 + ζP4 ... Equation (1)
In the conversion formula (1), α, β, γ, and ζ are integers satisfying α + β + γ + ζ = 1.
(変形例2)
前記した各実施形態では、表情毎にテクスチャ座標変換テーブルを記憶することとして説明したが、本発明は、これに限定されない。
(Modification 2)
In each of the above-described embodiments, the texture coordinate conversion table is stored for each facial expression, but the present invention is not limited to this.
ここで、眼や眉の形に応じて顔の表情が変化する。また、顔の表情が変化しても眼や眉の奥行き位置が一定である。このため、異なる表情の被写体画像に切り替えることで、顔の表情変化を表現できる。 Here, the facial expression changes according to the shape of the eyes and eyebrows. In addition, the depth positions of the eyes and eyebrows are constant even if the facial expression changes. Therefore, by switching to a subject image having a different facial expression, it is possible to express a change in facial expression.
具体的には、表情に関係なくテクスチャ座標変換テーブルを共通とし、顔の位置、方向に応じてテクスチャ座標変換テーブルを記憶してもよい。これにより、要素画像群生成装置は、顔の表情毎にテクスチャ座標変換テーブルを記憶する必要がなく、データベースの容量をより削減できる。 Specifically, the texture coordinate conversion table may be shared regardless of the facial expression, and the texture coordinate conversion table may be stored according to the position and direction of the face. As a result, the element image group generating device does not need to store the texture coordinate conversion table for each facial expression, and the capacity of the database can be further reduced.
この場合、特徴量算出手段は、表情が変化しても画素位置が変化しない特徴点を抽出することが好ましい。例えば、特徴量算出手段は、目尻、目頭、鼻、耳、顔の輪郭を、特徴点として抽出する。 In this case, the feature amount calculating means preferably extracts feature points whose pixel positions do not change even if the facial expression changes. For example, the feature amount calculation means extracts the outer corners of the eyes, the inner corners of the eyes, the nose, the ears, and the contours of the face as feature points.
(変形例3)
前記した各実施形態では、被写体が人物の顔であることとして説明したが、被写体は、特に限定されない。
(Modification 3)
In each of the above-described embodiments, the subject is described as the face of a person, but the subject is not particularly limited.
例えば、被写体は、人物の上半身である。この場合、データベースは、顔を含めた上半身の3次元モデルと、これら3次元モデルに対応した第1要素画像群及びテクスチャ座標変換テーブルとを予め記憶する。 For example, the subject is the upper body of a person. In this case, the database stores in advance a three-dimensional model of the upper body including the face, a first element image group corresponding to these three-dimensional models, and a texture coordinate conversion table.
また、被写体は、任意の物体であってもよい。この場合、データベースは、様々な物体の3次元モデルと、これら3次元モデルに対応した第1要素画像群及びテクスチャ座標変換テーブルとを予め記憶する。 Further, the subject may be any object. In this case, the database stores in advance three-dimensional models of various objects, a first element image group corresponding to these three-dimensional models, and a texture coordinate conversion table.
また、被写体は、複数であってもよい。この場合、要素画像群生成装置は、被写体画像から各物体を抽出し、物体毎に特徴量を算出する。そして、要素画像群生成装置は、各物体の特徴量に基づいて、各物体に対応した3次元モデルと、第1要素画像群と、テクスチャ座標変換テーブルとを選択する。
例えば、被写体画像にりんご、みかん、バナナのように複数の物体が含まれる場合を考える。この場合、要素画像群生成装置は、被写体画像から、りんご、みかん、バナナを抽出し、りんご、みかん及びバナナのそれぞれに対応した3次元モデルと、第1要素画像群と、テクスチャ座標変換テーブルとを選択する。
Further, the number of subjects may be plural. In this case, the element image group generating device extracts each object from the subject image and calculates the feature amount for each object. Then, the element image group generating device selects the three-dimensional model corresponding to each object, the first element image group, and the texture coordinate conversion table based on the feature amount of each object.
For example, consider the case where the subject image contains a plurality of objects such as apples, oranges, and bananas. In this case, the element image group generating device extracts apples, oranges, and bananas from the subject image, and includes a three-dimensional model corresponding to each of the apples, oranges, and bananas, the first element image group, and a texture coordinate conversion table. Select.
(変形例4)
前記した各実施形態では、1台の被写体画像取得装置から被写体画像を入力することとして説明したが、本発明は、これに限定されない。
(Modification example 4)
In each of the above-described embodiments, the subject image is input from one subject image acquisition device, but the present invention is not limited thereto.
つまり、要素画像群生成装置は、複数の被写体画像取得装置から被写体画像を入力してもよい。図20に示すように、水平方向に並んだ2台の被写体画像取得装置10R,10Lから被写体画像92R,92Lを入力する場合を考える。この場合、右側の被写体画像取得装置10Rは、被写体から見て、顔Fの左方向から撮影する。従って、被写体画像取得装置10Rが取得した被写体画像(右被写体画像92R)は、顔Fの左側が右側より大きく映っている。一方、左側の被写体画像取得装置10Lは、被写体から見て、顔Fの右方向から撮影する。従って、被写体画像取得装置10Lが取得した被写体画像(左被写体画像92L)は、顔Fの右側が左側より大きく映っている。このように、右被写体画像は顔左側の情報を多く含んでおり、左撮影画像は顔右側の情報を多く含んでいる。
That is, the element image group generating device may input the subject image from a plurality of subject image acquisition devices. As shown in FIG. 20, consider a case where
そこで、要素画像群生成装置は、要素画像群における光線再生方向を考慮し、異なる方向で撮影した被写体画像によりテクスチャマッピングを行う。具体的には、要素画像群生成装置は、左方向に再生する要素画像の画素を、右被写体画像を用いてテクスチャマッピングする。また、要素画像群生成装置は、右方向に再生する要素画像の画素を、左被写体画像を用いてテクスチャマッピングする。これにより、要素画像群生成装置は、光の反射特性をより正確に再現することができる
なお、左右方向と同様、上下方向も複数の被写体画像を用いてテクスチャマッピングできる。
Therefore, the element image group generating device considers the light ray reproduction direction in the element image group, and performs texture mapping with the subject images taken in different directions. Specifically, the element image group generating device texture-maps the pixels of the element image to be reproduced in the left direction using the right subject image. Further, the element image group generating device texture-maps the pixels of the element image to be reproduced in the right direction using the left subject image. As a result, the element image group generating device can more accurately reproduce the light reflection characteristics, and can perform texture mapping using a plurality of subject images in the vertical direction as well as in the horizontal direction.
(変形例5)
前記した各実施形態では、被写体画像が1枚であることとして説明したが、本発明は、これに限定されない。
(Modification 5)
Although each of the above-described embodiments has been described as having one subject image, the present invention is not limited to this.
ここで、被写体画像取得装置は、撮影手段が撮影した被写体画像を画像記憶手段に記憶している。また、画像記憶手段は、撮影した被写体画像を複数枚記憶することが可能である。このため、要素画像群生成装置は、時間の経過に伴って画像記憶手段が記憶する被写体画像が増加するので、テクスチャマッピングに利用する被写体画像を増加させることができる。つまり、最初に生成する第2要素画像群は、1枚の被写体画像からテクスチャマッピングする。しかし、時間の経過に伴って被写体画像が増加するため、後に生成する第2要素画像群は、複数の被写体画像からテクスチャマッピングできる。 Here, the subject image acquisition device stores the subject image captured by the photographing means in the image storage means. Further, the image storage means can store a plurality of captured subject images. Therefore, in the element image group generating device, the number of subject images stored by the image storage means increases with the passage of time, so that the number of subject images used for texture mapping can be increased. That is, the second element image group generated first is texture-mapped from one subject image. However, since the subject image increases with the passage of time, the second element image group generated later can be texture-mapped from a plurality of subject images.
以下、複数枚の被写体画像からテクスチャマッピングする手法を説明する。
特徴量算出手段は、1枚目の被写体画像から特徴量を算出する。次に、3次元モデル選択手段は、3次元モデルの各頂点画素と、1枚目の被写体画像の特徴点とのマッチングを行う。次に、要素画像群生成装置は、1枚目の被写体画像について、3次元モデルに対応するテクスチャ座標変換テーブルを生成する。ここで、要素画像群生成装置は、これらの処理を被写体画像毎に繰り返し行う。
Hereinafter, a method of texture mapping from a plurality of subject images will be described.
The feature amount calculation means calculates the feature amount from the first subject image. Next, the three-dimensional model selection means matches each vertex pixel of the three-dimensional model with the feature points of the first subject image. Next, the element image group generating device generates a texture coordinate conversion table corresponding to the three-dimensional model for the first subject image. Here, the element image group generating device repeats these processes for each subject image.
そして、要素画像群生成装置は、3次元モデルの各頂点画素において、最も確からしい被写体画像を判定し、最終的なテクスチャ座標変換テーブルを生成する。さらに、要素画像群生成装置は、最終的なテクスチャ座標変換テーブルによりテクスチャマッピングを行うことで、立体画像の質感を向上させることができる。 Then, the element image group generating device determines the most probable subject image in each vertex pixel of the three-dimensional model, and generates the final texture coordinate conversion table. Further, the element image group generating device can improve the texture of the stereoscopic image by performing texture mapping using the final texture coordinate conversion table.
(その他変形例)
前記した各実施形態では、要素画像群生成装置を独立したハードウェアとして説明したが、本発明は、これに限定されない。例えば、コンピュータが備えるCPU、メモリ、ハードディスク等のハードウェア資源を、要素画像群生成装置として協調動作させる要素画像群生成プログラムで実現することもできる。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記憶媒体に書き込んで配布してもよい。
(Other variants)
In each of the above-described embodiments, the element image group generator has been described as independent hardware, but the present invention is not limited thereto. For example, hardware resources such as a CPU, a memory, and a hard disk provided in a computer can be realized by an element image group generation program that cooperates as an element image group generation device. This program may be distributed via a communication line, or may be written and distributed on a storage medium such as a CD-ROM or a flash memory.
1,1B,1C,1D 立体画像表示システム
10 被写体画像取得装置
11 撮影手段
13 画像記憶手段
20,20B,20C,20D 要素画像群生成装置
21 被写体画像入力手段
22,22B,22C,22D データベース
23 特徴量算出手段
24 3次元モデル選択手段
25 第1要素画像群選択手段
26,26B テクスチャ座標変換テーブル選択手段(画素位置情報選択手段)
27,27B,27C,27D 第2要素画像群生成手段
28 テクスチャ座標変換テーブル補完手段
29 多視点画像選択手段
30 IP立体画像表示装置
221 3次元モデルデータベース(3次元モデル記憶手段)
223 第1要素画像群データベース(第1要素画像群記憶手段)
225,225B,225C,225D テクスチャ座標変換テーブルデータベース(画素位置情報記憶手段)
227 多視点画像データベース(多視点画像記憶手段)
1,1B, 1C, 1D stereoscopic
27, 27B, 27C, 27D Second element image group generating means 28 Texture coordinate conversion table complementing means 29 Multi-viewpoint image selecting means 30 IP stereoscopic
223 First element image group database (first element image group storage means)
225, 225B, 225C, 225D texture coordinate conversion table database (pixel position information storage means)
227 Multi-viewpoint image database (multi-viewpoint image storage means)
Claims (8)
被写体を撮影した被写体画像を入力する被写体画像入力手段と、
複数の前記3次元モデルを予め記憶する3次元モデル記憶手段と、
前記3次元モデルの位置及び方向に応じた第1要素画像群を予め記憶する第1要素画像群記憶手段と、
前記3次元モデルと前記被写体画像と前記第1要素画像群の要素画像との画素位置を対応付けた画素位置情報を予め記憶する画素位置情報記憶手段と、
前記被写体画像から、前記被写体の形状を表した形状特徴量と、前記被写体の位置及び方向を表した状況特徴量とを算出する特徴量算出手段と、
前記形状特徴量に基づいて、前記被写体に最も類似する3次元モデルを前記3次元モデル記憶手段から選択する3次元モデル選択手段と、
選択した前記3次元モデルについて、前記状況特徴量の位置及び方向に応じた第1要素画像群を前記第1要素画像群記憶手段から選択する第1要素画像群選択手段と、
前記選択した3次元モデルについて、前記状況特徴量の位置及び方向に応じた画素位置情報を前記画素位置情報記憶手段から選択する画素位置情報選択手段と、
選択した前記画素位置情報の画素位置に基づいて、選択した前記第1要素画像群に前記被写体画像をテクスチャマッピングすることで、前記被写体の第2要素画像群を生成する第2要素画像群生成手段と、
を備えることを特徴とする要素画像群生成装置。 It is an element image group generator that generates a second element image group with color information by applying texture mapping to a first element image group without color information generated in advance from a three-dimensional model.
Subject image input means for inputting the subject image of the subject, and
A three-dimensional model storage means for storing a plurality of the three-dimensional models in advance,
A first element image group storage means for storing the first element image group according to the position and direction of the three-dimensional model in advance, and
Pixel position information storage means for storing in advance pixel position information in which the pixel positions of the three-dimensional model, the subject image, and the element image of the first element image group are associated with each other.
A feature amount calculating means for calculating a shape feature amount representing the shape of the subject and a situation feature amount representing the position and direction of the subject from the subject image.
A three-dimensional model selection means for selecting a three-dimensional model most similar to the subject from the three-dimensional model storage means based on the shape feature amount.
With respect to the selected three-dimensional model, a first element image group selection means for selecting a first element image group according to the position and direction of the situation feature amount from the first element image group storage means, and
With respect to the selected three-dimensional model, pixel position information selection means for selecting pixel position information according to the position and direction of the situation feature amount from the pixel position information storage means, and
A second element image group generating means that generates a second element image group of the subject by texture mapping the subject image to the selected first element image group based on the pixel position of the selected pixel position information. When,
An element image group generating device characterized by comprising.
前記特徴量算出手段は、前記形状特徴量として、前記被写体の顔を表した顔特徴量を算出し、
前記3次元モデル選択手段は、前記顔特徴量に基づいて、前記被写体の顔に最も類似する3次元モデルを前記3次元モデル記憶手段から選択することを特徴とする請求項1に記載の要素画像群生成装置。 The three-dimensional model storage means stores the three-dimensional model representing the faces of different persons, and stores the three-dimensional model.
The feature amount calculating means calculates a face feature amount representing the face of the subject as the shape feature amount, and calculates the face feature amount.
The element image according to claim 1, wherein the three-dimensional model selection means selects a three-dimensional model most similar to the face of the subject from the three-dimensional model storage means based on the face feature amount. Group generator.
前記画素位置情報記憶手段は、前記表情毎に前記画素位置情報を記憶し、
前記特徴量算出手段は、前記状況特徴量として、前記被写体の表情を表した表情特徴量をさらに算出することを特徴とする請求項2に記載の要素画像群生成装置。 The first element image group storage means stores the first element image group for each predetermined facial expression, and stores the first element image group.
The pixel position information storage means stores the pixel position information for each facial expression.
The element image group generating device according to claim 2, wherein the feature amount calculating means further calculates a facial expression feature amount representing the facial expression of the subject as the situation feature amount.
前記第2要素画像群生成手段は、前記頂点画素で前記被写体画像を前記第1要素画像群にテクスチャマッピングし、前記頂点画素以外で前記第1要素画像群を補完することを特徴とする請求項1から請求項3の何れか一項に記載の要素画像群生成装置。 The pixel position information storage means stores pixel position information in the vertex pixels of the three-dimensional model in advance, and stores the pixel position information.
The second element image group generating means is characterized in that the subject image is texture-mapped to the first element image group by the apex pixels and the first element image group is complemented by other than the apex pixels. The element image group generating device according to any one of claims 1 to 3.
前記第2要素画像群生成手段は、前記異なる方向の被写体画像のうち、前記要素画像の各画素の光線再生方向に応じた被写体画像を用いて、テクスチャマッピングすることを特徴とする請求項1から請求項4の何れか一項に記載の要素画像群生成装置。 The subject image input means inputs a subject image obtained by capturing the subject in different directions, and inputs the subject image.
The second element image group generating means is characterized in that texture mapping is performed using the subject image corresponding to the ray reproduction direction of each pixel of the element image among the subject images in different directions. The element image group generating device according to any one of claims 4.
前記基準位置及び基準方向の画素位置情報から、前記状況特徴量の位置及び方向に応じた画素位置情報を補完する画素位置情報補間手段、をさらに備えることを特徴とする請求項1から請求項5の何れか一項に記載の要素画像群生成装置。 The pixel position information storage means stores the pixel position information in a preset reference position and reference direction, and stores the pixel position information.
Claims 1 to 5 further include a pixel position information interpolation means that complements the pixel position information according to the position and direction of the situation feature amount from the pixel position information of the reference position and the reference direction. The element image group generation device according to any one of the above items.
被写体を撮影した被写体画像を入力する被写体画像入力手段と、
複数の前記3次元モデルを予め記憶する3次元モデル記憶手段と、
前記3次元モデルの位置及び方向に応じた第1要素画像群を予め記憶する第1要素画像群記憶手段と、
前記第1要素画像群の各要素画像に含まれる同一位置の画素で構成された多視点画像を予め記憶する多視点画像記憶手段と、
前記3次元モデルと前記被写体画像と前記第1要素画像群の要素画像と多視点画像との頂点画素の画素位置を対応付けた画素位置情報を予め記憶する画素位置情報記憶手段と、
前記被写体画像から、前記被写体の形状を表した形状特徴量と、前記被写体の位置及び方向を表した状況特徴量とを算出する特徴量算出手段と、
前記形状特徴量に基づいて、前記被写体に最も類似する3次元モデルを前記3次元モデル記憶手段から選択する3次元モデル選択手段と、
選択した前記3次元モデルについて、前記状況特徴量の位置及び方向に応じた第1要素画像群を前記第1要素画像群記憶手段から選択する第1要素画像群選択手段と、
前記選択した3次元モデルについて、前記状況特徴量の位置及び方向に応じた多視点画像を前記多視点画像記憶手段から選択する多視点画像選択手段と、
前記選択した3次元モデルについて、前記状況特徴量の位置及び方向に応じた画素位置情報を前記画素位置情報記憶手段から選択する画素位置情報選択手段と、
選択した前記画素位置情報に基づいて、前記多視点画像の頂点画素の画素位置に対応する前記3次元モデル及び前記第1要素画像群の画素位置を求め、求めた前記画素位置で前記被写体画像をテクスチャマッピングし、前記求めた画素位置以外で前記第1要素画像群を補完することで、前記被写体の第2要素画像群を生成する第2要素画像群生成手段と、
を備えることを特徴とする要素画像群生成装置。 It is an element image group generator that generates a second element image group with color information by applying texture mapping to a first element image group without color information generated in advance from a three-dimensional model.
Subject image input means for inputting the subject image of the subject, and
A three-dimensional model storage means for storing a plurality of the three-dimensional models in advance,
A first element image group storage means for storing the first element image group according to the position and direction of the three-dimensional model in advance, and
A multi-viewpoint image storage means for preliminarily storing a multi-viewpoint image composed of pixels at the same position included in each element image of the first element image group.
Pixel position information storage means that stores in advance pixel position information in which the pixel positions of the apex pixels of the three-dimensional model, the subject image, the element image of the first element image group, and the multi-viewpoint image are associated with each other.
A feature amount calculating means for calculating a shape feature amount representing the shape of the subject and a situation feature amount representing the position and direction of the subject from the subject image.
A three-dimensional model selection means for selecting a three-dimensional model most similar to the subject from the three-dimensional model storage means based on the shape feature amount.
With respect to the selected three-dimensional model, a first element image group selection means for selecting a first element image group according to the position and direction of the situation feature amount from the first element image group storage means, and
With respect to the selected three-dimensional model, a multi-viewpoint image selection means for selecting a multi-viewpoint image according to the position and direction of the situation feature amount from the multi-viewpoint image storage means, and
With respect to the selected three-dimensional model, pixel position information selection means for selecting pixel position information according to the position and direction of the situation feature amount from the pixel position information storage means, and
Based on the selected pixel position information, the pixel positions of the three-dimensional model and the first element image group corresponding to the pixel positions of the apex pixels of the multi-viewpoint image are obtained, and the subject image is obtained at the obtained pixel positions. A second element image group generation means that generates a second element image group of the subject by texture mapping and complementing the first element image group other than the obtained pixel position.
An element image group generating device characterized by comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016237273A JP6814036B2 (en) | 2016-12-07 | 2016-12-07 | Element image group generator and its program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016237273A JP6814036B2 (en) | 2016-12-07 | 2016-12-07 | Element image group generator and its program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018092504A JP2018092504A (en) | 2018-06-14 |
JP6814036B2 true JP6814036B2 (en) | 2021-01-13 |
Family
ID=62566116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016237273A Active JP6814036B2 (en) | 2016-12-07 | 2016-12-07 | Element image group generator and its program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6814036B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021029470A (en) * | 2019-08-21 | 2021-03-01 | ビネット&クラリティ合同会社 | Pattern forming system and pattern forming method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5602618B2 (en) * | 2010-06-10 | 2014-10-08 | 任天堂株式会社 | Image processing program, image processing apparatus, image processing system, and image processing method |
JP5639832B2 (en) * | 2010-09-30 | 2014-12-10 | 任天堂株式会社 | Information processing program, information processing method, information processing system, and information processing apparatus |
JP6166985B2 (en) * | 2013-08-26 | 2017-07-19 | 日本放送協会 | Image generating apparatus and image generating program |
JP6502701B2 (en) * | 2015-02-26 | 2019-04-17 | 日本放送協会 | Element image group generating device, program therefor, and digital broadcast receiving device |
-
2016
- 2016-12-07 JP JP2016237273A patent/JP6814036B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018092504A (en) | 2018-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109658365B (en) | Image processing method, device, system and storage medium | |
JP7403528B2 (en) | Method and system for reconstructing color and depth information of a scene | |
JP4052331B2 (en) | Virtual viewpoint image generation method, three-dimensional image display method and apparatus | |
US9721385B2 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
JP6201476B2 (en) | Free viewpoint image capturing apparatus and method | |
JP7201869B1 (en) | Generate new frames with rendered and unrendered content from the previous eye | |
JP2013038775A (en) | Ray image modeling for fast catadioptric light field rendering | |
US20180374258A1 (en) | Image generating method, device and computer executable non-volatile storage medium | |
Lin et al. | A low-cost portable polycamera for stereoscopic 360 imaging | |
JP6585938B2 (en) | Stereoscopic image depth conversion apparatus and program thereof | |
JP7505481B2 (en) | Image processing device and image processing method | |
EP3057316A1 (en) | Generation of three-dimensional imagery to supplement existing content | |
Fachada et al. | Chapter View Synthesis Tool for VR Immersive Video | |
JP2020166652A (en) | Image processing apparatus, image processing method, and program | |
JP6814036B2 (en) | Element image group generator and its program | |
CN113989434A (en) | Human body three-dimensional reconstruction method and device | |
US20240054667A1 (en) | High dynamic range viewpoint synthesis | |
JP6595878B2 (en) | Element image group generation apparatus and program thereof | |
Louis et al. | Rendering stereoscopic augmented reality scenes with occlusions using depth from stereo and texture mapping | |
US20240362853A1 (en) | Foveated rendering using neural radiance fields | |
US20240282050A1 (en) | Image-based environment reconstruction with view-dependent colour | |
JP2021047468A (en) | Image processing equipment, image processing method, and image processing program | |
JP2005107463A (en) | Integral photography | |
JP2003099800A (en) | Three-dimensional image information producing method, its device, three-dimensional image information producing program, storage medium storing it | |
Song et al. | Design and Implementation of High-Resolution Integral Imaging Display System using Expanded Depth Image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191101 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201124 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6814036 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |