JP4483261B2 - Stereoscopic image processing device - Google Patents
Stereoscopic image processing device Download PDFInfo
- Publication number
- JP4483261B2 JP4483261B2 JP2003365355A JP2003365355A JP4483261B2 JP 4483261 B2 JP4483261 B2 JP 4483261B2 JP 2003365355 A JP2003365355 A JP 2003365355A JP 2003365355 A JP2003365355 A JP 2003365355A JP 4483261 B2 JP4483261 B2 JP 4483261B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint
- stereoscopic
- image data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は立体視画像を生成することが可能な立体視画像処理装置に関する。 The present invention relates to a stereoscopic image processing apparatus capable of generating a stereoscopic image.
従来から,左右の眼の視差を利用した2枚の静止画像等を撮影し,それらを左右それぞれの眼で観察することができるように表示することにより,立体的な画像を得られる立体視画像処理装置の存在が知られている。 Conventionally, a stereoscopic image can be obtained by taking two still images using the parallax between the left and right eyes and displaying them so that they can be observed by the left and right eyes. The existence of a processing device is known.
上記2枚の画像は,左眼からの視点による左視点画像(L画像)と,右眼からの視点による右視点画像(R画像)とから構成される。また,L画像およびR画像は,撮像装置に装着される光学アダプタの性能に応じて,大きさ,画質などが大きく異なる。 The two images are composed of a left viewpoint image (L image) based on the viewpoint from the left eye and a right viewpoint image (R image) based on the viewpoint from the right eye. Further, the L image and the R image are greatly different in size, image quality, and the like according to the performance of the optical adapter attached to the imaging apparatus.
したがって,撮像装置は,ステレオアダプタなど,光学アダプタに関する情報を検出して,光学アダプタの種類に応じて,適正な各視点画像を得られるように撮像する(例えば,特許文献1参照)。なお,本願発明に関連する技術文献情報には,次のものがある。 Therefore, the imaging device detects information related to the optical adapter such as a stereo adapter, and captures images so as to obtain appropriate viewpoint images according to the type of the optical adapter (see, for example, Patent Document 1). The technical literature information related to the present invention includes the following.
しかしながら,撮像された視点画像などの画像には撮影時の光学アダプタに関する情報が含まれていないため,立体画像処理装置により,各視点画像から立体画像に変換されても,立体感の得られる適当な立体画像に変換することは難しかった。 However, since the captured image such as the viewpoint image does not include information about the optical adapter at the time of shooting, a stereoscopic effect can be obtained even if the stereoscopic image processing device converts each viewpoint image into a stereoscopic image. It was difficult to convert it into a 3D image.
本発明は,上記問題点に鑑みてなされたものであり,本発明の目的は,光学アダプタに関するアダプタ情報を画像に含ませることが可能な,新規かつ改良された立体画像処理装置を提供することである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a new and improved stereoscopic image processing apparatus capable of including adapter information relating to an optical adapter in an image. It is.
上記課題を解決するため,本発明の第1の観点によれば,少なくとも相互に視差を有する複数の視点画像を一の結合画像として管理する立体視画像処理装置が提供される。上記立体視画像処理装置により,上記結合画像のタグ情報は,複数の視点画像が撮影された撮像装置の光学アダプタに関するアダプタ情報を含むことを特徴としている。 In order to solve the above problems, according to a first aspect of the present invention, there is provided a stereoscopic image processing apparatus that manages at least a plurality of viewpoint images having parallax as one combined image. By the stereoscopic image processing apparatus, the tag information of the combined image includes adapter information related to the optical adapter of the imaging apparatus in which a plurality of viewpoint images are captured.
本発明によれば,立体視画像処理装置は,複数の視点画像とからなる結合画像に基づき,立体視画像を生成する。立体視画像処理装置は,上記立体視画像を生成する際,上記結合画像のタグ情報に含まれるアダプタ情報を取得する。かかる構成によれば,タグ情報に含まれる光学アダプタに関するアダプタ情報を参照することで,光学アダプタの特性を活かした立体視画像を生成できる。立体視画像は,立体的に表示可能な画像の総称である。 According to the present invention, the stereoscopic image processing device generates a stereoscopic image based on a combined image composed of a plurality of viewpoint images. The stereoscopic image processing apparatus acquires adapter information included in the tag information of the combined image when generating the stereoscopic image. According to such a configuration, a stereoscopic image utilizing the characteristics of the optical adapter can be generated by referring to the adapter information related to the optical adapter included in the tag information. A stereoscopic image is a general term for images that can be displayed stereoscopically.
立体視画像処理装置は,アダプタ情報に基づいて,複数の視点画像の有効領域を決定するように構成してもよい。かかる構成により,立体感を得られず,立体視画像には適さない上記結合画像の不要な領域を除き,立体視画像に適した有効領域を設定することで,視認性の高い立体視画像を生成することができる。 The stereoscopic image processing apparatus may be configured to determine effective areas of a plurality of viewpoint images based on adapter information. With such a configuration, a stereoscopic image with high visibility can be obtained by setting an effective region suitable for a stereoscopic image, except for the unnecessary region of the combined image that is not suitable for a stereoscopic image because the stereoscopic effect cannot be obtained. Can be generated.
立体視画像処理装置は,アダプタ情報に基づいて,複数の視点画像の輝度を決定するように構成してもよい。 The stereoscopic image processing apparatus may be configured to determine the brightness of a plurality of viewpoint images based on the adapter information.
立体視画像処理装置は,アダプタ情報に基づいて,複数の視点画像の解像度を決定するように構成してもよい。かかる構成により,視認するのに適当な立体視画像を生成することができる。 The stereoscopic image processing apparatus may be configured to determine resolutions of a plurality of viewpoint images based on adapter information. With this configuration, a stereoscopic image suitable for visual recognition can be generated.
立体視画像処理装置は,アダプタ情報に基づいて,上記複数の視点画像の色ズレまたは色の滲みなどにより生じる色収差を補正するように構成してもよい。 The stereoscopic image processing apparatus may be configured to correct chromatic aberration caused by color shift or color blur of the plurality of viewpoint images based on the adapter information.
光学アダプタは,少なくとも2枚ミラーアダプタ,4枚ミラーアダプタ,山形プリズムアダプタ,アナモルフィックレンズアダプタのうちいずれか一つであるように構成してもよい。かかる構成により,多種多様な光学アダプタに対して,視認性の高い立体視画像を生成することができる。 The optical adapter may be configured to be any one of at least a two-mirror adapter, a four-mirror adapter, a chevron prism adapter, and an anamorphic lens adapter. With this configuration, it is possible to generate a highly visible stereoscopic image for a wide variety of optical adapters.
色収差の補正は,色ズレまたは色の滲みが生じている領域に対して,補正色で塗りつぶすように構成することができる。かかる構成により,簡易に色収差を補正し,視認性の高い立体視画像を生成することができる。 The correction of chromatic aberration can be configured such that an area where color misregistration or color blur occurs is filled with a correction color. With this configuration, it is possible to easily correct chromatic aberration and generate a highly visible stereoscopic image.
補正色は,少なくとも黒色もしくは白色のうちいずれか一方または双方からなるように構成してもよい。かかる構成により,色収差を補正した上で,視認性の高い立体視画像を生成することができる。なお,黒色と白色との混合比率は任意である
上記複数の視点画像は,右視点画像と左視点画像とであるように構成してもよい。係る構成によれば,立体視画像処理装置は,右視点画像と左視点画像とからなる結合画像に基づき,立体視画像を生成する。立体視画像処理装置は,上記立体視画像を生成する際,上記結合画像のタグ情報に含まれるアダプタ情報を取得する。かかる構成によれば,タグ情報に含まれる光学アダプタに関するアダプタ情報を参照することで,光学アダプタの特性を活かした立体視画像を生成できる。
The correction color may be configured to be at least one or both of black and white. With this configuration, it is possible to generate a highly visible stereoscopic image while correcting chromatic aberration. The mixing ratio of black and white is arbitrary. The plurality of viewpoint images may be a right viewpoint image and a left viewpoint image. According to such a configuration, the stereoscopic image processing device generates a stereoscopic image based on the combined image composed of the right viewpoint image and the left viewpoint image. The stereoscopic image processing apparatus acquires adapter information included in the tag information of the combined image when generating the stereoscopic image. According to this configuration, a stereoscopic image utilizing the characteristics of the optical adapter can be generated by referring to the adapter information related to the optical adapter included in the tag information.
立体視画像処理装置は,アダプタ情報に基づいて,右視点画像または左視点画像のうち少なくとも一方の有効領域を決定するように構成してもよい。かかる構成により,立体視画像には適さない上記結合画像の不要な領域を除き,立体視画像に適した有効領域を設定することで,立体感のある視認性の高い立体視画像を生成することができる。 The stereoscopic image processing apparatus may be configured to determine at least one effective area of the right viewpoint image or the left viewpoint image based on the adapter information. With this configuration, it is possible to generate a stereoscopic image with a high degree of visibility by setting an effective area suitable for a stereoscopic image except for an unnecessary area of the combined image that is not suitable for a stereoscopic image. Can do.
立体視画像処理装置は,アダプタ情報に基づいて,右視点画像または左視点画像のうち少なくとも一方の輝度を決定するように構成してもよい。 The stereoscopic image processing apparatus may be configured to determine the luminance of at least one of the right viewpoint image and the left viewpoint image based on the adapter information.
立体視画像処理装置は,アダプタ情報に基づいて,右視点画像または左視点画像のうち少なくとも一方の解像度を決定するように構成してもよい。かかる構成により,適当な立体感のある立体視画像を生成することができる。 The stereoscopic image processing apparatus may be configured to determine the resolution of at least one of the right viewpoint image and the left viewpoint image based on the adapter information. With this configuration, it is possible to generate a stereoscopic image with an appropriate stereoscopic effect.
立体視画像処理装置は,アダプタ情報に基づいて,右視点画像または左視点画像のうち少なくとも一方の色ズレまたは色の滲みなどにより生じる色収差を補正するように構成してもよい。 The stereoscopic image processing apparatus may be configured to correct chromatic aberration caused by color shift or color blur of at least one of the right viewpoint image and the left viewpoint image based on the adapter information.
光学アダプタは,少なくとも2枚ミラーアダプタ,4枚ミラーアダプタ,山形プリズムアダプタ,アナモルフィックレンズアダプタのうちいずれか一つであるように構成してもよい。かかる構成により,多種多様な光学アダプタに対して,立体感のある視認性の高い立体視画像を生成することができる。 The optical adapter may be configured to be any one of at least a two-mirror adapter, a four-mirror adapter, a chevron prism adapter, and an anamorphic lens adapter. With such a configuration, it is possible to generate a stereoscopic image having a stereoscopic effect and high visibility for a wide variety of optical adapters.
色収差の補正は,色ズレまたは色の滲みが生じている領域に対して,補正色で塗りつぶすように構成することができる。かかる構成により,簡易に色収差を補正し,立体感のある視認性の高い立体視画像を生成することができる。 The correction of chromatic aberration can be configured such that an area where color misregistration or color blur occurs is filled with a correction color. With such a configuration, it is possible to easily correct chromatic aberration and generate a stereoscopic image having a stereoscopic effect and high visibility.
補正色は,少なくとも黒色もしくは白色のうちいずれか一方または双方からなるように構成してもよい。かかる構成により,色収差を補正した上で,視認性の高い立体視画像を生成することができる。なお,黒色と白色との混合比率は任意である
右視点画像と左視点画像とは一の結合画像として管理され,上記結合画像は,少なくともJPEG形式の画像であるように構成してもよい。かかる構成により,光学アダプタにかかるアダプタ情報を効率的に,管理することができる。
The correction color may be configured to be at least one or both of black and white. With this configuration, it is possible to generate a highly visible stereoscopic image while correcting chromatic aberration. The mixing ratio of black and white is arbitrary. The right viewpoint image and the left viewpoint image may be managed as one combined image, and the combined image may be configured to be at least a JPEG format image. With such a configuration, adapter information related to the optical adapter can be efficiently managed.
以上説明したように,本発明によれば,撮像された視点画像などの画像データに撮影時の光学アダプタに関する情報を含ませることができるため,各視点画像に対し,適当な補正をし,立体感の得られる立体視画像に合成することができる。 As described above, according to the present invention, since information regarding the optical adapter at the time of shooting can be included in image data such as a captured viewpoint image, appropriate correction is performed on each viewpoint image to create a stereoscopic image. It can be combined with a stereoscopic image that gives a feeling.
以下,本発明の好適な実施の形態について,添付図面を参照しながら詳細に説明する。なお,以下の説明及び添付図面において,略同一の機能及び構成を有する構成要素については,同一符号を付することにより,重複説明を省略する。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, components having substantially the same functions and configurations are denoted by the same reference numerals, and redundant description is omitted.
人間などの左右の眼がそれぞれ取得する網膜像の空間的ずれ(両眼視差)を利用して,2次元の画像を立体的に視認させる方法(以下,立体視の方法。)が多数存在する。なお,視差について,特に記載がない場合,水平方向における視差を示すものとする。 There are a number of methods for stereoscopically viewing a two-dimensional image (hereinafter referred to as “stereoscopic viewing method”) using the spatial shift (binocular parallax) between retinal images acquired by the left and right eyes of a human or the like. . In addition, when there is no description about parallax, it shall show the parallax in a horizontal direction.
立体視の方法としては,特殊なメガネを利用するアナグリフ方式,カラーアナグリフ方式,偏光フィルタ方式,時分割立体テレビジョン方式等と,特殊なメガネを利用しないレンチキュラ方式等が知られている。 As a method of stereoscopic viewing, an anaglyph method using special glasses, a color anaglyph method, a polarizing filter method, a time-division stereoscopic television method, and a lenticular method not using special glasses are known.
上述したさまざまな立体視の方法を実現するためには,左眼用の左視点画像(L画像。)と,右眼用の右視点画像(R画像。)を取得する必要がある。L画像とR画像を取得するためには,同一の被写体に対して,カメラの位置を,例えば人の両眼の間隔だけ移動して2回撮影する方法等が最も容易である。 In order to realize the various stereoscopic viewing methods described above, it is necessary to acquire a left viewpoint image (L image) for the left eye and a right viewpoint image (R image) for the right eye. In order to acquire the L image and the R image, the easiest method is to move the position of the camera by, for example, the distance between both eyes of the person and photograph the same subject twice.
また,1回の撮影でL画像とR画像を取得する方法として,例えば,図1および図2に示すように,ミラーなどから構成される光学アダプタ105を,撮像装置100のレンズ103の外側に取り付ける方法が知られている。なお,上記撮像装置100は,例えば,デジタルカメラなどを例示することができる。
Further, as a method of acquiring the L image and the R image by one shooting, for example, as shown in FIGS. 1 and 2, an
図2は,光学アダプタ105の構造を模式的に表している。単一の採光窓から入射される右眼用の光学像は,ミラー121によってミラー122に向けて反射され,ミラー122によって撮影レンズ103に向けて反射された後,撮影レンズ103によって集光される。単一の採光窓から入射される左眼用の光学像は,ミラー121およびミラー122によって反射されることなく,撮影レンズ103によって集光される。
FIG. 2 schematically shows the structure of the
光学アダプタ105を介して入射された光学像は,左眼からの視点の領域および右眼からの視点の領域からなる視差画像として撮影される。この左眼用の領域(左眼用の画像)がL画像として利用され,右眼用の領域(右眼用の画像)がR画像として利用される。なお,各視点画像のセットを視差画像とし,視点画像が複数存在すれば足りるため,必ずしも両隣に一体的に構成する必要はない。
The optical image incident through the
次に,図3に示すように,各視点画像からなる視差画像を合成して得る立体視用の立体画像(立体視画像,3D画像)を表示させる方法として,例えば,図4に示すような偏光フィルタ方式がある。 Next, as shown in FIG. 3, as a method of displaying a stereoscopic image (stereoscopic image, 3D image) obtained by synthesizing parallax images made up of the respective viewpoint images, for example, as shown in FIG. There is a polarization filter system.
図4に示すように,偏光フィルタ方式は,R画像を投影するための右眼用プロジェクタ141と,L画像を投影するための左眼用プロジェクタ142と,L画像およびR画像の光を反射するスクリーン143と,偏光メガネ144とから構成される。なお,3D(three−Dimensional:3次元)画像は,立体的に視認可能な立体視画像のことである。
As shown in FIG. 4, the polarization filter method reflects the
右眼用プロジェクタ141は,垂直方向に偏光フィルタを備えている。左眼用プロジェクタ142は,水平方向に偏光フィルタを備えている。したがって,右眼用プロジェクタ141から出力されるR画像の光は,図4に示す水平方向の矢印の光が出力される。左眼用プロジェクタ142から出力されるL画像の光は,図4に示す垂直方向の矢印の光が出力される。
The right-
次に,スクリーン143上では垂直方向の直線偏光によって投影されたL画像と,水平方向の直線偏光によって投影されたR画像とが重ね合わさることで,立体視画像が生成される。
Next, on the
そして,左側に水平方向の直線偏光フィルタ,右側に垂直方向の直線偏光フィルタが配置された偏光メガネ144を用いることにより,スクリーン143により反射された上記立体視画像のうち,右眼用プロジェクタ141から投影されたR画像は,右側の直線偏光フィルタにしか通過されず,左眼用プロジェクタ142から出力されたL画像は,左側の直線偏光フィルタにしか通過されない。
Then, by using
したがって,偏光メガネ144から上記スクリーン143上の立体視画像を見ると,例えば,撮影された建造物などが飛び出して見えるなど,画像を立体的に見ることができる。
Therefore, when the stereoscopic image on the
図4に示すスクリーン143に立体視画像を生成する場合の他に,例えば,パソコン(Personal Computer:PC),コンピュータ装置によって立体視画像を生成し,表示する場合も可能である。次に,本実施の形態にかかるコンピュータ装置によって立体視画像が生成される場合を,図5〜図8を参照しながら説明する。
In addition to the case where a stereoscopic image is generated on the
上記説明したように,図2に示すミラー121およびミラー122により反射されることで,視差画像が生成される。上記視差画像は,図2に示すようにL画像とR画像とから構成されている。 As described above, a parallax image is generated by being reflected by the mirror 121 and the mirror 122 shown in FIG. The parallax image is composed of an L image and an R image as shown in FIG.
次に,図5を参照しながら,本実施の形態にかかる立体視画像処理装置に適用されるコンピュータ装置について説明する。図5は,本実施の形態にかかるコンピュータ装置の概略的な構成を示す説明図である。 Next, a computer apparatus applied to the stereoscopic image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 5 is an explanatory diagram showing a schematic configuration of the computer apparatus according to the present embodiment.
コンピュータ装置150は,少なくとも中央演算処理部(CPU),記憶部を少なくとも備える情報処理装置であり,一般的にはコンピュータ装置であるが,携帯端末,PDA(Personal Digital Assistant),ノート型パーソナルコンピュータ,またはデスクトップ型パーソナルコンピュータなどの情報処理装置も含まれる。
The
図5に示すように,コンピュータ装置150には,立体視画像を生成するコンピュータ装置150と,表示された立体視画像を見るときにユーザが使用する偏光メガネ171と,立体視画像を表示する立体視表示部140と,上記立体視表示部140の表示面外側に配置するライン偏光板172とが,さらに備えられる。
As shown in FIG. 5, the
偏光メガネ171は,コンピュータ装置150に装着された支持棒170により,コンピュータ装置150のキーボード付近の上方空間に位置するように支持されている。
The polarized glasses 171 are supported by a support bar 170 attached to the
次に,生成されたL画像およびR画像の視差画像は,図6に示すように,次式(1)に従って,L画像とR画像とが合成され,図7に示すような立体視画像が生成される。なお,偶数ライン,奇数ラインは,コンピュータ装置150に備わる立体視表示部140などに構成される水平方向の列のことである。
Next, as shown in FIG. 6, the generated parallax images of the L image and the R image are combined with the L image and the R image according to the following equation (1), and a stereoscopic image as shown in FIG. Generated. The even lines and odd lines are horizontal columns configured in the
例えば,表示部がUXGA(Ultra eXtended Graphics Array)の場合,式(1)に示すように,水平方向のラインのうち,最上端を0番ラインとすると,0番ラインは,偶数ラインであり,次に1番ラインは,奇数ラインであり,…,以降最下端ライン(1599番ライン)まで続く。 For example, when the display unit is UXGA (Ultra etended Graphics Array), as shown in Expression (1), if the top end is the 0th line among the horizontal lines, the 0th line is an even line, Next, the first line is an odd-numbered line, and so on, and continues to the lowermost line (1599 line).
偶数ライン
1×(L画像の画素)+0×(R画像の画素)=(立体視画像の画素)
奇数ライン
0×(L画像の画素)+1×(R画像の画素)=(立体視画像の画素)
・・・式(1)
Even
... Formula (1)
図7に示すように,0番ラインから順に,水平方向の1ラインごとにL画像,R画像を合成することにより,L画像およびR画像が1ラインごと交互に合成された立体視画像が生成される。生成された立体視画像は,例えば,コンピュータ装置に備わる立体視表示部140などに表示される。
As shown in FIG. 7, the L image and the R image are synthesized for each horizontal line sequentially from the 0th line, thereby generating a stereoscopic image in which the L image and the R image are alternately synthesized for each line. Is done. The generated stereoscopic image is displayed on, for example, the
図8に示すように,ユーザは,立体視表示部140に表示された立体視画像を,偏光メガネ171を介して見ることになる。なお,立体視表示部140には,予めライン偏光板172を備えている。
As shown in FIG. 8, the user views the stereoscopic image displayed on the
上記ライン偏光板172は,水平方向のラインを複数有している。ライン偏光板172の複数ラインのうち,最上端から順に,偶数ラインには,垂直方向の偏光板を備え,奇数ラインには,水平方向の偏光板を備える。 The line polarizing plate 172 has a plurality of horizontal lines. Among the plurality of lines of the line polarizing plate 172, in order from the uppermost end, the even-numbered line includes a vertical polarizing plate, and the odd-numbered line includes a horizontal polarizing plate.
また,偏光メガネ171の右側には,水平方向の偏光フィルタを備え,左側には,垂直方向の偏光フィルタを備える。したがって,ライン偏光板172を通過したL画像の光またはR画像の光のうち,偏光メガネ171の左側は,奇数ラインからなるL画像の光だけが通過し,右側は,奇数ラインからなるR画像の光だけが通過する。すなわち,ユーザは,立体視画像を立体的に視聴することができる。 The right side of the polarizing glasses 171 includes a horizontal polarizing filter, and the left side includes a vertical polarizing filter. Therefore, of the L image light or the R image light that has passed through the line polarizing plate 172, only the L image light consisting of odd lines passes through the left side of the polarizing glasses 171 and the R image consisting of odd lines passes through the right side. Only the light passes through. That is, the user can view the stereoscopic image stereoscopically.
(立体視画像処理装置)
ここで,図9を参照しながら,本実施の形態にかかる立体視画像処理装置について説明する。図9は,本実施の形態にかかる立体視画像処理装置の概略的な構成を示すブロック図である。
(Stereoscopic image processing device)
Here, the stereoscopic image processing apparatus according to the present embodiment will be described with reference to FIG. FIG. 9 is a block diagram showing a schematic configuration of the stereoscopic image processing apparatus according to the present embodiment.
図9に示すように,立体的に視認することが可能な立体視画像を生成する立体視画像処理装置は,撮像部101と,画像エンコード部132と,画像制御情報生成部133と,データ多重化部134と,記録媒体135と,データ分離部136と,画像デコード部137と,画像分離部138と,画像変換部139と,立体視表示部140とから構成される。
As shown in FIG. 9, a stereoscopic image processing apparatus that generates a stereoscopic image that can be viewed stereoscopically includes an
撮像部101は,被写体を撮像する撮像素子(CCD)130−1および撮像素子130−2と,合成部131とを備える。なお,撮像素子130−1と撮像素子130−2とを,一体化して,一組の撮像素子130から構成することも実施可能である。上記の場合,光学アダプタ105等を備えることで可能となる。
The
撮像素子130−1により撮像された左眼からの視点の画像(L画像。)と,撮像素子130−1により撮像された右眼からの視点の画像(R画像。)とが,合成部131に伝送される。なお,図9に示す立体視画像処理装置は,2視点の場合を例に挙げて説明するが,かかる例に限定されず,複数の視点の場合であっても実施可能である。
The image of the viewpoint from the left eye (L image) captured by the image sensor 130-1 and the image of the viewpoint from the right eye (R image) captured by the image sensor 130-1 are combined by the combining
合成部131は,伝送された各視点画像(L画像,R画像)を回転等するとともに,合成し,結合画像を生成する。さらに合成部131は,生成された結合画像は,記録媒体135又はメモリ(図示せず。)に記録されるよう指示する。なお,図9に示す結合画像は,L画像とR画像とが左右に隣り合わせとなっているが,かかる例に限定されず,例えば,L画像とR画像とが上下に隣り合わせの場合であってもよい。上記結合画像については,後述する。
The synthesizing
上記結合画像は,画像エンコード部132によりエンコードされる。上記エンコードは,例えば,JPEG(Joint Photographic Experts Group)形式などが例示される。
The combined image is encoded by the
画像制御情報生成部133は,上記結合画像から立体視画像に変換等するためのタグ情報(以下,画像制御情報。)を生成する。画像制御情報は,撮像部101の撮像時の露出,日時,フラッシュの有無などの撮像情報,または立体視表示部140に適当な立体視画像を生成するための情報等が含まれる。例えば,表示画面上の1ラインごとに左右画像(L画像,R画像)を表示するための情報などが例示される。
The image control
データ多重化部134は,画像エンコード部132から伝送される結合画像と,画像制御情報生成部133から伝送される画像制御情報とを多重化する。多重化された結合画像および画像制御情報は,記録媒体135に記録される。
The
記録媒体135は,データを読書き可能な記憶デバイスであり,例えば,HDD装置(ハードディスクドライブ装置),CD−RW(ReWritable),DVD−RAM(DVD−Random Access Memory),EEPROM(Electrically Erasable Programmable Read Only Memory),またはメモリスティック(登録商標)などが例示される。
The
データ分離部136は,記録媒体135に記録された結合画像および画像制御情報をそれぞれ取得する。データ分離部136は,取得した結合画像を画像デコード部137に伝送し,画像制御情報を画像分離部138に伝送する。なお,結合画像データおよび画像制御情報は,記録媒体135の所定の場所(フォルダなど。)に記録されている。
The
なお,本実施の形態にかかるデータ分離部136は,記録媒体135から結合画像および画像制御情報を取得する場合を例に挙げて説明したが,結合画像と画像制御情報がリンクされていれば,かかる例に限定されず,例えば,記録先のフォルダが別々の場合や,結合画像と画像制御情報が別々に記録され,ネットワーク上のサーバ等から別々に取得する場合等であっても実施可能である。
Note that the
画像デコード部137は,予めエンコードされた結合画像データをデコードし,画像分離部138に伝送する。
The
画像分離部138は,データ分離部136から伝送された画像制御情報に基づき,画像制御情報に指定された結合画像を取得し,各視点の画像(L画像,R画像)に分離する。なお,L画像とR画像に分離する際,結合画像のL画像とR画像の有効領域を切り出し,所定角度回転または拡大/縮小処理してもよい。なお,画像分離部138は,分離した結果,L画像とR画像の画像の向きが同じになるように処理する。なお,有効領域については後述する。
The
画像変換部139は,画像分離部138から伝送されたL画像,R画像とを,上記説明した通り,重ね合わせ等することにより,立体視画像に変換する。なお,画像制御情報に切出領域などが指定された場合,画像変換部139は,切出処理や拡大/縮小処理等して,立体視画像に変換してもよい。なお,切出領域については,後述する。
The
立体視表示部140は,画像変換部139により合成された立体視画像を表示する。立体視表示部140は,後程説明するコンピュータ装置に備わるディスプレイなどの表示部,または投影してスクリーンに表示するプロジェクタ装置などが例示される。
The
なお,本実施の形態にかかる立体視表示部140は,立体視画像を表示する場合に限られず,例えば,2Dである静止画像,動画像などの表示,さらには音声の出力等をする場合,または立体視表示部140の代わりにプリントアウト手段を備え,アナグリフ方式の立体視画像を紙などの媒体に出力する等の場合であっても実施可能である。
Note that the
さらに,図10を参照しながら,図9に示す本実施の形態にかかる立体視画像処理装置の変形例について説明する。図10は,図9に示す立体視画像処理装置の変形例である。以下,図9に示す立体視画像処理装置との相違点について説明する。 Furthermore, a modification of the stereoscopic image processing apparatus according to the present embodiment shown in FIG. 9 will be described with reference to FIG. FIG. 10 is a modification of the stereoscopic image processing apparatus shown in FIG. Hereinafter, differences from the stereoscopic image processing apparatus shown in FIG. 9 will be described.
図10に示すように,立体視画像処理装置は,図9に示す立体視画像処理装置と比べて,1つの撮像装置100が備わる点で異なる。さらに,撮像装置100は,光学アダプタ105を備えている点でも異なる。
As shown in FIG. 10, the stereoscopic image processing device is different from the stereoscopic image processing device shown in FIG. 9 in that one
したがって,光学アダプタ105を備えた撮像装置100は,1回の撮影(シャッター)で,左眼用の視点画像と右眼用の視点画像を撮像し,上記2視点画像からなる結合画像データを生成することができる。
Therefore, the
(撮像装置100)
次に,本実施の形態にかかる撮像装置100について説明すると,撮像装置100は,少なくともレンズ103と撮像素子130を備え,上記レンズ103には,さらに光学アダプタ105が装着可能となっている。また,図9に示すように,撮像装置100は,撮像部101内に備わってもよく,撮像装置100は,合成部131を備えている場合でもよい。
(Imaging device 100)
Next, the
また,本実施の形態にかかる画像エンコード部132,画像制御情報生成部133,データ多重化部134,および記録媒体135は,撮像装置100に備わらない場合を例に挙げて説明したが,かかる例に限定されず,例えば,画像エンコード部132,画像制御情報生成部133,データ多重化部134,もしくは記録媒体135等のうちいずれか1つまたは任意の組合せが撮像装置100に備わる場合であっても実施可能である。
Further, although the
(コンピュータ装置150)
図5に示すコンピュータ装置150は,図9に示す立体視画像処理装置に構成するデータ分離部136,画像デコード部137,画像分離部138,画像変換部139,および立体視表示部140を備える。なお,コンピュータ装置150は,画像エンコード部132,画像制御情報生成部133,データ多重下部134,記録媒体135をさらに備える場合でもよい。
(Computer device 150)
A
コンピュータ装置150は,図1に示す光学アダプタ105が装着された撮像装置100によって撮影された結合画像データを取込む。または,コンピュータ装置150は,光学アダプタ105が装着されていない状態で撮影された画像データなどを取り込む。なお,本実施の形態にかかる撮像装置100は,例えば,ディジタルスチルカメラ,ディジタルビデオカメラなどが例示される。
The
さらに,コンピュータ装置150は,取込んだ結合画像データまたは連続的に撮影された2枚の画像データから立体視画像データを生成する。生成された立体視画像データは,立体視画像として立体視表示部140に表示される。
Further, the
なお,撮像装置100からコンピュータ装置150に取り込まれる結合画像等の画像データには,画像制御情報生成部133により生成された画像制御情報が付与されている。
Note that image control information generated by the image control
(立体視画像ファイル)
次に,図11を参照しながら,本実施の形態にかかる立体視画像ファイルについて説明する。図11は,本実施の形態にかかる立体視画像ファイルのデータ構造の概略を示す説明図である。
(Stereoscopic image file)
Next, the stereoscopic image file according to the present embodiment will be described with reference to FIG. FIG. 11 is an explanatory diagram showing an outline of the data structure of the stereoscopic image file according to the present embodiment.
図11に示すように,立体視画像ファイルは,例えば,ファイル名が“ファイル1.jpg”など,拡張子が“.jpg”のJPEG形式の圧縮データファイルである。 As shown in FIG. 11, the stereoscopic image file is a JPEG format compressed data file having an extension of “.jpg”, such as a file name “file 1.jpg”.
また,立体視画像ファイルは,DCF(Design rule for Camera File system)規格に準拠して記録し,これにアプリケーション・マーカセグメント(APP1)を挿入する。 In addition, the stereoscopic image file is recorded in accordance with a DCF (Design rule for Camera File system) standard, and an application marker segment (APP1) is inserted therein.
APP1は,立体視画像ファイルの始まりを示すSOI(Start Of Image)マーカの直後に配置される。 APP1 is arranged immediately after an SOI (Start Of Image) marker indicating the start of a stereoscopic image file.
さらに,APP1の直後には,結合画像データが配置され,最後に立体視画像ファイルの終了を示すEOI(End Of Image)が配置される。なお,結合画像については,後程説明する。 Further, immediately after APP1, combined image data is arranged, and finally an EOI (End Of Image) indicating the end of the stereoscopic image file is arranged. The combined image will be described later.
上記APP1の領域には,図11に示すように,Exif(Exchangeable image file format)の識別情報,および付属情報本体(Tiff header,IFD0,IFD1)から構成される。これら全てを含むAPP1の大きさは,JPEGの規格により64kByteを越えてはならない。
As shown in FIG. 11, the APP1 area includes identification information of Exif (Exchangeable image file format) and an attached information main body (Tiff header,
付属情報は,File Header(Tiff header)を含むTiffの構造をとり,最大二つのIFD(IFD0(0th IFD),IFD1(1st IFD))を記録できる。なお,IFDは,“Image File Directory”の略である。 The attached information has a Tiff structure including a file header (Tiff header), and can record a maximum of two IFDs (IFD0 (0th IFD) and IFD1 (1st IFD)). Note that IFD is an abbreviation of “Image File Directory”.
IFD0は,圧縮されている画像(主画像)または立体視画像(3D画像)などに関する付属情報を記録する。図11に示すように,IFD0領域には,Exif IFDのポインタが入るExifポインタ部と,GPS IFDのポインタが入るGPSポインタ部と,3D IFDのポインタが入る3Dポインタ部とが配置される。 The IFD0 records attached information related to a compressed image (main image) or a stereoscopic image (3D image). As shown in FIG. 11, in the IFD0 area, an Exif pointer section into which an Exif IFD pointer enters, a GPS pointer section into which a GPS IFD pointer enters, and a 3D pointer section into which a 3D IFD pointer enters.
さらに,IFD0領域には,各ポインタ部の後に,Exif IFDと,Exif IFD Valueと,GPS IFDと,GPS IFD Valueと,3D IFDと,3D IFD Valueとが配置される。 In the IFD0 area, an Exif IFD, an Exif IFD Value, a GPS IFD, a GPS IFD Value, a 3D IFD, and a 3D IFD Value are arranged after each pointer portion.
Exif IFDおよびExif IFD Valueには,画像データの特性,構造,ユーザ情報,撮影条件,もしくは日時等に関連するタグまたはタグ値が記録される。例えば,ユーザコメントのためのタグ“UserComment”タグ,露出時間を示すためのタグ“ExposureTime”,フラッシュの有無を示すためのタグ“Flash”タグなどが例示される。 In the Exif IFD and the Exif IFD Value, tags or tag values related to image data characteristics, structure, user information, shooting conditions, or date / time are recorded. For example, a tag “UserComment” tag for a user comment, a tag “ExposureTime” for indicating an exposure time, a tag “Flash” tag for indicating the presence or absence of a flash, and the like are exemplified.
GPS IFDおよびGPS IFD Valueには,GPS(global positioning system)に関するタグまたはタグ値が記録される領域である。例えば,緯度を示すタグ“GPSLatitude”,高度を示すタグ“GPSAltitude”などが例示される。 The GPS IFD and the GPS IFD Value are areas in which tags or tag values related to GPS (global positioning system) are recorded. For example, a tag “GPSLatitude” indicating latitude, a tag “GPSAltitude” indicating altitude, and the like are exemplified.
上記3D IFDおよび3D IFD Valueに,3D画像である立体視画像に変換するための処理等を制御する画像制御情報に関するタグまたはタグ値(Value)が記録される。なお,画像制御情報については,後程詳述する。また,本実施の形態にかかる結合画像ファイルについても,立体視画像ファイルとほぼ同様のデータ構造である。 In the 3D IFD and 3D IFD Value, a tag or tag value (Value) related to image control information for controlling processing for converting to a stereoscopic image that is a 3D image is recorded. The image control information will be described in detail later. Also, the combined image file according to the present embodiment has almost the same data structure as the stereoscopic image file.
なお,本実施の形態にかかる立体視画像ファイルのデータ構造は,かかる例に限定されず,他のデータ構造である場合であっても実施することが可能である。例えば,立体視画像用ファイルのデータ構造がJPEGデータからなる場合,各JPEGデータには,JPEGヘッダと圧縮画像データとEOI(End Of Image)とが含まれる場合でもよい。上記JPEGヘッダには,SOI(Start Of Image)や色管理情報等の付属情報が存在する。また,視点画像データの視点番号などの視点情報は,例えば,各々のJPEGヘッダに存在させることもできる。視点が異なる複数の視点画像は,ファイルヘッダとそれに続く複数のJPGEデータとその全体の終わりを示すファイルエンド情報とすることができる。全体に対するヘッダを存在させない場合(結合画像の場合)には,視点情報が,JPEGヘッダ内(アプリケーションマーカー/IFD)に格納される。 Note that the data structure of the stereoscopic image file according to the present embodiment is not limited to such an example, and the data structure can be implemented even if it is another data structure. For example, when the data structure of the stereoscopic image file is composed of JPEG data, each JPEG data may include a JPEG header, compressed image data, and EOI (End Of Image). The JPEG header includes attached information such as SOI (Start Of Image) and color management information. Further, viewpoint information such as the viewpoint number of the viewpoint image data may be present in each JPEG header, for example. A plurality of viewpoint images having different viewpoints can be file end information indicating a file header, a plurality of subsequent JPG data, and the end of the whole. When the header for the entire image does not exist (in the case of a combined image), the viewpoint information is stored in the JPEG header (application marker / IFD).
(画像情報)
本実施の形態にかかる立体視画像ファイルは,少なくとも撮影または記録等により生成される主画像となる視点画像データと,画像制御情報とから構成されている。なお,視点画像データ,画像制御情報については,DCF規格に規定されている。
(Image information)
The stereoscopic image file according to the present embodiment includes at least viewpoint image data serving as a main image generated by shooting or recording, and image control information. The viewpoint image data and the image control information are defined in the DCF standard.
(画像フォーマット)
次に,図12を参照しながら,本実施の形態にかかる結合画像データについて説明する。図12は,本実施の形態にかかる結合画像データの概略的な構成を示す説明図である。
(Image format)
Next, the combined image data according to the present embodiment will be described with reference to FIG. FIG. 12 is an explanatory diagram showing a schematic configuration of combined image data according to the present embodiment.
図12(a)および図12(b)に示すように,本実施の形態にかかる視差画像データは,左眼用の視点画像(L画像),右眼用の視点画像(R画像)とから構成されている。なお,L画像およびR画像は,各視点において撮像された視点画像である。静止画像である上記視点画像から3Dの立体視画像に合成される。 As shown in FIGS. 12A and 12B, the parallax image data according to the present embodiment is obtained from a left eye viewpoint image (L image) and a right eye viewpoint image (R image). It is configured. Note that the L image and the R image are viewpoint images captured at each viewpoint. The viewpoint image, which is a still image, is synthesized into a 3D stereoscopic image.
上記結合画像データは,1つの画像に,L画像データおよびR画像データが一体となるように構成される画像データである。したがって,結合画像データは,視差画像データと比べて,複数の視点画像から構成されている点では共通するが,特に各視点画像が別個・独立していない点で,視差画像データとは,大きく異なる。結合画像のL画像およびR画像は,結合され,一体化されている。 The combined image data is image data configured such that L image data and R image data are integrated into one image. Therefore, compared to the parallax image data, the combined image data is common in that it is composed of a plurality of viewpoint images, but the parallax image data is largely different from the parallax image data particularly in that each viewpoint image is not separate or independent. Different. The L image and the R image of the combined image are combined and integrated.
図12(a)に示す結合画像350−1は,水平方向,左右にL画像とR画像とが両隣に並ぶように構成される。また,図12(b)に示す結合画像350−2は,垂直方向,上下にL画像とR画像とが一体的に結合されている。 A combined image 350-1 shown in FIG. 12A is configured such that an L image and an R image are arranged side by side in the horizontal direction and on the left and right. Also, in the combined image 350-2 shown in FIG. 12B, the L image and the R image are integrally combined vertically in the vertical direction.
なお,本実施の形態にかかる結合画像は,2視点である場合を例に挙げて説明したが,かかる例に限定されず,複数視点から撮影した画像を一枚の結合画像に結合して記録する場合であっても実施可能である。 The combined image according to the present embodiment has been described by taking the case of two viewpoints as an example. However, the combined image is not limited to such an example, and images captured from a plurality of viewpoints are combined and recorded into a single combined image. Even if it is, it can be implemented.
また,図12(c)に示すように,垂直方向上下に結合された上記結合画像350−2の他に,全部で合計4つのパターンの結合画像(350−3,350−4,350−5,350−6)が存在する。 Further, as shown in FIG. 12C, in addition to the combined image 350-2 combined vertically in the vertical direction, a total of four combined images (350-3, 350-4, 350-5) are combined. , 350-6).
図12(c)に示す結合画像(350−3,350−4,350−5,350−6)は,垂直方向上下に結合された上記結合画像350−2の配置形式から,上下の画像を一体化した状態で,左右に倒すことで配置されている(時計方向右回りに90度回転,または時計方向左回り90度回転。)。 A combined image (350-3, 350-4, 350-5, 350-6) shown in FIG. 12C is obtained by converting the upper and lower images from the arrangement form of the combined image 350-2 combined vertically in the vertical direction. In an integrated state, it is arranged by tilting it to the left or right (90 ° clockwise rotation or 90 ° clockwise rotation).
結合画像(350−3,350−4,350−5,350−6)は,図12(b)に示す結合画像350−2よりも,特にアスペクト比が3:4等のディスプレイに結合画像を表示する際,収まりがよく,1画面内に表示することが出来る。 The combined image (350-3, 350-4, 350-5, 350-6) is displayed on the display having an aspect ratio of 3: 4, in particular, than the combined image 350-2 shown in FIG. When displaying, it fits well and can be displayed in one screen.
また,上記結合画像(350−3,350−4,350−5,350−6)は,立体視画像に合成等するための画像制御情報とともに記録媒体135に記録されているため,ネットワーク等を介して,結合画像と画像制御情報を配信することが容易にできる。
Further, the combined image (350-3, 350-4, 350-5, 350-6) is recorded on the
なお,結合画像(350−3,350−4,350−5,350−6)と画像制御情報が相互にリンクされていれば記録方法については,限定されない。例えば,同一ファイル内に結合画像と画像制御情報を記録する場合や,ネットワークに接続された別々のサーバに結合画像と画像制御情報が別々に記録される場合等でも実施可能である。 Note that the recording method is not limited as long as the combined image (350-3, 350-4, 350-5, 350-6) and the image control information are linked to each other. For example, the present invention can be implemented even when the combined image and the image control information are recorded in the same file, or when the combined image and the image control information are separately recorded on different servers connected to the network.
また,結合画像(350−3,350−4,350−5,350−6)を水平方向に圧縮することで,結合画像から立体視画像に合成し,表示する際には,回転して元に戻した状態の画像の垂直成分のみが圧縮された状態となるので,水平方向の画質を劣化させることなく立体視画像を表示することができる。 In addition, by compressing the combined image (350-3, 350-4, 350-5, 350-6) in the horizontal direction, the combined image is combined with the stereoscopic image and displayed when rotated. Since only the vertical component of the image in the restored state is compressed, a stereoscopic image can be displayed without degrading the image quality in the horizontal direction.
結合画像(350−3,350−4,350−5,350−6)のうち,どの配置パターンで保存するかについては,2種の指定パターンがある。1つ目のパターンは,各結合画像(350−3,350−4,350−5,350−6)のそれぞれについて,“1”,“2”,“3”,“4”などのIDを付与することで配置パターンを指定するパターンである。 Of the combined images (350-3, 350-4, 350-5, 350-6), there are two types of designated patterns as to which arrangement pattern is stored. The first pattern is an ID such as “1”, “2”, “3”, “4”, etc. for each of the combined images (350-3, 350-4, 350-5, 350-6). It is a pattern that designates an arrangement pattern by giving.
2つ目のパターンは,結合画像(350−3,350−4,350−5,350−6)のうち,まず結合画像(350−3,350−5)または結合画像(350−4,350−6)のどちらであるかを指定し,さらに右視点画像(R画像)が右側であるのか左側に配置されるのかを指定するパターンである。詳細については後述する。 In the second pattern, the combined image (350-3, 350-4, 350-5, 350-6) is first combined image (350-3, 350-5) or combined image (350-4, 350). −6) and a pattern for designating whether the right viewpoint image (R image) is arranged on the right side or the left side. Details will be described later.
結合画像350−3は,図12(b)に示す結合画像350−2を左側に倒した状態の画像である。さらに結合画像350−3は,図12(c)に示すように,左側にR画像,右側にL画像が配置された構成の画像である。また,左側のR画像と右側のL画像とともに,画像の向き(天地)は,上側が水平左方向であり,下側が水平右方向である。 The combined image 350-3 is an image in a state where the combined image 350-2 illustrated in FIG. Furthermore, the combined image 350-3 is an image having a configuration in which an R image is arranged on the left side and an L image is arranged on the right side, as shown in FIG. In addition to the left R image and the right L image, the image orientation (top and bottom) is the horizontal left direction on the upper side and the horizontal right direction on the lower side.
結合画像350−4は,図12(b)に示す結合画像350−2を左側に倒した状態での画像である。さらに結合画像350−4は,図12(c)に示すように,左側にL画像,右側にR画像が配置された構成の画像である。また,左側のL画像と右側のR画像とともに,画像の向き(天地)は,上側(天井側)が水平右方向であり,下側(地面側)が水平左方向である。 The combined image 350-4 is an image in a state where the combined image 350-2 shown in FIG. Further, as shown in FIG. 12C, the combined image 350-4 is an image having a configuration in which an L image is arranged on the left side and an R image is arranged on the right side. In addition to the left L image and the right R image, the image orientation (top and bottom) is the horizontal right direction on the upper side (ceiling side) and the horizontal left direction on the lower side (ground side).
結合画像350−5は,結合画像350−3の状態から,画像の向きはそのままにして,L画像とR画像を左右入替えた状態の画像となっており,結合画像350−6は,結合画像350−4の状態から,画像の向きはそのままにして,L画像とR画像を左右入替えた状態の画像となっている。 The combined image 350-5 is an image in which the L image and the R image are switched left and right from the state of the combined image 350-3, with the orientation of the image unchanged, and the combined image 350-6 is a combined image. From the state of 350-4, the image is in the state in which the L image and the R image are interchanged with the left and right being left unchanged.
図12(c)に示す結合画像(350−3,350−4,350−5,350−6)は,各視点画像であるR画像,L画像の画枠を,例えば縦×横が2×3等のワイド画像にしても,1画面内に左右並べて表示することが可能であり,さらにR画像とL画像をそれぞれ90度回転することで,合成後の立体視画像もワイドな画像に表示される。以下,特に明記されない場合,結合画像は,図12(c)に示す画像のいずれかを示すものとする。 In the combined image (350-3, 350-4, 350-5, 350-6) shown in FIG. 12C, the image frames of the R image and the L image that are the respective viewpoint images, for example, 2 × vertical × horizontal Even a wide image such as 3 can be displayed side by side in one screen, and the R image and L image can be rotated by 90 degrees to display the combined stereoscopic image in a wide image. Is done. Hereinafter, unless otherwise specified, the combined image indicates any one of the images shown in FIG.
(複数視点の視点画像)
ここで,図13を参照しながら,本実施の形態にかかる複数の視点から撮像した場合の視点画像について説明する。図13は,本実施の形態にかかる複数の視点から撮像した場合の視点画像の概略的な構成を示す説明図である。
(Multi-viewpoint images)
Here, with reference to FIG. 13, a viewpoint image in the case of imaging from a plurality of viewpoints according to the present embodiment will be described. FIG. 13 is an explanatory diagram illustrating a schematic configuration of a viewpoint image when captured from a plurality of viewpoints according to the present embodiment.
図13(a)に示すように,被写体230に対して複数台の撮像装置100(100−1,100−2,100−3,…,100−6)が配置されている。撮像装置100を識別するために,各撮像装置100に対して視点位置が付される。
As shown in FIG. 13A, a plurality of imaging devices 100 (100-1, 100-2, 100-3,..., 100-6) are arranged for the subject 230. In order to identify the
なお,本実施の形態にかかる撮像装置100(100−1,100−2,100−3,…,100−6)は,6つの視点から撮影するために,配置される場合を例に挙げて説明するが,1又は2以上の撮像装置100が配置される限り,かかる例に限定されない。
Note that the imaging apparatus 100 (100-1, 100-2, 100-3,..., 100-6) according to the present embodiment is taken as an example when it is arranged for shooting from six viewpoints. As will be described, the present invention is not limited to this example as long as one or
上記視点位置は,図13(a)に示すように,水平方向(x),垂直方向(y)の(x,y)座標に基づき,撮像装置100−1である左上から順にA1,A2,A3,…と表わされる。例えば,A1は,座標で表わすと,(水平方向座標,垂直方向座標)=(1,0)などとなる。 As shown in FIG. 13A, the viewpoint position is based on the (x, y) coordinates in the horizontal direction (x) and the vertical direction (y) in order from the upper left, which is the imaging device 100-1, A 1 , A 2 , A 3 ,... For example, when A 1 is expressed by coordinates, (horizontal direction coordinates, vertical direction coordinates) = (1, 0).
したがって,撮像装置100から撮像された視点画像に各視点の視点位置が付加されることで,どの視点から撮像された視点画像であるか,識別することが可能となる。
Therefore, by adding the viewpoint position of each viewpoint to the viewpoint image captured from the
例えば,撮像装置100の視点位置が“A1”の場合,図13(b)に示すように,撮像装置100により撮像された視点画像の視点位置も“A1”である。
For example, when the viewpoint position of the
したがって,撮像装置100の画像制御情報生成部133は,画像制御情報を生成し,上記画像制御情報における所定のタグのフィールドに,上記視点位置“A1”(1,0)を設定する。上記視点位置にかかる所定のタグについては後述する。
Therefore, the image control
(画像制御情報)
本実施の形態にかかる結合画像データから立体視画像データに合成し,表示するためには,上記説明したように,タグ情報としての画像制御情報を例えば,ハードディスク,記録媒体などに記録する必要がある。
(Image control information)
In order to synthesize and display stereoscopic image data from the combined image data according to the present embodiment, it is necessary to record image control information as tag information on, for example, a hard disk or a recording medium as described above. is there.
次に,本実施の形態にかかる画像制御情報に関するタグについて説明する。本実施の形態にかかるタグには,3D画像であることを示す“3Dタグ”,上記画像制御情報のサイズを示す“画像制御情報サイズタグ”,3D画像のサイズを示す“3D画像サイズタグ”,使用者が任意のデータを管理等できる“使用者データ領域タグ(ApplicationData)”,データ構成種別を管理するための“データ構成種別タグ”,または上記画像制御情報のバージョンを示す“画像制御情報バージョンタグ”が存在する。画像制御情報に含まれるタグを用いることによって,適当な立体視画像を生成したり,編集したり様々な処理を施すことができる。 Next, tags related to image control information according to the present embodiment will be described. The tag according to the present embodiment includes a “3D tag” indicating a 3D image, an “image control information size tag” indicating the size of the image control information, and a “3D image size tag” indicating the size of the 3D image. "User data area tag (ApplicationData)" that allows the user to manage arbitrary data, "Data configuration type tag" for managing the data configuration type, or "Image control information indicating the version of the image control information" Version tag "exists. By using a tag included in the image control information, an appropriate stereoscopic image can be generated, edited, and subjected to various processes.
また,さらに本実施の形態にかかる画像制御情報にかかるタグには,例えば図13に示した“A1”〜“B3”の視点位置を示すためのタグ(視点位置タグ),3D画像が結合画像であるか否かを示す“結合画像タグ”,3D画像の回転状況等を示す“回転タグ”,3D画像から所定領域切り出された切出領域の水平方向のサイズを示す“切出サイズタグX(CropSizeX)”,3D画像から所定領域切り出された切出領域の垂直方向のサイズを示す“切出サイズタグY(CropSizeY)”,3D画像における切出領域の水平方向のオフセットを示す“切出オフセットタグX(CropOffsetX)”,または3D画像における切出領域の垂直方向のオフセットを示す“切出オフセットタグY(CropOffsetY)”が存在する。なお,“CropOffsetX”,“CropOffsetY”は,複数の視点から3D画像がなる場合,各視点のオフセットを示す。なお,上記回転タグには,例えば,回転角度情報など,視点画像が回転した角度等が設定される。 Further, the tags related to the image control information according to the present embodiment include, for example, tags (viewpoint position tags) for indicating viewpoint positions “A 1 ” to “B 3 ” shown in FIG. 13 and 3D images. “Combined image tag” indicating whether the image is a combined image, “Rotation tag” indicating the rotation status of the 3D image, etc., “Cutout size” indicating the horizontal size of a cut-out area cut out from the 3D image "Tag X (CropSizeX)", "Cut size tag Y (CropSizeY)" indicating the vertical size of a cut-out area cut out from the 3D image, and "Horizontal offset of the cut-out area in the 3D image""Cutoff offset tag X (CropOffsetX)" or "Cutoff offset tag Y (CropOffsetY)" indicating the vertical offset of the cutout region in the 3D image ”Exists. Note that “CropOffsetX” and “CropOffsetY” indicate the offset of each viewpoint when a 3D image is formed from a plurality of viewpoints. The rotation tag is set with, for example, an angle at which the viewpoint image is rotated, such as rotation angle information.
また,さらに本実施の形態にかかる画像制御情報にかかるタグには,3D画像における有効領域の水平方向のサイズを示す“有効サイズタグX(ValidSizeX)”,3D画像における有効領域の垂直方向のサイズを示す“有効サイズタグY(ValidSizeY)”,3D画像における有効領域の水平方向のオフセットを示す“有効オフセットタグX(ValidOffsetX)”,または3D画像における有効領域の垂直方向のオフセットを示す“有効オフセットタグY(ValidOffsetY)”が存在する。なお,“有効オフセットタグX”,“有効オフセットタグY”は,複数の視点から3D画像がなる場合,各視点のオフセットを示す。 Further, the tag relating to the image control information according to the present embodiment includes “effective size tag X (ValidSizeX)” indicating the horizontal size of the effective area in the 3D image, and the vertical size of the effective area in the 3D image. "Effective size tag Y (ValidSizeY)" indicating "effective offset tag X (ValidOffsetX)" indicating the horizontal offset of the effective area in the 3D image, or "effective offset indicating the vertical offset of the effective area in the 3D image" A tag Y (ValidOffsetY) "exists. Note that “effective offset tag X” and “effective offset tag Y” indicate the offset of each viewpoint when a 3D image is formed from a plurality of viewpoints.
また,さらに本実施の形態にかかる画像制御情報にかかるタグには,3D画像(立体視画像)を表示可能な立体視表示部140に,適正なサイズの立体視画像を表示するためのタグである“想定表示サイズタグ”,または立体視画像の注目参照点を示すための“リマークポイントタグ”などが存在する。
Furthermore, the tag relating to the image control information according to the present embodiment is a tag for displaying a stereoscopic image of an appropriate size on the
例えば,上記“回転タグ”は,3バイトからなる。なお,“回転タグ”は,結合画像における各視点画像の回転角,左右ミラー反転の有無を示し,0〜7のいずれかの値が設定される。0〜7の値に応じて回転角,ミラーの有無が決定する。 For example, the “rotation tag” consists of 3 bytes. The “rotation tag” indicates the rotation angle of each viewpoint image in the combined image, the presence / absence of left / right mirror inversion, and a value of 0 to 7 is set. The rotation angle and presence / absence of the mirror are determined according to the values of 0 to 7.
また,“CropOffsetX”は,各視点6バイトからなるタグである。したがって,例えば2視点の場合は,12バイトとなる。なお,“CropOffsetX”は,切出領域の水平方向のオフセットを示す。切出領域の水平方向のオフセットは,水平方向の切出領域の開始位置(始点)を示す。 “CropOffsetX” is a tag consisting of 6 bytes for each viewpoint. Therefore, for example, in the case of two viewpoints, it is 12 bytes. “CropOffsetX” indicates the horizontal offset of the cut-out area. The horizontal offset of the cutout area indicates the start position (start point) of the horizontal cutout area.
“CropOffsetY”は,各視点6バイトからなるタグである。したがって,例えば2視点の場合は,12バイトとなる。なお,“CropOffsetY”は,切出領域の垂直方向のオフセットを示す。各視点の画像の上下ずれ補正量も含み,ずれ量が不明の場合は,上記“CropOffsetY”には,“0”の値が設定される。切出領域の垂直方向のオフセットは,垂直方向の切出領域の開始位置(始点)を示す。切出領域の垂直/水平方向のオフセットが定まることにより,切出領域の開始位置が定まる。 “CropOffsetY” is a tag consisting of 6 bytes for each viewpoint. Therefore, for example, in the case of two viewpoints, it is 12 bytes. “CropOffsetY” indicates a vertical offset of the cutout area. Including the vertical shift correction amount of the image of each viewpoint, and when the shift amount is unknown, the value “0” is set in the “CropOffsetY”. The vertical offset of the cutout area indicates the start position (start point) of the vertical cutout area. By determining the vertical / horizontal offset of the cutout area, the start position of the cutout area is determined.
“ValidSizeX”は,各視点6バイトのタグである。なお,“ValidSizeX”は,結合画像から3D画像に変換することが可能な領域を示す有効領域の水平方向のサイズである。 “ValidSizeX” is a 6-byte tag for each viewpoint. Note that “ValidSizeX” is the horizontal size of an effective area indicating an area that can be converted from a combined image to a 3D image.
“ValidSizeY”は,各視点6バイトのタグである。なお,“ValidSizeY”は,有効領域の垂直方向のサイズである。 “ValidSizeY” is a 6-byte tag for each viewpoint. “ValidSizeY” is the vertical size of the effective area.
“ValidOffsetX”は,各視点6バイトのタグである。例えば,3視点の場合は,18バイトである。なお,“ValidOffsetX”は,有効領域の水平方向のオフセットである。有効領域の水平方向のオフセットは,水平方向の有効領域の開始位置(始点)を示す。 “ValidOffsetX” is a 6-byte tag for each viewpoint. For example, in the case of 3 viewpoints, it is 18 bytes. Note that “ValidOffsetX” is an offset in the horizontal direction of the effective area. The horizontal offset of the effective area indicates the start position (start point) of the effective area in the horizontal direction.
“ValidOffsetY”は,各視点6バイトのタグである。例えば,3視点の場合は,18バイトである。なお,“ValidOffsetY”は,有効領域の垂直方向のオフセットである。有効領域の垂直方向のオフセットは,垂直方向の有効領域の開始位置(始点)を示す。 “ValidOffsetY” is a 6-byte tag for each viewpoint. For example, in the case of 3 viewpoints, it is 18 bytes. “ValidOffsetY” is an offset in the vertical direction of the effective area. The vertical offset of the effective area indicates the start position (start point) of the effective area in the vertical direction.
“想定表示サイズタグ”は,4バイトのタグである。なお, “想定表示サイズタグ”のタグのフィールドには,例えば,立体視表示部140の種類と大きさが設定される。立体視表示部140の大きさは,本実施の形態ではインチ(inch)により表されるが,係る例に限定されない。
The “assumed display size tag” is a 4-byte tag. For example, the type and size of the
“リマークポイントタグ”は,6バイトのタグである。なお,“Remarkpoint”は,立体視画像の注目点を示すためのタグである。 The “remark point tag” is a 6-byte tag. Note that “Remarkpoint” is a tag for indicating a point of interest in a stereoscopic image.
立体視表示部140に立体視画像を表示する場合,立体視表示部140の中心点には,参照注目点に該当する立体視画像が表示される。したがって,立体視表示部140の中心点と,立体視画像の注目点とは一致する。
When displaying a stereoscopic image on the
“リマークポイント”のタグから注目点が設定されることにより,例えば,立体視画像の大きさよりも立体表示部140が小さい場合,立体視画像全体を表示することはできないが,立体視画像を少なくとも部分的に視認することが可能となる。
By setting the point of interest from the “remark point” tag, for example, when the
(メタファイル形式による画像制御情報)
次に,本実施の形態にかかる画像制御情報生成部133はXML(eXtensible Markup Language)形式などのメタファイルである付帯情報を生成すると,直接,記録媒体135は,上記付帯情報を,多重化された画像ファイルとは別ファイルとして記録するようにしてもよい。
(Image control information in metafile format)
Next, when the image control
次に,本実施の形態にかかる立体視画像処理装置における各種機能の説明をする。 Next, various functions in the stereoscopic image processing apparatus according to the present embodiment will be described.
(結合画像における視点画像の配置)
まず,図14を参照しながら,本実施の形態における視点画像の配置について説明する。図14は,本実施の形態における視点画像の配置の概略的な構成を示す説明図である。
(Arrangement of viewpoint images in combined images)
First, the arrangement of viewpoint images in the present embodiment will be described with reference to FIG. FIG. 14 is an explanatory diagram showing a schematic configuration of the viewpoint image arrangement in the present embodiment.
(平行配置)
視点画像の配置には,2つの配置がある。図14(a)に示すように,右眼用の画像(以下,R画像)が右側で,左眼用の画像(以下,L画像)が左側である一般的な配置の場合を,平行配置とする。したがって,平行配置の結合画像は,ユーザの左右の眼から見える視点と同じ配置である。なお,上記平行配置による結合画像を,いわゆる平行法によって見た場合,結合画像を立体的に見ることができる。平行法とは,対象より遠いところに眼の焦点を合わせたまま,手前にある対象を見る方法である。
(Parallel arrangement)
There are two arrangements of viewpoint images. As shown in FIG. 14A, a parallel arrangement is used in a general arrangement in which an image for the right eye (hereinafter referred to as an R image) is on the right side and an image for the left eye (hereinafter referred to as an L image) is on the left side. And Therefore, the combined image of the parallel arrangement is the same arrangement as the viewpoint seen from the left and right eyes of the user. In addition, when the combined image by the parallel arrangement is viewed by a so-called parallel method, the combined image can be viewed stereoscopically. The parallel method is a method of looking at an object in front while keeping the eye focused at a position far from the object.
(交差配置)
次に,図14(b)に示すように,L画像が右側で,R画像が左側である場合,つまり逆転層が生じ,平行配置と比べ左右反転したような配置の場合を,交差配置とする。なお,交差配置または平行配置は,結合画像タグに,右視点画像(R画像)が左右のうちどちら側であるかを設定することで,交差配置または平行配置のどちらであるかを指定することができる。
(Intersection arrangement)
Next, as shown in FIG. 14 (b), when the L image is on the right side and the R image is on the left side, that is, when the inversion layer is generated and the arrangement is reversed left and right compared to the parallel arrangement, To do. In addition, in the cross arrangement or the parallel arrangement, it is specified in the combined image tag whether the right viewpoint image (R image) is the left or right side, thereby specifying the cross arrangement or the parallel arrangement. Can do.
上記交差配置の視差画像は,いわゆる交差法による方法で,裸眼で立体視が可能な視差画像である。本実施の形態にかかる光学アダプタ105を装着した撮像装置100の撮像により生成される視差画像は,交差配置の視差画像である。交差法とは,対象とするものよりも手前で眼の焦点を合わせた上で,対象を見る方法である。
The parallax image with the crossing arrangement is a parallax image that can be stereoscopically viewed with the naked eye by a so-called crossing method. The parallax image generated by imaging of the
結合画像から立体視画像に変換する際に,平行配置の画像であると仮定した場合,右側がR画像であるため,正常な立体視画像に変換することが可能であるが,交差配置であった場合では,右側がL画像であるため,正常な立体視画像に変換することができない。したがって,交差配置の場合,左側がR画像であることを指定する必要がある。なお,視差画像の平行配置と交差配置とは,上述した結合画像タグにより,画像配置を変換することが可能であるが,詳細は後述する。 When converting from a combined image to a stereoscopic image, it is possible to convert to a normal stereoscopic image because the right side is an R image because it is assumed that the image is a parallel image. In this case, since the right side is an L image, it cannot be converted into a normal stereoscopic image. Therefore, in the case of an intersection arrangement, it is necessary to specify that the left side is an R image. Note that the parallel arrangement and the cross arrangement of the parallax images can be converted by the above-described combined image tag, but details will be described later.
(視点画像の画像処理方法)
次に,図15を参照しながら,本実施の形態にかかる視点画像の画像処理方法について説明する。図15は,本実施の形態にかかる視点画像の画像処理方法の概略を示すフローチャートである。
(Viewpoint image processing method)
Next, the viewpoint image processing method according to the present embodiment will be described with reference to FIG. FIG. 15 is a flowchart showing an outline of the viewpoint image processing method according to the present embodiment.
まず,予め撮像装置100に,平行配置の結合画像データを生成するのか,もしくは交差配置の結合画像データを生成するのか少なくとも設定する。設定する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面等により設定する。なお,平行配置または交差配置のどちらか一方のみが予め決まっている場合,設定する必要はない。
First, it is set in advance in the
次に,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データを,設定された平行配置または交差配置に従い,結合画像データを生成する。
Next, when a subject is imaged by the
また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“結合画像タグ”のタグのフィールドに,平行配置または交差配置を示す値を設定する。
In addition, the image control
上記“結合画像タグ”のタグのフィールドに設定される値は,例えば,“平行配置”である場合は,“0”であり,“交差配置”である場合は,“1”の2値のいずれかである。つまり右視点画像が右側であれば,平行配置となり,右視点画像が左側であれば交差配置となる。なお,本実施の形態にかかる“結合画像タグ”のタグのフィールドに設定される値は,かかる例に限定されず,他のいかなる値が設定される場合であってもよい。 The value set in the tag field of the “combined image tag” is, for example, “0” in the case of “parallel arrangement”, and “1” in the case of “cross arrangement”. Either. That is, if the right viewpoint image is on the right side, it is parallel arrangement, and if the right viewpoint image is on the left side, it is cross arrangement. The value set in the tag field of the “combined image tag” according to the present embodiment is not limited to this example, and any other value may be set.
次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, the combined image data and the image control information are multiplexed by the
ここで,コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。
Here, the
画像分離部138は,L画像データとR画像データとに分離時,画像制御情報の“結合画像タグ”に設定された値に基づき,デコードされた結合画像データのうちどちらが,R画像データであるかを認識する。
When separating into L image data and R image data, the
“結合画像タグ”に設定された値が“0”である場合,画像分離部138は,右側の画像データをR画像データであると認識し,“1”である場合,画像分離部138は,交差配置になるよう上記双方の視点画像を左右反転処理し,左側の画像データをR画像データであると認識する。
When the value set in the “combined image tag” is “0”, the
認識されたR画像データおよびL画像データは,画像分離部138により,画像変換部139に伝送される。画像変換部139は,上記R画像データと,L画像データとを配置し,立体視画像データを生成する。
The recognized R image data and L image data are transmitted to the
上記R画像データと,L画像データとが配置された立体視画像データは,立体視表示部140により表示される(S600)。以上から,本実施の形態にかかる視点画像の画像処理が終了する。 The stereoscopic image data in which the R image data and the L image data are arranged is displayed by the stereoscopic display unit 140 (S600). From the above, the image processing of the viewpoint image according to the present embodiment is completed.
なお,図16に示すように,立体視画像データを生成後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面220からR画像データとL画像データとを左右反転させ,再度,立体視画像データを生成することができる。
As shown in FIG. 16, even after the stereoscopic image data is generated, the R image data and the L image data are reversed left and right from the
図16に示すように,GUI画面220は,立体視画像が表示されるメインエリア222と,ペイント画像224とから構成されている。メインエリア222には,生成された立体視画像データの立体視画像が表示される。
As shown in FIG. 16, the
「LR置換」ボタンが,コンピュータ装置150に備わるマウスなどの入力部(図示せず。)により押下されると,画像分離部138は,画像制御情報の“結合画像タグ”に設定された値を反転する。例えば,“0”(平行配置)の場合は,“1”(交差配置)に更新する。
When the “LR replacement” button is pressed by an input unit (not shown) such as a mouse provided in the
画像分離部138は,変更した画像制御情報の“結合画像タグ”に設定された値に基づき,結合画像データのうちどちらがR画像データであるかを認識し,認識されたL画像データおよびR画像データを画像変換部139に伝送する。
The
伝送されたL画像データおよびR画像データは,画像変換部139により配置され,立体視画像データが生成される。L画像データおよびR画像データが配置された立体視画像データは,立体視表示部140に表示される。
The transmitted L image data and R image data are arranged by the
なお,上記画像変換部139は,例えば図14に示すようなL画像とR画像とからなる視差画像データを,そのまま立体視表示部140に伝送し,立体視表示部140は,上記視差画像データを表示する場合であっても実施可能である。立体視表示部140に表示される視差画像を,平行法または交差法等により見つめることで,各方法によって立体感の異なる立体的な画像を視認することができる。
For example, the
(視点画像の回転,ミラー反転)
次に,図17〜図20を参照しながら,本実施の形態における各視点画像の回転またはミラー反転について説明する。図17,図18,図19,図20は,本実施の形態における視点画像の配置の概略的な構成を示す説明図である。
(Rotation of viewpoint image, mirror inversion)
Next, rotation of each viewpoint image or mirror inversion in the present embodiment will be described with reference to FIGS. 17, 18, 19, and 20 are explanatory views showing a schematic configuration of the arrangement of viewpoint images in the present embodiment.
なお,図17〜図20に示す視点画像は,いずれもA1=(0,0),A2=(0,1)からなる2視点の画像で,交差配置の場合であるが,かかる例に限定されず,複数視点(A1,A2,…)の画像で,平行配置等の場合であっても実施可能である。 Note that the viewpoint images shown in FIGS. 17 to 20 are two -viewpoint images each having A 1 = (0, 0) and A 2 = (0, 1). The present invention is not limited to this, and the present invention can be implemented even in the case of parallel arrangement or the like with images of a plurality of viewpoints (A 1 , A 2 ,...).
(回転角度0度)
図17(a)に示すように,各視点の視点画像とも回転角度0度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転されない。したがって,回転前後の結合画像の視点画像は,変化せず,同じである。
(
As shown in FIG. 17 (a), when the viewpoint image of each viewpoint has a rotation angle of 0 degrees, the viewpoint images (right-eye image and left-eye image) of each viewpoint are not rotated. Accordingly, the viewpoint images of the combined images before and after the rotation are the same without changing.
(回転角度右90度)
次に,図17(b)に示すように,各視点(A1,A2)の視点画像とも回転角度右90度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)は,図17(a)に示す各視点画像の位置から,時計回りに,90度回転する。
(Rotation angle right 90 degrees)
Next, as shown in FIG. 17B, when the viewpoint images of the respective viewpoints (A 1 , A 2 ) have a rotation angle of 90 degrees to the right, the viewpoint images of the respective viewpoints (right eye images, left eye images) Image) is rotated 90 degrees clockwise from the position of each viewpoint image shown in FIG.
(回転角度右180度)
次に,図17(c)に示すように,各視点(A1,A2)の視点画像とも回転角度右180度の場合,各視点画像(右眼用の画像,左眼用の画像)は,図17(a)に示す各視点画像の位置から,時計回りに,180度回転する。
(Rotation angle right 180 degrees)
Next, as shown in FIG. 17C, when the viewpoint images of the respective viewpoints (A 1 , A 2 ) have a rotation angle of 180 degrees to the right, the respective viewpoint images (right-eye image, left-eye image) Is rotated 180 degrees clockwise from the position of each viewpoint image shown in FIG.
(回転角度右270度)
次に,図17(d)に示すように,各視点(A1,A2)の視点画像とも回転角度右270度の場合,各視点画像(右眼用の画像,左眼用の画像)は,図17(a)に示す各視点画像の位置から,時計回りに,270度回転する。
(Rotation angle right 270 degrees)
Next, as shown in FIG. 17 (d), each viewpoint (A 1, A 2) when both viewpoint image rotation angle right 270 degrees, each viewpoint image (image for the right eye, the image for the left eye) Is rotated 270 degrees clockwise from the position of each viewpoint image shown in FIG.
以上から,各視点の視点画像が適当な角度に回転した場合であっても,いずれの視点画像とも同じ角度だけ回転しているため,回転後の視点画像でも,立体的に視認可能な立体視画像を容易に生成することが可能である。 From the above, even when the viewpoint image of each viewpoint is rotated to an appropriate angle, all the viewpoint images are rotated by the same angle, so that even the rotated viewpoint image can be viewed stereoscopically. Images can be easily generated.
なお,本実施の形態にかかる視点画像の回転は,各視点の視点画像が個別に回転する場合でも実施可能である。ここで,図18を参照しながら,各視点の視点画像を回転する場合について説明する。 Note that the rotation of the viewpoint image according to the present embodiment can be performed even when the viewpoint image of each viewpoint is rotated individually. Here, a case where the viewpoint image of each viewpoint is rotated will be described with reference to FIG.
(A1,A2ともに回転角度0度)
上記説明の通り,図18(a)に示すように,各視点の視点画像とも回転角度0度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転されない。したがって,回転前後の各視点画像は,変化せず,同じである。
(Both A 1 and A 2 have a rotation angle of 0 degree)
As described above, as shown in FIG. 18 (a), when the viewpoint image of each viewpoint has a rotation angle of 0 degrees, the viewpoint images of each viewpoint (the image for the right eye and the image for the left eye) are not rotated. Therefore, the viewpoint images before and after the rotation do not change and are the same.
(A2が回転角度右90度)
次に,図18(b)に示すように,各視点(A1,A2)のうちA2の視点画像のみが,回転角度右90度の場合,A2の視点画像(左眼用の画像)は,図18(a)に示すA2の視点画像の位置から,時計回りに,90度回転する。
(A 2 rotation angle 90 degrees clockwise)
Next, as shown in FIG. 18 (b), only the viewpoint image A 2 of each
(A2が回転角度右180度)
次に,図18(c)に示すように,各視点(A1,A2)のうちA2の視点画像のみが,回転角度右180度の場合,A2の視点画像(左眼用の画像)は,図18(a)に示すA2の視点画像の位置から,時計回りに,180度回転する。
(A 2 rotation angle right 180 degrees)
Next, as shown in FIG. 18 (c), only the viewpoint image A 2 of each
(A1が回転角度右90度,A2が回転角度右180度)
次に,図18(d)に示すように,各視点(A1,A2)のうちA1の視点画像が回転角度右90度であり,A2の視点画像が回転角度右180度の場合,各視点画像(右眼用の画像,左眼用の画像)は,図18(a)に示すA1およびA2の視点画像の位置から,A1の視点画像は,時計回りに,90度回転し,A2の視点画像は,時計回りに,180度回転する。
(A 1 is the rotation angle 90 degrees clockwise, A 2 is the rotation angle right 180 degrees)
Next, as shown in FIG. 18D, among the viewpoints (A 1 , A 2 ), the viewpoint image of A 1 has a rotation angle of 90 degrees to the right, and the viewpoint image of A 2 has a rotation angle of 180 degrees to the right. If, respective viewpoint images (image for the right eye, the image for the left eye) from the position of the viewpoint images a 1 and a 2 shown in FIG. 18 (a), the viewpoint image a 1 is clockwise, It rotated 90 degrees, the viewpoint image a 2 is clockwise rotated 180 degrees.
次に,図19を参照しながら,本実施の形態にかかる回転およびミラー反転について説明する。 Next, rotation and mirror inversion according to the present embodiment will be described with reference to FIG.
(回転角度0度およびミラー反転)
図19(a)に示すように,各視点の視点画像とも回転およびミラー反転角度0度の場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転されないが,垂直方向に対して,右眼用の画像と左眼用の画像とが接する上下方向の垂直軸に対して,それぞれミラー反転する。なお,本実施の形態にかかるミラー反転は,各視点の視点画像(右眼用の画像,左眼用の画像)のうちいずれかを,垂直軸に対して,ミラー反転する場合であっても実施可能である。詳細は後述する。
(
As shown in FIG. 19A, when the viewpoint image of each viewpoint is rotated and the mirror inversion angle is 0 degree, the viewpoint images of each viewpoint (the image for the right eye and the image for the left eye) are not rotated. The mirror is inverted with respect to the vertical axis in the vertical direction where the image for the right eye and the image for the left eye are in contact with each other. The mirror inversion according to the present embodiment is performed even when one of the viewpoint images (right-eye image and left-eye image) of each viewpoint is mirror-inverted with respect to the vertical axis. It can be implemented. Details will be described later.
(回転角度右90度およびミラー反転)
次に,図19(b)に示すように,各視点の視点画像とも回転角度右90度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図19(a)に示す各視点画像の位置から,まず時計回り方向に,90度回転する。さらに各視点画像が右90度回転した状態から,上下方向の垂直軸に対して,右眼用の画像と左眼用の画像がそれぞれミラー反転する。
(Rotation angle right 90 degrees and mirror inversion)
Next, as shown in FIG. 19B, in the case where the viewpoint image of each viewpoint has a rotation angle of 90 degrees to the right and mirror inversion, each viewpoint image (right eye image, left eye image) is shown in FIG. From the position of each viewpoint image shown in (a), it is first rotated 90 degrees in the clockwise direction. Further, from the state in which each viewpoint image is rotated 90 degrees to the right, the right-eye image and the left-eye image are mirror-inverted with respect to the vertical axis in the vertical direction.
(回転角度右180度およびミラー反転)
次に,図19(c)に示すように,各視点の視点画像とも回転角度右180度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図19(a)に示す各視点画像の位置から,まず時計回り方向に,180度回転する。さらに,各視点画像が右180度回転した状態から,上下方向の垂直軸に対して,右眼用の画像と左眼用の画像がそれぞれミラー反転する。
(Rotation angle right 180 degrees and mirror inversion)
Next, as shown in FIG. 19C, in the case where the viewpoint image of each viewpoint has a rotation angle of right 180 degrees and mirror inversion, each viewpoint image (right eye image, left eye image) is shown in FIG. From the position of each viewpoint image shown in (a), it is first rotated 180 degrees in the clockwise direction. Further, from the state where each viewpoint image is rotated 180 degrees to the right, the right-eye image and the left-eye image are mirror-inverted with respect to the vertical axis in the vertical direction.
(回転角度右270度およびミラー反転)
次に,図19(d)に示すように,各視点の視点画像とも回転角度右270度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図19(a)に示す各視点画像の位置から,まず時計回り方向に,270度回転する。さらに,各視点画像が右270度回転した状態から,上下方向の垂直軸に対して,右眼用の画像と左眼用の画像が,それぞれミラー反転する。
(Rotation angle right 270 degrees and mirror inversion)
Next, as shown in FIG. 19D, in the case where the viewpoint image of each viewpoint has a rotation angle of 270 degrees to the right and mirror inversion, each viewpoint image (right eye image, left eye image) is shown in FIG. From the position of each viewpoint image shown in (a), it is first rotated 270 degrees in the clockwise direction. Further, from the state in which each viewpoint image is rotated 270 degrees to the right, the right-eye image and the left-eye image are mirror-inverted with respect to the vertical axis in the vertical direction.
以上から,各視点の視点画像が適当な角度に回転およびミラー反転した場合であっても,いずれの視点画像とも同じ角度だけ回転およびミラー反転しているため,各視点の視点画像から立体的に視認可能な立体視画像を容易に生成することが可能である。 From the above, even if the viewpoint image of each viewpoint is rotated and mirror-reversed to an appropriate angle, since each viewpoint image is rotated and mirror-inverted by the same angle, the viewpoint image of each viewpoint is stereoscopically viewed. It is possible to easily generate a visually observable stereoscopic image.
なお,本実施の形態にかかる視点画像の回転およびミラー反転は,各視点の視点画像が個別に回転およびミラー反転してもよい。ここで,図20を参照しながら,各視点の視点画像を回転およびミラー反転する場合について説明する。 Note that the viewpoint image rotation and mirror inversion according to the present embodiment may be performed by rotating and mirror-inverting the viewpoint image of each viewpoint individually. Here, the case where the viewpoint image of each viewpoint is rotated and mirror-reversed will be described with reference to FIG.
(回転角度0度)
図20(a)に示すように,上記説明の通り,各視点の視点画像とも回転角度0度およびミラー反転なしの場合,各視点の視点画像(右眼用の画像,左眼用の画像)ともに回転およびミラー反転されない。したがって,回転およびミラー反転前後の各視点画像は,変化せず,同じである。
(
As shown in FIG. 20 (a), as described above, when the viewpoint image of each viewpoint has a rotation angle of 0 degree and no mirror inversion, the viewpoint images of each viewpoint (images for the right eye and images for the left eye). Neither rotated nor mirror reversed. Therefore, the viewpoint images before and after rotation and mirror inversion are the same without changing.
(A2が回転角度右90度およびミラー反転)
次に,図20(b)に示すように,各視点(A1,A2)のうちA2の視点画像のみが,回転角度右90度およびミラー反転の場合,A2の視点画像(左眼用の画像)は,図20(a)に示すA2の視点画像の位置から,まず時計回りに,90度回転する。さらに,A2の視点画像が右90度回転した状態から,上下方向の垂直軸に対して,A2の視点画像のみが,ミラー反転する。
(A 2 rotation angle 90 degrees clockwise and mirrored)
Next, as shown in FIG. 20 (b), only the viewpoint image A 2 of each
(A2が回転角度右180度およびミラー反転)
次に,図20(c)に示すように,各視点(A1,A2)のうちA2の視点画像のみが,回転角度右180度およびミラー反転の場合,A2の視点画像(左眼用の画像)は,図20(a)に示すA2の視点画像の位置から,まず時計回りに,180度回転する。さらに,A2の視点画像が右180度回転した状態から,上下方向の垂直軸に対して,A2の視点画像のみが,ミラー反転する。
(A 2 rotation angle right 180 degrees and the mirror inversion)
Next, as shown in FIG. 20 (c), only the viewpoint image A 2 of each
(A1が回転角度右90度およびミラー反転,A2が回転角度右180度およびミラー反転)
次に,図20(d)に示すように,各視点(A1,A2)のうちA1の視点画像が回転角度右90度およびミラー反転であり,A2の視点画像が回転角度右180度およびミラー反転の場合,各視点画像(右眼用の画像,左眼用の画像)は,図20(a)に示すA1およびA2の視点画像の位置から,A1の視点画像は,時計回りに,90度回転し,A2の視点画像は,時計回りに,180度回転する。さらに,A1の視点画像が右90度回転した状態から,上下方向の垂直軸に対して,A1の視点画像がミラー反転し,A2の視点画像が右180度回転した状態から,上下方向の垂直軸に対して,A2の視点画像がミラー反転する。
(A 1 is the rotation angle 90 degrees clockwise and mirrored, A 2 is the rotation angle right 180 degrees and the mirror inversion)
Next, as shown in FIG. 20D, among the viewpoints (A 1 , A 2 ), the viewpoint image of A 1 has a rotation angle of 90 degrees right and mirror inversion, and the viewpoint image of A 2 has a rotation angle of right for 180 and mirrored, (image for the right eye, the image for the left eye) each viewpoint image, the position of the viewpoint images a 1 and a 2 shown in FIG. 20 (a), a 1 viewpoint image is clockwise rotated 90 degrees, the viewpoint image a 2 is clockwise rotated 180 degrees. Furthermore, from the state where the viewpoint image A 1 is rotated clockwise 90 degrees, with respect to the vertical direction of the vertical axis, from a state where the viewpoint image A 1 is mirrored, the viewpoint image A 2 is rotated right 180 degrees, vertical directions with respect to a vertical axis, the viewpoint image a 2 is mirrored.
次に,図21を参照しながら,本実施の形態にかかる結合画像の記録処理について説明する。図21は,本実施の形態にかかる結合画像の記録処理の概略を示すフローチャートである。 Next, the combined image recording process according to the present embodiment will be described with reference to FIG. FIG. 21 is a flowchart showing an outline of the combined image recording process according to the present embodiment.
図21に示すように,まず,撮像装置100により被写体が撮影される(S650)。撮影直後の撮像素子130から伝送される視点画像データを,撮像部101の合成部131は,予め撮像装置100に設定された環境情報により結合画像データに変換する。なお,結合画像データに変換せず,例えば図13に示すような単に視点画像データに変換し,後ほどコンピュータ装置150等により結合画像データに変換する場合でもよい。
As shown in FIG. 21, first, a subject is photographed by the imaging device 100 (S650). The synthesizing
次に,結合画像データに変換するため,合成部131は,撮像直後の視点画像データのうち必要な画像領域だけを切り出す(S651)。切り出し処理については,後ほど説明するが,必要な画像領域は,アダプタなどの特性により予め有効領域が定まっている場合,または予め環境情報に領域が設定されている場合などを例示することができる。
Next, in order to convert into combined image data, the
次に,左右の視点画像から必要な画像領域が切り出されると(S651),上記説明したように,結合画像データの配置パターンを設定する(S652)。上記配置パターンの設定は,例えば,予め撮像装置100のGUIが表示される表示部(図示せず。)を介して環境情報として配置パターンを設定する場合,撮影するたびに配置パターンを設定する場合などを例示することができる。
Next, when necessary image regions are cut out from the left and right viewpoint images (S651), as described above, the arrangement pattern of the combined image data is set (S652). For example, when the arrangement pattern is set as environment information via a display unit (not shown) on which the GUI of the
ここで,図22を参照しながら,配置パターンの設定について説明する。図22に示すように,結合画像データに変換するための環境情報設定画面は,右視点画像を左右のどちら側に配置するのかを指定する指定領域654と,双方の視点画像がどちら向きに倒れた状態であるかを指定する指定領域655とから構成される。なお,図22は,本実施の形態にかかる環境情報設定画面の概略的な構成を示す説明図である。
Here, setting of the arrangement pattern will be described with reference to FIG. As shown in FIG. 22, the environment information setting screen for converting into combined image data includes a
指定領域654および指定領域655の各々の領域に表示されたラジオ・ボタンを入力部(図示せず。)により選択することで,結合画像データの配置パターンが設定される。なお,本実施の形態にかかる環境情報設定画面は,撮像装置100の表示部に表示される場合を例に挙げて説明したが,かかる例に限定されず,例えば,環境情報設定画面は,コンピュータ装置150等に表示される場合等でもよい。上記の場合,図16に示す「回転」ボタンが押下された場合,上記環境情報設定画面が表示され,結合画像データに変換される。また,本実施の形態にかかる結合画像は,2視点だが,かかる例に限定されず,複数の視点の場合でもよい。また,上記ラジオ・ボタンの他に,マークをし,選択可能であれば,かかる例に限定されず,例えば,チェックボックスなどの場合でもよい。
By selecting a radio button displayed in each of the designated
上記配置パターン設定(S652)後,合成部131は,各視点画像のL画像データ(左眼用の画像)およびR画像データ(右眼用の画像)を,設定された配置パターンに従い回転等し,一体化し,結合画像データを生成する。なお,結合画像データはL画像データとR画像データとが,図12(c)に示す結合画像350のうちいずれかの配置形式で,一体化されている。
After the arrangement pattern setting (S652), the
さらに,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“回転タグ”のタグのフィールドに,ミラー反転および回転の種類を示す値を設定する。なお上記“回転タグ”については,後述する。
Further, the image control
次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録されると(S653),本実施の形態にかかる結合画像の記録方法の一連の処理が終了する。
Next, when the combined image data and the image control information are multiplexed by the
結合画像および当該結合画像の画像制御情報とを記録媒体135に記録し,管理することにより,上記結合画像と画像制御情報とから立体視画像を容易に自動的に生成し,表示することができる。さらに,結合画像と画像制御情報をネットワークを介して,配信することができ,別のコンピュータ装置150等で,立体視画像を表示することができる。
By recording and managing the combined image and the image control information of the combined image on the
次に,図23を参照しながら,本実施の形態にかかる立体視画像を表示する立体視画像表示処理について説明する。図23は,本実施の形態にかかる立体視画像表示処理の概略を示すフローチャートである。 Next, a stereoscopic image display process for displaying a stereoscopic image according to the present embodiment will be described with reference to FIG. FIG. 23 is a flowchart showing an outline of the stereoscopic image display processing according to the present embodiment.
図23に示すように,まず,コンピュータ装置150は,入力部(図示せず。)からの指示に従い,記録媒体135に記録された上記結合画像データおよび画像制御情報を読み込む。
As shown in FIG. 23, first, the
次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。
Next, the
次に,図23に示すように,画像分離部138は,デコードされた結合画像データをL画像データとR画像データとに分離する前に,まず必要な画像領域を切り出す(S656)。なお,画像分離部138は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識しておく。
Next, as shown in FIG. 23, the
次に,図23に示すように,立体視表示部140に表示させるため,画像分離部138は,画像制御情報の“回転タグ”のフィールドの最下位桁から数えて,2バイト目から3バイト目に設定された値(“1”または“3”)に基づき,元の位置に戻すため,各視点画像データ(L画像データ,R画像データ)全体を一体として,全体回転角度右90度または右270度に,全体回転する(S657)。全体回転は,各視点画像データ個別に回転するのではなく,各視点画像データを一組とする結合画像データ全体を回転することである。したがって,上下に横長のL画像データとR画像データとが重なっていることになる。なお,結合画像の記録処理時に回転した角度が回転角度右90度の場合は,回転角度右270度となり,結合画像の記録処理時に回転した角度が回転角度右270度の場合は,回転角度右90度となる。
Next, as shown in FIG. 23, for display on the
例えば,図12(c)に示す結合画像のうち結合画像350−3の場合,結合画像350−3全体を時計回りに90度回転することで,結合画像350−3は,上下にR画像とL画像とが配置する状態となる。 For example, in the case of the combined image 350-3 among the combined images shown in FIG. 12C, by rotating the entire combined image 350-3 90 degrees clockwise, the combined image 350-3 is The L image is placed.
なお,上記全体回転の他にも,例えば,各視点画像データを90度または右270度回転し,その後,双方の視点画像データが上下に位置するように,配列処理する等の場合でもよい。 In addition to the overall rotation described above, for example, the viewpoint image data may be rotated 90 degrees or 270 degrees to the right, and then array processing may be performed so that both viewpoint image data are positioned vertically.
上記回転処理(S657)が行われると,画像分離部138は,結合画像データに構成するR画像データとL画像データとを分離し,上記L画像データとR画像データとをそれぞれ画像変換部139に伝送する。
When the rotation process (S657) is performed, the
画像変換部139は,上記説明の通り,画像分離部138から伝送されたR画像データおよびL画像データとを適当に重ね合わせ処理等をすることで,立体視画像データに合成する(S658)。なお,画像変換部139は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識する。
As described above, the
したがって,立体視表示部140のアスペクトと適応するような比率の立体視画像データが,立体視表示部140に表示される(S659)。
Therefore, the stereoscopic image data having a ratio that matches the aspect of the
なお,図16に示すように,立体視画像データを生成後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面220からR画像データとL画像データとを回転または回転およびミラー反転させて,再度,立体視画像データを生成することができる。
As shown in FIG. 16, even after the stereoscopic image data is generated, the R image data and the L image data are rotated or rotated from the
図16に示すように,GUI画面220の「回転」ボタンを,コンピュータ装置150に備わるマウスなどの入力部(図示せず。)により押下し,所定の回転角度またはミラー反転の有無を選択すると,画像分離部138は,画像制御情報の“回転タグ”のフィールドに設定された値を変更する。例えば,“0”(回転角度0度)から,“5”(回転角度右90度およびミラー反転)などに更新する。
As shown in FIG. 16, when a “rotate” button on the
さらに,図22に示すように,上記「回転」ボタンの押下の際,表示される環境情報画面に,所定事項を入力すると,結合画像の配置パターンを変更することができる。 Furthermore, as shown in FIG. 22, when a predetermined item is input to the displayed environment information screen when the “rotate” button is pressed, the arrangement pattern of the combined image can be changed.
次に,図24を参照しながら,本実施の形態にかかる立体視画像の画像表示方法について説明する。図24は,本実施の形態にかかる立体視画像の画像表示処理の概略を示すフローチャートである。 Next, a stereoscopic image display method according to the present embodiment will be described with reference to FIG. FIG. 24 is a flowchart showing an outline of a stereoscopic image display process according to the present embodiment.
まず,予め撮像装置100に,各視点画像データを回転する種類を選択する。選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面等により設定する。
First, a type for rotating each viewpoint image data is selected in advance in the
例えば,GUI画面には,例えば,視点画像ごとに“0(回転0度)”,“1(回転右90度)”,“2(回転右180度)”,“3(回転右270度)”,“4(回転0度,ミラー反転)”,“5(回転角度右90度およびミラー反転)”,“6(回転角度右180度およびミラー反転)”,“7(回転角度右270度およびミラー反転)”等と表示される。なお,予め回転角度が設定されており,選択することができない場合,選択する必要はない。
For example, on the GUI screen, for example, “0 (
次に,図24に示すように,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データを,結合画像タグで設定された平行配置または交差配置に従い,配置する。
Next, as illustrated in FIG. 24, when the subject is imaged by the
さらに,記録媒体135に記憶された視点画像データから立体視画像を効率よく生成するため,合成部131により,視点画像データを時計回り90度または270度それぞれ回転する第1回転工程が行われる(S601)。
Further, in order to efficiently generate a stereoscopic image from the viewpoint image data stored in the
上記第1回転工程(S601)後,合成部131は,各視点画像のL画像データ(左眼用の画像)およびR画像データ(右眼用の画像)を一体化し,第1結合画像データを生成する。なお,第1結合画像データはL画像データとR画像データとが一体化され,記録媒体135に画像制御情報と共に,記録されている。
After the first rotation step (S601), the
また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“回転タグ”のタグのフィールドに,ミラー反転および回転の種類を示す値を設定する。
Further, the image control
ここで,図25を参照しながら,“回転タグ”のタグのフィールドに設定される値について説明する。図25は,本実施の形態にかかる“回転タグ”のタグのフィールドに設定される値の概略を示す説明図である。 Here, the values set in the tag field of “Rotation tag” will be described with reference to FIG. FIG. 25 is an explanatory diagram showing an outline of values set in the tag field of the “rotation tag” according to the present embodiment.
上記“回転タグ”は,各視点画像に対して設定可能であり,“回転タグ”のタグのバイト数は,5バイトである。上記5バイトのうち,最下位桁から数えて1バイト目までの1バイトには,視点位置(A1,A2,A3,…)のうち,水平方向の視点位置(水平方向座標)を表わす値が設定され,次に最下位桁から数えて,1バイト目から2バイト目までの1バイトには,視点位置(A1,A2,A3,…)のうち,垂直方向の視点位置(垂直方向座標)を表わす値が設定され,最下位桁から数えて2バイト目から3バイト目までの1バイトには,回転,回転およびミラー反転の種類を表す値が設定される。なお,上記バイトの構成に限らない。 The “rotation tag” can be set for each viewpoint image, and the number of bytes of the tag of the “rotation tag” is 5 bytes. Of the above 5 bytes, one byte from the least significant digit to the first byte has a horizontal viewpoint position (horizontal coordinate) among the viewpoint positions (A 1 , A 2 , A 3 ,...). The value to be expressed is set, and then the vertical viewpoint of the viewpoint positions (A 1 , A 2 , A 3 ,...) Is included in 1 byte from the 1st byte to the 2nd byte, counting from the least significant digit. A value representing the position (vertical coordinate) is set, and a value representing the type of rotation, rotation, and mirror inversion is set in one byte from the second byte to the third byte counted from the least significant digit. The configuration is not limited to the above byte.
図25に示すように,上記最下位桁から数えて2バイト目から3バイト目までの1バイトに設定される値は,7種類の値から構成されている。上記1バイトに該当するビット列は,1ビット目から,順に8ビット目まで続いている。なお,初期設定値は,“0”とする。なお,本実施の形態にかかる回転または回転およびミラー反転の種類を表す値は,7種類の値である場合を例に挙げて説明したが,1又は2以上の種類からなる値からなる場合であれば,かかる例に限定されない。 As shown in FIG. 25, the value set in one byte from the second byte to the third byte counted from the least significant digit is composed of seven types of values. The bit string corresponding to the 1 byte continues from the 1st bit to the 8th bit in order. The initial setting value is “0”. Note that the values representing the types of rotation or rotation and mirror inversion according to the present embodiment have been described by taking the case of seven types of values as an example, but in the case of consisting of one or more types of values. If there is, it is not limited to such an example.
図25に示すように,1ビット目および2ビット目に“0”または“1”の値が設定されることにより,回転の種類の値を表わしている。例えば,1ビット目に“0”が設定され,2ビット目に“1”が設定された場合,回転の種類の値は,“2”となり,回転角度右180度の回転となる。 As shown in FIG. 25, a value of “0” or “1” is set in the first bit and the second bit to indicate the value of the type of rotation. For example, when “0” is set in the first bit and “1” is set in the second bit, the value of the rotation type is “2”, and the rotation angle is 180 degrees to the right.
次に,3ビット目は,ミラー反転の有無を表わしている。3ビット目に“0”が設定された場合,ミラー反転は“無し”であり,“1”が設定された場合,ミラー反転は“有り”である。 Next, the third bit indicates the presence or absence of mirror inversion. When “0” is set in the third bit, mirror inversion is “none”, and when “1” is set, mirror inversion is “present”.
なお,上記最下位桁から1バイト目まで(水平方向視点位置),および1バイト目から2バイト目まで(垂直方向視点位置)がいずれも“−1”の場合(−1,−1),2バイト目から3バイト目に設定される回転種類の値は,全視点画像に対して有効であるとする。例えば,視点位置が“A1”,“A2”,“A3”からなる3視点の場合で,全視点画像に対して,回転角度右90度およびミラー反転の場合,“回転タグ”の最下位桁から各1バイトごとに“(5,−1,−1)”を設定することにより,一回の設定で,3視点の視点画像全てに対して,回転またはミラー反転することができる。“(−1,−1)”を設定しない場合は,“(5,0,0)”,“(5,0,1)”,および“(5,0,2)”などと,3回の設定が必要となる。 When the least significant digit to the first byte (horizontal viewpoint position) and the first byte to the second byte (vertical viewpoint position) are both “−1” (−1, −1), It is assumed that the rotation type value set from the second byte to the third byte is valid for all viewpoint images. For example, in the case where the viewpoint position is three viewpoints consisting of “A 1 ”, “A 2 ”, and “A 3 ”, and the rotation angle is 90 degrees to the right and the mirror is inverted with respect to all viewpoint images, the “rotation tag” By setting "(5, -1, -1)" for each byte from the least significant digit, it is possible to rotate or mirror invert all three viewpoint images in one setting. . If “(−1, −1)” is not set, “(5, 0, 0)”, “(5, 0, 1)”, “(5, 0, 2)”, etc. Setting is required.
なお,図25に示すように,4ビット目から8ビット目はいずれも“0”が設定されているが,かかる例に限定されず,例えば,4ビット目に各視点画像全体を回転する“全体回転”を示す値を設定する場合などであってもよい。 As shown in FIG. 25, “0” is set for all of the 4th to 8th bits. However, the present invention is not limited to this example. For example, the entire viewpoint image is rotated to the 4th bit. For example, a value indicating “total rotation” may be set.
したがって,各視点画像全てに回転または回転およびミラー反転する場合,画像制御情報生成部133は,効率的に画像制御情報の“回転タグ”のタグのフィールドに値を設定することができる。
Therefore, when rotating or rotating and mirror-inverting all the viewpoint images, the image control
なお,本実施の形態にかかる画像表示処理においては,上記“回転タグ”には,回転角度右90度(回転タグの2バイト目から3バイト目に設定される値“1”。)または回転角度右270度(回転タグの2バイト目から3バイト目に設定される値“3”。)の値が設定される。 In the image display processing according to the present embodiment, the “rotation tag” has a rotation angle of 90 degrees to the right (a value “1” set in the second to third bytes of the rotation tag) or rotation. A value of 270 degrees to the right (a value “3” set in the second to third bytes of the rotation tag) is set.
次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, the combined image data and the image control information are multiplexed by the
次に,コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。
Next, the
コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。
The
画像分離部138は,デコードされた結合画像データをL画像データとR画像データとに分離する。なお,上記分離処理は,後述の切出処理などが例示される。なお,画像分離部138は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識する。
The
次に,図24に示すように,立体視表示部140に表示させるため,画像分離部138は,画像制御情報の“回転タグ”のフィールドの最下位桁から数えて,2バイト目から3バイト目に設定された値(“1”または“3”)から,各視点画像データ(L画像データ,R画像データ)全体を一体として,全体回転角度右90度または右270度に,全体回転する第2回転工程が行われる(S603)。全体回転は,各視点画像データ個別に回転するのではなく,各視点画像データを一組とする第2結合画像データ全体を回転することである。したがって,第1回転工程(S601)前の元の状態となり,図12(b)に示すような,上下に横長のL画像データとR画像データとが重なっていることになる。
Next, as shown in FIG. 24, in order to display on the
上記第2回転工程(S603)が行われると,上記L画像データとR画像データとの組からなる第2結合画像データが,画像分離部138により,画像変換部139に伝送される。
When the second rotation step (S603) is performed, the second combined image data including the set of the L image data and the R image data is transmitted to the
画像変換部139は,上下に並んだ上記第2結合画像データに含まれるL画像データとR画像データとを合成し(S604),立体視画像データを生成する。
The
したがって,立体視表示部140のアスペクトと適応するような比率の立体視画像データが,立体視表示部140に表示される。なお,画像変換部139は,画像制御情報に設定された結合画像タグの値に基づき,結合画像のどちら側が右視点画像であるのかを認識する。
Therefore, stereoscopic image data having a ratio that matches the aspect of the
なお,図16に示すように,立体視画像データを生成後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面220からR画像データとL画像データとを回転または回転およびミラー反転させて,再度,立体視画像データを生成することができる。
As shown in FIG. 16, even after the stereoscopic image data is generated, the R image data and the L image data are rotated or rotated from the
図16に示すように,GUI画面220の「回転」ボタンを,コンピュータ装置150に備わるマウスなどの入力部(図示せず。)により押下し,所定の回転角度またはミラー反転の有無を選択すると,画像分離部138は,画像制御情報の“回転タグ”のフィールドに設定された値を変更する。例えば,“0”(回転角度0度)から,“5”(回転角度右90度およびミラー反転)などに更新する。
As shown in FIG. 16, when a “rotate” button on the
画像分離部138は,変更後の画像制御情報の“回転タグ”のフィールドに設定された値に基づき,第2結合画像データを全体回転する(S603)。
The
画像変換部139は,L画像データおよびR画像データを合成し(S604),立体視画像データを生成することにより,立体視画像データは,立体視表示部140に表示される。
The
したがって,回転角度0度であるにもかかわらず,回転角度右270度として認識され,立体視画像データに変換された場合であっても,適当な立体視画像データを生成することが可能となる。 Therefore, even when the rotation angle is 0 degrees, even when the rotation angle is recognized as 270 degrees right and converted into stereoscopic image data, appropriate stereoscopic image data can be generated. .
また,図26を参照しながら,本実施の形態にかかる立体視画像の画像表示方法の変形例について説明する。図26は,本実施の形態にかかる立体視画像の画像表示処理の変形例の概略を示すフローチャートである。なお,図24を参照しながら,説明した本実施の形態にかかる立体視画像の画像表示方法との差異点について特に詳述する。 A modification of the stereoscopic image display method according to the present embodiment will be described with reference to FIG. FIG. 26 is a flowchart illustrating an outline of a modified example of the image display process of the stereoscopic image according to the present embodiment. The difference from the stereoscopic image display method according to the present embodiment described above will be particularly described in detail with reference to FIG.
まず,予め撮像装置100に,各視点画像データを回転する種類を選択する。選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面等により設定する。
First, a type for rotating each viewpoint image data is selected in advance in the
次に,図26に示すように,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データを,設定された平行配置または交差配置に従い,配置する。
Next, as illustrated in FIG. 26, when the subject is imaged by the
さらに,合成部131により,90度または270度それぞれ同方向に回転する第1回転工程が行われる(S606)。
Further, the
上記第1回転工程(S606)後,合成部131は,L画像データおよびR画像データを一体化し,第1結合画像データを得る。なお,第1結合画像データはL画像データとR画像データとが一体化されている。L画像データとR画像データとのアスペクトは縦長の画像となっている。
After the first rotation step (S606), the
また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,画像制御情報の“回転タグ”のタグのフィールドに,回転およびミラー反転または回転の種類を示す値を設定する。
Further, the image control
なお,本実施の形態にかかる画像表示処理においては,上記“回転タグ”のフィールドには,各視点位置と回転角度右90度(“1”)または回転角度右270度(“3”)の値が設定される。 In the image display processing according to the present embodiment, the field of the “rotation tag” includes each viewpoint position and a rotation angle right of 90 degrees (“1”) or a rotation angle of right 270 degrees (“3”). Value is set.
次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, the combined image data and the image control information are multiplexed by the
また,コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。
Further, the
コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。
The
画像分離部138は,デコードされた上記第1結合画像データをL画像データとR画像データとに分離する。なお,上記分離処理は,後述の切出処理などが例示される。
The
次に,図26に示すように,立体視表示部140の画面を回転角度右90度または右270度に回転する画面回転工程が行われる(S608)。回転前の立体視表示部140には,L画像データとR画像データは左右に縦長に表示された状態であり,回転により,立体視表示部140には,縦長のL画像データとR画像データとが左右に表示された状態となる。
Next, as shown in FIG. 26, a screen rotation process is performed in which the screen of the
上記画面回転工程(S608)が行われると,上記L画像データとR画像データとが,画像分離部138により,画像変換部139に伝送される。
When the screen rotation step (S608) is performed, the L image data and the R image data are transmitted to the
画像変換部139は,左右に並んだ縦長のL画像データとR画像データとを合成し(S610),立体視画像データを生成する。
The
したがって,立体視表示部140の縦長画面のアスペクトと適応するような比率の縦長の立体視画像データが,立体視表示部140に表示される。なお,立体視表示部140は,4枚ミラーなどのアダプタを装着したプロジェクタなどの場合でもよい。
Accordingly, the stereoscopic image data having a ratio that matches the aspect of the vertically long screen of the
なお,本実施の形態にかかる視点画像の回転は2視点である場合を例に挙げて説明したが,かかる例に限定されず,複数の視点である場合であっても実施可能である。 Note that the rotation of the viewpoint image according to the present embodiment has been described by taking the case of two viewpoints as an example, but is not limited to such an example, and can be performed even when there are a plurality of viewpoints.
したがって,立体視表示部140は,立体視表示部140の画面を90度または270度回転するだけで,R画像データとL画像データとを合成することで,横長ワイドの立体視画像を表示することができる。
Therefore, the
(アダプタ型番情報)
次に,本実施の形態にかかるアダプタ型番情報について説明する。本実施の形態にかかるアダプタ型番情報は,光学アダプタ105の型番のみならず,光学アダプタ105の光学情報などを識別するための情報であり,アダプタ情報などが該当する。なお,アダプタ型番情報は,例えば,複数存在する画像制御情報のタグのうち,“使用者データ領域タグ”等のタグのフィールドに記録される。
(Adapter model number information)
Next, adapter model number information according to the present embodiment will be described. The adapter model number information according to the present embodiment is information for identifying not only the model number of the
図2に示すように,光学アダプタ105は,例えば,ミラー121およびミラー122を備える2枚ミラーのアダプタを例示することができる。矢印“右”方向の視点から入射される光は,ミラー121およびミラー122によって反射され,R画像として視差画像が生成される。
As shown in FIG. 2, the
また,図2に示す,矢印“左”方向の視点から入射される光は,ミラー121およびミラー122によって反射されず,そのままスルーし,L画像として視差画像が生成される。 Also, the light incident from the viewpoint in the direction of the arrow “left” shown in FIG. 2 is not reflected by the mirror 121 and the mirror 122 but passes through as it is, and a parallax image is generated as an L image.
ミラー121およびミラー122によって反射されて生成されるR画像は,L画像と比較して,例えば,画質(輝度,彩度,解像度等)が劣化している。また,R画像の周辺部(上辺部,下辺部,および左辺部)は,中心部に比較して輝度が低下している。また,R画像は,本来,矩形である画像が台形に歪んだものとなる。 The R image generated by being reflected by the mirror 121 and the mirror 122 has deteriorated image quality (luminance, saturation, resolution, etc.), for example, as compared with the L image. In addition, the luminance of the peripheral part (upper side part, lower side part, and left side part) of the R image is lower than that of the central part. Also, the R image is a rectangular image that is distorted into a trapezoid.
上記輝度,彩度,解像度,または台形の歪みは,光学アダプタ105固有であるため,立体視画像に変換する際に,R画像を補正するための補正量は予め決まっている。
Since the luminance, saturation, resolution, or trapezoidal distortion is unique to the
したがって,コンピュータ装置150は,光学情報として輝度,彩度,解像度,または台形の歪みなどの補正情報を,各光学アダプタ105のアダプタ型番情報と一対一対応するように,記憶部(図示せず)記憶することで,適正な立体視画像に変換することができる。なお,上記補正情報は,光学アダプタ105ごとに補正内容を示す補正内容情報として記憶される。補正内容情報については,後述する。
Accordingly, the
また,本実施の形態にかかる光学アダプタ105は,ミラー121およびミラー122を備えた2枚ミラーアダプタであるが,かかる例に限定されず,図28に示すように,4枚ミラーアダプタ,山形プリズムアダプタ,アナモルフィックレンズアダプタ,バリアングルプリズムアダプタ(VAPアダプタ)などを例示することができる。
The
本実施の形態にかかるアダプタ型番情報は,光学アダプタ105の種類等に応じて異なる。以下,図28を参照しながら,2枚ミラーアダプタ以外の光学アダプタ105について説明する。
The adapter model number information according to the present embodiment varies depending on the type of the
図28(a)に示す光学アダプタ105−1は,ミラー551−1,ミラー551−2,ミラー551−3,およびミラー551−4を備える4枚ミラーアダプタである。 An optical adapter 105-1 shown in FIG. 28A is a four-mirror adapter including mirrors 551-1, mirror 551-2, mirror 551-3, and mirror 551-4.
上記光学アダプタ105−1を撮像装置100に備えることで,1回の撮影(シャッター)で2視点からなる視点画像を撮ることができる。例えば,左眼用のL画像と,右眼用のR画像などのように,一度に2視点画像を撮ることができる。
By providing the optical adapter 105-1 in the
なお,本実施の形態にかかる光学アダプタ105−1は,上記説明したミラー121およびミラー122を備えた2枚ミラーアダプタの場合と同様に,台形歪み等が発生する。 In the optical adapter 105-1 according to the present embodiment, trapezoidal distortion or the like occurs as in the case of the two-mirror adapter provided with the mirror 121 and the mirror 122 described above.
したがって,例えば,左眼用および右眼用の視点画像から立体視画像に変換する際には,予め視点画像の台形歪みを無くす等の補正を行ってから立体視画像に変換する必要がある。なお,上記台形歪み等の補正量は光学アダプタ105−1固有である。 Therefore, for example, when converting from left-eye and right-eye viewpoint images to stereoscopic images, it is necessary to perform correction such as eliminating the trapezoidal distortion of the viewpoint images in advance and then convert to stereoscopic images. Note that the correction amount for the trapezoidal distortion is unique to the optical adapter 105-1.
なお,上記光学アダプタ105−1に関する補正は,光学アダプタ105ごとに補正の内容を示す補正内容情報として記憶される。補正内容情報については,後述する。
The correction relating to the optical adapter 105-1 is stored as correction content information indicating the correction content for each
次に,図28(b)に示す光学アダプタ105−2は,山形プリズムアダプタである。上記山形プリズムアダプタからなる光学アダプタ105−2を撮像装置100に備えることで,4枚ミラーアダプタ等と同様に,1回の撮影(シャッター)で,例えば2視点画像等を撮ることができる。
Next, the optical adapter 105-2 shown in FIG. 28B is a chevron prism adapter. By providing the
なお,本実施の形態にかかる光学アダプタ105−2は,1つの山形プリズムアダプタから構成される場合を例に挙げて説明するが,かかる例に限定されず,例えば,光学アダプタ105−2は,複数の山形プリズムアダプタから構成される場合であっても実施可能である。 The optical adapter 105-2 according to the present embodiment will be described by taking as an example a case where it is composed of one angle prism adapter, but is not limited to such an example. Even if it is comprised from a several angle prism adapter, it can implement.
なお,本実施の形態にかかる光学アダプタ105−2は,上記説明した2枚ミラーアダプタ,4枚ミラーアダプタの場合と同様に,台形歪み,色収差等が発生する。 In the optical adapter 105-2 according to the present embodiment, trapezoidal distortion, chromatic aberration, and the like are generated as in the case of the two-mirror adapter and the four-mirror adapter described above.
したがって,例えば,左眼用および右眼用の視点画像から立体視画像に変換する際には,予め視点画像の台形歪みを除く補正,及び色収差等の補正を行ってから立体視画像に変換する必要がある。なお,上記台形歪み及び色収差等の補正量は光学アダプタ105−2固有である。また,本実施の形態にかかる色収差の補正については,例えば,色が滲んでいる個所については黒く塗りつぶすなどの補正を例示することができる。 Therefore, for example, when converting the left-eye and right-eye viewpoint images into stereoscopic images, the viewpoint images are corrected in advance to eliminate trapezoidal distortion and chromatic aberration, and then converted into stereoscopic images. There is a need. It should be noted that the correction amount of the trapezoidal distortion and chromatic aberration is unique to the optical adapter 105-2. Further, with regard to correction of chromatic aberration according to the present embodiment, for example, correction of blackening a portion where a color is blurred can be exemplified.
上記光学アダプタ105−2に関する補正は,光学アダプタ105ごとに補正の内容を示す補正内容情報として記憶される。補正内容情報については,後述する。
The correction relating to the optical adapter 105-2 is stored as correction content information indicating the correction content for each
図28(c)に示す光学アダプタ105−3は,ミラー(図示せず。)およびアナモルフィックレンズを備えるアナモルフィックレンズアダプタである。なお,上記アナモルフィックレンズは,縦横の2方向にそれぞれ焦点距離の異なる光軸を持つレンズであり,光学的に画像の縦横比率(アスペクト比)を変倍することができる。 An optical adapter 105-3 shown in FIG. 28C is an anamorphic lens adapter including a mirror (not shown) and an anamorphic lens. The anamorphic lens is a lens having optical axes with different focal lengths in two vertical and horizontal directions, and can optically change the aspect ratio of the image.
したがって,上記光学アダプタ105−3には,上記アナモルフィックレンズと,ミラー(図示せず。)から構成されているため,光学アダプタ105−3を撮像装置100に備えることで,1回の撮影(シャッター)で,例えば2視点からなるアスペクト比が変倍された視点画像を撮ることができる。
Therefore, since the optical adapter 105-3 includes the anamorphic lens and a mirror (not shown), the optical adapter 105-3 is provided in the
なお,本実施の形態にかかるアスペクト比の変倍は,例えば,3:4を9対16に変倍するが,かかる例に限定されず,倍率が2倍程度弱であれば,その他いかなる倍率であってもアスペクト比を変倍することは実施可能である。 The aspect ratio scaling according to the present embodiment is, for example, from 3: 4 to 9:16, but is not limited to this example, and any other magnification is acceptable as long as the magnification is less than about 2 times. Even so, it is possible to change the aspect ratio.
なお,本実施の形態にかかる光学アダプタ105−3は,上記説明したミラー2枚ミラーアダプタ,4枚ミラーアダプタ等の場合と同様に,台形歪み等が発生する。 In the optical adapter 105-3 according to the present embodiment, trapezoidal distortion or the like occurs as in the case of the above-described two-mirror mirror adapter, four-mirror adapter, or the like.
したがって,例えば,左眼用および右眼用の視点画像から立体視画像に変換する際には,予め視点画像の台形歪み等の補正を行ってから立体視画像に変換する必要がある。なお,上記台形歪み等の補正量は光学アダプタ105−3固有である。 Therefore, for example, when converting the left-eye and right-eye viewpoint images into stereoscopic images, it is necessary to correct the viewpoint images in advance, such as trapezoidal distortion, before converting them into stereoscopic images. Note that the correction amount of the trapezoidal distortion and the like is unique to the optical adapter 105-3.
また,左眼用および右眼用の視点画像のアスペクト比が変倍されているため,必要に応じて,上記2視点画像から立体視画像に変換する際に,上記アスペクト比を補正する必要がある。なお,上記アスペクト比の変倍は,アナモルフィックレンズごとに予め固有のものである。 In addition, since the aspect ratios of the left-eye and right-eye viewpoint images are scaled, it is necessary to correct the aspect ratio when converting from the two-viewpoint images to the stereoscopic images as necessary. is there. Note that the change in aspect ratio is specific to each anamorphic lens.
なお,上記光学アダプタ105−3に関する補正は,光学アダプタ105のアダプタ型番ごとに補正の内容を示す補正内容情報として記憶される。補正内容情報については,後述する。
The correction related to the optical adapter 105-3 is stored as correction content information indicating the correction content for each adapter model number of the
次に,本実施の形態にかかるアダプタ型番情報の設定方法について説明する。 Next, a method for setting adapter model number information according to the present embodiment will be described.
まず,予め装置撮像装置100に装着するアダプタ型番の種類を選択する。アダプタ型番を選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面221により設定する。
First, the type of adapter model number to be attached to the
図27に示すように,GUI画面221には,“1番”〜“6番”からなる各アダプタ型番名と,アダプタ型番を選択するためのアダプタ選択部223と,「選択」ボタンとが表示される。
As shown in FIG. 27, on the
なお,図27に示す“1番”のアダプタ型番は,“MONY FS_Adaptor 1.0”であり,上記“1番”のアダプタは,4枚ミラーアダプタである。また,“2番”のアダプタ型番は,“MONY FS_Adaptor 2.0”であり,上記“1番”のアダプタは,山形プリズムアダプタである。 The adapter model number “No. 1” shown in FIG. 27 is “MONY FS_Adaptor 1.0”, and the “No. 1” adapter is a four-mirror adapter. The adapter number of “No. 2” is “MONY FS_Adaptor 2.0”, and the “No. 1” adapter is an angle prism adapter.
さらに,図27に示す“3番”のアダプタ型番は,“MONY FS_Adaptor 3.0”であり,上記“3番”のアダプタは,2枚ミラーアダプタである。“4番”のアダプタ型番は,“MONY FS_Adaptor 4.0”であり,上記“4番”のアダプタは,4枚ミラーとアナモルフィックレンズとが備わるアダプタである。 Further, the adapter model number “No. 3” shown in FIG. 27 is “MONY FS_Adaptor 3.0”, and the “No. 3” adapter is a two-mirror adapter. The adapter model number “No. 4” is “MONY FS_Adaptor 4.0”, and the “No. 4” adapter is an adapter provided with a four-mirror and an anamorphic lens.
“5番”のアダプタ型番は,“MONY FS_Adaptor 5.0”であり,上記“5番”のアダプタは,山形プリズムとアナモルフィックレンズとが備わるアダプタである。 The adapter model number of “No. 5” is “MONY FS_Adaptor 5.0”, and the “No. 5” adapter is an adapter provided with an angle prism and an anamorphic lens.
“6番”のアダプタ型番は,“MONY FS_Adaptor 6.0”であり,上記“6番”のアダプタは,2枚ミラーとアナモルフィックレンズとが備わるアダプタである。 The adapter number of “No. 6” is “MONY FS_Adaptor 6.0”, and the “No. 6” adapter is an adapter provided with two mirrors and an anamorphic lens.
次に,表示されたアダプタ型番名の中から,ジョグダイヤルなどの入力部により,撮像装置100に装着された光学アダプタ105のアダプタ型番が選択されると,アダプタ選択部223は,上記選択されたアダプタ型番が設定されたアダプタ型番情報を生成する。なお,上記アダプタ型番情報は,撮像装置100の記憶部(図示せず。)等に一時的に記憶される。
Next, when the adapter model number of the
次に,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を合成し,結合画像データを生成する。
Next, when the subject is imaged by the
また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,一時記憶された上記アダプタ型番情報を,画像制御情報の“使用者データ領域タグ”のタグのフィールドに設定する。
Further, the image control
なお,画像制御情報生成部133は,上記“使用者データ領域タグ”のタグのフィールドに,上記アダプタ型番情報を設定する前に,“使用者データ領域サイズタグ”のタグのフィールドに,上記アダプタ型番情報のデータサイズ(バイト長)等を設定する。
The image control
図27に示す“2番”のアダプタ型番名が選択された場合,アダプタ型番情報には,“MONY FS_Adaptor 1.0”が設定されている。上記アダプタ型番情報が,“使用者データ領域タグ”のタグのフィールドに設定される。 When the adapter model name “No. 2” shown in FIG. 27 is selected, “MONY FS_Adaptor 1.0” is set in the adapter model number information. The adapter model number information is set in the tag field of “user data area tag”.
なお,上記“使用者データ領域タグ”のタグのフィールドにアダプタ型番情報を設定する場合,予めアダプタ型番情報の設定の有無を示す“使用者データ領域サイズタグ”等のタグのフィールドに,例えば,設定する旨を示す“1”が格納される。設定しない場合,“0”が格納される。 When the adapter model number information is set in the tag field of the “user data area tag”, the tag field such as “user data area size tag” indicating the presence / absence of setting of the adapter model number information in advance, for example, “1” indicating the setting is stored. If not set, “0” is stored.
次に,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, the combined image data and the image control information are multiplexed by the
コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。
The
画像分離部138は,画像制御情報の“使用者データ領域タグ”のフィールドに設定されたアダプタ型番情報を取得し,上記アダプタ型番情報に基づき,記憶部(図示せず。)から上記アダプタ型番情報と一意的に定まる補正内容情報(図示せず。)を取得する。
The
上記補正内容情報は,アダプタ型番ごとに行われる補正内容が指示されている情報である。例えば,アダプタ型番が“MONY FS_Adaptor 1.0”である場合の補正内容情報は,台形歪みを除去する補正,R画像データの輝度のレベルを所定レベル下げる補正,およびR画像データの彩度のレベルを所定レベル上げる補正等である。上記補正内容情報は,アダプタ型番ごとに固有の情報である。 The correction content information is information indicating the content of correction performed for each adapter model number. For example, when the adapter model number is “MONY FS_Adaptor 1.0”, correction content information includes correction for removing trapezoidal distortion, correction for lowering the brightness level of R image data by a predetermined level, and saturation level of R image data. For example, correction for raising the level to a predetermined level. The correction content information is information unique to each adapter model number.
画像分離部138は,補正内容情報に基づき,デコードされた結合画像データの各視点画像データ(L画像データまたはR画像データ)を補正する。なお,アダプタ型番に係る補正内容情報が存在しない場合,何も補正せずに,画像変換部139に伝送する。なお,画像分離部138,画像変換部139は,画像制御情報のうち結合画像タグに設定された値に基づき,結合画像の右視点画像がどちらであるかを認識している。
The
画像分離部138から伝送されたR画像データおよびL画像データは,画像変換部139により,立体視画像データに変換される。
The R image data and the L image data transmitted from the
なお,補正内容情報に基づき補正された立体視画像データが生成された後であっても,コンピュータ装置150の立体視表示部140に表示されるGUI画面(図示せず。)を介して,R画像データまたはL画像データを補正し,再度,立体視画像データを生成することも実施可能である。
Even after the stereoscopic image data corrected based on the correction content information is generated, the R is displayed via a GUI screen (not shown) displayed on the
(ペイント画像データ,階層情報)
次に,本実施の形態にかかるペイント画像データおよび階層情報について説明する。本実施の形態にかかるペイント画像データは,例えば,文字,図形,記号,またはフレームなどから構成される静止画像データである。
(Paint image data, hierarchical information)
Next, the paint image data and hierarchy information according to this embodiment will be described. The paint image data according to the present embodiment is still image data including, for example, characters, figures, symbols, or frames.
上記ペイント画像データがフレーム画像である場合,当該フレーム画像データは,例えば,視点画像の縁部,または視点画像の枠(フレーム)周辺の画像などを示す。 When the paint image data is a frame image, the frame image data indicates, for example, an edge of the viewpoint image or an image around a frame (frame) of the viewpoint image.
なお,本実施の形態にかかるペイント画像データのうち,文字,図形,記号,またはフレームなどから構成される静止画像データは,平面表示である2D画像または立体表示である3D画像のどちらの場合でもよい。 Note that, among the paint image data according to the present embodiment, still image data composed of characters, figures, symbols, frames, or the like is either a 2D image that is a flat display or a 3D image that is a stereoscopic display. Good.
また,本実施の形態にかかるペイント画像データは,静止画像データである場合を例に挙げて説明したが,かかる例に限定されず,例えば,ペイント画像データは,アニメーション等の動画像データである場合でも実施可能である。 In addition, the case where the paint image data according to the present embodiment is still image data has been described as an example. However, the present invention is not limited to this example. For example, the paint image data is moving image data such as animation. Even if it is possible.
本実施の形態にかかる階層情報は,文字,図形,記号,またはフレームなどの上記ペイント画像ごとに設定することが可能である。また,視点画像全体に対して階層情報を設定することも可能である。 The hierarchical information according to the present embodiment can be set for each paint image such as a character, a figure, a symbol, or a frame. It is also possible to set hierarchical information for the entire viewpoint image.
ペイント画像データを立体視画像データに重畳させる場合,まず,画像制御情報の“データ構成種別タグ”のタグのフィールドに,ペイント画像データが存在する旨の値を設定する必要がある。 When superimposing the paint image data on the stereoscopic image data, first, it is necessary to set a value indicating that the paint image data exists in the tag field of the “data configuration type tag” of the image control information.
“データ構成種別タグ”は,撮像装置100の合成部131が生成するデータ種別を示す。データの種別毎に,立体視画像ファイル内部にデータが存在するか否かを示す。データ種別は,例えば,視差画像データ(結合画像データ),またはペイント画像データ等が存在する。なお,立体視画像ファイル外部にリンクするようにしてペイント画像データが存在する場合であってもよい。
The “data configuration type tag” indicates a data type generated by the combining
“データ構成種別タグ”のタグのフィールドは,1バイトであり,上記1バイト(8ビット)のうち,最下位ビット(bit0)は,視差画像データまたは結合画像データの存在の有無を示す。 The tag field of “data structure type tag” is 1 byte, and the least significant bit (bit 0) of the 1 byte (8 bits) indicates the presence / absence of parallax image data or combined image data.
上記最下位ビットに,“0”が設定された場合,視差画像データまたは結合画像データは存在しない。“1”が設定された場合,視差画像データまたは結合画像データは存在する。 When “0” is set in the least significant bit, there is no parallax image data or combined image data. When “1” is set, parallax image data or combined image data exists.
次に,上記最下位ビットの次桁のビット(bit1)は,ペイント画像データの存在の有無を示す。上記bit1に,“0”が設定された場合,ペイント画像データは存在しない。“1”が設定された場合,ペイント画像データは存在する。
Next, the bit (bit1) next to the least significant bit indicates whether paint image data exists. When “0” is set in the
なお,上記1バイトのうち残りの6ビットは,予約ビットであり,データ種別が追加された場合,必要に応じて,値が設定される。追加されない場合,初期値の“0”が各ビット(bit2〜bit7)に設定されている。 The remaining 6 bits of the 1 byte are reserved bits, and values are set as necessary when a data type is added. When not added, the initial value “0” is set in each bit (bit 2 to bit 7).
また,本実施の形態にかかるbit2〜bit7は,予約ビットである場合を例に挙げて説明したが,かかる例に限定されず,例えば,bit2にはペイント画像データのうち2Dの文字の有無を示す値が設定され,bit3には3Dの文字の有無を示す値が設定され,bit4には2Dの図形の有無を示す値が設定され,bit5には3Dの図形の有無を示す値が設定され,bit6には2Dの枠の有無を示す値が設定され,bit7には3Dの枠の有無を示す値が設定される等の場合であってもよい。 Further, although the case where bit2 to bit7 according to the present embodiment are reserved bits has been described as an example, the present invention is not limited to this example. For example, bit2 indicates whether or not 2D characters are included in the paint image data. A value indicating the presence or absence of a 3D character is set in bit3, a value indicating the presence or absence of a 2D figure is set in bit4, and a value indicating the presence or absence of a 3D figure is set in bit5 , Bit6 may be set to a value indicating the presence or absence of a 2D frame, and bit7 may be set to a value indicating the presence or absence of a 3D frame.
また,ペイント画像データは,画像の奥行きを示す階層情報を付属している。なお,ペイントデータの階層情報を、ペイントデータの左右方向オフセット値として管理することも可能である。上記階層情報は,複数のペイント画像データが存在する場合,例えば,ペイント画像データの重なり具合を相対的に管理する等の情報である。 In addition, the paint image data is attached with hierarchical information indicating the depth of the image. It is also possible to manage the hierarchy information of the paint data as the left-right direction offset value of the paint data. The hierarchical information is information such as relatively managing the degree of overlap of paint image data when there are a plurality of paint image data.
階層情報は,レベル1,レベル2,レベル3,…とレベルが増加するにつれて階層が下になる。レベル1の階層が一番上の階層となる。したがって,レベル1の階層情報は,レベル2の階層情報よりも階層が上となる。
In the hierarchy information, the hierarchy becomes lower as the level increases, such as
例えば,階層情報がレベル1の“A”の文字からなるペイント画像データと,階層情報がレベル2の“B”の文字からなるペイント画像データが重なり合う場合,“A”のペイント画像データの階層情報の方が,階層が上のため,“A”および“B”の重なり合う部分は,“A”のペイント画像データが表示される。
For example, if the paint image data composed of the characters “A” of the
また,図16に示すように,GUI画面220に表示される「ペイント入力」ボタンが押下されると,上記ペイント画像データを生成し,ペイント画像224,ペイント画像225,またはメインエリア222に表示される立体視画像のフレームのペイント画像(“☆”等のような星印でハッチングされたフレーム。)等を表示することができる。
Also, as shown in FIG. 16, when the “paint input” button displayed on the
メインエリア222には,メインエリア222に表示されている立体視画像に重畳して,任意の文字または記号等からなるペイント画像が表示される。「ペイント入力」ボタンの押下され,適当な文字または記号等が指定されると,指定された文字等のペイント画像が,立体的に視認されるように立体視画像に重畳される。
In the
したがって,図29に示すように,「ペイント入力」ボタンが押下されると,画像変換部139は,ペイント画像データを生成し,立体視画像データにペイント画像データを嵌め込む嵌込工程が行われる(S612)。なお,メインエリア222に表示されるペイント画像は,マウスのドラッグ・アンド・ドロップ等により,任意の位置に移動することができる。図29は,本実施の形態にかかる画像処理方法の概略を示すフローチャートである。
Therefore, as shown in FIG. 29, when the “paint input” button is pressed, the
また,ペイント画像224−1の階層は,ペイント画像224−2の階層よりも下であるため,重なり合う部分は,ペイント画像224−2が表示されている。上記ペイント画像224−1をマウスのクリック等で選択し,GUI画面220に表示された「近く」ボタンを押下することにより,ペイント画像224−1の階層情報に設定されたレベルが上がる。
Further, since the hierarchy of the paint image 224-1 is lower than the hierarchy of the paint image 224-2, the paint image 224-2 is displayed in the overlapping portion. The level set in the hierarchical information of the paint image 224-1 is raised by selecting the paint image 224-1 by clicking the mouse and pressing the “near” button displayed on the
ペイント画像224−1の階層のレベルが上がると,ペイント画像224−2との重なり部分は,ペイント画像224−1が表示される。また,ペイント画像224−1が選択された状態で,「近く」ボタンが押下されると,ペイント画像224−1が,遠近感が近づく画像になる。なお,階層情報の階層のレベルを下げ,ペイント画像224を立体視したときの遠近感を遠ざける場合には,「遠く」ボタン143が,押下される。
When the level of the hierarchy of the paint image 224-1 is increased, the paint image 224-1 is displayed at the overlapping portion with the paint image 224-2. Further, when the “near” button is pressed in a state where the paint image 224-1 is selected, the paint image 224-1 becomes an image in which the sense of perspective approaches. It should be noted that the “far”
さらに,右眼用の視点画像および左眼用の視点画像におけるオブジェクトの配置と,上記階層情報とを関連付けることで,図16に示すように,立体視画像のオブジェクトの配置に関連付けられた階層情報に応じて,吹き出しのようにペイント画像225を,インデックスとして表示することもできる。 Furthermore, as shown in FIG. 16, the hierarchical information associated with the arrangement of the objects in the stereoscopic image is obtained by associating the arrangement of the objects in the viewpoint image for the right eye and the viewpoint image for the left eye with the hierarchical information. Accordingly, the paint image 225 can be displayed as an index like a balloon.
上記ペイント画像225は,ポップアップ形式に立体視画像におけるオブジェクトを指し示すペイント画像データである。例えば,図16に示すペイント画像225−1には,オブジェクト“やしの木”の文字等のインデックスが表示され,ペイントインデックス画像225−2には,オブジェクト“ヨット”の文字等のインデックスが立体的に飛び出すように表示される。 The paint image 225 is paint image data indicating an object in the stereoscopic image in a pop-up format. For example, the paint image 225-1 shown in FIG. 16 displays an index such as characters of the object “palm tree”, and the paint index image 225-2 includes an index such as characters of the object “yacht” in three dimensions. Appear to jump out.
上記ペイント画像225は,立体視画像における適当なオブジェクトを,入力部によりクリックすることで,オブジェクトを選択すると,ペイント画像225が,表示される。なお,ペイント画像225の立体的に飛び出す具合は,表示されるペイント画像225に付属する階層情報に基づいて,表示される。 The paint image 225 is displayed when the object is selected by clicking an appropriate object in the stereoscopic image with the input unit. Note that the degree of three-dimensional pop-up of the paint image 225 is displayed based on the hierarchical information attached to the displayed paint image 225.
ここで,上記ペイント画像225に付属する階層情報に階層のレベルが設定されていない場合,上記説明のように,“近く”ボタンまたは“遠く”ボタンをクリックなどにより選択することで,適当な階層のレベルが階層情報に設定される。 Here, when the level of the hierarchy is not set in the hierarchy information attached to the paint image 225, an appropriate hierarchy can be selected by clicking the “near” button or the “far” button as described above. Level is set in the hierarchy information.
なお,本実施の形態にかかる階層情報の設定は,L画像とR画像の視点画像における対応点での色差等に基づき算出される値から,階層のレベルを設定してもよい。 In the setting of the hierarchy information according to the present embodiment, the level of the hierarchy may be set from a value calculated based on a color difference at corresponding points in the viewpoint images of the L image and the R image.
また,ペイント画像225の枠内には“やしの木”などの文字が入力,または“やしの木”の図形などが貼り付けられる。なお,予めオブジェクトに対応する文字または図形などがオブジェクトテーブル(図示せず。)等に定義することで,オブジェクトをクリックするだけで,自動的にペイント画像225の枠内にオブジェクトテーブルで対応付けられた文字又は図形などが設定される場合でもよい。なお,オブジェクトテーブルは,撮像装置100またはコンピュータ装置150に備わる記憶部(図示せず。)等に記憶される。
In the frame of the paint image 225, characters such as “palm tree” are input, or a figure such as “palm tree” is pasted. Note that characters or graphics corresponding to the object are defined in advance in an object table (not shown) or the like, and can be automatically associated with the frame of the paint image 225 in the object table simply by clicking the object. It may be the case that a character or a figure is set. The object table is stored in a storage unit (not shown) provided in the
なお,本実施の形態にかかるペイント画像225には,“ヨット”または“やしの木”などの文字が表示される場合を,例に挙げて説明したが,かかる例に限定されず,例えば,ペイント画像225には,“ヨット”または“やしの木”などの図形が表示される場合であっても実施可能である。 Although the case where characters such as “yacht” or “palm tree” are displayed in the paint image 225 according to the present embodiment has been described as an example, the present invention is not limited to this example. The paint image 225 can be implemented even when a graphic such as “yacht” or “palm tree” is displayed.
また,上記ペイント画像225−1とペイント画像225−2は,オブジェクトの配置に関連付けられた階層情報に応じて,ペイント画像225が立体的に飛び出す度合いが異なる。 Further, the paint image 225-1 and the paint image 225-2 differ in the degree to which the paint image 225 projects three-dimensionally according to the hierarchical information associated with the object arrangement.
ペイント画像225−1のオブジェクトは,“やしの木”で,ペイントインデックス画像225−2のオブジェクトは,“ヨット”のため,立体視画像における双方のオブジェクトの配置関係では,上記“やしの木”のオブジェクトの方が手前に位置している。 Since the object of the paint image 225-1 is “palm tree” and the object of the paint index image 225-2 is “yacht”, in the arrangement relationship of both objects in the stereoscopic image, the above “palm tree” The “tree” object is in front.
つまり,上記“やしの木”のオブジェクトに対応するペイント画像225−1の階層情報の方が,“ヨット”のオブジェクトに対応するペイント画像225−2の階層情報ようりも,レベルが低く,階層は上である。 In other words, the level of the hierarchical information of the paint image 225-1 corresponding to the “palm tree” object is lower than the level of the hierarchical information of the paint image 225-2 corresponding to the “yacht” object. The hierarchy is up.
したがって,上記“やしの木”にかかるペイント画像225−1の方が,上記“ヨット”にかかるペイント画像225−2よりも手前に立体的に飛び出すように(飛び出す度合いが高い。),表示される。なお,かかる例に限定されず,ペイント画像225は,平面的に表示される場合であってもよい。平面的に表示する際,階層情報における階層が上である程ペイント画像225の表示を大きくする場合等でもよい。 Therefore, the display is such that the paint image 225-1 on the “palm tree” pops out in front of the paint image 225-2 on the “yacht” (the degree of popping out is higher). Is done. Note that the present invention is not limited to this example, and the paint image 225 may be displayed in a planar manner. When displaying in a plane, the display of the paint image 225 may be enlarged as the hierarchy in the hierarchy information is higher.
遠くに配置されたオブジェクトについては遠くに,近くに配置されたオブジェクトについては近くに,階層情報に応じてペイント画像225が表示されることで,オブジェクトとペイント画像225の対応関係の認識を一層深め,立体視画像に構成されるオブジェクトの視認性が高まる。 The paint image 225 is displayed according to the hierarchical information, and the recognition of the correspondence between the object and the paint image 225 is further deepened by displaying the paint image 225 according to the hierarchical information. , Visibility of an object configured in a stereoscopic image is increased.
また,ペイント画像225が平面的な2D画像の場合よりも,3D画像の方が,表示可能な領域が3次元と広く,画像が立体的に表示されるため,視認性が高まる。 In addition, since the 3D image has a wider displayable area in three dimensions and the image is displayed three-dimensionally than the case where the paint image 225 is a planar 2D image, visibility is improved.
また,本実施の形態にかかる立体視画像内のオブジェクトに対応付けられた階層情報に基づき,ペイント画像225の立体的な飛び出し度合いが定まる場合を例に挙げて説明したが,かかる例に限定されず,上記階層情報に基づき,3D音声などのように,音源の3次元の奥行きが定まる場合であっても実施可能である。 In addition, the case where the stereoscopic pop-up degree of the paint image 225 is determined based on the hierarchical information associated with the object in the stereoscopic image according to the present embodiment has been described as an example, but is limited to this example. However, the present invention can be implemented even when the three-dimensional depth of the sound source is determined based on the hierarchical information, such as 3D sound.
したがって,オブジェクトを入力部によるクリック等で選択すると,上記オブジェクトと対応するペイント画像225に付属する階層情報に基づき,オブジェクトの3次元における位置が定まり,オブジェクトの位置する方向から臨場感のある音声が発生する。なお,音声は立体視表示部140に備わるスピーカーを介して出力される。
Therefore, when an object is selected by clicking or the like using the input unit, the three-dimensional position of the object is determined based on the hierarchical information attached to the paint image 225 corresponding to the object. appear. Note that the sound is output via a speaker provided in the
(視点画像データの切出し)
次に,本実施の形態にかかる視点画像データの切出について説明する。本実施の形態にかかる視点画像データの切出には,(1)切出画像領域の設定による切出と,(2)有効領域の設定による切出とが存在する。
(Cut out viewpoint image data)
Next, extraction of viewpoint image data according to the present embodiment will be described. Cutting out viewpoint image data according to the present embodiment includes (1) cutting out by setting a cutting image area and (2) cutting out by setting an effective area.
(切出画像領域)
上記(1)切出画像領域の大きさ,位置,オフセット値などは,上記説明の画像制御情報の“CropSizeX”,“CropSizeY”,“CropOffsetX”,および“CropOffsetY”のタグのフィールドに格納される。
(Cut image area)
(1) The size, position, offset value, and the like of the cut-out image area are stored in the “CropSizeX”, “CropSizeY”, “CropOffsetX”, and “CropOffsetY” tag fields of the image control information described above. .
“CropSizeX”及び“CropSizeY”のタグは,切出画像領域のサイズ(水平方向(X),垂直方向(Y))を示す。“CropOffsetX”及び“CropOffsetY”のタグは,各切出画像領域のオフセット(水平方向(X),垂直方向(Y))を示す。 The tags “CropSizeX” and “CropSizeY” indicate the size (horizontal direction (X), vertical direction (Y)) of the clipped image area. The tags “CropOffsetX” and “CropOffsetY” indicate the offset (horizontal direction (X), vertical direction (Y)) of each clipped image area.
図30に示すように,“CropSizeX”及び“CropSizeY”のタグのバイト長は,それぞれ4バイトであり,CropOffsetX”及び“CropOffsetY”のタグのバイト長は,それぞれ6バイトである。 As shown in FIG. 30, the byte lengths of the “CropSizeX” and “CropSizeY” tags are 4 bytes, respectively, and the byte lengths of the “CropOffsetX” and “CropOffsetY” tags are each 6 bytes.
また,“CropSizeX”,“CropSizeY”のフィールドに設定可能な領域サイズは,1〜4294967295(dot)である。また,“CropOffsetX”,“CropOffsetY”のタグのフィールドに設定される値は,上記フィールドのうち最下位桁の1バイト目には,水平方向の視点位置のX座標が設定され,2バイト目には,垂直方向の視点位置のY座標が設定され,3バイト目〜6バイト目には,オフセットの値が設定される。なお,“CropOffsetY”には各視点画像の垂直方向のずれの補正量を含めるが,ずれの補正量が不明の場合には,上記オフセットの値は“0”となる。 The area size that can be set in the fields “CropSizeX” and “CropSizeY” is 1 to 4294967295 (dot). In addition, the value set in the “CropOffsetX” and “CropOffsetY” tag fields is set to the X coordinate of the horizontal viewpoint position in the first byte of the least significant digit in the above field, and in the second byte. The Y coordinate of the viewpoint position in the vertical direction is set, and the offset value is set in the third to sixth bytes. Note that “CropOffsetY” includes the correction amount of the vertical shift of each viewpoint image. If the correction amount of shift is unknown, the offset value is “0”.
上記切出画像領域の設定により,撮像装置100の撮像により生成される各視点の視点画像データのうち,立体視画像として表示する個所を指定することを可能とする。視点画像から立体視画像として表示する個所を指定することを,画像の切出し,とする。指定された切出の領域を切出画像領域とする。
By setting the cut-out image area, it is possible to designate a portion to be displayed as a stereoscopic image among the viewpoint image data of each viewpoint generated by the imaging of the
なお,本実施の形態にかかる切出画像領域を除く,それ以外の結合画像領域については,例えば,そのまま記憶される場合,または切出画像領域を指定後,切出画像領域以外の結合画像領域については,記憶せず,削除してしまう場合等でもよい。 Note that, with respect to the other combined image areas excluding the cutout image area according to the present embodiment, for example, when stored as it is or after specifying the cutout image area, the combined image area other than the cutout image area is used. May be deleted without memorizing.
ここで,図31を参照しながら,本実施の形態にかかる切出画像領域について説明する。図31は,本実施の形態にかかる切出画像領域の概略的な構成を示す説明図である。なお,図31に示す視差画像は,2視点画像(L画像,R画像)からなる平行配置の結合画像である場合を例に挙げて説明するが,かかる例に限定されない。 Here, the cutout image region according to the present embodiment will be described with reference to FIG. FIG. 31 is an explanatory diagram showing a schematic configuration of a cut-out image area according to the present embodiment. Note that the parallax image illustrated in FIG. 31 is described as an example of a combined image of two-viewpoint images (L image, R image) arranged in parallel, but is not limited to such an example.
図31に示すように,グレー色でハッチングされた領域で表される切出画像領域は,左上の位置の座標および画像サイズで指定される。左上の位置の座標は,図31に示す“×”のマークに該当する。 As shown in FIG. 31, the cut-out image area represented by the area hatched in gray is designated by the coordinates of the upper left position and the image size. The coordinates of the upper left position correspond to the mark “x” shown in FIG.
なお,図31に示す右側の切出画像領域(R画像)の左右両サイドには,破線部で表された領域(マージン領域)が存在する。L画像およびR画像の切出画像領域から立体視画像を生成する際,水平方向の視差が必要なため,切出画像領域を水平方向にずらす。 Note that there are regions (margin regions) represented by broken lines on both the left and right sides of the right cut image region (R image) shown in FIG. When generating a stereoscopic image from the cut image areas of the L image and the R image, since the horizontal parallax is necessary, the cut image area is shifted in the horizontal direction.
上記の場合,切出後の切出画像領域以外の領域には画像が存在しないため,マージン領域を用いることで,立体視画像の両サイドも適切な立体視画像を生成することができる。通常,マージン領域が無い場合,両サイドの画像が存在しないため,その周辺は黒色等になってしまう In the above case, there is no image in the area other than the cut-out image area after the cut-out, and therefore, by using the margin area, an appropriate stereoscopic image can be generated on both sides of the stereoscopic image. Normally, if there is no margin area, there will be no images on both sides, so the surrounding area will be black, etc.
切出画像領域は,各視点の視点画像データごとに指定するため,各オフセット(“CropOffset”)の値を設定するフィールドは,視点の数だけ存在するが,各切出画像領域のサイズは同じであるため,サイズ(“CropSize”)を設定するためのフィールドは,共通して1つずつ存在する。 Since the clipped image area is specified for each viewpoint image data of each viewpoint, there are as many fields for setting the value of each offset (“CropOffset”) as the number of viewpoints, but the size of each clipped image area is the same. Therefore, one field for setting the size (“CropSize”) exists in common.
なお,オフセット値の設定をする際,“CropOffsetX”,“CropOffsetY”のフィールドのうち上記1バイト目の水平方向の視点位置のX座標,2バイト目の垂直方向の視点位置のY座標に,“(−1,−1)”と指定することにより,複数の視点画像が存在する場合,3バイト目に設定される値は,全視点画像に対するオフセット値となる。上記一括指定により,視点位置の設定処理の効率化を図れる。例えば,最初の“CropOffsetX”,“CropOffsetY”の視点位置を“(−1,−1)”とすれば一括指定となる場合等を例示することができる。 When setting the offset value, in the “CropOffsetX” and “CropOffsetY” fields, the X coordinate of the horizontal viewpoint position of the first byte and the Y coordinate of the vertical viewpoint position of the second byte are set to “ By specifying (-1, -1) ", when there are a plurality of viewpoint images, the value set in the third byte is an offset value for all viewpoint images. By the above batch designation, the viewpoint position setting process can be made more efficient. For example, when the viewpoint position of the first “CropOffsetX” and “CropOffsetY” is set to “(−1, −1)”, it is possible to exemplify a case where batch designation is performed.
したがって,上記水平方向視点位置および垂直方向視点位置“(X,Y)”に,“(−1,−1)”と指定することにより,オフセットの一括指定が可能になる。 Therefore, by specifying “(−1, −1)” for the horizontal viewpoint position and the vertical viewpoint position “(X, Y)”, it is possible to specify offsets collectively.
ここで,例えば複数視点(4×4視点)の16視点画像のうち,視点位置が“(2,3)”の水平方向のオフセット値だけを,“8”で,残りの15視点からの視点画像の水平方向のオフセット値は,“10”に設定する場合について説明する。 Here, for example, among 16 viewpoint images of a plurality of viewpoints (4 × 4 viewpoints), only the horizontal offset value whose viewpoint position is “(2, 3)” is “8” and viewpoints from the remaining 15 viewpoints. A case where the horizontal offset value of the image is set to “10” will be described.
上記の場合,“CropOffsetX”のフィールドには,(1バイト目,2バイト目,3バイト目)のように設定されるとすると,まず15視点の視点画像のオフセットとして,水平方向のオフセットは,(−1,−1,10)と一度にセットでき,残りの視点位置“(2,3)”の水平方向のオフセットは,“(2,3,8)”とすれば済む。 In the above case, if the “CropOffsetX” field is set as (1st byte, 2nd byte, 3rd byte), as the offset of the viewpoint image of 15 viewpoints, the horizontal offset is (-1, 1, 10) can be set at one time, and the horizontal offset of the remaining viewpoint position “(2, 3)” may be “(2, 3, 8)”.
また,切出画像領域が指定されることにより,切出された各視点画像データによる視差画像データ(結合画像データ)から立体視画像データが生成されると,例えば,テレ撮影された被写体(オブジェクト)など,切り出される位置により,立体感の強い(飛び出し度合いの大きい)立体視画像が立体視表示部140に表示される場合があるが,例えば,警告画面(図示せず。)を表示することで,オフセットを調整させることで,視差の平均化を行い,立体感のバランスをとる,または立体感を弱めることにより,眼精疲労を抑えることができる。
In addition, when stereoscopic image data is generated from parallax image data (combined image data) based on each cut-out viewpoint image data by designating a cut-out image area, for example, a telephoto-captured object (object )) Or the like, a stereoscopic image with a strong stereoscopic effect (high pop-out degree) may be displayed on the
なお,図31に示す“CropOffsetX”(x1,x2)は,切出領域の水平方向のオフセットを示し,“CropOffsetY”(y1,y2)は,切出領域の垂直方向のオフセットを示し,“CropSizeX”(L)は,結合画像のうち切出領域として所定領域を切り出すための水平方向の長さ(サイズ)を示し,“CropSizeY”(H)は,結合画像のうち切出領域として所定領域を切り出すための垂直方向の長さ(サイズ)を示す。 Note that “CropOffsetX” (x1, x2) shown in FIG. 31 indicates the horizontal offset of the cutout region, “CropOffsetY” (y1, y2) indicates the vertical offset of the cutout region, and “CropSizeX”. “(L) indicates a horizontal length (size) for cutting out a predetermined area as a cut-out area of the combined image, and“ CropSizeY ”(H) indicates a predetermined area as a cut-out area of the combined image. Indicates the length (size) in the vertical direction for cutting out.
次に,本実施の形態にかかる切出画像領域の切出処理について説明する。 Next, the cut-out process of the cut-out image area according to the present embodiment will be described.
まず,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を合成し,結合画像データを生成する。
First, when a subject is imaged by the
次に,画像エンコード部132は,合成部131から伝送された結合画像データをエンコードし,上記エンコード処理とともに画像制御情報生成部133は,画像制御情報を生成する。エンコード及び生成処理終了後,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, the
コンピュータ装置150は,記録媒体135から,指定された結合画像データおよび画像制御情報を読み込むと,データ分離部136は,結合画像データと,画像制御情報とに分離し,画像デコード部137および画像分離部138それぞれに伝送する。
When the
デコードされた結合画像データと,画像制御情報とが,画像分離部138に伝送されると,図32に示すように,コンピュータ装置150の立体視表示部140に,切出画像領域を設定するための編集画面300が表示される。
When the decoded combined image data and the image control information are transmitted to the
編集画面300のメインエリア222内に,視点画像とともに切出画像領域を示す矩形302−1が表示される。上記矩形302−1の大きさは,マウスのドラッグなどにより変更することが可能である。なお,矩形302−1の大きさおよび位置が上記切出画像領域となる。
In the
また,上記矩形302−1は,マウスのドラッグ・アンド・ドロップなどにより,移動することが可能である。なお,本実施の形態にかかる編集画面300は,視点画像の表示が1視点ずつ画像表示される場合を例に挙げて説明するが,かかる例に限定されず,複数視点の視点画像を同時に表示する場合であっても実施可能である。さらに,矩形302−1,または矩形302−2を切り出すとき,その矩形の範囲内で奥行きオフセット量を自動的に調整し,オフセット量を最適化して画像制御情報に保存することができ,保存後,上記視点画像を読み出して表示する際に画像制御情報からオフセット量を参照することができる。また,例えば,上記画像制御情報に保存されるオフセット量に応じて,画像を切出したり,リマークポイントが設定された領域の立体視画像を保存されたオフセット量に応じて,拡大/縮小表示したり,上記オフセット,切出し,リマークポイントを連携して使用することもできる。
The rectangle 302-1 can be moved by dragging and dropping the mouse. The
図32に示す「クロップ決定」ボタンがマウスなどのクリックにより押下されると,画像分離部138は,矩形302−1の大きさ及び位置に基づき,“CropSizeX”,“CropSizeY”,“CropOffsetX”,および“CropOffsetY”のタグのフィールドに設定する値を求め,上記各タグに値を設定する。
When the “Crop determination” button shown in FIG. 32 is clicked by clicking with a mouse or the like, the
設定後,さらに画像分離部138は,結合画像データにおける各視点画像データ(L画像,R画像)を,上記求められた値(切出画像領域)に従って,切り出す。切り出されたL画像データ,R画像データは,画像変換部139に伝送されて,立体視画像データに変換される。
After the setting, the
上記各タグのフィールドに切出画像領域の値をそれぞれ設定することで,再度L画像データおよびR画像データから切出画像領域を決定後,立体視画像データに変換する際に,上記各タグに設定された値を読み取ることで,迅速的,効率的に切出画像領域の決定をすることができる。 By setting the value of the clipped image area in the field of each tag, the clipped image area is determined again from the L image data and the R image data, and then converted into stereoscopic image data. By reading the set value, it is possible to quickly and efficiently determine the cut-out image area.
なお,画像変換部139により,L画像データおよびR画像データから立体視画像データに変換される際,上記切り出されたL画像データおよびR画像データを,立体視表示部140の画面寸法(サイズ)に適合するよう,それぞれ拡大(リサイズ)し,立体視画像データに変換する。
Note that when the
また,L画像データ,R画像データが,画像変換部139により拡大された際に,L画像データと,R画像データとの視差が,例えば,所定の閾値を超えた場合,または視差の平均値等を超えた場合,上記説明の警告画面(図示せず。)が表示される。
Further, when the L image data and the R image data are enlarged by the
さらに,画像変換部139は,閾値の範囲内に視差が小さくなるよう,オフセット調整を行う。例えば,なお,本実施の形態にかかるL画像データと,R画像データとの視差は,上下方向の視差,または左右方向の視差などが例示される。
Further, the
さらに,本実施の形態にかかる切出画像領域の切出処理の変形例について説明する。 Furthermore, a modified example of the cutout process of the cutout image area according to the present embodiment will be described.
立体視画像のうち,特に遠方にある,奥行きのある被写体等を切り出して,立体視表示部140に表示する場合,表示される立体視画像は立体感のある被写体が多く表示されるため,ユーザには非常に見づらく,眼精疲労を及ぼしやすい。
When a subject having a depth, for example, located far away from a stereoscopic image is cut out and displayed on the
図32に示すように,編集画面300に表示された立体視画像に矩形302−2が,マウス等の入力部により設定されている。矩形302−2は,奥行きのあるヨットおよび背景の空を切出画像領域としている。
As shown in FIG. 32, a rectangle 302-2 is set in the stereoscopic image displayed on the
次に,図32に示す「クリップ決定」ボタンがマウス等のクリックにより押下されると,矩形302−2の大きさ及び位置に基づき,“CropSizeX”,“CropSizeY”,“CropOffsetX”,および“CropOffsetY”のタグのフィールドに設定する値を求め,上記各タグに値を設定する。 Next, when the “Clip Determination” button shown in FIG. 32 is clicked by clicking with the mouse or the like, “CropSizeX”, “CropSizeY”, “CropOffsetX”, and “CropOffsetY” are based on the size and position of the rectangle 302-2. The value to be set in the tag field of “” is obtained, and the value is set in each tag.
設定後,さらに画像分離部138は,結合画像データにおける各視点画像データ(L画像,R画像)を,上記求められた値(切出画像領域)に従って,切り出す。切り出されたL画像データ,R画像データは,画像変換部139に伝送される。
After the setting, the
画像変換部139では,伝送されたL画像データ,R画像データを対応点マッチングすることで,最小の視差量を例えば“0”などに変換し,最大の視差量が眼間距離である65mmを超えないように,視差を調整する。なお,視差が眼間距離の65mmを超えると,3D表示が破綻し,立体感のある画像を表示することができない。なお,対応点マッチングする場合には,予め対応点マッチングする旨の確認画面が立体視表示部140に表示される。
The
調整後,画像変換部139は,L画像データ,R画像データを立体視画像データに合成し,立体視表示部140に表示する。表示される立体視画像には,少なくとも最小の視差が“0”であるので,立体感のある画像領域と,立体感が抑えられた画像領域とが含まれているため,メリハリのある視認性の高い立体視画像となる。したがって,上記立体視画像の回転による微調整等の編集処理が迅速に行われる。従来ではユーザは,切出後の立体視画像を視認することが容易でない場合が多く,編集処理等に支障をきたしていた。
After the adjustment, the
上記対応点マッチングでは,まず上記R画像データおよびL画像データに含まれる対応点の抽出が行われる。上記対応点の抽出は,ユーザが抽出または自動的に抽出される場合のどちらの場合でもよい。なお,抽出される対応点は,例えば3個所であるが,かかる例に限定されない。 In the corresponding point matching, first, corresponding points included in the R image data and L image data are extracted. The corresponding points may be extracted either when the user is extracted or automatically extracted. The corresponding points to be extracted are, for example, three places, but are not limited to this example.
また,対応点は,同一被写体としてL画像とR画像とで対応する一致点である。つまり,対応点はL画像とR画像の全てに存在する必要がある。なお,上記対応点は,2視点の場合に限定されず,複数の視点画像の場合でもよい。 Corresponding points are coincident points corresponding to the same subject in the L image and the R image. That is, the corresponding point needs to exist in all of the L image and the R image. The corresponding points are not limited to the case of two viewpoints, and may be a plurality of viewpoint images.
対応点の具体例として,例えば,2視点の場合,被写体がコップである場合,L画像に撮影されたコップとR画像に撮影されたコップとが,撮影位置,角度,大きさ,各画像全体のうちコップの占める範囲などがほぼ同程度に一致する点を対応点とする。 As a specific example of the corresponding points, for example, in the case of two viewpoints, when the subject is a cup, the cup photographed in the L image and the cup photographed in the R image represent the photographing position, angle, size, and the entire image. Of these, a point where the range occupied by the cup coincides with the same degree is taken as the corresponding point.
なお,対応点を抽出する際には,各視点画像のコントラストを上げる,または各視点画像を二値化することで,適当な対応点を効率的に抽出することができる。なお,画像の二値化は,例えば視点画像の各画素の輝度(明るさ)に対して1又は2以上の閾値を設け,閾値以下ならば“0”(黒),閾値より大きければ“1”(白)等とすることである。 When extracting corresponding points, it is possible to efficiently extract appropriate corresponding points by increasing the contrast of each viewpoint image or binarizing each viewpoint image. For binarization of images, for example, a threshold value of 1 or 2 or more is set for the luminance (brightness) of each pixel of the viewpoint image. If the threshold value is less than the threshold value, “0” (black) is set. "(White)".
対応点が抽出されると,視点画像ごとに該当する対応点同士を結び,対応点間の距離を求める。さらに求められた対応点間の距離それぞれの差分をとることで視差量が求められる。例えば,2視点の場合,L画像とR画像に3個所ずつ対応点が抽出され,L画像とR画像で該当する対応点同士が結ばれ,3つの対応点間の距離(A,B,C)が求められる。次に,求められた3つの対応点間の距離に基づき,相互に差分(A−B,A−C,B−C)の絶対値をとることで,それぞれの視差量が求められる。なお,対応点の抽出は,視点画像のうち奥行のある遠方周辺部について行われるが,かかる例に限定されない。 When the corresponding points are extracted, the corresponding corresponding points are connected for each viewpoint image, and the distance between the corresponding points is obtained. Furthermore, the amount of parallax is calculated | required by taking the difference of each distance between the calculated | required corresponding points. For example, in the case of two viewpoints, three corresponding points are extracted from the L image and the R image, the corresponding points are connected in the L image and the R image, and the distances (A, B, C between the three corresponding points are connected. ) Is required. Next, each parallax amount is obtained by taking the absolute value of the difference (AB, AC, BC) based on the distance between the three corresponding points thus obtained. In addition, although extraction of a corresponding point is performed about the far periphery part with a depth among viewpoint images, it is not limited to this example.
次に,求められた視差量の中から,最小の視差量を選択し,当該最小視差量が0mmであるか否かを確認する。最小視差量が0mmでない場合,最小視差量が0mmになるように各視点画像の表示サイズ等が調整される。なお,視差量の調整前,立体感のある画像が多い旨の警告が立体視表示部140に表示される。
Next, the minimum parallax amount is selected from the obtained parallax amounts, and it is confirmed whether or not the minimum parallax amount is 0 mm. When the minimum amount of parallax is not 0 mm, the display size of each viewpoint image is adjusted so that the minimum amount of parallax is 0 mm. Note that a warning that there are many stereoscopic images is displayed on the
上記最小視差量が0mmに調整後,そのまま立体視画像を表示してもよいが,かかる例に限定されず,さらに求められた視差量の中から,最大の視差量を選択し,当該最大視差量が眼間距離の65mmを超えているか否かを確認してもよい。最大視差量が65mmを超えていない場合,切出画像領域の上記最大視差量が決定する。 The stereoscopic image may be displayed as it is after the minimum parallax amount is adjusted to 0 mm. However, the present invention is not limited to this example, and the maximum parallax amount is selected from the obtained parallax amounts. It may be confirmed whether or not the amount exceeds the interocular distance of 65 mm. When the maximum parallax amount does not exceed 65 mm, the maximum parallax amount of the cut-out image area is determined.
また,最大視差量が65mmを超えた場合,最大視差量が65mmよりも小さくなるように各視点画像の表示サイズ,画像左右シフト量等が調整され,最大視差量が決定する。また表示サイズも決定される。なお,上記調整する前に最大視差量が65mmを超えて立体視画像を表示できない旨の警告が立体視表示部140に表示される。
Further, when the maximum parallax amount exceeds 65 mm, the display size of each viewpoint image, the image left-right shift amount, and the like are adjusted so that the maximum parallax amount is smaller than 65 mm, and the maximum parallax amount is determined. The display size is also determined. Before the adjustment, a warning that the maximum parallax amount exceeds 65 mm and a stereoscopic image cannot be displayed is displayed on the
上記切出画像領域の視差が調整されると,切出画像領域の立体視画像が立体視表示部140に表示される。
When the parallax of the clipped image area is adjusted, a stereoscopic image of the clipped image area is displayed on the
なお,本実施の形態にかかる切出画像領域の切出処理の変形例と同様に,リマークポイント(参照注目点)を設定し,拡大表示等する場合においても,対応点マッチングや,視差の調整後,立体視画像が表示される場合であっても実施可能である。なお,警告等も画面に表示される。 As in the modification example of the cutout process of the cutout image area according to the present embodiment, even when a remark point (reference attention point) is set and enlarged display is performed, corresponding point matching or parallax adjustment is performed. Later, even if a stereoscopic image is displayed, it can be implemented. A warning or the like is also displayed on the screen.
(有効領域)
次に,上記(2)有効領域の大きさ,位置,およびオフセット値などは,上記説明の画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,“ValidOffsetY”のタグのフィールドに,設定される。
(Effective area)
Next, (2) the size, position, offset value, etc. of the effective area are set in the tag fields of “ValidSizeX”, “ValidSizeY”, “ValidOffsetX”, and “ValidOffsetY” in the image control information described above. Is done.
“ValidSizeX”,“ValidSizeY”は,有効領域のサイズ(水平方向(X),垂直方向(Y))を示す。“ValidOffsetX”,“ValidOffsetY”は,各有効領域とのオフセット(水平方向(X),垂直方向(Y))を示す。 “ValidSizeX” and “ValidSizeY” indicate the size of the effective area (horizontal direction (X), vertical direction (Y)). “ValidOffsetX” and “ValidOffsetY” indicate offsets (horizontal direction (X), vertical direction (Y)) with respect to each effective area.
図33に示すように,“ValidSizeX”,“ValidSizeY”は,それぞれ6バイトであり,“ValidOffsetX”,“ValidOffsetY”は,それぞれ6バイトである。 As shown in FIG. 33, “ValidSizeX” and “ValidSizeY” are each 6 bytes, and “ValidOffsetX” and “ValidOffsetY” are each 6 bytes.
また,“ValidSizeX”,“ValidSizeY”のタグのフィールドに設定される値は,上記フィールドのうち最下位桁の1バイト目には,水平方向視点位置のX座標が設定され,2バイト目には,垂直方向視点位置のY座標が設定され,3バイト目〜6バイト目には,オフセットの値が設定される。 In addition, the value set in the fields of the tags “ValidSizeX” and “ValidSizeY” is set such that the X coordinate of the horizontal viewpoint position is set in the first byte of the least significant digit in the above field, and the second byte contains , The Y coordinate of the vertical viewpoint position is set, and an offset value is set in the third to sixth bytes.
また,“ValidOffsetX”,“ValidOffsetY”のタグのフィールドに設定される値は,上記フィールドのうち最下位桁の1バイト目には,水平方向視点位置のX座標が設定され,2バイト目には,垂直方向視点位置のY座標が設定され,3バイト目〜6バイト目には,上記視点位置とのオフセットの値が設定される。 In addition, the value set in the fields of the tags “ValidOffsetX” and “ValidOffsetY” is set such that the X coordinate of the horizontal viewpoint position is set in the first byte of the least significant digit and the second byte in the field. , The Y coordinate of the vertical viewpoint position is set, and the offset value to the viewpoint position is set in the third to sixth bytes.
例えば,光学アダプタ105を備える撮像装置100による撮像など,3D撮影した各視点画像は,光学アダプタ105等の影響により,端の部分は立体視画像として適さない場合がある。上記端の部分の領域は,光学アダプタ105の種類によって異なる。したがって,上記有効領域の設定により,立体視画像として有効な領域の範囲を指定することを可能とする。
For example, each viewpoint image captured in 3D, such as imaging by the
ここで,図34を参照しながら,本実施の形態にかかる有効領域について説明する。図34は,本実施の形態にかかる有効領域の概略的な構成を示す説明図である。なお,図34に示す結合画像は,2視点画像(L画像,R画像)からなる平行配置である場合を例に挙げて説明するが,かかる例に限定されず,結合画像が交差配置である場合でもよい。 Here, the effective region according to the present embodiment will be described with reference to FIG. FIG. 34 is an explanatory diagram showing a schematic configuration of an effective area according to the present embodiment. Note that the combined image shown in FIG. 34 is described as an example of a parallel arrangement of two viewpoint images (L image, R image), but is not limited to such an example, and the combined image is in an intersecting arrangement. It may be the case.
図34に示すように,グレー色のハッチングで表される有効領域の大きさ,位置,オフセット値等は,左上の位置の座標および画像サイズを基準として指定される。左上の位置の座標は,図34に示す“×”のマークに該当する。なお,基準とする位置は,左上の位置に限定されず,他の適当な位置であってもよい。 As shown in FIG. 34, the size, position, offset value, and the like of the effective area represented by gray hatching are specified based on the coordinates of the upper left position and the image size. The coordinates of the upper left position correspond to the mark “x” shown in FIG. The reference position is not limited to the upper left position, and may be another appropriate position.
各オフセットの値は,視点画像ごとに指定する必要があり,有効領域のサイズの値についても,各視点画像において有効領域が異なる場合があり,視点画像ごとに設定する。なお,切出画像領域が有効領域からはみ出した場合の,はみ出し部分の処理は,コンピュータ装置150などの画像処理装置等に依存する。
The value of each offset needs to be specified for each viewpoint image, and the effective area size value may be different for each viewpoint image, and is set for each viewpoint image. Note that the processing of the protruding portion when the cut-out image region protrudes from the effective region depends on the image processing device such as the
なお,図34に示す“x1”はL画像の“ValidOffsetX”のタグのフィールドに設定され,“x2”はR画像の“ValidOffsetX”のタグのフィールドに設定され,“y1”はL画像の“ValidOffsetY”のタグのフィールドに設定され,“y2”はR画像の“ValidOffsetY”のタグのフィールドに設定され,“L1”はL画像の“ValidSizeX”のタグのフィールドに設定され,“L2”はR画像の“ValidSizeX”のタグのフィールドに設定され,“H1”はL画像の“ValidSizeY”のタグのフィールドに設定され,“H2”はR画像の“ValidSizeY”のタグのフィールドに設定される。 Note that “x1” shown in FIG. 34 is set in the “ValidOffsetX” tag field of the L image, “x2” is set in the “ValidOffsetX” tag field of the R image, and “y1” is “L1” of the “L” image. “ValidOffsetY” is set in the tag field, “y2” is set in the “ValidOffsetY” tag field of the R image, “L1” is set in the “ValidSizeX” tag field of the L image, and “L2” is The tag field of “ValidSizeX” of the R image is set, “H1” is set to the tag field of “ValidSizeY” of the L image, and “H2” is set to the tag field of “ValidSizeY” of the R image. .
図31に示す上記“ValidOffsetX”(x1,x2)は,R画像,L画像の有効領域における左上頂点から水平方向のオフセットを示し,“ValidOffsetY”(y1,y2)は,R画像,L画像の有効領域における左上頂点から垂直方向のオフセットを示し,“ValidSizeX”(L1,L2)は,L画像又はR画像の有効領域の水平方向の長さ(サイズ)を示し,“ValidSizeY”(H1,H2)は,L画像又はR画像の有効領域の垂直方向の長さ(サイズ)を示す。 “ValidOffsetX” (x1, x2) shown in FIG. 31 indicates a horizontal offset from the upper left vertex in the effective area of the R image and L image, and “ValidOffsetY” (y1, y2) indicates the R image and L image. An offset in the vertical direction from the upper left vertex in the effective area is indicated. “ValidSizeX” (L1, L2) indicates a horizontal length (size) of the effective area of the L image or the R image, and “ValidSizeY” (H1, H2). ) Indicates the length (size) of the effective area of the L image or R image in the vertical direction.
次に,本実施の形態にかかる有効領域の切出処理について説明する。 Next, the effective area extraction processing according to the present embodiment will be described.
まず,予め撮像装置100に装着するアダプタ型番の種類を選択する。アダプタ型番を選択する場合,撮像装置100の表示部(図示せず。)に表示されるGUI画面221から設定する。なお,アダプタ型番の種類の選択は,本実施の形態にかかるアダプタ型番情報における説明と,ほぼ同様であるため詳細な説明は省略する。
First, the type of adapter model number to be attached to the
図27に示すように,GUI画面221には,“1番”〜“4番”からなる各アダプタ型番名と,アダプタ型番を選択するためのアダプタ選択部223と,「選択」ボタンとが表示される。
As shown in FIG. 27, on the
次に,表示されたアダプタ型番名の中から,撮像装置100に装着する光学アダプタ105のアダプタ型番名を,入力部であるジョグダイヤルなどにより選択し,「選択」ボタンを押下すると,アダプタ選択部223は,アダプタ型番名が設定されたアダプタ型番情報を生成する。なお,上記アダプタ型番情報は,撮像装置100の記憶部(図示せず。)等に記憶される。
Next, the adapter model name of the
次に,撮像装置100を用いて被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を合成し,結合画像データを生成する。
Next, when the subject is imaged using the
また,画像制御情報生成部133は,生成された上記結合画像データに対する画像制御情報を生成し,撮像装置100の記憶部に記憶されたアダプタ型番情報を,画像制御情報の“使用者データ領域タグ”のタグのフィールドに設定する。
Further, the image control
さらに,画像制御情報生成部133は,記憶部に記憶された上記光学アダプタ105のアダプタ型番情報に基づき,立体視画像として適さない端の部分が除かれた有効領域情報を生成する。
Further, the image control
次に,画像制御情報生成部133は,有効領域情報を,上記画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,“ValidOffsetY”のタグのフィールドに設定する。
Next, the image control
なお,画像制御情報生成部133は,上記有効領域情報を,アダプタ型番情報に基づき生成したが,かかる例に限定されず,予め有効領域設定のGUI画面を介して,入力部により有効領域情報を定める場合であっても,実施可能である。
The image control
次に,画像エンコード部132は,合成部131から伝送された結合画像データをエンコードし,上記エンコード処理と共に画像制御情報生成部133は,画像制御情報を生成する。エンコード及び生成処理終了後,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, the
コンピュータ装置150は,記録媒体135から上記結合画像データおよび画像制御情報を読み込む。
The
次に,コンピュータ装置150のデータ分離部136は,結合画像データと,画像制御情報とに分離する。
Next, the
次に,画像分離部138は,画像デコード部137によりデコードされた結合画像データと,画像制御情報とを受信する。
Next, the
画像分離部138は,画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,および“ValidOffsetY”のタグのフィールドに設定された値(有効領域情報)に基づき,図34に示すように,結合画像領域のうち有効領域に該当する領域を,切り出す。
As shown in FIG. 34, the
なお,上記画像制御情報の“ValidSizeX”,“ValidSizeY”,“ValidOffsetX”,“ValidOffsetY”のフィールドに値(有効領域情報)が設定されていなかった場合,画像分離部138は,実際の画像領域である視点画像データ全体を,画像変換部139に伝送する。
If a value (effective area information) is not set in the fields of “ValidSizeX”, “ValidSizeY”, “ValidOffsetX”, and “ValidOffsetY” of the image control information, the
画像変換部139は,画像分離部138から伝送された各視点画像データ(L画像データ,R画像データ)から,立体視画像データに変換する。したがって,立体視表示部140に立体視画像が表示される。
The
なお,切り出された有効領域は,撮像装置100に装着した光学アダプタ105のアダプタ型番情報によって定まる。したがって画像分離部138は,アダプタ型番情報に基づき決定した有効領域に応じて,適当にL画像データとR画像データとのオフセットを調整することができる。
Note that the cut out effective area is determined by the adapter model number information of the
(参照注目点)
また,切出領域または有効領域を指定する他に,視点画像データにおいて,立体視画像を表示する際の中心となる注視点に関する注視点(参照注目点,リマークポイント)情報を,上記説明の画像制御情報に含まれる“リマークポイントタグ”のタグに設定することができる。
(Reference attention point)
In addition to designating a cutout area or an effective area, in the viewpoint image data, gazing point (reference attention point, remark point) information related to the gazing point that is the center when displaying a stereoscopic image is displayed in the image described above. It can be set to a “remark point tag” tag included in the control information.
立体視画像の中心を,必ずしも立体視表示部140の中心に配置して表示する場合のみに限られず,予め視点画像データの“リマークポイント”のタグのフィールドに立体表示部140の中心となる点(参照注目点)を設定することができる。特に,例えば携帯端末,PDAなど立体表示部140のサイズが立体視画像データのサイズよりも小さい場合に,ユーザに注視させたい部分を参照注目点に設定することで,視認性の高い立体視画像を表示することができる。
The center of the
参照注目点は,水平方向をx軸とし,垂直方向をy軸とする“(x,y)”で表わされ,図31,図34に示す有効領域または切出画像領域内に設定可能である。“リマークポイントタグ”のタグのフィールドは,6バイトからなり,最下位桁の1バイト目から3バイト目は,参照注目点のx座標を示し,4バイト目から6バイト目は,参照注目点のy座標を示す。 The reference attention point is represented by “(x, y)” in which the horizontal direction is the x-axis and the vertical direction is the y-axis, and can be set in the effective area or the cut-out image area shown in FIGS. is there. The tag field of “remark point tag” consists of 6 bytes, the 1st to 3rd bytes of the least significant digit indicate the x coordinate of the reference attention point, and the 4th to 6th bytes are the reference attention point. Indicates the y coordinate.
次に,本実施の形態にかかる参照注目点の設定処理について説明する。 Next, reference attention point setting processing according to the present embodiment will be described.
まず,撮像装置100により被写体が撮像されると,撮像部101の合成部131は,撮像素子130から伝送される視点画像データ(L画像データ,R画像データ)を結合し,結合画像データを生成する。
First, when a subject is imaged by the
次に,画像エンコード部132は上記結合画像データをエンコードし,画像制御情報生成部133が上記結合画像データに対応する画像制御情報を生成すると,結合画像データおよび画像制御情報は,データ多重化部134により多重化され,記録媒体135に記録される。
Next, when the
コンピュータ装置150は,記録媒体135から,指定された結合画像データおよび画像制御情報を読み込む。次に,データ分離部136は,結合画像データと,画像制御情報とに分離し,画像デコード部137および画像分離部138それぞれに伝送する。
The
デコードされた結合画像データと,画像制御情報とが,画像分離部138に伝送されると,図35に示すように,コンピュータ装置150の立体視表示部140に,参照注目点を設定するための編集画面320が表示される。
When the decoded combined image data and the image control information are transmitted to the
編集画面320のメインエリア222内には,各視点画像から立体視画像に変換する際の参照注目点を示すマーク303が表示される。また,上記マーク303は,マウスのドラッグ・アンド・ドロップなどにより,移動することが可能である。なお,本実施の形態にかかる参照注目点は,各視点画像ともに同一である場合を例に挙げて説明するが,かかる例に限定されず,参照注目点が各視点の視点画像間で相違する場合であっても実施可能である。なお,相違する場合は,例えば,複数の注目参照点のうちいずれか一つを選択する選択処理をする必要がある。
In the
図35(a)に示す参照注目点を設定する「リマークポイント決定」ボタンがマウスのクリックなどにより押下されると,画像分離部138は,結合画像データに対する画像制御情報の“リマークポイントタグ”のタグのフィールドに,上記マーク303の参照注目点“(x,y)”の値を設定する。
When the “remark point determination” button for setting the reference attention point shown in FIG. 35A is pressed by clicking the mouse or the like, the
設定後,画像分離部138は,結合画像データを,L画像データと,R画像データとに分離する。分離されたL画像データ,R画像データは,画像変換部139に伝送されて,立体視画像データに変換される。なお,分離する際,例えば,切出画像領域が設定された場合,画像分離部138は,L画像データおよびR画像データの切出処理等も行う。
After the setting, the
画像変換部139は,上記立体視画像データに変換する際に,“リマークポイントタグ”に設定された参照注目点に従い,上記参照注目点が,立体視表示部140の中央部に位置するように,L画像データおよびR画像データを移動する。また,立体視表示部140の画面サイズに適応するよう,画像変換部139は,L画像データおよびR画像データを拡大し,立体視画像データに変換する。したがって,図35(b)に示すように,参照注目点が立体視表示部140の中央に位置した,拡大された立体視画像が表示される。
When converting to the stereoscopic image data, the
さらに,画像変換部139は,上記立体視画像データを拡大表示する際に,“リマークポイントタグ”に設定された参照注目点と,参照注目点を中心とした視点画像の一部領域のオフセット位置に基づき,一部領域の立体視画像を拡大表示することもできる。なお,オフセット位置は立体視画像の奥行きの前後関係を調整することができる。オフセット位置の調整は,例えば2視点の場合,R画像,L画像を重ね合わせて立体視表示する際に,上下位置調整,左右シフト量(飛び出し量に相当。)を調整することでもある。例えば,図32を参照しながら説明すると,一部領域である矩形302−2は船の立体視画像であるが,上記船の画像は,矩形302−1の人物の立体視画像よりも後方に位置している。したがって,船の画像の方が奥の方にあるため,上記矩形302−2に表示された“船”に参照注目点としてマーク303を設定し,拡大表示する場合,画像変換部139は,上記矩形302−2の船の画像が前の方に表示されるように,オフセット位置を調整し,当該矩形302−2の船の立体視画像を拡大表示する。これにより,図32に示す“人物”よりも奥の方に表示された“船”の画像を拡大表示した際に,一回の拡大処理で矩形302−1に表示された人物の立体視画像と同等な程度,前方に立体的に表示されるため,視認しやすい。逆に,マーク303を矩形302−1の領域に表示された人物に設定すると,もともと前方に位置し,表示されているため,オフセット位置の調整量は,少なく拡大表示される。
Further, when the stereoscopic image data is enlarged and displayed, the
上記参照注目点が“リマークポイントタグ”のタグのフィールドに設定されることで,図35(b)に示す立体視画像から,さらに参照注目点を中心として立体視画像を拡大する等の場合,改めて拡大する中心点を定義,または参照注目点を設定しなくても,注目点を中心に立体視画像を迅速に拡大することが可能となる。 When the reference attention point is set in the tag field of “remark point tag”, the stereoscopic image shown in FIG. 35B is further enlarged around the reference attention point. Even if the center point to be enlarged again is not defined or the reference attention point is not set, the stereoscopic image can be rapidly enlarged around the attention point.
なお,上記参照注目点を中心として立体視画像を拡大する場合,編集画面320は,警告画面(図示せず。)に切替わり,“立体視が困難になる可能性があります”等の警告メッセージが表示される。
When the stereoscopic image is enlarged around the reference attention point, the
上記警告画面が表示されるのは,立体視画像の拡大により視差が大きくなるため,立体的に視認することが難しくなるためである。また,視差の拡大により眼精疲労が促進されるためである。 The warning screen is displayed because the parallax increases due to the enlargement of the stereoscopic image, so that it is difficult to visually recognize the stereoscopic image. Moreover, it is because eye strain is promoted by expansion of parallax.
なお,本実施の形態にかかる参照注目点は,立体視画像を拡大する際の中心点である場合を例に挙げて説明したが,かかる場合に限定されず,例えば,参照注目点は,立体視画像を縮小する際の中心点である場合等であってもよい。 The reference attention point according to the present embodiment has been described by taking as an example a case where the reference attention point is a center point when a stereoscopic image is enlarged. However, the reference attention point is not limited to such a case. For example, it may be the center point when the visual image is reduced.
また,本実施の形態にかかる参照注目点は,上記説明したように,本実施の形態にかかる切出画像領域の切出処理の変形例と同様に,リマークポイント(参照注目点)を設定し,拡大表示等する場合においても,対応点マッチングや,視差の調整後,立体視画像を表示する場合であっても実施可能である。なお,警告等も画面に表示する。 Further, as described above, the remark point (reference remark point) is set as the reference remark point according to the present embodiment, as in the modified example of the cut-out processing of the cut-out image area according to the present embodiment. Even in the case of enlarging display or the like, the present invention can be implemented even when displaying a stereoscopic image after matching corresponding points or adjusting parallax. A warning or the like is also displayed on the screen.
以上,添付図面を参照しながら本発明の好適な実施形態について説明したが,本発明はかかる例に限定されない。当業者であれば,特許請求の範囲に記載された技術的思想の範疇内において各種の変更例または修正例を想定し得ることは明らかであり,それらについても当然に本発明の技術的範囲に属するものと了解される。 As mentioned above, although preferred embodiment of this invention was described referring an accompanying drawing, this invention is not limited to this example. It is obvious for a person skilled in the art that various changes or modifications can be envisaged within the scope of the technical idea described in the claims, and these are naturally within the technical scope of the present invention. It is understood that it belongs.
上記実施形態においては,2視点画像から立体視画像に合成する場合を例にあげて説明したが,本発明はかかる例に限定されない。例えば,3視点以上の複数の視点画像の場合であっても実施することができる。 In the above embodiment, the case where the two-viewpoint image is combined with the stereoscopic image has been described as an example. However, the present invention is not limited to this example. For example, the present invention can be implemented even in the case of a plurality of viewpoint images having three or more viewpoints.
本発明は立体視画像を生成することが可能な立体視画像処理装置等に適用可能である。 The present invention can be applied to a stereoscopic image processing apparatus that can generate a stereoscopic image.
101 :撮像部
131 :合成部
132 :画像エンコード部
133 :画像制御情報生成部
134 :データ多重化部
135 :記録媒体
136 :データ分離部
137 :画像デコード部
138 :画像分離部
139 :画像変換部
140 :立体視表示部
DESCRIPTION OF SYMBOLS 101: Imaging part 131: Synthesis | combination part 132: Image encoding part 133: Image control information generation part 134: Data multiplexing part 135: Recording medium 136: Data separation part 137: Image decoding part 138: Image separation part 139: Image conversion part 140: Stereoscopic display unit
Claims (5)
前記取得部により取得された複数の視点画像の結合画像、及び前記光学アダプタの特性を示す情報として前記右視点画像を左右のどちら側に配置するのかを指定する環境情報を含む情報を記録する記録部と、
前記記録部により記録された結合画像の中で、前記各視点画像に対応する前記結合画像の各領域から、立体視画像を生成する上で適さない部分を除く有効な領域を前記記録部により記録された光学アダプタの特性を示す情報に基づいて切り出す切り出し部と、
前記切り出し部により切り出された有効な領域について前記結合画像を前記複数の視点画像に分離する分離部と、
前記分離部により分離された複数の視点画像から、前記環境情報により指定される配置で立体視画像を生成する画像生成部と、
を備える、立体視画像処理装置。 An optical adapter for acquiring a plurality of viewpoint images having parallax with each other as a parallax image in an intersection arrangement by one shooting, and an acquisition unit for acquiring the plurality of viewpoint images by one shooting;
A record for recording information including environment information for designating which side of the right viewpoint image is arranged as information indicating a combined image of a plurality of viewpoint images acquired by the acquisition unit and characteristics of the optical adapter. And
Among the combined images recorded by the recording unit, an effective region is recorded by the recording unit excluding a portion unsuitable for generating a stereoscopic image from each region of the combined image corresponding to each viewpoint image. A cutout unit that cuts out based on information indicating the characteristics of the optical adapter,
A separation unit that separates the combined image into the plurality of viewpoint images with respect to an effective region cut out by the cutout unit;
An image generation unit that generates a stereoscopic image in an arrangement specified by the environment information from a plurality of viewpoint images separated by the separation unit;
A stereoscopic image processing apparatus comprising:
前記切り出し部は、前記光学アダプタにより劣化が生じた前記右視点画像の上辺部、下辺部、及び左辺部に相当する領域を除く前記結合画像の領域を前記有効な領域として切り出す、請求項1に記載の立体視画像処理装置。 The acquisition unit acquires a right viewpoint image and a left viewpoint image,
The cutout unit cuts out a region of the combined image excluding regions corresponding to an upper side portion, a lower side portion, and a left side portion of the right viewpoint image that has deteriorated due to the optical adapter as the effective region. The stereoscopic image processing apparatus described.
前記画像生成部は、前記補正部により補正された右視点画像及び左視点画像から立体視画像を生成する、請求項2に記載の立体視画像処理装置。 For each of the right viewpoint image and the left viewpoint image separated by the separation unit, a trapezoidal distortion or a trapezoidal distortion or a chromatic aberration is corrected based on the information indicating the characteristics of the optical adapter recorded by the recording unit. A correction unit,
The stereoscopic image processing apparatus according to claim 2, wherein the image generation unit generates a stereoscopic image from the right viewpoint image and the left viewpoint image corrected by the correction unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003365355A JP4483261B2 (en) | 2003-10-24 | 2003-10-24 | Stereoscopic image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003365355A JP4483261B2 (en) | 2003-10-24 | 2003-10-24 | Stereoscopic image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005130313A JP2005130313A (en) | 2005-05-19 |
JP4483261B2 true JP4483261B2 (en) | 2010-06-16 |
Family
ID=34644041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003365355A Expired - Fee Related JP4483261B2 (en) | 2003-10-24 | 2003-10-24 | Stereoscopic image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4483261B2 (en) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4698307B2 (en) * | 2005-07-05 | 2011-06-08 | 三洋電機株式会社 | Stereoscopic image processing method, stereoscopic image processing apparatus, program, and recording medium storing program |
KR101005998B1 (en) | 2005-07-05 | 2011-01-05 | 산요덴키가부시키가이샤 | 3-d image processing method and 3-d image processing device and program-stored recording medium |
JP2010187916A (en) * | 2009-02-18 | 2010-09-02 | Fujifilm Corp | Image processing device, image processing system, and program |
JP5216640B2 (en) * | 2009-03-11 | 2013-06-19 | 富士フイルム株式会社 | Imaging apparatus and method |
US9124874B2 (en) | 2009-06-05 | 2015-09-01 | Qualcomm Incorporated | Encoding of three-dimensional conversion information with two-dimensional video sequence |
CN102362487B (en) * | 2010-03-31 | 2014-09-10 | 富士胶片株式会社 | 3d-image capturing device |
US20110242342A1 (en) | 2010-04-05 | 2011-10-06 | Qualcomm Incorporated | Combining data from multiple image sensors |
US8896668B2 (en) * | 2010-04-05 | 2014-11-25 | Qualcomm Incorporated | Combining data from multiple image sensors |
JP5567901B2 (en) * | 2010-05-24 | 2014-08-06 | オリンパスイメージング株式会社 | Interchangeable lens and imaging system for stereo photography |
US20110316971A1 (en) * | 2010-06-28 | 2011-12-29 | Jianping Zhou | Single pipeline stereo image capture |
JPWO2012017643A1 (en) * | 2010-08-06 | 2013-10-03 | パナソニック株式会社 | Encoding method, display device, and decoding method |
CN103155576A (en) * | 2010-09-29 | 2013-06-12 | 富士胶片株式会社 | Three-dimensional image display device, and three-dimensional image display method |
JP2012114575A (en) * | 2010-11-22 | 2012-06-14 | Sony Corp | Image data transmission device, image data transmission method, image data reception device, and image data reception method |
JP2012242680A (en) * | 2011-05-20 | 2012-12-10 | Dainippon Printing Co Ltd | Reflection screen for stereoscopic image display and stereoscopic image display system with the same |
WO2013042311A1 (en) * | 2011-09-20 | 2013-03-28 | パナソニック株式会社 | Stereoscopic video processing device and stereoscopic video processing method |
WO2014038522A1 (en) * | 2012-09-07 | 2014-03-13 | ソニー株式会社 | Transmitting device, transmitting method, receiving device and receiving method |
-
2003
- 2003-10-24 JP JP2003365355A patent/JP4483261B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005130313A (en) | 2005-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4490074B2 (en) | Stereoscopic image processing apparatus, stereoscopic image display apparatus, stereoscopic image providing method, and stereoscopic image processing system | |
JP4483261B2 (en) | Stereoscopic image processing device | |
US7636088B2 (en) | 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program | |
US6944328B2 (en) | Method and apparatus of generating three dimensional image data having one file structure and recording the image data on a recording medium, and recording medium for storing the three dimensional image data having one file structure | |
JP4693900B2 (en) | Image processing device | |
US8373745B2 (en) | Image processing apparatus, image display apparatus, image apparatus, and image processing method | |
JP4442190B2 (en) | Stereoscopic image processing device | |
EP1912447A1 (en) | Image processing device | |
JP2008295107A (en) | Digital camera and method for processing image | |
US20090244258A1 (en) | Stereoscopic display apparatus, stereoscopic display method, and program | |
WO2003092304A1 (en) | Image data creation device, image data reproduction device, and image data recording medium | |
JPH1127703A (en) | Display device and its control method | |
WO2010041450A1 (en) | Image processing apparatus and method, and image reproducing apparatus, method and program | |
JP4525049B2 (en) | Stereoscopic image processing apparatus and stereoscopic image generation method | |
JP5407962B2 (en) | Stereoscopic image processing apparatus and stereoscopic image generation method | |
JP4254478B2 (en) | Stereoscopic image processing device | |
JP4403378B2 (en) | Stereoscopic image processing apparatus, stereoscopic image display method, and computer program | |
JP2008252493A (en) | File generating method and device, and stereoscopic image display control method and device | |
JP4619412B2 (en) | Stereoscopic image recording / playback system | |
JP2005128896A (en) | Stereoscopic image processor, stereoscopic image processing method, and computer program | |
JP2005130312A (en) | Stereoscopic vision image processing device, computer program, and parallax correction method | |
JP2004356997A (en) | Device, method and program for managing stereoscopic view image | |
JP2006211386A (en) | Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method | |
WO2013058359A1 (en) | Image file generation device, image file reading device, image file generation method, image file reading method and program | |
JP2006211383A (en) | Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060705 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090709 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090714 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090907 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091006 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091211 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20100112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100302 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100315 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130402 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |