[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2005165614A - Device and method for synthesizing picture - Google Patents

Device and method for synthesizing picture Download PDF

Info

Publication number
JP2005165614A
JP2005165614A JP2003402961A JP2003402961A JP2005165614A JP 2005165614 A JP2005165614 A JP 2005165614A JP 2003402961 A JP2003402961 A JP 2003402961A JP 2003402961 A JP2003402961 A JP 2003402961A JP 2005165614 A JP2005165614 A JP 2005165614A
Authority
JP
Japan
Prior art keywords
image
virtual space
dimensional model
viewpoint
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003402961A
Other languages
Japanese (ja)
Inventor
Takahiro Oshino
隆弘 押野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003402961A priority Critical patent/JP2005165614A/en
Publication of JP2005165614A publication Critical patent/JP2005165614A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic photograph print system, etc., for allowing a user to easily synthesize without a uncomfortable feeling an actually photographed stereoscopic picture with a virtual space picture arranged in a virtual space and to obtain a stereoscopic photograph with high definition. <P>SOLUTION: A picture synthesizing device comprises: a virtual space organizing means for determining the movable range of a three-dimensional (3D) model, based on information of depth to a subject in an actually photographed picture; an operating means for moving, rotating, magnifying, and reducing, etc., the 3D model within the determined range; a multi-view-point picture sequence generating means for synthesizing the virtual space picture generated from the 3D model with the actually photographed picture at a position determined by the operating means, etc.; and a 3D picture integrating means for integrating the synthesized multi-view-point sequence picture with a 3D picture. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、立体画像形成に利用される画像合成装置及び画像合成方法に関する。   The present invention relates to an image composition apparatus and an image composition method used for stereoscopic image formation.

従来、被写体撮影を用意にでき、且つ、高品質な立体画像を容易に得ることが可能で、立体画像をレンチキュラー板等の光学部材を重ね合わせることにより、良好な被写体立体像を観察することができる立体写真プリントシステムが特開2001−346226に開示されている。この提案では、ステレオアダプタを装着したカメラから複数の視点位置のステレオ画像を入力し、そのステレオ画像から被写体の奥行き分布を示す視差マップを抽出する視差マップ抽出手段と、前記ステレオ画像と前記視差マップとに基づいて、複数視点から被写体の多視点画像シーケンスを生成する多視点画像シーケンス生成手段と、前記多視点画像シーケンスに基づいて三次元画像を合成する三次元画像合成手段とを備えた画像処理装置で、撮影したステレオ画像から多視点画像を自動的に生成することができるため、高品位な立体画像を得ることが出来る。以下、この提案内容の概略を説明する。   Conventionally, it is possible to prepare a subject for photographing, and it is possible to easily obtain a high-quality stereoscopic image, and a good subject stereoscopic image can be observed by superimposing an optical member such as a lenticular plate on the stereoscopic image. A stereoscopic photo print system that can be used is disclosed in Japanese Patent Laid-Open No. 2001-346226. In this proposal, a stereo image at a plurality of viewpoint positions is input from a camera equipped with a stereo adapter, and a parallax map extraction unit that extracts a parallax map indicating a depth distribution of a subject from the stereo image, the stereo image and the parallax map And multi-view image sequence generating means for generating a multi-view image sequence of a subject from a plurality of viewpoints, and 3D image synthesizing means for synthesizing a 3D image based on the multi-view image sequence. Since the apparatus can automatically generate a multi-viewpoint image from a captured stereo image, a high-quality stereoscopic image can be obtained. The outline of the proposal will be described below.

図9は、特開2001−346226に記載の立体写真プリントシステムの構成を表すブロック図である。901、902、903はそれぞれ被写体、ステレオアダプタ、カメラである。ステレオアダプタ902を装着したカメラ903の一例を図10に示す。同図中の901、902、903は図9と同様の被写体、ステレオアダプタ、カメラである。1002はカメラの撮影レンズ、1003は撮影面、1004はプリズム、1005、1006はミラーである。また、oは撮影レンズ1002のレンズ中心、lは撮影レンズ1002の光軸、m、nはそれぞれ撮影面1003で左眼用画面、右眼用画面の中心を通る光束の主光線である。図に示すように、撮影レンズの光軸lを中心に左右対称である。   FIG. 9 is a block diagram illustrating a configuration of a stereoscopic photo print system described in JP-A-2001-346226. Reference numerals 901, 902, and 903 denote a subject, a stereo adapter, and a camera, respectively. An example of a camera 903 equipped with a stereo adapter 902 is shown in FIG. In FIG. 9, reference numerals 901, 902, and 903 denote the same subject, stereo adapter, and camera as in FIG. Reference numeral 1002 denotes a camera lens, 1003 denotes a photographing surface, 1004 denotes a prism, and 1005 and 1006 denote mirrors. Further, o is the lens center of the photographic lens 1002, l is the optical axis of the photographic lens 1002, and m and n are chief rays of light beams passing through the centers of the left-eye screen and the right-eye screen on the photographic surface 1003, respectively. As shown in the figure, it is symmetrical with respect to the optical axis l of the photographing lens.

次に、図11を用いて、特開2001−346226に記載の処理の流れを説明する。   Next, the flow of processing described in JP-A-2001-346226 will be described with reference to FIG.

まず、ステップS1101ではステレオ画像を処理プログラムで扱えるデータにするため、画像処理装置であるPCのメモリに取り込む。この時、ステレオ画像のファイルの指示は不図示のキーボードやマウス等の入力装置により行い、指定されたファイルをプログラムに読み込む。   First, in step S1101, in order to make a stereo image data that can be handled by a processing program, the stereo image is taken into a memory of a PC that is an image processing apparatus. At this time, a stereo image file is instructed by an input device such as a keyboard or a mouse (not shown), and the designated file is read into the program.

次に、ステップS1102ではステレオ画像の撮影時に発生した台形歪を補正する。まず、取得された画像をステレオ画像左右画像データに分割する。即ち、ステレオ画像データのRGB各チャンネルの画像が幅、高さがM×N画素の2次元配列である場合、画像中心を通る垂直ラインを境界として、それぞれ幅、高さM/2×Nの画像データに分割する。そして、カメラおよびアダプタの撮影パラメータに従い、左右それぞれの画像データの画面中心を中心として、台形歪補正後の仮想的な撮影面が互いに平行に成るように、左右同じ角度だけ反対方向に台形歪補正を行う。台形歪補正処理は、よく知られた画像の3次元の回転行列による幾何学変換である。   Next, in step S1102, the trapezoidal distortion that has occurred during the shooting of the stereo image is corrected. First, the acquired image is divided into stereo image left and right image data. That is, when the image of each RGB channel of the stereo image data is a two-dimensional array of width and height of M × N pixels, the width and height are M / 2 × N with a vertical line passing through the center of the image as a boundary. Divide into image data. Then, according to the shooting parameters of the camera and adapter, trapezoidal distortion correction is performed in the opposite direction by the same angle on the left and right so that the virtual imaging planes after trapezoidal distortion correction are parallel to each other around the screen center of the left and right image data. I do. The trapezoidal distortion correction process is a well-known geometric transformation based on a three-dimensional rotation matrix of an image.

次に、ステップS1103では、それぞれ補正された左右画像データから所定サイズの左右ステレオ像対を取得する。まず、左右画像データの位置ずれ量を求める。これは左右画像データの被写体の同一部分が撮影されていることが望ましいが、撮影時のカメラと被写体との距離やその奥行き方向の分布に応じて水平方向のずれ量が異なるため、台形歪補正された各々の画像データでの画像位置の調整が必要であることから行う。また、ステップS1102の台形歪補正処理は、所定のカメラおよびアダプタの撮影パラメータに従って行っているため、カメラとアダプタの装着状態やアダプタの各構成要素とのずれなどの影響により完全に平行視の状態の左右画像が得られない可能性があるので、垂直方向の調整も必要であることから実施する。   Next, in step S1103, a pair of left and right stereo images of a predetermined size is acquired from the corrected left and right image data. First, the amount of positional deviation between the left and right image data is obtained. Although it is desirable that the same part of the subject in the left and right image data is captured, the amount of horizontal displacement differs depending on the distance between the camera and the subject at the time of capture and the distribution in the depth direction, so trapezoidal distortion correction This is because it is necessary to adjust the image position in each piece of image data. In addition, since the trapezoidal distortion correction processing in step S1102 is performed according to the shooting parameters of a predetermined camera and adapter, the state of completely parallel viewing is affected by the influence of the camera and adapter mounting state and the displacement of each component of the adapter. Since the right and left images may not be obtained, adjustment in the vertical direction is also necessary.

ステップS1104では、取得したステレオ画像対の画像間で同一な被写体部分を点対点の対応として表す対応点を抽出する。対応点の抽出は各点に対しテンプレートマッチングを適用して行う。   In step S1104, corresponding points representing the same subject portion as the point-to-point correspondence between the acquired stereo image pairs are extracted. Corresponding points are extracted by applying template matching to each point.

次に、ステップS1105では、対応点から視差マップを抽出する。ここで、視差マップはステレオ画像対の左画像を基準画像とし、その左画像の各画素に対して、右画像の対応点位置との水平方向の位置ずれ(視差)を表すものである。対応点抽出により、その水平位置の差から直接求められる画素もあるが、未対応の点や、元々対応点の探索を行わなかった点に対しても視差を補間により求める。このように、全画素について視差が求まったものを視差マップとする。   Next, in step S1105, a parallax map is extracted from the corresponding points. Here, the parallax map represents a horizontal position shift (parallax) with respect to the corresponding point position of the right image for each pixel of the left image with the left image of the stereo image pair as a reference image. Although there are pixels that can be obtained directly from the difference in the horizontal position by the corresponding point extraction, the parallax is also obtained by interpolation for uncorresponding points and points that were not originally searched for corresponding points. Thus, a parallax map is obtained when the parallax is obtained for all pixels.

次に、ステップS1107では上記の視差マップを用いて多視点画像シーケンスの生成を行う。ここで生成する画像は、三次元ストライプ画像を構成する多視点画像であり、それぞれの画像サイズは画像数と印刷する解像度及び大きさに依存する。   In step S1107, a multi-viewpoint image sequence is generated using the parallax map. The image generated here is a multi-viewpoint image constituting a three-dimensional stripe image, and the size of each image depends on the number of images and the resolution and size of printing.

生成する画像は、左画像と視差マップを用いて変形することにより生成する。生成する画像の視点位置は、所定の視差量が発生するように決定する。また、各視点が左画像の視点位置を中心として等間隔且つ対称に並ぶように視点位置を決める。これは、画像シーケンスの視点位置が等間隔に並ぶことで安定した立体像を観察するためと、左画像の視点位置を中心として視点位置を対称に並べることによって画像の変形量を最小に抑え、被写体や撮影条件により視差マップに誤差が生じても安定して高品位な立体像を得るためである。   The image to be generated is generated by deforming using the left image and the parallax map. The viewpoint position of the image to be generated is determined so that a predetermined amount of parallax is generated. Further, the viewpoint positions are determined so that the viewpoints are arranged symmetrically at equal intervals around the viewpoint position of the left image. This is to minimize the amount of deformation of the image by observing a stable stereoscopic image by arranging the viewpoint positions of the image sequence at equal intervals and arranging the viewpoint positions symmetrically around the viewpoint position of the left image, This is to stably obtain a high-quality stereoscopic image even if an error occurs in the parallax map depending on the subject and shooting conditions.

ステップS1106で求めた視差マップから、撮影位置から最も近い被写体位置に相当する視差と最も遠い被写体位置に相当する視差を求める。そして、最も近い被写体が所定の観察位置において、観察時の印刷面から所定の距離だけ手前に観察され、最も遠い被写体が印刷面から所定の距離だけ奥に観察されるように視点位置を決める。   From the parallax map obtained in step S1106, the parallax corresponding to the subject position closest to the shooting position and the parallax corresponding to the subject position farthest from the shooting position are obtained. Then, the viewpoint position is determined so that the closest subject is observed at a predetermined distance from the printing surface at the time of observation, and the farthest subject is observed at a predetermined distance from the printing surface.

次に、各視点画像を生成する方法について説明する。   Next, a method for generating each viewpoint image will be described.

まず、新規視点画像の生成を左画像の画素を用いてフォワードマッピングにより生成する。即ち、まず、左画像の各画素をマッピングする新規視点画像中の位置(x,y)を左画像の画素位置(x、y)での視差d、視点位置を表す比率r、左画像のサイズと新規視点画像サイズにより、式(1)より求める。 First, a new viewpoint image is generated by forward mapping using pixels of the left image. That is, first, the position (x N , y N ) in the new viewpoint image that maps each pixel of the left image is the parallax d at the pixel position (x, y) of the left image, the ratio r representing the viewpoint position, the left image And the new viewpoint image size are obtained from Equation (1).

=H/h×(x+r×(d−sh))、y=y ---- (1)
そして、左画像の画素位置(x、y)での画素を新規視点画像の(x,y)の位置にコピーする。この処理を左画像の全画素について繰り返す。次に、新規視点画像の画素のうち、左画像から画素が割り当てられなかった画素に対して穴埋め処理を行う。この穴埋め処理は、求める画素から所定距離だけ離れた有効な画素を探索し、その画素値の距離をパラメータとして加重平均値を割り当てる。有効な画素が存在しないときは、探索する範囲を拡げて探索を繰り返す。
x N = H / h × ( x + r × (d-sh)), y N = y ---- (1)
Then, the pixel at the pixel position (x, y) of the left image is copied to the position (x N , y N ) of the new viewpoint image. This process is repeated for all pixels of the left image. Next, among the pixels of the new viewpoint image, the hole filling process is performed on the pixels to which no pixel is assigned from the left image. In this hole filling process, an effective pixel that is a predetermined distance away from the pixel to be obtained is searched, and a weighted average value is assigned using the distance of the pixel value as a parameter. If there is no effective pixel, the search is repeated with the search range expanded.

以上の処理で全画素有効な新規視点画像が生成される。この処理を視点数分繰り返して多視点画像シーケンスとする。   Through the above processing, a new viewpoint image in which all pixels are valid is generated. This process is repeated for the number of viewpoints to form a multi-viewpoint image sequence.

次に、ステップS1108では、多視点画像シーケンスから三次元ストライプ画像を合成する。この時、多視点画像シーケンスの各画像の同一座標画素を画像の視点配列に従い隣接画素として配列するように三次元画像を合成する。j番目視点の画素値をPjmn(ただし、m、nはそれぞれ水平、垂直方向の画素配列のインデックス)としたとき、j番目の画像データは以下のような2次元配列として表される。 Next, in step S1108, a three-dimensional stripe image is synthesized from the multi-viewpoint image sequence. At this time, the three-dimensional image is synthesized so that the same coordinate pixel of each image of the multi-viewpoint image sequence is arranged as an adjacent pixel according to the viewpoint arrangement of the image. When the pixel value at the j-th viewpoint is P jmn (where m and n are the indices of the pixel array in the horizontal and vertical directions, respectively), the j-th image data is represented as the following two-dimensional array.

j00j10j20・・・・
j01j11j21・・・・
j02j12Pj22・・・・
合成は、それぞれの視点の画像を垂直方向に1ライン毎に短冊状に分解し、視点位置の逆順の視点数分だけ合成する。したがって、合成後の画像は以下に示すようなストライプ画像となる。
P j00 P j10 P j20 ...
P j01 P j11 P j21 ...
P j02 P j12Pj22 ...
In the synthesis, the images of the respective viewpoints are decomposed into strips for each line in the vertical direction, and are synthesized by the number of viewpoints in the reverse order of the viewpoint positions. Therefore, the combined image is a stripe image as shown below.

N00・・P200100N10・・P210110N20・・P220120・・
N01・・P201101N11・・P211111N21・・P221121・・
N02・・P202102N12・・P212112N22・・P222122・・
但し、視点1が左端、Nが右端の画像を表す。ここで、視点位置の配列順を逆にするのはレンチキュラー板により観察する際、レンチキュラー1ピッチ内で画像が左右逆に観察されるためである。この三次元ストライプ画像は、元の多視点画像がH×vのサイズのN視点画像である場合、X(=N×H)×vのサイズとなる。
P N00 ·· P 200 P 100 P N10 · · P 210 P 110 P N20 · · P 220 P 120 · ·
P N01 ·· P 201 P 101 P N11 · · P 211 P 111 P N21 · · P 221 P 121 · · ·
P N02 ·· P 202 P 102 P N12 · · P 212 P 112 P N22 · · P 222 P 122 · ·
However, viewpoint 1 represents the left end image and N represents the right end image. Here, the order of arrangement of the viewpoint positions is reversed because, when observing with the lenticular plate, the image is observed in the left and right direction within one pitch of the lenticular. This three-dimensional stripe image has a size of X (= N × H) × v when the original multi-viewpoint image is an N viewpoint image having a size of H × v.

次に、この三次元ストライプ画像に対して、レンチキュラー板とピッチを合せる。1ピッチにRPdpiの画素がN画素分存在するので、1ピッチN/RPinchとなるが、レンチキュラー板のピッチがRLinchであるので、画像を水平方向にRL×RP/N倍してピッチを合せる。また、垂直方向の画素数は、そのとき(RL×RP/N)×Y画素となる必要があるので、垂直方向に(RL×RP×Y)/(N×v)倍にして倍率を合せる。従って、三次元ストライプ画像に以上のような水平・垂直方向の変倍処理を行い印刷用の画像データとする。   Next, the pitch is aligned with the lenticular plate for this three-dimensional stripe image. Since there are N RPdpi pixels for one pitch, the pitch is 1 pitch N / RPinch. However, since the pitch of the lenticular plate is RLinch, the pitch is adjusted by multiplying the image by RL × RP / N in the horizontal direction. In addition, since the number of pixels in the vertical direction needs to be (RL × RP / N) × Y pixels at that time, the magnification is set to (RL × RP × Y) / (N × v) times in the vertical direction. . Accordingly, the scaling process in the horizontal and vertical directions as described above is performed on the three-dimensional stripe image to obtain image data for printing.

次に、ステップS1109では、ステップS1109の出力画像に対して印刷を行う。   In step S1109, printing is performed on the output image in step S1109.

以上、ステップS1101〜ステップS1109の処理により、印刷した画像にレンチキュラー板を重ね合わせること良好な立体像を観察することが可能となる。   As described above, the processing in steps S1101 to S1109 makes it possible to observe a good stereoscopic image by superimposing the lenticular plate on the printed image.

一方、コンピュータグラフィックス(以下、CGと略す)技術の進展により、仮想空間内に配置された幾何情報および表面属性情報から構成される三次元モデルの複数の仮想視点位置からの仮想空間画像を生成し、それらの複数の仮想空間画像から三次元画像を生成し印刷する技術として、米国特許:5764231に開示されている技術がある。この技術は、実際に撮影された実写画像を利用せず、コンピュータ上で生成した複数の視点位置の仮想画像のみで立体写真を生成する方法で、実写画像を用いて立体写真を生成するよりもCGを用いたほうが安定した立体写真を得ることが可能であるとしている。   On the other hand, with the advancement of computer graphics (hereinafter abbreviated as CG) technology, virtual space images are generated from multiple virtual viewpoint positions of a three-dimensional model composed of geometric information and surface attribute information arranged in the virtual space. As a technique for generating and printing a three-dimensional image from the plurality of virtual space images, there is a technique disclosed in US Pat. No. 5,643,231. This technology is a method of generating a 3D photograph using only virtual images of a plurality of viewpoint positions generated on a computer without using an actual captured image, rather than generating a 3D photograph using a captured image. It is said that it is possible to obtain a stable stereoscopic photograph by using CG.

以上、述べてきたように、実際に撮影された実写画像あるいはCGで生成・表現された仮想空間画像のそれぞれから立体写真を得るシステムが提案されている。しかし、昨今の技術進展により、デジタルカメラやスキャナ、デジタルビデオに代表されるように、容易にデジタル画像を取得する装置が一般的に利用されており、CGに関しても、一般的なパーソナルコンピュータやゲーム機器上で高品位な仮想空間画像が生成・表示可能なようになってきている。しかし、仮想空間で生成できる三次元モデルの種類には限りがあり、また、実在する全てのものをCGで取り扱えるよう三次元モデル化することは事実上不可能である。このような背景から、立体的に実写画像に仮想空間画像を簡便に合成することでより写実性・娯楽性の高い画像を生成したいという要求があったが、利用者が容易にかつ高品位に合成することができる画像合成装置は未だ実現されていなかった。   As described above, a system for obtaining a stereoscopic photograph from each of a real photographed image or a virtual space image generated and expressed by CG has been proposed. However, due to recent technological progress, devices that easily acquire digital images, such as digital cameras, scanners, and digital videos, are generally used. Regarding CG, general personal computers and games are also used. A high-quality virtual space image can be generated and displayed on a device. However, the types of 3D models that can be generated in the virtual space are limited, and it is virtually impossible to make a 3D model so that all existing objects can be handled by CG. From such a background, there was a demand to generate a more realistic and entertaining image by simply synthesizing a virtual space image with a three-dimensional real image, but the user can easily and high-quality. An image synthesizing apparatus capable of synthesizing has not been realized yet.

本発明は、上記問題点に鑑み、実際に撮影された立体画像と仮想空間上に配置された三次元モデルから生成された仮想空間画像とを、利用者が容易かつ三次元的に違和感無く融合し、高品位な立体写真を得ることができる立体写真プリントシステム等を提供することを目的とする。   In view of the above problems, the present invention fuses a stereoscopic image actually captured and a virtual space image generated from a three-dimensional model arranged in the virtual space easily and three-dimensionally without any sense of incongruity. It is an object of the present invention to provide a stereoscopic photo print system that can obtain a high-quality stereoscopic photo.

上記目的を達するために、請求項1に記載の画像合成装置では、被写体までの奥行き情報から仮想空間と三次元モデルの移動可能な範囲を決定する仮想空間構築手段と、三次元モデルを前記仮想空間構築手段によって決定された範囲内を移動する三次元モデル移動手段と、前記三次元モデルを前記仮想空間構築手段によって決定された範囲内で少なくとも移動・回転・拡大・縮小の何れかを行う三次元モデル操作手段と、前記三次元モデル操作手段で決定した仮想空間内に配置された三次元モデルから生成された仮想空間画像と実写画像を合成して合成多視点画像シーケンスを生成する多視点画像シーケンス生成手段と、前記多視点画像シーケンス生成手段で生成された合成多視点シーケンス画像を三次元画像に統合する三次元画像統合手段とを有することを特徴とする。   In order to achieve the above object, in the image composition device according to claim 1, virtual space construction means for determining a movable range of a virtual space and a three-dimensional model from depth information to a subject, and a three-dimensional model as the virtual A three-dimensional model moving means for moving within a range determined by the space construction means, and a tertiary for performing at least one of movement, rotation, enlargement and reduction within the range determined by the virtual space construction means for the three-dimensional model A multi-viewpoint image that generates a composite multi-viewpoint image sequence by synthesizing a virtual space image generated from a three-dimensional model arranged in a virtual space determined by the three-dimensional model operation means and a live-action image. Sequence generation means and three-dimensional image integration means for integrating the combined multi-view image generated by the multi-view image sequence generation means into a three-dimensional image Characterized in that it has a.

請求項2に記載の発明に係る画像合成装置では、請求項1記載の画像合成装置において、前記多視点画像シーケンス生成手段は、実写多視点画像と仮想空間多視点画像それぞれを生成してから合成することを特徴とする。   According to a second aspect of the present invention, in the image synthesizing apparatus according to the first aspect, the multi-viewpoint image sequence generating unit generates the real-shot multi-viewpoint image and the virtual space multi-viewpoint image, and then synthesizes them. It is characterized by doing.

請求項3に記載の発明に係る画像合成装置では、請求項1記載の画像合成装置において、前記仮想空間多視点画像を生成する際に、奥行き情報を参照し、奥行き情報からある画素が三次元モデルを描画しているか否かを判定し、三次元モデルを描画していると判定した場合は仮想空間多視点画像の該画素と同一画素情報を用い、三次元モデルを描画していないと判断した場合は実写多視点画像の該画素と同一画素情報を用いて合成画像を生成することを特徴とする。   According to a third aspect of the present invention, in the image synthesizing apparatus according to the first aspect, when generating the virtual space multi-viewpoint image, the depth information is referred to, and a pixel from the depth information is three-dimensional. If it is determined whether or not the model is drawn, and if it is determined that the 3D model is being drawn, it is determined that the 3D model is not drawn using the same pixel information as that pixel of the virtual space multi-viewpoint image. In this case, a synthesized image is generated using the same pixel information as that of the pixel of the live-action multi-viewpoint image.

請求項4に記載の発明に係る画像合成装置では、請求項1または請求項3記載の画像合成装置において、前記多視点画像シーケンス生成手段は、仮想空間多視点画像を生成する際に、奥行き情報を参照し、奥行き情報からある画素が三次元モデルを描画しているか否かを判定し、三次元モデルを描画していると判定した場合は仮想空間多視点画像の該画素と同一画素情報を用い、三次元モデルを描画していないと判断した場合は立体画像情報より該画素と同一画素情報を生成し、合成画像を生成することを特徴とする。   According to a fourth aspect of the present invention, in the image synthesizing apparatus according to the first or third aspect, the multi-view image sequence generating means generates depth information when generating the virtual space multi-view image. , It is determined whether a certain pixel is drawing a three-dimensional model from the depth information, and if it is determined that a three-dimensional model is being drawn, the same pixel information as that pixel of the virtual space multi-viewpoint image is obtained. If it is determined that the 3D model is not drawn, the same pixel information as the pixel is generated from the stereoscopic image information, and a composite image is generated.

請求項5に記載の発明に係る画像合成装置では、請求項1または請求項2または請求項3または請求項4記載の画像合成装置において、前記多視点画像シーケンス生成手段において、実写多視点画像と仮想空間多視点画像シーケンスは同一の撮影視点順序で多視点画像を生成し合成することを特徴とする。   According to a fifth aspect of the present invention, in the image synthesizing apparatus according to the first, second, third, or fourth aspect, the multi-view image sequence generating means includes a real-shot multi-view image and a multi-view image. The virtual space multi-view image sequence is characterized by generating and synthesizing multi-view images in the same shooting viewpoint order.

請求項6に記載の発明に係る画像合成装置では、請求項1記載の画像合成装置において、前記三次元モデル移動手段において、前記仮想空間構築手段において決定した三次元モデルの移動範囲に接したり超えたりした場合、その旨を操作者に呈示することを特徴とする。   According to a sixth aspect of the present invention, there is provided the image synthesizing apparatus according to the first aspect, wherein the three-dimensional model moving means contacts or exceeds the moving range of the three-dimensional model determined by the virtual space construction means. In such a case, the operator is notified to that effect.

請求項7に記載の発明に係る画像合成装置では、立体画像観察パラメータから仮想空間画像を生成するための仮想空間画像生成パラメータ決定手段と、前記仮想空間画像生成パラメータ決定手段によって決定されたパラメータに基づいて仮想空間多視点画像シーケンスを生成する仮想空間多視点画像シーケンス生成手段と、前記仮想空間多視点画像シーケンス生成手段で生成されたと仮想空間多視点画像シーケンスと前記多視点画像シーケンスとを合成する画像合成手段と、前記実写仮想空間画像合成手段によって合成された合成画像を三次元画像として統合する三次元画像統合手段とを有することを特徴とする。   In the image composition device according to the seventh aspect of the present invention, the virtual space image generation parameter determining means for generating a virtual space image from the stereoscopic image observation parameters, and the parameters determined by the virtual space image generation parameter determining means are used. A virtual space multi-view image sequence generating unit that generates a virtual space multi-view image sequence based on the virtual space multi-view image sequence generating unit, and the virtual space multi-view image sequence and the multi-view image sequence generated by the virtual space multi-view image sequence generating unit The image synthesizing unit includes an image synthesizing unit, and a three-dimensional image integrating unit that integrates the synthesized image synthesized by the actual virtual space image synthesizing unit as a three-dimensional image.

請求項8に記載の発明に係る画像合成装置では、請求項7記載の画像合成装置において、前記仮想空間画像生成パラメータ決定手段において、仮想空間の三次元モデルを実空間の手前側に配置することを特徴とする。   An image composition device according to an eighth aspect of the present invention is the image composition device according to the seventh aspect, wherein the virtual space image generation parameter determination means arranges the three-dimensional model of the virtual space in front of the real space. It is characterized by.

請求項9に記載の発明に係る画像合成装置では、請求項7記載の画像合成装置において、前記仮想空間画像生成パラメータ決定手段において、仮想空間に配置された三次元モデルの最近距離と最遠距離を再現する仮想空間領域としてパラメータを決定することを特徴とする。   The image composition device according to the invention described in claim 9 is the image composition device according to claim 7, wherein the virtual space image generation parameter determination means uses the nearest distance and the farthest distance of the three-dimensional model arranged in the virtual space. A parameter is determined as a virtual space area for reproducing the image.

請求項10に記載の発明に係る画像処理方法では、被写体までの奥行き情報から仮想空間と三次元モデルの移動可能な範囲を決定する仮想空間構築工程と、三次元モデルを前記仮想空間構築工程によって決定された範囲内を移動する三次元モデル移動工程と、前記三次元モデルを前記仮想空間構築工程によって決定された範囲内で少なくとも移動・回転・拡大・縮小の何れかを行う三次元モデル操作工程と、前記三次元モデル操作工程で決定した仮想空間内に配置された三次元モデルから生成された仮想空間画像と実写画像を合成して合成多視点画像シーケンスを生成する多視点画像シーケンス生成工程と、前記多視点画像シーケンス生成工程で生成された合成多視点シーケンス画像を三次元画像に統合する三次元画像統合工程とを有することを特徴とする。   In the image processing method according to the tenth aspect of the present invention, a virtual space construction step for determining a movable range of the virtual space and the three-dimensional model from the depth information to the subject, and a three-dimensional model by the virtual space construction step. A three-dimensional model moving step for moving within the determined range, and a three-dimensional model operation step for performing at least one of movement, rotation, enlargement, and reduction within the range determined by the virtual space construction step for the three-dimensional model And a multi-viewpoint image sequence generation step of generating a composite multi-viewpoint image sequence by combining the virtual space image generated from the three-dimensional model arranged in the virtual space determined in the three-dimensional model operation step and the real image. A three-dimensional image integration step of integrating the combined multi-view image sequence generated in the multi-view image sequence generation step into a three-dimensional image. The features.

請求項11に記載の発明に係る画像処理方法では、請求項10記載の画像処理方法において、前記多視点画像シーケンス生成工程は、実写多視点画像と仮想空間多視点画像それぞれを生成してから合成することを特徴とする。   An image processing method according to an eleventh aspect of the present invention is the image processing method according to the tenth aspect, wherein the multi-view image sequence generation step generates a real-view multi-view image and a virtual space multi-view image, respectively, and then synthesizes them. It is characterized by doing.

請求項12に記載の発明に係る画像処理方法では、請求項10記載の画像処理方法において、前記多視点画像シーケンス生成工程は、仮想空間多視点画像を生成する際に、作成する奥行き情報を参照し、奥行き情報からその画素が三次元モデルか否かを判定し、三次元モデルの場合は仮想空間多視点画像を用い、三次元モデルで無い場合は実写多視点画像を用いて合成画像を生成することを特徴とする。   The image processing method according to a twelfth aspect of the present invention is the image processing method according to the tenth aspect, wherein the multi-view image sequence generation step refers to depth information to be generated when generating a virtual space multi-view image. Then, it is determined from the depth information whether or not the pixel is a 3D model, and if it is a 3D model, a virtual space multi-viewpoint image is used. It is characterized by doing.

請求項13に記載の発明に係る画像処理方法では、請求項10または請求項12記載の画像処理方法において、前記多視点画像シーケンス生成工程は、仮想空間多視点画像を生成する際に作成する奥行き情報を参照し、算出したい画素と同一座標の奥行き情報が三次元モデルか否かを判定し、三次元モデルの場合は仮想空間多視点画像を利用し、該画素が三次元モデルで無い場合は立体画像情報より該画素を生成し合成画像を生成することを特徴とする。   The image processing method according to claim 13 is the image processing method according to claim 10 or 12, wherein the multi-view image sequence generation step generates a depth when generating a virtual space multi-view image. Refer to the information to determine whether the depth information at the same coordinates as the pixel to be calculated is a three-dimensional model. If the pixel is not a three-dimensional model, use a virtual space multi-viewpoint image. The pixel is generated from stereoscopic image information to generate a composite image.

請求項14に記載の発明に係る画像処理方法では、請求項10または請求項11または請求項12または請求項13記載の画像処理方法において、前記多視点画像シーケンス生成工程は、実写多視点画像と仮想空間多視点画像シーケンスは同一の撮影視点順序で多視点画像を生成し合成することを特徴とする。   In an image processing method according to a fourteenth aspect of the present invention, in the image processing method according to the tenth, eleventh, twelfth, or thirteenth aspect, the multi-view image sequence generation step includes: The virtual space multi-view image sequence is characterized by generating and synthesizing multi-view images in the same shooting viewpoint order.

請求項15に記載の発明に係る画像処理方法では、請求項10記載の画像処理方法において、前記三次元モデル移動工程は、前記仮想空間構築工程において決定した三次元モデルの移動範囲に接したり超えたりした場合、その旨を操作者に呈示することを特徴とする。   The image processing method according to claim 15 is the image processing method according to claim 10, wherein the three-dimensional model moving step touches or exceeds the moving range of the three-dimensional model determined in the virtual space construction step. In such a case, the operator is notified to that effect.

請求項16に記載の発明に係る画像処理方法では、立体画像観察パラメータから仮想空間画像を生成するための仮想空間画像生成パラメータ決定工程と、前記仮想空間画像生成パラメータ決定工程によって決定されたパラメータに基づいて仮想空間多視点画像シーケンスを生成する仮想空間多視点画像シーケンス生成工程と、前記仮想空間多視点画像シーケンス生成工程で生成されたと仮想空間多視点画像シーケンスと前記多視点画像シーケンスとを合成する画像合成工程と、前記実写仮想空間画像合成工程によって合成された合成画像を三次元画像として統合する三次元画像統合工程とを有することを特徴とする。   In the image processing method according to the sixteenth aspect of the present invention, a virtual space image generation parameter determination step for generating a virtual space image from a stereoscopic image observation parameter, and a parameter determined by the virtual space image generation parameter determination step are used. A virtual space multi-view image sequence generation step for generating a virtual space multi-view image sequence based on the virtual space multi-view image sequence generation step, and the virtual space multi-view image sequence and the multi-view image sequence generated in the virtual space multi-view image sequence generation step It has an image composition process, and a 3D image integration process for integrating the composite image synthesized by the live-action virtual space image composition process as a 3D image.

請求項17に記載の発明に係る画像処理方法では、請求項16に記載の画像処理方法において、前記仮想空間画像生成パラメータ決定工程において、仮想空間の三次元モデルを実空間の手前側に配置することを特徴とする。   The image processing method according to claim 17 is the image processing method according to claim 16, wherein in the virtual space image generation parameter determination step, a three-dimensional model of the virtual space is arranged on the near side of the real space. It is characterized by that.

請求項18に記載の発明に係る画像処理方法では、請求項16に記載の画像処理方法において、前記仮想空間画像生成パラメータ決定工程において、仮想空間に配置された三次元モデルの最近距離と最遠距離を再現する仮想空間領域としてパラメータを決定することを特徴とする。   The image processing method according to an eighteenth aspect of the present invention is the image processing method according to the sixteenth aspect, wherein in the virtual space image generation parameter determination step, the nearest distance and the farthest distance of the three-dimensional model arranged in the virtual space. A parameter is determined as a virtual space region for reproducing the distance.

以上詳説したように、請求項1乃至請求項6記載の発明に係る画像合成装置によれば、実写立体画像と仮想空間上に構成した三次元モデルから生成した仮想画像を立体的に違和感なくかつ容易な三次元画像を合成することが可能となる。   As described in detail above, according to the image synthesizing apparatus according to the first to sixth aspects of the present invention, the real image stereoscopic image and the virtual image generated from the three-dimensional model configured on the virtual space can be displayed in a three-dimensional manner without any sense of incongruity. It becomes possible to synthesize an easy three-dimensional image.

請求項7乃至請求項9記載の画像合成装置によれば、実写画像に整合した仮想空間を構築しない場合においても立体的に違和感なく容易に三次元画像を合成することができる。   According to the image synthesizing apparatus of the seventh to ninth aspects, it is possible to easily synthesize a three-dimensional image without a sense of incongruity three-dimensionally even when a virtual space matched with a real image is not constructed.

請求項10乃至請求項15記載の発明に係る画像合成方法によれば、実写立体画像と仮想空間上に構成した三次元モデルから生成した仮想画像を立体的に違和感なくかつ容易な三次元画像を合成することが可能となる。   According to the image synthesizing method according to any one of claims 10 to 15, a three-dimensional image that is three-dimensionally comfortable and easy to sense a stereoscopic image and a virtual image generated from a three-dimensional model configured on a virtual space. It is possible to synthesize.

請求項16乃至請求項18記載の画像合成装置によれば、実写画像に整合した仮想空間を構築しない場合においても立体的に違和感なく容易に三次元画像を合成することができる。   According to the image synthesizing apparatus of the sixteenth to eighteenth aspects, it is possible to easily synthesize a three-dimensional image without a sense of incongruity three-dimensionally even when a virtual space matched with a photographed image is not constructed.

(第一の実施例)
以下、図面を参照して本発明の実施形態を詳細に説明する。
(First embodiment)
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の実施形態に係る画像合成システムの構成を示すブロック図である。100は立体画像入力装置で、複数の視点位置で撮影されたステレオ画像を入力する装置で、例えば、特開2001−346226に記載のカメラにステレオアダプタを装着したもので構成してもよいし、被写体が動かないような場合は左右にスライドする雲台にカメラを取り付けて左右2画像出力してもよい。図2に左右2系統の画像を取得した場合の概略を示す。201は被写体で、L202、R203はそれぞれ基線長bだけ離れた左右の視点中心であり、焦点距離fだけ離れた画像面IL、IRを本来結像する焦点面とは逆にカメラ前面に模式的に表している。103は画像合成装置を示しており、立体画像入力装置100から複数の視点位置から撮影されたステレオ画像と、仮想空間上に配置された三次元モデルから生成された仮想空間画像とを合成し三次元統合画像を生成する装置で、例えば汎用のパーソナルコンピュータにより構成される。101は2次元表示装置で、立体画像入力装置100より入力された画像や画像合成装置103で処理あるいは合成された画像を表示するCRTディスプレイ等で構成される。105は操作入力装置で、操作者が画像合成装置103に操作コマンドを指示したり、2次元表示装置101に表示されている三次元モデルを回転・移動・拡大・縮小させたりするポインティングデバイスであるマウスやジョイスティック等で構成される。104は印刷装置であり、画像合成装置103で生成・表示されている画像データ等を印刷するように構成されている。なお、立体画像入力装置100、印刷装置104、操作入力装置105と画像合成装置との接続はUSB(Universal Serial Bus)等のインターフェースを用いることにより行われている。   FIG. 1 is a block diagram showing a configuration of an image composition system according to an embodiment of the present invention. A stereoscopic image input device 100 is a device for inputting stereo images taken at a plurality of viewpoint positions. For example, the stereo image input device may be configured by mounting a stereo adapter on a camera described in JP-A-2001-346226. If the subject does not move, the left and right images may be output by attaching the camera to a pan that slides to the left and right. FIG. 2 shows an outline in the case of acquiring left and right two-line images. 201 is a subject, L202 and R203 are center points of left and right viewpoints separated by a base line length b, respectively, and are schematically shown in front of the camera as opposed to a focal plane that originally forms image planes IL and IR separated by a focal length f. It represents. Reference numeral 103 denotes an image composition device, which combines a stereo image taken from a plurality of viewpoint positions from the stereoscopic image input device 100 and a virtual space image generated from a three-dimensional model arranged in the virtual space to obtain a tertiary. An apparatus for generating an original integrated image, for example, a general-purpose personal computer. A two-dimensional display device 101 includes a CRT display that displays an image input from the stereoscopic image input device 100 and an image processed or combined by the image combining device 103. Reference numeral 105 denotes an operation input device, which is a pointing device that allows an operator to instruct an operation command to the image composition device 103, and to rotate, move, enlarge, or reduce the 3D model displayed on the 2D display device 101. Consists of mouse and joystick. A printing apparatus 104 is configured to print image data and the like generated and displayed by the image composition apparatus 103. Note that the stereoscopic image input device 100, the printing device 104, and the operation input device 105 are connected to the image composition device by using an interface such as a USB (Universal Serial Bus).

次に画像合成装置103内の内部ブロック図の構成を説明する。   Next, the configuration of an internal block diagram in the image composition apparatus 103 will be described.

1031は立体画像入力装置100から入力されたステレオ画像から視差マップ等を生成する回路で構成される。1032は仮想空間画像生成部で、仮想空間内に配置された三次元モデルから生成した画像と立体画像入力装置100から入力され、後段で説明する立体画像情報生成部1031で設定された基準画像とを合成し、2次元表示装置101に合成画像を表示する回路で構成される。1033は三次元モデル記憶部で、幾何形状情報と表面属性情報あるいは表面用のテクスチャ画像情報などを記憶しておく補助記憶装置で構成される。1035は仮想空間構築で、立体画像情報生成部1031からの視差マップ等のパラメータを用いて仮想空間を構築する回路で構成される。1036は三次元モデル操作部で、操作者からの三次元モデルに対する操作を入力する操作入力部105から入力された情報を実際の仮想空間における三次元モデルへの移動・回転・拡大・縮小などの操作量に変換し、所定の操作範囲を超えた際には操作者にその旨を呈示したりなどを行う回路で構成される。1034は多視点画像シーケンス生成部で、後述するように立体画像入力装置100から入力されたステレオ画像を利用して実写多視点画像シーケンスを生成し、また、仮想空間多視点画像シーケンスを生成する回路で構成される。1037は三次元画像合成部で、多視点画像シーケンス生成部で生成された実写多視点画像シーケンスと仮想空間多視点画像シーケンスを三次元画像として合成する回路から構成されている。   Reference numeral 1031 denotes a circuit that generates a parallax map or the like from the stereo image input from the stereoscopic image input apparatus 100. Reference numeral 1032 denotes a virtual space image generation unit, an image generated from a three-dimensional model arranged in the virtual space, a reference image input from the stereoscopic image input device 100 and set by a stereoscopic image information generation unit 1031 described later, and And a circuit for displaying the composite image on the two-dimensional display device 101. Reference numeral 1033 denotes a three-dimensional model storage unit which includes an auxiliary storage device that stores geometric shape information and surface attribute information or surface texture image information. Reference numeral 1035 denotes a virtual space construction, which includes a circuit that constructs a virtual space using parameters such as a parallax map from the stereoscopic image information generation unit 1031. Reference numeral 1036 denotes a three-dimensional model operation unit, and information input from the operation input unit 105 that inputs an operation on the three-dimensional model from the operator is used to move, rotate, enlarge, reduce, and the like to the three-dimensional model in the actual virtual space. It is composed of a circuit that converts it into an operation amount and presents it to the operator when a predetermined operation range is exceeded. A multi-view image sequence generation unit 1034 generates a real-shot multi-view image sequence using a stereo image input from the stereoscopic image input apparatus 100 as will be described later, and also generates a virtual space multi-view image sequence. Consists of. Reference numeral 1037 denotes a three-dimensional image synthesis unit, which includes a circuit that synthesizes a real-shot multi-view image sequence generated by the multi-view image sequence generation unit and a virtual space multi-view image sequence as a three-dimensional image.

次に図3を用いて、本実施形態における画像合成装置103における処理プログラムの流れを詳細に説明する。   Next, the flow of the processing program in the image composition apparatus 103 in this embodiment will be described in detail with reference to FIG.

S301は立体画像情報生成ステップで、立体画像入力装置100で入力したステレオ画像と撮影した際のカメラパラメータ(視点間の基線長や焦点距離等)を入力し、被写体までの奥行き分布を表す視差マップを生成する。この際にステレオ画像のうち左画像を基準画像として決定する。右画像を基準画像としても問題ないが、その際、視差マップの視差を算出する基準画像を右画像として再計算する必要がある。立体画像情報生成ステップS301は、特開2001−346226に記載の手法で構成される。   S301 is a stereoscopic image information generation step, in which a stereo image input by the stereoscopic image input apparatus 100 and camera parameters at the time of shooting (baseline length, focal length, etc. between viewpoints) are input, and a parallax map representing a depth distribution to the subject Is generated. At this time, the left image of the stereo images is determined as the reference image. There is no problem even if the right image is used as the reference image, but at this time, the reference image for calculating the parallax of the parallax map needs to be recalculated as the right image. The stereoscopic image information generation step S301 is configured by the method described in JP-A-2001-346226.

S302は仮想空間構築ステップで、立体画像情報生成ステップS301で生成された視差マップおよびステレオカメラからカメラパラメータから仮想空間を構築する。構築される仮想空間の例を図4(a)に示す。401は被写体を表しており、402は仮想空間内の仮想カメラ中心を表している。立体画像入力装置から入力したカメラパラメータと、立体画像情報生成部101で算出した視差マップより、最大/最小距離を算出する。最大視差dmaxまでの距離をZnr、最小視差dminまでの距離をZfrとして、視差とカメラ基線長の関係より式(2)で算出する。 S302 is a virtual space construction step, in which a virtual space is constructed from the parallax map generated in the stereoscopic image information generation step S301 and the camera parameters from the stereo camera. An example of the constructed virtual space is shown in FIG. 401 represents the subject, and 402 represents the center of the virtual camera in the virtual space. The maximum / minimum distance is calculated from the camera parameters input from the stereoscopic image input device and the parallax map calculated by the stereoscopic image information generation unit 101. The distance to the maximum parallax d max is set as Z nr , and the distance to the minimum parallax d min is set as Z fr , which is calculated from the relationship between the parallax and the camera base line length according to Expression (2).

nr=b・f/dmax 、 Zfr=b・f/dmin ---- (2)
次に仮想カメラに対し透視投影を行う領域を立体画像情報生成部101で決定した基準画像の縦横比A=W/Hに一致させる。ここで、W、Hは実際に立体画像情報生成部の基準画像の横画素数、縦画素数を表す。この時、仮想カメラへの透視投影中心402と透視投影領域で張られる四角錐を最遠距離Zfrまで延長した空間において、仮想カメラから奥行き方向にZnr〜Zfrまでの領域を仮想空間のビューボリューム405として構築する。このビューボリューム405に配置される三次元モデルが仮想空間画像として描画される。
Z nr = b · f / d max , Z fr = b · f / d min ---- (2)
Next, the region on which the perspective projection is performed on the virtual camera is matched with the aspect ratio A = W / H of the reference image determined by the stereoscopic image information generation unit 101. Here, W and H actually represent the number of horizontal pixels and the number of vertical pixels of the reference image of the stereoscopic image information generation unit. At this time, in the space obtained by extending the perspective projection center 402 to the virtual camera and the quadrangular pyramid extending from the perspective projection area to the farthest distance Z fr , the area from Z nr to Z fr in the depth direction from the virtual camera is represented in the virtual space. A view volume 405 is constructed. A three-dimensional model arranged in the view volume 405 is drawn as a virtual space image.

S303は実写・CG合成表示ステップで、三次元モデルを仮想空間構築ステップS302で構築した仮想空間上に配置した画像と、立体画像情報生成ステップS301の決定された基準画像との合成画像を生成し、2次元表示装置101に合成画像を表示する。その合成時の鳥瞰図を図4(b)に示す。これは図4(a)にて構築された仮想空間に三次元モデル406が配置された様子を示している。このビューモデル内を透視投影して合成した画像を図5に示す。合成画像を生成するには、まず、背景501として立体画像情報生成部101で基準画像として決定した実写画像を背景として仮想空間上に生成し、その後に三次元モデル502、503を透視投影していくという順序で画像を生成していく。このことで、2次元画像表示装置106に図5に示されるような実写・CG合成画像が表示される。   S303 is a live-action / CG composite display step, which generates a composite image of the image in which the three-dimensional model is arranged in the virtual space constructed in the virtual space construction step S302 and the reference image determined in the stereoscopic image information generation step S301. The composite image is displayed on the two-dimensional display device 101. A bird's-eye view at the time of synthesis is shown in FIG. This shows a state in which the three-dimensional model 406 is arranged in the virtual space constructed in FIG. FIG. 5 shows an image synthesized by perspective projection in the view model. In order to generate a composite image, first, a live-action image determined as a reference image by the stereoscopic image information generation unit 101 as a background 501 is generated as a background on a virtual space, and then the three-dimensional models 502 and 503 are perspectively projected. The images are generated in the order of going. Thus, a live-action / CG composite image as shown in FIG. 5 is displayed on the two-dimensional image display device 106.

S304はCGモデルレイアウトステップで、操作入力装置105を介して2次元表示装置101に表示されている合成画像の三次元モデルを選択し、移動・回転・拡大・縮小などの操作を介して行う。その概要の図5を用いて説明すると、今、複数ある三次元モデルの中で、三角錐502を選択した場合、選択された三角錐502の三次元モデルの外接四角形504が表示されることで、操作者に選択されている三次元モデルが明示され、この選択されている三次元モデルに対して操作を行う。図6(a)で奥行き方向への移動について説明する。図6(a)は、図5のように透視投影される画像で、図4(b)に表示されているビューボリュームのX−Z平面の概略を示しており、601が実写で撮影された主被写体、602、603が三次元モデルであり、604が選択されている三次元モデル602の外接矩形を表している。ここで、三次元モデル602を奥行き方向に移動させているとき、図5のような編集画面では主被写体601よりも奥に配置することは可能である。そのため、最終的に立体合成画像を生成した際に、奥側に位置されているはずの三次元モデル像が手前にいる主被写体と重なって立体視されてしまい、正しい奥行き情報を再現できなくなる。そこで、図6(a)の斜線で囲まれた領域、即ち、主被写体の手前側までの距離Zlrからビューボリュームの最近距離Zまでの空間を三次元モデル移動可能空間605として、その領域から三次元モデルの外接矩形604が領域外に出るようなことが無いようにチェックする。もし、選択した三次元モデルが三次元モデル移動可能空間605の境界に衝突したような場合、画面を光らせたりあるいは音を出力するなどで三次元モデルを奥行き方向に移動できないことを通知してもよい。また、図6(b)の斜線で示されている領域606のように、撮影位置に対して主被写体601の奥側に隠れない領域も加えた領域も三次元モデルを移動可能な領域としてもよい。ここでは、三次元モデル移動可能空間の奥行き方向を主被写体までの距離Zlrまでとしたが、主被写体より前に様々な被写体が存在するような場合は、その被写体までの距離としてもよい。また、図6に示すような図を利用者に提示して、三次元モデル移動可能空間605を編集あるいは操作することができてもよい。 S304 is a CG model layout step, in which a three-dimensional model of a composite image displayed on the two-dimensional display device 101 is selected via the operation input device 105, and is performed via operations such as movement, rotation, enlargement, and reduction. The outline will be described with reference to FIG. 5. When a triangular pyramid 502 is selected from among a plurality of three-dimensional models, a circumscribed rectangle 504 of the selected three-dimensional model of the triangular pyramid 502 is displayed. The 3D model selected by the operator is clearly specified, and the selected 3D model is operated. The movement in the depth direction will be described with reference to FIG. FIG. 6A is an image that is perspective-projected as shown in FIG. 5 and shows an outline of the XZ plane of the view volume displayed in FIG. 4B. A main subject, 602 and 603 are three-dimensional models, and 604 represents a circumscribed rectangle of the selected three-dimensional model 602. Here, when the three-dimensional model 602 is moved in the depth direction, it can be arranged behind the main subject 601 on the editing screen as shown in FIG. For this reason, when a three-dimensional composite image is finally generated, the three-dimensional model image that should be positioned on the back side is stereoscopically overlapped with the main subject in front, and correct depth information cannot be reproduced. Therefore, the region surrounded by oblique lines in FIG. 6 (a), the words, as a space three-dimensional model movable space 605 from the distance Z lr to the front side of the main object to the shortest distance Z n of the view volume, that region To check that the circumscribed rectangle 604 of the three-dimensional model does not go out of the area. If the selected 3D model collides with the boundary of the 3D model movable space 605, even if it is notified that the 3D model cannot be moved in the depth direction by shining the screen or outputting sound. Good. In addition, a region in which a region that is not hidden behind the main subject 601 with respect to the photographing position is added as a region where the three-dimensional model can be moved, such as a region 606 indicated by diagonal lines in FIG. Good. Here, the depth direction of the three-dimensional model movable space is set to the distance Z lr to the main subject. However, when various subjects exist before the main subject, the distance to the subject may be used. Further, it may be possible to edit or operate the three-dimensional model movable space 605 by presenting a diagram as shown in FIG. 6 to the user.

S305は多視点画像シーケンス生成ステップで、立体画像情報生成ステップS301で算出された基準画像と視差マップ等から実写画像多視点画像シーケンスと、仮想空間構築ステップS302で構築された仮想空間に配置され表示装置106に表示されていると三次元モデルから生成される仮想空間から生成する仮想空間多視点画像シーケンスとを合成した多視点画像シーケンスを生成する。   S305 is a multi-viewpoint image sequence generation step, which is arranged and displayed in the virtual space constructed in the virtual space construction step S302 and the real-image multi-viewpoint image sequence based on the reference image and the parallax map calculated in the stereoscopic image information generation step S301. When displayed on the device 106, a multi-viewpoint image sequence is generated by combining a virtual space multi-viewpoint image sequence generated from a virtual space generated from a three-dimensional model.

図7は、多視点画像シーケンス生成ステップS305の処理の流れを示している。ステップS701は実写多視点画像シーケンス生成部で、立体画像情報生成ステップS301の基準画像および生成された視差マップから多視点画像シーケンスを生成する。多視点画像シーケンス生成部の処理は、特開2001−346226に記載の多視点画像シーケンスを生成する手法を用いて実現することができる。   FIG. 7 shows the flow of processing in the multi-viewpoint image sequence generation step S305. Step S701 is a live-action multi-view image sequence generation unit that generates a multi-view image sequence from the reference image and the generated parallax map in the stereoscopic image information generation step S301. The processing of the multi-viewpoint image sequence generation unit can be realized using a technique for generating a multi-viewpoint image sequence described in JP-A-2001-346226.

ステップS702は仮想空間多視点画像生成パラメータ決定ステップで、2次元表示装置101に表示されている状態の仮想空間のパラメータおよび立体画像情報生成ステップS301で生成された視差マップ等を用いて多視点画像を生成するための仮想空間内のパラメータを決定する。   Step S702 is a virtual space multi-view image generation parameter determination step, which uses the virtual space parameters displayed on the two-dimensional display device 101, the parallax map generated in the stereoscopic image information generation step S301, and the like. Determine the parameters in the virtual space to generate.

図8を用いて仮想空間でのパラメータ生成を説明する。図8は図4(b)のようにレイアウトされているビューボリュームのX−Z平面を示しており、三次元モデル801、802が図のように配置されており、その際の仮想カメラ804は位置X0に配置されているとする。また、一般的にレンチキュラー板などで観察するような立体画像を生成する際、主被写体付近を視差0になるよう視差を調整する場合が多いため、主被写体が存在する奥行きZ0r付近を視差0になるように仮想空間多視点画像シーケンスを生成する必要がある。まず、ビューボリュームのZnr、Zfrおよび視差を0に調整したい距離Z0rとする。また、立体画像入力装置100で実際に撮影された際のカメラ基線長bは、所定の固定値として記憶していてもよいし、仮想空間生成時に操作者に典型的な値を選択してもらってもよい。仮想カメラの移動範囲は、位置X0を中心として左右対称に、また、等間隔に仮想カメラを配置あるいは移動して画像を生成するよう仮想カメラ位置パラメータを設定する。 Parameter generation in the virtual space will be described with reference to FIG. FIG. 8 shows the XZ plane of the view volume laid out as shown in FIG. 4B. The three-dimensional models 801 and 802 are arranged as shown in the figure, and the virtual camera 804 at that time is It is assumed that it is arranged at the position X0. Also, when generating a stereoscopic image as commonly observed in such a lenticular plate, since in many cases to adjust the parallax so that the vicinity of the main object on the disparity 0, disparity near depth Z 0r the main subject exists 0 Therefore, it is necessary to generate a virtual space multi-viewpoint image sequence. First, let Z nr , Z fr of the view volume and the distance Z 0r to adjust the parallax to zero. In addition, the camera base line length b when actually captured by the stereoscopic image input apparatus 100 may be stored as a predetermined fixed value, or a typical value is selected by the operator when the virtual space is generated. Also good. The movement range of the virtual camera is set so that the virtual camera position parameter is generated so that an image is generated by arranging or moving the virtual camera symmetrically about the position X0 and at equal intervals.

ステップS703は仮想空間多視点画像シーケンス生成ステップで、仮想空間の多視点画像シーケンスを生成する。この際は、前述の2次元表示装置106に表示される場合(図3のステップS303)とは異なり、背景として基準画像を描画せず、直接仮想空間のみを透視変換することで投影像を生成していく。この時、後段の画像合成ステップS704において、実写多視点画像シーケンス生成ステップで生成された実写多視点画像シーケンスと仮想空間多視点画像シーケンス生成ステップS703で生成された仮想空間多視点画像シーケンスとを合成するため、ステップS703で生成する仮想空間多視点画像の背景は所定の色あるいは所定の輝度値で初期化しておくことで、クロマキー合成を行うことが可能となる。また、生成した仮想空間多視点画像それぞれについて、奥行き距離Z0rで視差が0となるよう画像を平行移動して調整しておく。仮想空間多視点画像シーケンスを生成する順序は、特開2001−346226にも記載があるように、レンチキュラー板で観察する場合を考慮して、逆順にストライプ上に画像を並べることを考慮して逆順(右側→左側)で生成してもよいし、あるいはその逆でもよい。即ち実写多視点画像シーケンス生成手段と同じ順序で生成することで、後段の画像合成S704での制御を容易にすることができる。 Step S703 is a virtual space multi-view image sequence generation step, which generates a virtual space multi-view image sequence. In this case, unlike the case where the image is displayed on the above-described two-dimensional display device 106 (step S303 in FIG. 3), a projection image is generated by directly perspective-transforming only the virtual space without drawing a reference image as a background. I will do it. At this time, in the subsequent image synthesizing step S704, the real multi-view image sequence generated in the real multi-view image sequence generating step and the virtual space multi-view image sequence generated in the virtual space multi-view image sequence generating step S703 are combined. Therefore, the chroma key composition can be performed by initializing the background of the virtual space multi-viewpoint image generated in step S703 with a predetermined color or a predetermined luminance value. Further, for each of the generated virtual space multi-viewpoint images, the images are translated and adjusted so that the parallax becomes 0 at the depth distance Z0r . As described in Japanese Patent Laid-Open No. 2001-346226, the order of generating the virtual space multi-viewpoint image sequence is reversed in consideration of arranging images on stripes in reverse order in consideration of observation with a lenticular plate. (Right side → left side), or vice versa. That is, by generating in the same order as the live-action multi-viewpoint image sequence generating means, it is possible to facilitate the control in the subsequent image composition S704.

ステップS704は画像合成ステップで、実写多視点画像シーケンス生成ステップS701および仮想空間多視点画像シーケンス生成ステップS704で生成された各多視点画像シーケンスを合成する。具体的には、前述のとおり、仮想空間画像で所定の色などで初期化された画素の部分は実写多視点画像から、それ以外は仮想空間画像から複製することで容易に合成画像を得ることができる。あるいは、仮想空間多視点画像シーケンス生成ステップS703で仮想空間画像を生成する際に、各視点位置での奥行き情報を保存しておき、画像合成ステップS704において奥行き情報の最遠点である部分のみ実写画像から複製し、それ以外は仮想空間画像から複製するというふうに構成すれば、クロマキー合成のように三次元モデル内に所定の色あるいは輝度が存在した場合に、その部分に実写画像が誤って合成されるような問題は発生しなくなるといった効果がある。あるいは、多視点画像シーケンス生成部において、仮想空間画像を生成する際に、各視点位置での奥行き情報を保存しておき、その奥行き情報のなかで最遠点にある画素の部分を立体画像情報生成ステップS301で生成された基準画像と奥行きマップから直接フォワードマッピングするようにしてもよい。このことで、実写画像多視点画像シーケンスを視点位置毎に生成する必要がなく、必要な位置の実写画像のみを生成することができ、記憶メモリの容量削減や処理の高速化が達成できるといった効果がある。   Step S704 is an image synthesis step, in which the multi-view image sequences generated in the live-action multi-view image sequence generation step S701 and the virtual space multi-view image sequence generation step S704 are combined. Specifically, as described above, it is possible to easily obtain a composite image by duplicating a pixel portion initialized with a predetermined color or the like in a virtual space image from a live-action multi-viewpoint image, and other portions from the virtual space image. Can do. Alternatively, when the virtual space image is generated in the virtual space multi-viewpoint image sequence generation step S703, the depth information at each viewpoint position is stored, and only the portion that is the farthest point of the depth information is captured in the image composition step S704. If it is configured so that it is duplicated from the image and the others are duplicated from the virtual space image, if there is a predetermined color or brightness in the 3D model as in chroma key composition, the live-action image will be mistaken for that part. There is an effect that problems such as synthesis do not occur. Alternatively, when the virtual viewpoint image is generated in the multi-viewpoint image sequence generation unit, the depth information at each viewpoint position is stored, and the part of the pixel at the farthest point in the depth information is displayed as the stereoscopic image information. You may make it perform forward mapping directly from the reference | standard image produced | generated by production | generation step S301, and a depth map. As a result, it is not necessary to generate a live-action image multi-viewpoint image sequence for each viewpoint position, and only a live-action image at a required position can be generated, thereby reducing the storage memory capacity and increasing the processing speed. There is.

S306は三次元画像統合ステップで、多視点画像シーケンス生成ステップS307で生成した多視点画像シーケンスを三次元画像に合成し、印刷装置104にて印刷する。三次元画像統合ステップS306は、先に本出願人より提案されている特開2001−346226に記載の三次元画像合成手段により実現可能である。   S306 is a three-dimensional image integration step, in which the multi-view image sequence generated in the multi-view image sequence generation step S307 is combined with a three-dimensional image and printed by the printing apparatus 104. The three-dimensional image integration step S306 can be realized by the three-dimensional image synthesizing means described in JP-A-2001-346226 previously proposed by the present applicant.

ステップS307は印刷ステップで、三次元画像統合ステップS306で合成された三次元画像を印刷する。印刷結果にレンチキュラー板等の光学部材を重ね合わせて観察することで、良好な立体画像を観察することが可能となる。   Step S307 is a printing step, and the three-dimensional image synthesized in the three-dimensional image integration step S306 is printed. By observing an optical member such as a lenticular plate superimposed on the printing result, a good stereoscopic image can be observed.

以上のように、利用者は撮影した立体画像とを実際に印刷することなく2次元表示装置上でレイアウトすることが可能となり、立体的に違和感の無い高品位な立体画像を得ることができる。   As described above, the user can lay out the captured stereoscopic image on the two-dimensional display device without actually printing it, and can obtain a high-quality stereoscopic image that is not three-dimensionally uncomfortable.

(第二の実施例)
第一の実施例において、仮想空間を構築する仮想空間構築ステップS302では、立体画像情報生成ステップS301で生成された視差マップ等、被写体までの奥行き情報を利用して仮想空間を生成するようにしていたが、この生成される視差マップ等を利用せずに構成することも可能である。即ち、最終的に観察するレンチキュラー板によって構成される三次元空間で整合性を保つよう画像を合成するというアプローチで、実写画像と仮想空間画像を合成することも可能である。以下、この方法について説明する。
(Second embodiment)
In the first embodiment, in the virtual space construction step S302 for constructing the virtual space, the virtual space is generated using the depth information to the subject such as the parallax map generated in the stereoscopic image information generation step S301. However, it is possible to configure without using the generated parallax map or the like. That is, it is also possible to synthesize a real image and a virtual space image by an approach of synthesizing images so as to maintain consistency in a three-dimensional space constituted by a lenticular plate to be finally observed. Hereinafter, this method will be described.

本実施例では、第一の実施例との装置構成の変更はなく、図7における仮想空間多視点画像生成パラメータ決定ステップS702を変更することで実現可能である。図12を用いてこの変更概要を説明する。図12(a)はレンチキュラー板で再生される三次元空間のX−Z平面を示しており、観察するレンチキュラー板で観察する際の最適な最大/最小視差dmax、dminを表している。観察に最適な最大/最小よりも視差を大きくしたり小さくした画像を観察した場合は、適切な立体感が得られなかったり、観察者が疲れやすかったりするなどの不具合が発生する可能性が高いため、最適な最大/最小視差といった制限を設けることは一般的である。図中のdは、印刷面で沈み込みも浮き出しもない視差0を意味している。ここで、第一の実施例においても記述したように実写空間と仮想空間との奥行き方向の整合性を保つため、図にあるようにレンチキュラー板で再現される三次元空間のうち、dmax〜dmin’1202を仮想空間に、dmin’〜dmin1201を実写空間に割り当てるようにすることで、再生された場合にも立体的に間違いが発生しない立体写真を合成することが可能となる。 In the present embodiment, there is no change in the apparatus configuration as in the first embodiment, and this can be realized by changing the virtual space multi-viewpoint image generation parameter determination step S702 in FIG. The outline of this change will be described with reference to FIG. FIG. 12A shows an XZ plane of a three-dimensional space reproduced by a lenticular plate, and represents optimum maximum / minimum parallax d max and d min when observing with the lenticular plate to be observed. When observing an image with a parallax larger or smaller than the maximum / minimum optimum for observation, there is a high possibility that an appropriate stereoscopic effect may not be obtained or that the observer may become tired. Therefore, it is common to provide a restriction such as the optimum maximum / minimum parallax. In the figure, d 0 means parallax 0 that does not sink or rise on the printing surface. Here, in order to keep the depth direction of the consistency with the live-action and virtual spaces as described also in the first embodiment, of the three-dimensional space to be reproduced by the lenticular plate as in FIG, d max ~ d min '1202 in the virtual space, d min' by to assign to d min 1201 live-action space, it is possible to synthesize a three-dimensional photographs in three dimensions is inaccurate not occur even if it is reproduced .

次に、図12(b)を用いて、仮想空間多視点内で所定の視差を持つように仮想空間画像を生成するための仮想カメラ移動範囲を決定する方法を説明する。図において、Znv、Zfvはそれぞれ仮想空間にレイアウトされた最近/最遠距離でここでは、三次元モデルが配置されている最近面/最遠面としている。これは、仮想空間内の三次元モデルの配置情報から容易に算出できる。また、Z0vは、図12(a)のd、即ち、視差が0となって欲しい距離を表している。この配置において、ZnvからZfvまでの空間を図12(a)に示すように視差dmax、dmin’として表現されるような仮想カメラ移動範囲Bと、仮想カメラ移動範囲Bで画像を生成した際に奥行きZ0vで視差を0とするための仮想画像を平行移動させる移動量Δpを算出する。 Next, a method for determining a virtual camera movement range for generating a virtual space image so as to have a predetermined parallax within the virtual space multi-viewpoint will be described with reference to FIG. In the figure, Z nv and Z fv are the nearest / farthest distances laid out in the virtual space, respectively, and are the nearest / farthest planes on which the three-dimensional model is arranged. This can be easily calculated from the arrangement information of the three-dimensional model in the virtual space. Z 0v represents d 0 in FIG. 12A, that is, a distance at which the parallax is desired to be zero. In this arrangement, a space from Z nv to Z fv is represented by a virtual camera movement range B such that parallax d max and d min ′ are represented as shown in FIG. A movement amount Δp that translates the virtual image for setting the parallax to 0 at the depth Z 0v when it is generated is calculated.

今、仮想空間内での焦点距離をf’、奥行きZnv、Zfv,Z0vでの本来の視差をそれぞれd、d、dとすると、各視差は式(3)のように表現できる。 Now, assuming that the focal length in the virtual space is f ′, and the original parallaxes at the depths Z nv , Z fv , and Z 0v are d n , d f , and d 0 , each parallax is expressed by Equation (3) Can express.

=Bf’/Znv、d=Bf’/Zfv、d=Bf’/Z0v ---- (3)
また、Z0vでの視差が0となるよう生成した仮想画像を適当に平行移動させるので、各位置の実際の視差からdを減算すればよいので,式(4)のように表現できる。
d n = Bf '/ Z nv , d f = Bf' / Z fv, d 0 = Bf '/ Z 0v ---- (3)
In addition, since the generated virtual image is appropriately translated so that the parallax at Z 0v becomes 0 , d 0 may be subtracted from the actual parallax at each position, and therefore, it can be expressed as in Expression (4).

’=d−d 、 d’=d−d 、 d’=0 ---- (4)
今、d’=dmax、d’=dmin’として与えられ、かつ、仮想空間のZnv、Zfvが与えられ時のカメラの移動量B、Zを計算する。今、Z0v=αZnv、Zfv=AZnv(α、A:定数)とおくと、式(5)のようになる。
d n '= d n -d 0 , d f' = d f -d 0, d 0 '= 0 ---- (4)
Now, the camera movement amounts B and Z 0 are calculated when given as d n ′ = d max and d f ′ = d min ′, and when Z nv and Z fv in the virtual space are given. Now, if Z 0v = αZ nv and Z fv = AZ nv (α, A: constant), then Equation (5) is obtained.

’=Bf’/Znv −Bf’/αZnv=Bf’(1−1/α)/Znv
’=Bf’/AZnv−Bf’/αZnv=Bf’(1/A−1/α)/Znv ---- (5)
上記の関係から、カメラ撮影位置の距離Bは式(6)で算出できる。
d n '= Bf' / Z nv -Bf '/ αZ nv = Bf' (1-1 / α) / Z nv
d f '= Bf' / AZ nv -Bf '/ αZ nv = Bf' (1 / A-1 / α) / Z nv ---- (5)
From the above relationship, the distance B of the camera photographing position can be calculated by Expression (6).

B=Znv×d’/(f’(1−1/α))
=Znv×d’/(f’(1/A−1/α)) ---- (6)
ただし、αは式(7)で算出する。
B = Z nv × d n ' / (f' (1-1 / α))
= Z nv × d n '/ (f' (1 / A-1 / α)) ---- (6)
However, (alpha) is calculated by Formula (7).

α=(d’−d’)/(d’/A−d’)
=(d’−d’)/(d’Znv/Zfv−d’)- --- (7)
ここで、生成する画像数がN点の場合は、カメラ撮影間隔ΔB=B/(N−1)なので、i番目の撮影位置(i:0〜N−1)における平行移動量Δpは式(8)で算出可能である(ただし、Z0v=αZnvで算出する。)。
α = (d n ′ −d f ′) / (d n ′ / A−d f ′)
= (D n '-d f' ) / (d n 'Z nv / Z fv -d f') - --- (7)
Here, when the number of images to be generated is N, since the camera shooting interval ΔB = B / (N−1), the parallel movement amount Δp at the i-th shooting position (i: 0 to N−1) is expressed by the formula ( 8) (however, it is calculated by Z 0v = αZ nv ).

Δp=Δbf’×i/Z0v ---- (8)
上記で説明したパラメータを設定して生成した仮想多視点画像シーケンスと実写多視点画像シーケンスとを第一の実施例と同様に三次元画像として合成して印刷し、印刷結果にレンチキュラー板を重ね合わせることで、仮想空間多視点画像シーケンス生成パラメータを実写画像の三次元空間情報に整合させなくても、最終的に違和感のない立体写真を得ることができる。
Δp = Δbf '× i / Z 0v ---- (8)
The virtual multi-viewpoint image sequence generated by setting the parameters described above and the real-shot multi-viewpoint image sequence are combined and printed as a three-dimensional image in the same manner as in the first embodiment, and the lenticular plate is superimposed on the print result. As a result, it is possible to finally obtain a stereoscopic photograph without a sense of incongruity without matching the virtual space multi-viewpoint image sequence generation parameter with the three-dimensional spatial information of the real image.

また、本実施例の仮想空間多視点画像生成パラメータ決定手段を用いれば、実写多視点画像シーケンスのみを入力した場合においても仮想空間多視点画像シーケンスが可能であり、かつ、立体的に違和感のない三次元画像を得ることができることを意味している。よって、本画像合成装置内で実写ステレオ画像から視差マップなど生成したり保存したり、良好な三次元合成画像を生成することが可能で、処理速度や内部的な装置構成が簡略化を図ることができる効果が得られる。   In addition, if the virtual space multi-view image generation parameter determination unit according to the present embodiment is used, a virtual space multi-view image sequence is possible even when only a live-shot multi-view image sequence is input, and there is no sense of incongruity stereoscopically. This means that a three-dimensional image can be obtained. Therefore, it is possible to generate and save parallax maps from live-action stereo images within this image synthesizer, and to generate good 3D synthesized images, simplifying the processing speed and internal device configuration The effect that can be obtained.

今まで述べた実施形態では、三次元モデルを移動・回転・拡大・縮小など幾何学的操作のみを実行可能なように構成したが、画質的に自然な仮想空間画像を生成するために、仮想空間内の光源の種類やパラメータを実写との合成画像を観察しながら変更できるようにするようにしてもよい。   In the embodiments described so far, the three-dimensional model is configured so that only geometric operations such as movement, rotation, enlargement, and reduction can be executed. However, in order to generate a natural virtual space image in terms of image quality, The type and parameters of the light source in the space may be changed while observing the composite image with the real image.

また、本実施形態では、三次元モデル記憶部に三次元モデルを記憶するようにしたが、三次元モデルをネットワークから入力するようにしてもよい。   In this embodiment, the three-dimensional model is stored in the three-dimensional model storage unit. However, the three-dimensional model may be input from a network.

また、本発明は、上述した実施形態の装置に限定されず、複数の機器から構成されるシステムに適用しても、1つの機器から成る装置に適用してもよい。前述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体をシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、完成されることは言うまでもない。   The present invention is not limited to the apparatus of the above-described embodiment, and may be applied to a system constituted by a plurality of devices or an apparatus constituted by one device. A storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus reads and executes the program codes stored in the storage medium. Needless to say, it will be completed by doing.

この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。プログラムコードを供給するための記憶媒体としては、例えばフロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R/RW、磁気テープ、不揮発性のメモリカード、ROMを用いることが出来る。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけではなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOSなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R / RW, magnetic tape, nonvolatile memory card, and ROM are used. I can do it. In addition, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. Needless to say, a case where the function of the above-described embodiment is realized by performing part or all of the processing is also included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、次のプログラムコードの指示に基づき、その拡張機能を拡張ボードや拡張ユニットに備わるCPUなどが処理を行って実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the program code is expanded based on the instruction of the next program code. It goes without saying that the functions of the above-described embodiments may be realized by performing some or all of the actual processing by the CPU or the like provided on the expansion board or the expansion unit.

本発明の第一の実施形態に係る画像合成装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an image composition device according to a first embodiment of the present invention. ステレオカメラの画像取得の概略を示す図である。It is a figure which shows the outline of the image acquisition of a stereo camera. 実施形態に係る画像合成装置の処理プログラムのフローチャートである。It is a flowchart of the processing program of the image composition device concerning an embodiment. 実写画像の三次元空間(a)および仮想空間と合成した三次元空間(b)の鳥瞰を示した図である。It is the figure which showed the bird's-eye view of the three-dimensional space (b) synthesize | combined with the three-dimensional space (a) and virtual space of a real image. 実写画像および仮想空間画像を合成し、2次元画像装置106に表示する透視投影画像を示した図である。FIG. 3 is a diagram showing a perspective projection image that is displayed on the two-dimensional image device 106 by combining a real image and a virtual space image. 三次元モデル操作部105で三次元モデルを移動できる領域を説明するX−Z面の図である。It is a figure of the XZ plane explaining the area | region which can move a 3D model with the 3D model operation part 105. FIG. 多視点画像シーケンス生成ステップの詳細を示すフローチャートである。It is a flowchart which shows the detail of a multiview image sequence production | generation step. 仮想空間における仮想画像生成の概略を示すX−Z面の図である。It is a figure of the XZ plane which shows the outline of the virtual image generation in virtual space. 従来例での処理の概要を示すブロック図である。It is a block diagram which shows the outline | summary of the process in a prior art example. 従来例でのステレオアダプタを説明する図である。It is a figure explaining the stereo adapter in a prior art example. 従来例での処理流れを示すフローチャートである。It is a flowchart which shows the processing flow in a prior art example. 仮想空間画像生成パラメータ決定部を説明するための図である。It is a figure for demonstrating a virtual space image generation parameter determination part.

符号の説明Explanation of symbols

100 立体画像入力装置
101 2次元表示装置
102 画像合成装置
103 印刷装置
104 操作入力装置
DESCRIPTION OF SYMBOLS 100 Stereoscopic image input apparatus 101 Two-dimensional display apparatus 102 Image composition apparatus 103 Printing apparatus 104 Operation input apparatus

Claims (18)

実写画像と仮想空間上に配置された三次元モデル画像から生成された仮想空間画像とを合成して立体写真を生成する画像合成装置であって、
被写体までの奥行き情報から仮想空間と三次元モデルの移動可能な範囲を決定する仮想空間構築手段と、
前記三次元モデルを前記仮想空間構築手段によって決定された範囲内で少なくとも移動、回転、拡大、縮小の何れかを行う三次元モデル操作手段と、
前記三次元モデル操作手段で決定した仮想空間内に配置された三次元モデルから生成された仮想空間画像と実写画像を合成して合成多視点画像シーケンスを生成する多視点画像シーケンス生成手段と、
前記多視点画像シーケンス生成手段で生成された合成多視点シーケンス画像を三次元画像に統合する三次元画像統合手段と、
を有することを特徴とする画像合成装置。
An image synthesis device that generates a stereoscopic photograph by synthesizing a real image and a virtual space image generated from a three-dimensional model image arranged in a virtual space,
A virtual space construction means for determining a movable range of the virtual space and the three-dimensional model from the depth information to the subject;
3D model operation means for performing at least one of movement, rotation, enlargement, and reduction within the range determined by the virtual space construction means for the 3D model;
Multi-viewpoint image sequence generation means for generating a composite multi-viewpoint image sequence by combining a virtual space image generated from a three-dimensional model arranged in a virtual space determined by the three-dimensional model operation means and a real image;
3D image integration means for integrating the synthesized multi-viewpoint sequence image generated by the multi-viewpoint image sequence generation means into a 3D image;
An image synthesizing apparatus comprising:
前記多視点画像シーケンス生成手段は、実写多視点画像と仮想空間多視点画像それぞれを生成してから合成することを特徴とする請求項1記載の画像合成装置。   The image synthesizing apparatus according to claim 1, wherein the multi-view image sequence generation unit generates and synthesizes each of the photographed multi-view image and the virtual space multi-view image. 前記多視点画像シーケンス生成手段は、仮想空間多視点画像を生成する際に、奥行き情報を参照し、奥行き情報からある画素が三次元モデルを描画しているか否かを判定し、三次元モデルを描画していると判定した場合は仮想空間多視点画像の該画素と同一画素情報を用い、三次元モデルを描画していないと判断した場合は実写多視点画像の該画素と同一画素情報を用いて合成画像を生成することを特徴とする請求項1記載の画像合成装置。   The multi-viewpoint image sequence generation means refers to depth information when generating a virtual space multi-viewpoint image, determines whether or not a certain pixel is drawing a three-dimensional model from the depth information, and determines the three-dimensional model. If it is determined that drawing is performed, the same pixel information as that of the pixel of the virtual space multi-viewpoint image is used. If it is determined that the three-dimensional model is not drawn, the same pixel information as that of the real-shot multi-viewpoint image is used. The image composition apparatus according to claim 1, wherein a composite image is generated. 前記多視点画像シーケンス生成手段は、仮想空間多視点画像を生成する際に、奥行き情報を参照し、奥行き情報からある画素が三次元モデルを描画しているか否かを判定し、三次元モデルを描画していると判定した場合は仮想空間多視点画像の該画素と同一画素情報を用い、三次元モデルを描画していないと判断した場合は立体画像情報より該画素と同一画素情報を生成し、合成画像を生成することを特徴とする請求項1または請求項3記載の画像合成装置。   The multi-viewpoint image sequence generation means refers to depth information when generating a virtual space multi-viewpoint image, determines whether or not a certain pixel is drawing a three-dimensional model from the depth information, and determines the three-dimensional model. If it is determined that the pixel is drawn, the same pixel information as the pixel of the virtual space multi-viewpoint image is used. If it is determined that the three-dimensional model is not drawn, the same pixel information as the pixel is generated from the stereoscopic image information. 4. The image composition apparatus according to claim 1, wherein a composite image is generated. 前記多視点画像シーケンス生成手段において、実写多視点画像と仮想空間多視点画像シーケンスは同一の視点順序で多視点画像を生成し合成することを特徴とする請求項1または請求項2または請求項3または請求項4記載の画像合成装置。   4. The multi-view image sequence generation unit generates and synthesizes a multi-view image in the same view order for a live-action multi-view image and a virtual space multi-view image sequence. Alternatively, the image composition apparatus according to claim 4. 前記三次元モデル移動手段において、前記仮想空間構築手段において決定した三次元モデルの移動範囲に接したり超えたりした場合、その旨を操作者に呈示することを特徴とする請求項1記載の画像合成装置。   2. The image composition according to claim 1, wherein when the three-dimensional model moving means touches or exceeds the moving range of the three-dimensional model determined by the virtual space construction means, the fact is presented to the operator. apparatus. 複数の撮影位置で撮影されたあるいは生成された実写多視点画像シーケンスと仮想空間上に配置された三次元モデルから生成された仮想空間画像とを合成して立体写真を作成する画像合成装置において、
立体画像観察パラメータから仮想空間画像を生成するための仮想空間画像生成パラメータ決定手段と、
前記仮想空間画像生成パラメータ決定手段によって決定されたパラメータに基づいて仮想空間多視点画像シーケンスを生成する仮想空間多視点画像シーケンス生成手段と、
前記仮想空間多視点画像シーケンス生成手段で生成されたと仮想空間多視点画像シーケンスと前記多視点画像シーケンスとを合成する画像合成手段と、
前記実写仮想空間画像合成手段によって合成された合成画像を三次元画像として統合する三次元画像統合手段と、
を有することを特徴とする画像合成装置。
In an image composition device that creates a stereoscopic photograph by synthesizing a real-view multi-viewpoint image sequence photographed or generated at a plurality of photographing positions and a virtual space image generated from a three-dimensional model arranged in the virtual space,
Virtual space image generation parameter determination means for generating a virtual space image from the stereoscopic image observation parameters;
Virtual space multi-viewpoint image sequence generation means for generating a virtual space multi-viewpoint image sequence based on the parameters determined by the virtual space image generation parameter determination means;
Image synthesizing means for synthesizing the virtual space multi-view image sequence generated by the virtual space multi-view image sequence generating means and the multi-view image sequence;
3D image integration means for integrating the synthesized image synthesized by the real-life virtual space image synthesis means as a 3D image;
An image synthesizing apparatus comprising:
前記仮想空間画像生成パラメータ決定手段において、仮想空間の三次元モデルを実空間の手前側に配置することを特徴とする請求項7記載の画像合成装置。   The image synthesizing apparatus according to claim 7, wherein the virtual space image generation parameter determining unit arranges the three-dimensional model of the virtual space on the front side of the real space. 前記仮想空間画像生成パラメータ決定手段において、仮想空間に配置された三次元モデルの最近距離と最遠距離を再現する仮想空間領域としてパラメータを決定することを特徴とする請求項7記載の画像合成装置。   8. The image synthesizing apparatus according to claim 7, wherein the virtual space image generation parameter determination means determines a parameter as a virtual space region that reproduces the nearest distance and the farthest distance of the three-dimensional model arranged in the virtual space. . 実写画像と仮想空間上に配置された三次元モデル画像から生成された仮想空間画像とを合成して立体写真を生成する画像合成方法であって、
被写体までの奥行き情報から仮想空間と三次元モデルの移動可能な範囲を決定する仮想空間構築工程と、
前記三次元モデルを前記仮想空間構築手段によって決定された範囲内で少なくとも移動、回転、拡大、縮小の何れかを行う三次元モデル操作工程と、
前記三次元モデル操作工程で決定した仮想空間内に配置された三次元モデルから生成された仮想空間画像と実写画像を合成して合成多視点画像シーケンスを生成する多視点画像シーケンス生成工程と、
前記多視点画像シーケンス生成手段で生成された合成多視点シーケンス画像を三次元画像に統合する三次元画像統合工程と、
を有することを特徴とする画像合成方法。
An image combining method for generating a stereoscopic photograph by combining a real image and a virtual space image generated from a three-dimensional model image arranged in a virtual space,
A virtual space construction process for determining the movable range of the virtual space and the three-dimensional model from the depth information to the subject;
A three-dimensional model operation step of performing at least one of movement, rotation, enlargement, and reduction within the range determined by the virtual space construction means for the three-dimensional model;
A multi-viewpoint image sequence generation step of generating a composite multi-viewpoint image sequence by combining a virtual space image generated from a three-dimensional model arranged in a virtual space determined in the three-dimensional model operation step and a real image;
A three-dimensional image integration step of integrating the composite multi-view sequence image generated by the multi-view image sequence generation means into a three-dimensional image;
An image synthesizing method characterized by comprising:
前記多視点画像シーケンス生成工程は、実写多視点画像と仮想空間多視点画像それぞれを生成してから合成することを特徴とする請求項10記載の画像合成方法。   11. The image synthesizing method according to claim 10, wherein the multi-view image sequence generating step generates a real-shot multi-view image and a virtual space multi-view image, respectively, and then combines them. 前記多視点画像シーケンス生成工程は、仮想空間多視点画像を生成する際に、奥行き情報を参照し、奥行き情報からある画素が三次元モデルを描画しているか否かを判定し、三次元モデルを描画していると判定した場合は仮想空間多視点画像の該画素と同一画素情報を用い、三次元モデルを描画していないと判断した場合は実写多視点画像の該画素と同一画素情報を用いて合成画像を生成することを特徴とする請求項10記載の画像合成方法。   The multi-viewpoint image sequence generation step refers to depth information when generating a virtual space multi-viewpoint image, determines whether a pixel is drawing a three-dimensional model from the depth information, and determines the three-dimensional model. If it is determined that drawing is performed, the same pixel information as that of the pixel of the virtual space multi-viewpoint image is used. If it is determined that the three-dimensional model is not drawn, the same pixel information as that of the real-shot multi-viewpoint image is used. The image composition method according to claim 10, wherein a composite image is generated. 前記多視点画像シーケンス生成工程は、仮想空間多視点画像を生成する際に、奥行き情報を参照し、奥行き情報からある画素が三次元モデルを描画しているか否かを判定し、三次元モデルを描画していると判定した場合は仮想空間多視点画像の該画素と同一画素情報を用い、三次元モデルを描画していないと判断した場合は立体画像情報より該画素と同一画素情報を生成し、合成画像を生成することを特徴とする請求項10または請求項12記載の画像合成方法。   The multi-viewpoint image sequence generation step refers to depth information when generating a virtual space multi-viewpoint image, determines whether a pixel is drawing a three-dimensional model from the depth information, and determines the three-dimensional model. If it is determined that the pixel is drawn, the same pixel information as the pixel of the virtual space multi-viewpoint image is used. If it is determined that the three-dimensional model is not drawn, the same pixel information as the pixel is generated from the stereoscopic image information. 13. The image composition method according to claim 10 or 12, wherein a composite image is generated. 前記多視点画像シーケンス生成工程は、実写多視点画像と仮想空間多視点画像シーケンスは同一の撮影視点順序で多視点画像を生成し合成することを特徴とする請求項10または請求項11または請求項12または請求項13記載の画像合成方法。   The multi-view image sequence generation step generates and synthesizes the multi-view images in the same shooting viewpoint sequence for the real-shot multi-view image and the virtual space multi-view image sequence. The image composition method according to claim 12 or claim 13. 前記三次元モデル移動工程は、前記仮想空間構築工程において決定した三次元モデルの移動範囲に接したり超えたりした場合、その旨を操作者に呈示することを特徴とする請求項10記載の画像合成方法。   11. The image composition according to claim 10, wherein when the three-dimensional model movement step touches or exceeds the movement range of the three-dimensional model determined in the virtual space construction step, the fact is presented to the operator. Method. 複数の撮影位置で撮影されたあるいは生成された実写多視点画像シーケンスと仮想空間上に配置された三次元モデルから生成された仮想空間画像とを合成して立体写真を作成する画像合成方法において、
立体画像観察パラメータから仮想空間画像を生成するための仮想空間画像生成パラメータ決定工程と、
前記仮想空間画像生成パラメータ決定工程によって決定されたパラメータに基づいて仮想空間多視点画像シーケンスを生成する仮想空間多視点画像シーケンス生成工程と、
前記仮想空間多視点画像シーケンス生成工程で生成されたと仮想空間多視点画像シーケンスと前記多視点画像シーケンスとを合成する画像合成工程と、
前記実写仮想空間画像合成工程によって合成された合成画像を三次元画像として統合する三次元画像統合工程と、
を有することを特徴とする画像合成方法。
In an image composition method for creating a stereoscopic photograph by synthesizing a real-shot multi-viewpoint image sequence photographed or generated at a plurality of photographing positions and a virtual space image generated from a three-dimensional model arranged in the virtual space,
A virtual space image generation parameter determination step for generating a virtual space image from the stereoscopic image observation parameters;
A virtual space multi-view image sequence generation step for generating a virtual space multi-view image sequence based on the parameters determined by the virtual space image generation parameter determination step;
An image synthesis step of synthesizing the virtual space multi-view image sequence and the multi-view image sequence generated in the virtual space multi-view image sequence generation step;
A three-dimensional image integration step of integrating the synthesized image synthesized by the live-action virtual space image synthesis step as a three-dimensional image;
An image synthesizing method characterized by comprising:
前記仮想空間画像生成パラメータ決定工程において、仮想空間の三次元モデルを実空間の手前側に配置することを特徴とする請求項16記載の画像合成方法。   The image composition method according to claim 16, wherein in the virtual space image generation parameter determination step, a three-dimensional model of the virtual space is arranged on the near side of the real space. 前記仮想空間画像生成パラメータ決定工程において、仮想空間に配置された三次元モデルの最近距離と最遠距離を再現する仮想空間領域としてパラメータを決定することを特徴とする請求項17記載の画像合成方法。
18. The image composition method according to claim 17, wherein, in the virtual space image generation parameter determination step, parameters are determined as a virtual space region that reproduces the nearest distance and the farthest distance of the three-dimensional model arranged in the virtual space. .
JP2003402961A 2003-12-02 2003-12-02 Device and method for synthesizing picture Withdrawn JP2005165614A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003402961A JP2005165614A (en) 2003-12-02 2003-12-02 Device and method for synthesizing picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003402961A JP2005165614A (en) 2003-12-02 2003-12-02 Device and method for synthesizing picture

Publications (1)

Publication Number Publication Date
JP2005165614A true JP2005165614A (en) 2005-06-23

Family

ID=34726402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003402961A Withdrawn JP2005165614A (en) 2003-12-02 2003-12-02 Device and method for synthesizing picture

Country Status (1)

Country Link
JP (1) JP2005165614A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264592A (en) * 2006-03-28 2007-10-11 Aos Technologies Kk Automatic three-dimensional image forming device and method
KR100866491B1 (en) 2007-01-30 2008-11-03 삼성전자주식회사 Image processing method and apparatus
CN101937578A (en) * 2010-09-08 2011-01-05 宁波大学 Method for drawing virtual view color image
JP2011091486A (en) * 2009-10-20 2011-05-06 Nintendo Co Ltd Display control program, library program, information processing system, and display control method
JP2012002875A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
JP2012003327A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Three-dimensional image display program, three-dimensional image display device, three-dimensional image display system, and three-dimensional image display method
WO2013038923A1 (en) * 2011-09-14 2013-03-21 株式会社バンダイナムコゲームス Program, storage medium, gaming device and computer
JP2013517657A (en) * 2010-01-14 2013-05-16 ヒューマンアイズ テクノロジーズ リミテッド Method and system for adjusting the depth value of an object in a three-dimensional display
KR101348811B1 (en) * 2012-07-30 2014-01-07 건아정보기술 주식회사 Image processing device for recovery of dimensionality.
US9055277B2 (en) 2011-03-31 2015-06-09 Panasonic Intellectual Property Management Co., Ltd. Image rendering device, image rendering method, and image rendering program for rendering stereoscopic images
JP2015523786A (en) * 2012-06-01 2015-08-13 アルカテル−ルーセント Method and apparatus for mixing a first video signal and a second video signal
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
KR20160072477A (en) * 2014-12-15 2016-06-23 전자부품연구원 Surrounding environment modeling method and apparatus performing the same
KR101697163B1 (en) * 2016-06-03 2017-01-17 (주)지니트 system and method for chroma-key composing for providing three-dimensional structure effect
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
CN109791697A (en) * 2016-09-12 2019-05-21 奈安蒂克公司 Using statistical model from image data predetermined depth
US11089290B2 (en) 2009-11-04 2021-08-10 Nintendo Co., Ltd. Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display
JP6959682B1 (en) * 2020-12-28 2021-11-05 株式会社計数技研 Image synthesizer, image synthesizer, and program
CN113632498A (en) * 2019-03-28 2021-11-09 多玩国株式会社 Content distribution system, content distribution method, and content distribution program
JP7044426B1 (en) 2021-10-14 2022-03-30 株式会社計数技研 Image compositing device, image compositing method, and program
WO2022145414A1 (en) * 2020-12-28 2022-07-07 株式会社計数技研 Image compositing device, image compositing method, and program

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264592A (en) * 2006-03-28 2007-10-11 Aos Technologies Kk Automatic three-dimensional image forming device and method
KR100866491B1 (en) 2007-01-30 2008-11-03 삼성전자주식회사 Image processing method and apparatus
JP2011091486A (en) * 2009-10-20 2011-05-06 Nintendo Co Ltd Display control program, library program, information processing system, and display control method
US9019261B2 (en) 2009-10-20 2015-04-28 Nintendo Co., Ltd. Storage medium storing display control program, storage medium storing library program, information processing system, and display control method
US11089290B2 (en) 2009-11-04 2021-08-10 Nintendo Co., Ltd. Storage medium storing display control program, information processing system, and storage medium storing program utilized for controlling stereoscopic display
JP2013517657A (en) * 2010-01-14 2013-05-16 ヒューマンアイズ テクノロジーズ リミテッド Method and system for adjusting the depth value of an object in a three-dimensional display
US9128293B2 (en) 2010-01-14 2015-09-08 Nintendo Co., Ltd. Computer-readable storage medium having stored therein display control program, display control apparatus, display control system, and display control method
US9438759B2 (en) 2010-01-14 2016-09-06 Humaneyes Technologies Ltd. Method and system for adjusting depth values of objects in a three dimensional (3D) display
US9693039B2 (en) 2010-05-27 2017-06-27 Nintendo Co., Ltd. Hand-held electronic device
JP2012003327A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Three-dimensional image display program, three-dimensional image display device, three-dimensional image display system, and three-dimensional image display method
JP2012002875A (en) * 2010-06-14 2012-01-05 Nintendo Co Ltd Stereoscopic image display program, stereoscopic image display device, stereoscopic image display system, and stereoscopic image display method
CN101937578A (en) * 2010-09-08 2011-01-05 宁波大学 Method for drawing virtual view color image
US9055277B2 (en) 2011-03-31 2015-06-09 Panasonic Intellectual Property Management Co., Ltd. Image rendering device, image rendering method, and image rendering program for rendering stereoscopic images
JP2013059541A (en) * 2011-09-14 2013-04-04 Namco Bandai Games Inc Program, information storage medium, game device, and computer
US9155967B2 (en) 2011-09-14 2015-10-13 Bandai Namco Games Inc. Method for implementing game, storage medium, game device, and computer
WO2013038923A1 (en) * 2011-09-14 2013-03-21 株式会社バンダイナムコゲームス Program, storage medium, gaming device and computer
US10244185B2 (en) 2012-06-01 2019-03-26 Alcatel Lucent Method and apparatus for mixing a first video signal and a second video signal
JP2015523786A (en) * 2012-06-01 2015-08-13 アルカテル−ルーセント Method and apparatus for mixing a first video signal and a second video signal
KR101348811B1 (en) * 2012-07-30 2014-01-07 건아정보기술 주식회사 Image processing device for recovery of dimensionality.
KR101668649B1 (en) * 2014-12-15 2016-10-24 전자부품연구원 Surrounding environment modeling method and apparatus performing the same
KR20160072477A (en) * 2014-12-15 2016-06-23 전자부품연구원 Surrounding environment modeling method and apparatus performing the same
WO2017209468A1 (en) * 2016-06-03 2017-12-07 (주)지니트 Chroma-key synthesizing system and method for providing three dimensional stereoscopic effects
KR101697163B1 (en) * 2016-06-03 2017-01-17 (주)지니트 system and method for chroma-key composing for providing three-dimensional structure effect
CN109791697A (en) * 2016-09-12 2019-05-21 奈安蒂克公司 Using statistical model from image data predetermined depth
JP2019526878A (en) * 2016-09-12 2019-09-19 ナイアンティック, インコーポレイテッドNiantic,Inc. Depth prediction from image data using statistical models
JP7177062B2 (en) 2016-09-12 2022-11-22 ナイアンティック, インコーポレイテッド Depth Prediction from Image Data Using Statistical Model
CN109791697B (en) * 2016-09-12 2023-10-13 奈安蒂克公司 Predicting depth from image data using statistical models
CN113632498A (en) * 2019-03-28 2021-11-09 多玩国株式会社 Content distribution system, content distribution method, and content distribution program
US11961190B2 (en) 2019-03-28 2024-04-16 Dwango Co., Ltd. Content distribution system, content distribution method, and content distribution program
JP6959682B1 (en) * 2020-12-28 2021-11-05 株式会社計数技研 Image synthesizer, image synthesizer, and program
WO2022145414A1 (en) * 2020-12-28 2022-07-07 株式会社計数技研 Image compositing device, image compositing method, and program
JP2022103572A (en) * 2020-12-28 2022-07-08 株式会社計数技研 Image composition device, image composition method, and program
JP7044426B1 (en) 2021-10-14 2022-03-30 株式会社計数技研 Image compositing device, image compositing method, and program
JP2023059137A (en) * 2021-10-14 2023-04-26 株式会社計数技研 Image composite device, image composite method, and program

Similar Documents

Publication Publication Date Title
JP2005165614A (en) Device and method for synthesizing picture
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
JP4065488B2 (en) 3D image generation apparatus, 3D image generation method, and storage medium
US5694533A (en) 3-Dimensional model composed against textured midground image and perspective enhancing hemispherically mapped backdrop image for visual realism
JP4214976B2 (en) Pseudo-stereoscopic image creation apparatus, pseudo-stereoscopic image creation method, and pseudo-stereoscopic image display system
US9288476B2 (en) System and method for real-time depth modification of stereo images of a virtual reality environment
US20120182403A1 (en) Stereoscopic imaging
KR101697184B1 (en) Apparatus and Method for generating mesh, and apparatus and method for processing image
JP4440066B2 (en) Stereo image generation program, stereo image generation system, and stereo image generation method
US20020113865A1 (en) Image processing method and apparatus
JP2006107213A (en) Stereoscopic image printing system
JP2006113807A (en) Image processor and image processing program for multi-eye-point image
KR20080071475A (en) Apparatus and method for generating cg(computer graphics) image for 3-d display
JP2006178900A (en) Stereoscopic image generating device
CA2540538C (en) Stereoscopic imaging
JPH09319896A (en) Three-dimensional image generating device
JPH0744701B2 (en) Three-dimensional superimpose device
US8797383B2 (en) Method for stereoscopic illustration
JP3126575B2 (en) 3D image generator for stereoscopic vision
US7009606B2 (en) Method and apparatus for generating pseudo-three-dimensional images
JP2006163547A (en) Program, system and apparatus for solid image generation
KR20000041329A (en) Stereoscopic image converting method and apparatus
JP2004178579A (en) Manufacturing method of printed matter for stereoscopic vision, and printed matter for stereoscopic vision
JP2006140553A (en) Solid image generation program, generator and generation method
JP2003323636A (en) Three-dimensional supplying device and method and image synthesizing device and method and user interface device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070206