[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP6200316B2 - Image generation method, image generation apparatus, and image generation program - Google Patents

Image generation method, image generation apparatus, and image generation program Download PDF

Info

Publication number
JP6200316B2
JP6200316B2 JP2013267780A JP2013267780A JP6200316B2 JP 6200316 B2 JP6200316 B2 JP 6200316B2 JP 2013267780 A JP2013267780 A JP 2013267780A JP 2013267780 A JP2013267780 A JP 2013267780A JP 6200316 B2 JP6200316 B2 JP 6200316B2
Authority
JP
Japan
Prior art keywords
image
image generation
viewpoint position
images
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013267780A
Other languages
Japanese (ja)
Other versions
JP2015125493A (en
Inventor
伊達 宗和
宗和 伊達
高田 英明
英明 高田
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2013267780A priority Critical patent/JP6200316B2/en
Publication of JP2015125493A publication Critical patent/JP2015125493A/en
Application granted granted Critical
Publication of JP6200316B2 publication Critical patent/JP6200316B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Description

本発明は、既存の画像から所望の視点位置の画像を生成する画像生成方法、画像生成装置及び画像生成プログラムに関する。   The present invention relates to an image generation method, an image generation apparatus, and an image generation program for generating an image at a desired viewpoint position from an existing image.

従来から、視点の変化に応じた画像を2次元ディスプレイ上に表示する技術が知られている(例えば、特許文献1参照)。図10(特許文献1の図1から引用)は、従来技術による映像表示のイメージを示す概念図である。図10において、ユーザ1が視点を変えると(3軸移動に対応)、映像中の対話相手2の奥行き位置(対話相手2とその背景の壁3)を、その視点の変化に応じて2次元ディスプレイ4上に表示することで、対話相手2、背景の壁3の見え方があたかも現実のように再現することができる。   2. Description of the Related Art Conventionally, a technique for displaying an image corresponding to a change in viewpoint on a two-dimensional display is known (see, for example, Patent Document 1). FIG. 10 (cited from FIG. 1 of Patent Document 1) is a conceptual diagram showing an image display image according to the prior art. In FIG. 10, when the user 1 changes the viewpoint (corresponding to the three-axis movement), the depth position of the conversation partner 2 in the video (the conversation partner 2 and the background wall 3) is displayed in two dimensions according to the change of the viewpoint. By displaying on the display 4, the appearance of the conversation partner 2 and the background wall 3 can be reproduced as if they were real.

これは、ユーザ1が位置P1にて2次元ディスプレイ4に対峙する場合には、対話相手2を正面から見ているように表示し、ユーザ1が左側の位置P2から見ている場合には、対話相手2、及びその背景にある壁3との位置関係(奥行き)を反映し、対話相手2を左側から見ているように表示し、ユーザ1が右側の位置 P3から見ている場合には、対話相手2、及びその背景にある壁3との位置関係(奥行き)を反映し、対話相手2を右側から見ているように表示するものである。   When the user 1 faces the two-dimensional display 4 at the position P1, the conversation partner 2 is displayed as if viewed from the front, and when the user 1 is viewed from the left position P2, When the dialog partner 2 is displayed as if viewed from the left side, reflecting the positional relationship (depth) between the dialog partner 2 and the wall 3 in the background, and the user 1 is viewing from the right position P3 Reflecting the positional relationship (depth) between the conversation partner 2 and the wall 3 behind it, the conversation partner 2 is displayed as if viewed from the right side.

この従来技術を実現するために、ディスプレイ4に対するユーザ1の視点位置・姿勢の検出、ユーザ1の視点位置に応じた対話相手2の映像の生成・表示の2つの技術が重要であり、カメラから撮影された2次元映像から、人物と背景を分離し、多層化して奥行きを持つ3次元映像を生成し、ユーザの視点位置に応じて、ディスプレイ面に投影して表示することを提案している。   In order to realize this conventional technique, two techniques of detecting the viewpoint position / attitude of the user 1 with respect to the display 4 and generating / displaying the video of the conversation partner 2 in accordance with the viewpoint position of the user 1 are important. Proposed to separate a person and background from a captured 2D video, generate a 3D video with depth by multilayering, and project and display it on the display surface according to the user's viewpoint position. .

しかしながら、特許文献1に記載の映像表示方法にあっては、ユーザと背景の位置関係や大きさを正しく表現はできるものの、背景が立体的な構造を有していた場合、ユーザ1の視点が変化しても背景が変化しないため、背景の状態を正しく表現することができないという問題がある。このような問題は、視線方向に応じた背景画像を生成すれば解決することができる。このような問題を解決する技術として、複数のカメラ画像から所望の位置の視点からの映像を生成する仮想視点画像生成方法が知られている(例えば、特許文献2参照)。   However, in the video display method described in Patent Literature 1, although the positional relationship and size between the user and the background can be expressed correctly, if the background has a three-dimensional structure, the viewpoint of the user 1 is Since the background does not change even if it changes, there is a problem that the background state cannot be expressed correctly. Such a problem can be solved by generating a background image corresponding to the line-of-sight direction. As a technique for solving such a problem, a virtual viewpoint image generation method for generating a video from a viewpoint at a desired position from a plurality of camera images is known (for example, see Patent Document 2).

特許第5237234号公報Japanese Patent No. 5237234 特許第4052331号公報Japanese Patent No. 4052331

しかしながら、特許文献2に記載の仮想視点画像生成方法にあっては、複数の画像のマッチングにより奥行位置を推定して画像を計算するため、画像のテクスチャ状態によって奥行が取得できなかったり、奥行の誤差が大きすぎてしまったりという問題を有している。特許文献2に記載の仮想視点画像生成方法においては奥行位置の尤度を考慮して画質の向上を図っているが、高臨場感を与えられるような品質での特定の視点からの画像を作成することは困難であるという問題がある。   However, in the virtual viewpoint image generation method described in Patent Document 2, since the depth position is estimated by matching a plurality of images and the image is calculated, the depth cannot be acquired depending on the texture state of the image, There is a problem that the error is too large. In the virtual viewpoint image generation method described in Patent Document 2, the image quality is improved in consideration of the likelihood of the depth position, but an image from a specific viewpoint with a quality that gives a high sense of reality is created. There is a problem that it is difficult to do.

本発明は、このような事情に鑑みてなされたもので、高臨場感を与えられる品質で所望の視点位置から見た画像を生成することができる画像生成方法、画像生成装置及び画像生成プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image generation method, an image generation apparatus, and an image generation program capable of generating an image viewed from a desired viewpoint position with a quality that gives a high sense of presence. The purpose is to provide.

本発明は、被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、複数の前記撮像手段が撮像した画像を選択して出力する画像選択手段と、前記被写体に対する視点位置を設定する視点位置設定手段とを備えた画像生成装置が行う画像生成方法であって、前記被写体と前記視点位置との位置関係と、前記被写体と前記撮像手段との位置関係とが近い前記撮像手段を複数選択する選択ステップと、選択された前記撮像手段が出力する画像を前記画像選択手段によって複数選択して、伝送路を介して、選択した複数の前記画像を伝送する伝送ステップと、前記伝送路を介して伝送された複数の前記画像に基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を生成する画像生成ステップとを有することを特徴とする。   The present invention provides a plurality of imaging means for imaging a subject from different positions, an image selection means for selecting and outputting images taken by the plurality of imaging means, and a viewpoint position setting means for setting a viewpoint position for the subject. And a selection step of selecting a plurality of imaging means having a close positional relationship between the subject and the viewpoint position and a positional relationship between the subject and the imaging means. A plurality of images output by the selected image pickup means are selected by the image selection means, and a transmission step of transmitting the selected plurality of images via a transmission path; An image generation step of generating an image of the subject viewed from the viewpoint position set by the viewpoint position setting means based on the plurality of images. The features.

本発明は、前記画像生成ステップでは、選択された複数の前記撮像手段によって撮像された複数の画像の対象画素の輝度値から加重平均によって求めた値を生成すべき画像の対象画素の輝度値とすることを特徴とする。   According to the present invention, in the image generation step, the luminance value of the target pixel of the image to be generated is a value obtained by weighted averaging from the luminance values of the target pixel of the plurality of images captured by the plurality of selected imaging units. It is characterized by doing.

本発明は、前記画像生成ステップでは、生成すべき画像の画素位置と、前記撮像手段によって撮像した複数の画像の画素位置とのずれに応じて、シフトした位置の画素を前記対象画素として選択し、選択した前記対象画素の輝度値の加重平均を求めることを特徴とする。   According to the present invention, in the image generation step, a pixel at a shifted position is selected as the target pixel according to a shift between a pixel position of an image to be generated and pixel positions of a plurality of images captured by the imaging unit. A weighted average of luminance values of the selected target pixels is obtained.

本発明は、被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、前記被写体に対する視点位置を設定する視点位置設定手段と、前記被写体と前記視点位置の位置関係と、前記被写体と前記撮像手段の位置関係とが近い前記撮像手段を複数選択する選択手段と、複数の前記撮像手段が撮像した画像を選択して出力する画像選択手段と、選択された前記撮像手段が出力する画像を前記画像選択手段によって複数選択して、伝送路を介して、選択した複数の前記画像を伝送する伝送手段と、前記伝送路を介して伝送された複数の前記画像に基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を生成する画像生成手段とを備えたことを特徴とする。   The present invention provides a plurality of imaging means for imaging a subject from different positions, a viewpoint position setting means for setting a viewpoint position with respect to the subject, a positional relationship between the subject and the viewpoint position, and a relationship between the subject and the imaging means. Selection means for selecting a plurality of the imaging means having a close positional relationship, image selection means for selecting and outputting images picked up by the plurality of imaging means, and image selection for output of the selected imaging means A plurality of selections by means, and transmission means for transmitting the selected plurality of images via a transmission line, and setting by the viewpoint position setting means based on the plurality of images transmitted via the transmission line And an image generation means for generating an image of the subject viewed from the viewpoint position.

本発明は、コンピュータに、前記画像生成方法を実行させるための画像生成プログラムである。   The present invention is an image generation program for causing a computer to execute the image generation method.

本発明によれば、所望の視点位置から見た画像を高臨場感が与えられる品質で生成することができるという効果が得られる。また、撮影する場所と表示を行う場所が離れている場合に、撮像手段と画像生成手段との間に伝送路を設け、複数の撮像手段によって撮像された画像のうち、必要な画像のみを伝送路によって伝送するようにしたため、低容量の伝送路を使用しても高画質で通信を行うことが可能になる。   According to the present invention, there is an effect that an image viewed from a desired viewpoint position can be generated with a quality that gives a high presence. In addition, when the shooting location and the display location are separated, a transmission path is provided between the imaging means and the image generation means, and only necessary images are transmitted among the images taken by the plurality of imaging means. Since transmission is performed by a channel, it is possible to perform communication with high image quality even when a low-capacity transmission channel is used.

本発明の第1の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 1st Embodiment of this invention. 図1に示す画像生成部5が行う画像生成処理の概略を示す説明図である。It is explanatory drawing which shows the outline of the image generation process which the image generation part 5 shown in FIG. 1 performs. 図1に示す画像生成部5の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image generation part 5 shown in FIG. 2つの画像の加重平均と輪郭位置の関係を示す図である。It is a figure which shows the relationship between the weighted average of two images, and an outline position. カメラ位置の後方に視点位置がある場合の画像生成処理の概略を示す説明図である。It is explanatory drawing which shows the outline of an image generation process in case there exists a viewpoint position behind a camera position. 2つの画像の加重平均と輪郭位置の関係を示す図である。It is a figure which shows the relationship between the weighted average of two images, and an outline position. 図1に示す画像生成部5が行う画像生成処理の概略を示す説明図である。It is explanatory drawing which shows the outline of the image generation process which the image generation part 5 shown in FIG. 1 performs. 本発明の第4の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 4th Embodiment of this invention. 加重が負の場合の2つの画像の加重平均と輪郭位置の関係を示す図である。It is a figure which shows the relationship between the weighted average of two images in case a weight is negative, and an outline position. 従来技術による映像表示のイメージを示す概念図である。It is a conceptual diagram which shows the image of the video display by a prior art.

<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態による画像生成装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、画像生成対象の被写体である。符号2は、生成すべき画像を映す仮想のスクリーンである。符号3−1、3−2は、被写体1を撮像する複数のカメラである。図1においては、カメラを2台のみ図示したが、必要に応じて3台以上のカメラを備えていてもよい。生成する画像の品質を向上させるためには、多数のカメラを備えていることが望ましい。また、複数のカメラは、スクリーン2と平行な面状に配置されていることが望ましい。符号4は、生成した画像を見る者の視点位置を検出して、生成すべき画像の視点位置を設定する視点位置設定部である。符号5は、視点位置設定部4によって設定した視点位置から見た被写体1の画像を生成する画像生成部である。符号6は、画像生成部5において生成された生成画像を表示する表示装置である。
<First Embodiment>
Hereinafter, an image generation apparatus according to a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes a subject for image generation. Reference numeral 2 denotes a virtual screen that displays an image to be generated. Reference numerals 3-1 and 3-2 denote a plurality of cameras that capture an image of the subject 1. Although only two cameras are illustrated in FIG. 1, three or more cameras may be provided as necessary. In order to improve the quality of an image to be generated, it is desirable to have a large number of cameras. It is desirable that the plurality of cameras be arranged in a plane parallel to the screen 2. Reference numeral 4 denotes a viewpoint position setting unit that detects the viewpoint position of a person who views the generated image and sets the viewpoint position of the image to be generated. Reference numeral 5 denotes an image generation unit that generates an image of the subject 1 viewed from the viewpoint position set by the viewpoint position setting unit 4. Reference numeral 6 denotes a display device that displays a generated image generated by the image generation unit 5.

次に、図2を参照して、図1に示す画像生成部5の画像生成の原理について説明する。
図2は図1に示す画像生成部5が行う画像生成処理の概略を示す説明図である。図2は、スクリーン2に垂直な断面を示しており、スクリーン2上のある画素の輝度の計算方法の概略を示している。図2に示す視点位置から見た場合の画像の生成方法を説明する。図2に示す対象画素の輝度は、対象画素から出た光が視点位置に達する光線の近傍にあるカメラ位置から撮像された画像から計算する。図2に示す例では、第1のカメラ位置、第2のカメラ位置の2箇所のカメラによって撮像した画像から設定した視点位置の画像を生成する。対象画素の輝度Lは、第1のカメラ位置、第2のカメラ位置から撮像した画像の画素の輝度(画素値)をL1、L2とし、第1のカメラ位置、第2のカメラ位置それぞれから光線までの距離をd1、d2とすると、(1)式によって求める。ここで、d1、d2の値は、カメラ位置の座標X1、X2と視点位置の座標X0として、d1=X0−X1、d2=X2−X0として計算することにより算出する。

Figure 0006200316
Next, the principle of image generation of the image generation unit 5 shown in FIG. 1 will be described with reference to FIG.
FIG. 2 is an explanatory diagram showing an outline of image generation processing performed by the image generation unit 5 shown in FIG. FIG. 2 shows a cross section perpendicular to the screen 2 and shows an outline of a method of calculating the luminance of a certain pixel on the screen 2. A method for generating an image when viewed from the viewpoint position shown in FIG. 2 will be described. The luminance of the target pixel shown in FIG. 2 is calculated from an image captured from a camera position in the vicinity of the light beam from which the light from the target pixel reaches the viewpoint position. In the example illustrated in FIG. 2, an image at a viewpoint position set from images captured by two cameras, a first camera position and a second camera position, is generated. The luminance L of the target pixel is set such that the luminance (pixel value) of the pixel of the image captured from the first camera position and the second camera position is L1 and L2, and light rays are emitted from the first camera position and the second camera position, respectively. If the distances up to d1 and d2 are determined by the equation (1). Here, the values of d1 and d2 are calculated by calculating as coordinates X1 and X2 of the camera position and coordinates X0 of the viewpoint position as d1 = X0−X1 and d2 = X2−X0.
Figure 0006200316

なお、カラー画像の場合には、各原色ごとに同様の計算をすればよい。また、演算量を減らすため三原色の中で分解能が最も高い緑色のみについて計算し、他の原色については一方のカメラ画像の画素値を使用してもよい。また、YPbPrのように輝度信号と色差信号で映像が提供される場合に輝度信号のみに対してのみ同様の計算を行い色差信号については一方のカメラの情報を用いてもよい。カメラと光線の距離は、カメラ位置から光線におろした垂線の長さであるが、格子状にカメラを配置している場合は、格子を形成する面と光線の交点とカメラ位置の距離を用いるなど近似をしてもよい。また、近傍のカメラ数を2としたが、2より多くてもよい。この場合には近傍のカメラ数をnとすると、対象画素の輝度Lは、(2)式によって求める。

Figure 0006200316
In the case of a color image, the same calculation may be performed for each primary color. Further, in order to reduce the calculation amount, only the green color having the highest resolution among the three primary colors may be calculated, and the pixel values of one camera image may be used for the other primary colors. Further, when an image is provided with a luminance signal and a color difference signal as in YPbPr, the same calculation may be performed only for the luminance signal, and information of one camera may be used for the color difference signal. The distance between the camera and the light beam is the length of the perpendicular line drawn from the camera position to the light beam, but when the camera is arranged in a lattice shape, the distance between the intersection of the surface forming the lattice and the light beam and the camera position is used. You may approximate. Although the number of nearby cameras is two, it may be more than two. In this case, assuming that the number of nearby cameras is n, the luminance L of the target pixel is obtained by equation (2).
Figure 0006200316

なお、視点位置がカメラ位置と同一の場合、(1)式、(2)式は不安定になるがその場合は視点位置に配置されたカメラの画像の輝度値をそのまま対象画素の輝度Lとして用いればよい。   If the viewpoint position is the same as the camera position, equations (1) and (2) become unstable. In this case, the luminance value of the camera image arranged at the viewpoint position is used as the luminance L of the target pixel as it is. Use it.

次に、図3を参照して、図1に示す画像生成部5の処理動作を説明する。図3は、図1に示す画像生成部5の処理動作を示すフローチャートである。図3に示す処理動作は、1枚の静止画像を生成する処理動作であるが、図3に示す処理動作を連続して繰り返すことで動画像にも対応することができる。   Next, the processing operation of the image generation unit 5 shown in FIG. 1 will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the image generation unit 5 shown in FIG. The processing operation shown in FIG. 3 is a processing operation for generating one still image, but it is also possible to deal with a moving image by continuously repeating the processing operation shown in FIG.

まず、画像生成部5は、生成すべきスクリーン上の画像中の対象画素を1個選択する(ステップS1)。そして、画像生成部5は、選択した対象画素と、視点位置設定部4において設定した視点位置とを結ぶ光線(直線)を計算する(ステップS2)。   First, the image generation unit 5 selects one target pixel in the image on the screen to be generated (step S1). Then, the image generation unit 5 calculates a ray (straight line) connecting the selected target pixel and the viewpoint position set by the viewpoint position setting unit 4 (step S2).

次に、画像生成部5は、求めた光線の近傍に位置するカメラを選択する(ステップS3)。ここで、近傍に位置するカメラの選択は、(1)各カメラ位置について光線からの距離を計算し近い順に所定の個数選ぶ、(2)視点位置とカメラ位置の距離を算出し近い順に所定の個数選ぶ、(3)カメラを格子状にならべ、格子の単位胞がなす多角形の頂点に相当するカメラ位置を選ぶ、などの手法を適用することができる。   Next, the image generation unit 5 selects a camera located in the vicinity of the obtained light beam (step S3). Here, the selection of the cameras located in the vicinity is performed by (1) calculating the distance from the light ray for each camera position and selecting a predetermined number in order of closeness. It is possible to apply techniques such as selecting the number, (3) arranging the cameras in a grid, and selecting the camera position corresponding to the vertex of the polygon formed by the unit cells of the grid.

次に、画像生成部5は、光線からの距離をパラメータとする所定の重みで、選択されたカメラの画像のスクリーン上の対象画素の輝度を加重平均し、対象画素の輝度値とする(ステップS4)。そして、画像生成部5は、未計算の画素が残っているか否かを判定し(ステップS5)、残っていればステップS1に戻って他の対象画素の計算を繰り返し、残っていなければ処理を終了する。   Next, the image generation unit 5 performs a weighted average of the luminance of the target pixel on the screen of the selected camera image with a predetermined weight using the distance from the light ray as a parameter, and obtains the luminance value of the target pixel (step). S4). Then, the image generation unit 5 determines whether or not an uncalculated pixel remains (step S5). If it remains, the process returns to step S1 and repeats the calculation of other target pixels. finish.

この処理動作により作成された画像は、複数カメラ位置から撮像された画像となる。カメラ位置の違いによりずれた画像の加重平均となる。ずれの幅が小さい場合には図4のように輪郭位置が加重比によって連続的に変化するため、視点位置にあった適切な輪郭位置の画像が生成されることになる。図4は、2つの画像の加重平均と輪郭位置の関係を示す図である。   An image created by this processing operation is an image captured from a plurality of camera positions. This is a weighted average of images shifted due to differences in camera positions. When the width of the shift is small, the contour position continuously changes depending on the weighting ratio as shown in FIG. 4, so that an image of an appropriate contour position that matches the viewpoint position is generated. FIG. 4 is a diagram illustrating the relationship between the weighted average of two images and the contour position.

ここでは、カメラ位置と視点が同一直線上に並んだ場合を説明したが、異なってもよい。図5はカメラ位置の後方に視点位置がある場合の説明図である。このような場合にも図3に示す処理動作に従って画像生成を行えばよい。図3に示す処理動作に従うと画素によって加重平均する画像が変化する。図5に示す第1の対象画素については第1、第2のカメラ位置の画像、第2の対象画素については第2、第3のカメラ位置の画像、第3の対象画素については第3、第4のカメラ位置の画像になるが、カメラ位置が前後に変化しても同様な処理動作によって画像生成することができる。   Although the case where the camera position and the viewpoint are aligned on the same straight line has been described here, they may be different. FIG. 5 is an explanatory diagram when the viewpoint position is behind the camera position. In such a case, image generation may be performed according to the processing operation shown in FIG. According to the processing operation shown in FIG. 3, the weighted average image changes depending on the pixel. The first target pixel shown in FIG. 5 is an image at the first and second camera positions, the second target pixel is the second, the third camera position image, the third target pixel is the third, Although the image is at the fourth camera position, the image can be generated by the same processing operation even if the camera position changes back and forth.

本実施形態で使用する各カメラ位置から撮像された画像は、それぞれのカメラ位置で撮像された画像をスクリーン面に対し射影したものとする。このような画像は、一般的なカメラよって所定の位置から画像を撮像し、カメラの光軸がスクリーンの法線からずれに相当する台形補正を施すことで容易に取得することができる。また、カメラの光軸をスクリーン法線と平行として撮像し、スクリーンの表示領域に相当する部分を切り抜いてもよい。また、カメラの光軸をスクリーン法線と平行とし、シフト可能なレンズを使用しスクリーンの表示領域の中心と光軸のずれを補償しながら撮像して取得し、表示領域に相当する部分を切り抜いてもよい。   Assume that the images captured from each camera position used in the present embodiment are obtained by projecting the images captured at the respective camera positions onto the screen surface. Such an image can be easily obtained by capturing an image from a predetermined position with a general camera and performing keystone correction corresponding to a deviation of the optical axis of the camera from the normal line of the screen. Alternatively, the image may be taken with the optical axis of the camera parallel to the screen normal, and a portion corresponding to the display area of the screen may be cut out. In addition, the camera optical axis is parallel to the screen normal, and a shiftable lens is used to capture and capture the offset between the center of the screen display area and the optical axis, and the portion corresponding to the display area is cut out. May be.

このように、所望の視点位置から見た画像生成において、複数カメラの画像から特定の視点の画像を生成する際に、画像を劣化させる原因となる奥行情報を使用しないようにしたため、高臨場感を与えられる品質で所望の視点位置から見た画像を生成することができる。   As described above, in generating an image viewed from a desired viewpoint position, when generating an image of a specific viewpoint from images of a plurality of cameras, depth information that causes image deterioration is not used. It is possible to generate an image viewed from a desired viewpoint position with a quality that is given.

<第2の実施形態>
次に、本発明の第2の実施形態による画像生成装置を説明する。第2の実施形態おける装置構成は、図1に示す装置構成と同様であるので、ここでは詳細な説明を省略する。第2の実施形態おける画像生成装置が、第1の実施形態における画像生成装置と異なる点は、カメラ位置による画像のずれ量が大きい場合に適した加重とする点である。図6に示すように画像のずれが大きい場合には、輪郭位置は図4のように加重に比例するのではなく、図6に示したように敏感に変化するように人は知覚する。すなわち、視点位置に最も近いカメラ位置の画像の加重を0.5以上として主に使用し、他の近傍のカメラ位置の画像をそれより小さい加重で平均するものである。これにより、多重像を目立たせずに適切な輪郭位置の画像を生成することができるようになる。
<Second Embodiment>
Next, an image generation apparatus according to a second embodiment of the present invention will be described. Since the apparatus configuration in the second embodiment is the same as the apparatus configuration shown in FIG. 1, detailed description thereof is omitted here. The difference between the image generation apparatus in the second embodiment and the image generation apparatus in the first embodiment is that the weighting is suitable when the amount of image shift due to the camera position is large. When the image shift is large as shown in FIG. 6, the contour position is not proportional to the weight as shown in FIG. 4, but the person perceives that it changes sensitively as shown in FIG. That is, the weight of the image at the camera position closest to the viewpoint position is mainly used as 0.5 or more, and the images at other camera positions in the vicinity are averaged with a smaller weight. As a result, an image having an appropriate contour position can be generated without conspicuous multiple images.

<第3の実施形態>
次に、本発明の第3の実施形態による画像生成装置を説明する。第3の実施形態おける装置構成は、図1に示す装置構成と同様であるので、ここでは詳細な説明を省略する。また、画像生成の処理動作も図3に示す処理動作と同様である。第3の実施形態おける画像生成装置は、スクリーン位置と画像の物体(被写体1)位置が異なる場合に適した画像生成方法である。この場合、異なるカメラ位置の画像をそのまま重ねると、スクリーン上での画像のずれがそのまま重ねられてしまい、多重像が見苦しい画像となってしまう。図3に示す処理動作における加重平均処理(ステップS4)において、注目する画素に対応する物体(被写体1)上の位置を計算し、第1のカメラ位置、第2のカメラ位置の画像の物体(被写体1)上の位置に対応する画素の輝度を加重平均することで、多重像を抑制する。すなわち、図7に示すように、図3に示す画像生成処理における加重平均処理(ステップS4)において、第1のカメラ位置、第2のカメラ位置の画像の画素位置の算出の際に第1のシフト量、第2のシフト量に相当するオフセットを加えて計算する。図7は、画像生成部5が行う画像生成処理の概略を示す説明図である。これにより、多重像を抑制する輝度計算を容易に行うことができる。
<Third Embodiment>
Next, an image generating apparatus according to a third embodiment of the present invention will be described. Since the apparatus configuration in the third embodiment is the same as the apparatus configuration shown in FIG. 1, detailed description thereof is omitted here. The image generation processing operation is the same as the processing operation shown in FIG. The image generation apparatus according to the third embodiment is an image generation method suitable for a case where the screen position and the object (subject 1) position of the image are different. In this case, if the images at different camera positions are superimposed as they are, the shift of the image on the screen is superimposed as it is, and the multiplexed image becomes an unsightly image. In the weighted average process (step S4) in the processing operation shown in FIG. 3, the position on the object (subject 1) corresponding to the pixel of interest is calculated, and the image object (first camera position, second camera position) Multiple images are suppressed by weighted averaging of the luminance of pixels corresponding to positions on the subject 1). That is, as shown in FIG. 7, in the weighted average processing (step S4) in the image generation processing shown in FIG. 3, the first camera position and the second camera position are calculated at the first pixel position. Calculation is performed by adding an offset corresponding to the shift amount and the second shift amount. FIG. 7 is an explanatory diagram showing an outline of image generation processing performed by the image generation unit 5. Thereby, it is possible to easily perform luminance calculation for suppressing multiple images.

なお、演算方法は前述した演算方法に限るものではなく、同等の結果が得られる別の演算方法を用いるようにしてもよい。例えば、第1〜第3の実施形態におけるスクリーン位置を本実施形態の物体(被写体)位置と仮定して計算し、得られた画像を被写体位置とスクリーン位置の差に相当する視差だけシフトするようにしてもよい。   Note that the calculation method is not limited to the calculation method described above, and another calculation method that can obtain an equivalent result may be used. For example, the screen position in the first to third embodiments is calculated assuming the object (subject) position of the present embodiment, and the obtained image is shifted by a parallax corresponding to the difference between the subject position and the screen position. It may be.

次に、前述した第1〜第3の実施形態による画像生成装置によって生成した所望の視点位置における画像を表示装置6に表示した結果について説明する。使用者(画像を見る者)の視点位置の検出し、視点位置設定部4によって視点位置を設定して、画像生成部5によって視点位置に応じた画像を表示装置6に表示した。表示装置6に表示される画像は、視点位置に対応した画像となるので定位感が高く高臨場な表示が可能であった。また、表示装置6に表示される表示画像を被写体1の実サイズとすることで、より高い臨場感を得ることができた。また、使用者の左右眼の位置に合わせた画像を生成し、3Dメガネを使用して左右眼それぞれに画像を提示したところあたかもそこに実物があるかのような高臨場感で画像を見ることができた。さらに表示装置として、裸眼式の3D表示装置を使用し、各視点位置に対応した画像を生成表示したところ、3Dメガネのような特殊な器具を装着しなくてもあたかもそこに実物があるかのような高臨場感で画像を見ることができた。   Next, the result of displaying an image at a desired viewpoint position generated by the image generation apparatus according to the first to third embodiments described above on the display device 6 will be described. The viewpoint position of the user (the person who views the image) is detected, the viewpoint position is set by the viewpoint position setting unit 4, and an image corresponding to the viewpoint position is displayed on the display device 6 by the image generation unit 5. Since the image displayed on the display device 6 is an image corresponding to the viewpoint position, it has a high sense of orientation and a highly realistic display. Further, by making the display image displayed on the display device 6 the actual size of the subject 1, it was possible to obtain a higher sense of realism. Also, when the image is generated according to the position of the left and right eyes of the user and the images are presented to each of the left and right eyes using 3D glasses, the image can be viewed with a high sense of presence as if there is a real thing. I was able to. Furthermore, when a naked eye 3D display device is used as a display device and an image corresponding to each viewpoint position is generated and displayed, it is as if there is a real thing without wearing special equipment such as 3D glasses. I was able to see images with such a high sense of reality.

<第4の実施形態>
次に、本発明の第4の実施形態による画像生成装置を説明する。図8は、第4実施形態による画像生成装置の構成を示すブロック図である。図8に示す画像生成装置は、撮影を行う場所と表示を行う場所が遠く離れている場合を想定したものである。図8において、図1に示す装置と同一の部分には同一の符号を付し、その説明を省略する。この図に示す装置が図1に示す装置と異なる点は、映像スイッチ7を新たに設け、第1の地点(カメラが設置される地点)と第2の地点(表示装置が設置される地点)との間を伝送路8によって接続した点である。伝送路8は、公衆ネットワークであってもよい。この構成に伴い、画像生成部51は、複数のカメラ(ここでは、6台のカメラ3−1〜3−6)の映像を選択するための映像選択信号を伝送路8を介して映像スイッチ7に対して出力するようになっている。画像生成部51は、視点位置設定部4から出力する視点位置情報に基づいて、取得するべき映像を出力するカメラを特定し、そのカメラが出力する映像を選択するように映像選択信号を出力する。
<Fourth Embodiment>
Next, an image generating apparatus according to a fourth embodiment of the present invention will be described. FIG. 8 is a block diagram showing a configuration of an image generation apparatus according to the fourth embodiment. The image generation apparatus shown in FIG. 8 assumes a case where a place where shooting is performed and a place where display is performed are far apart. 8, parts that are the same as the parts shown in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted. The apparatus shown in this figure is different from the apparatus shown in FIG. 1 in that a video switch 7 is newly provided, and a first point (a point where a camera is installed) and a second point (a point where a display device is installed). Is connected by a transmission line 8. The transmission line 8 may be a public network. With this configuration, the image generation unit 51 sends video selection signals for selecting videos from a plurality of cameras (here, six cameras 3-1 to 3-6) via the transmission path 8 to the video switch 7. Is output. Based on the viewpoint position information output from the viewpoint position setting unit 4, the image generation unit 51 specifies a camera that outputs a video to be acquired, and outputs a video selection signal so as to select a video output by the camera. .

撮影を行う第1の地点には、複数のカメラ3−1〜3−6と映像スイッチ7が備えられ、第2の地点には視点位置設定部4、画像生成部51、表示装置6が備えられる。第2の地点の画像生成部51から第1の地点の映像スイッチ7には映像選択信号が伝送路7を介して伝送され、所望のカメラからの映像を選択する。第1の地点から、第2の地点へは6台のカメラ3−1〜3−6が出力するカメラ映像のうち映像スイッチ7によって選択された映像のみが伝送路8を介して伝送される。例えば、視点位置設定部4によって設定された視点位置がカメラ3−3とカメラ3−4の間にある場合にはカメラ3−3とカメラ3−4のカメラ映像を選択し伝送する。映像スイッチは市販の遠隔制御機能がある映像マトリクススイッチを使用することができる。   A plurality of cameras 3-1 to 3-6 and a video switch 7 are provided at a first point where photographing is performed, and a viewpoint position setting unit 4, an image generation unit 51, and a display device 6 are provided at a second point. It is done. A video selection signal is transmitted from the image generation unit 51 at the second point to the video switch 7 at the first point via the transmission path 7 to select a video from a desired camera. From the first point to the second point, only the image selected by the image switch 7 among the camera images output by the six cameras 3-1 to 3-6 is transmitted via the transmission path 8. For example, when the viewpoint position set by the viewpoint position setting unit 4 is between the camera 3-3 and the camera 3-4, the camera images of the camera 3-3 and the camera 3-4 are selected and transmitted. As the video switch, a commercially available video matrix switch having a remote control function can be used.

図8に示す構成は、映像数を最も削減し視点位置の直近の2映像を送る例であるが、両眼の視点位置に対し4系統を送ったり、さらに多くのカメラ映像を送ってもよい。また、視点がカメラの後方にある場合には、広範囲のカメラが必要とされるが、狭いカメラ間隔は不要なので、広範囲のカメラの中から間隔を広げて選択し間引いて伝送してもよい。   The configuration shown in FIG. 8 is an example in which the number of videos is reduced most and the two videos closest to the viewpoint position are sent, but four systems may be sent to the viewpoint positions of both eyes, or more camera videos may be sent. . Further, when the viewpoint is behind the camera, a wide range of cameras is required. However, since a narrow camera interval is not necessary, the interval may be selected from a wide range of cameras and may be thinned and transmitted.

この構成により画像生成部51による画像生成は観察者がいる第2の地点側で行われるため、観察者の位置情報の送信にかかる遅延が発生せず、観察者位置の変化への応答が高速な表示を実現することができる。また、第1の地点側でカメラ映像が選択されるため、すべての映像を送る場合に比べ伝送路8の帯域が狭くても高速に伝送することができる。   With this configuration, image generation by the image generation unit 51 is performed on the second point side where the observer is present, so that there is no delay in transmitting the observer's position information, and the response to changes in the observer position is fast. Display can be realized. In addition, since the camera video is selected on the first point side, it can be transmitted at high speed even if the bandwidth of the transmission line 8 is narrower than when all the video is sent.

また、図8に示す構成では伝送路8の伝送遅延や映像スイッチ7の遅延により、入力画像が切り替わるまでに時間遅延が発生することがあるが、図9に示すようにおおむね外挿される。図9は、加重が負の場合の2つの画像の加重平均と輪郭位置の関係を示す図である。このため、視点がカメラの外にある場合でも同様の処理で臨場感がおおむね高い映像を提供することができる。   In the configuration shown in FIG. 8, a time delay may occur until the input image is switched due to the transmission delay of the transmission path 8 or the delay of the video switch 7, but the extrapolation is generally performed as shown in FIG. FIG. 9 is a diagram illustrating a relationship between a weighted average of two images and a contour position when the weight is negative. For this reason, even when the viewpoint is outside the camera, it is possible to provide a video with a substantially high sense of realism by the same processing.

以上説明したように、所望の視点位置における画像の生成において、視点位置と画面上の位置を結ぶ直線(光線)の近傍の位置において撮像された画像を所定の比率で加重平均して画像生成するようにした。そして、所定の比率として、直線(光線)と撮像位置の距離に反比例する量を加重として用いるようにした。また、所定の比率として、直線(光線)と撮像位置の距離が最も近い画像に対する加重を重くするようにした。さらに、複数の撮像画像を光線と撮像位置の関係から決まる所定量だけシフトするようにした。   As described above, in the generation of an image at a desired viewpoint position, an image is generated by weighted average of images captured at positions near a straight line (light ray) connecting the viewpoint position and the position on the screen at a predetermined ratio. I did it. As the predetermined ratio, an amount that is inversely proportional to the distance between the straight line (light ray) and the imaging position is used as a weight. In addition, as a predetermined ratio, the weight for an image having the closest distance between the straight line (light ray) and the imaging position is increased. Further, the plurality of captured images are shifted by a predetermined amount determined from the relationship between the light beam and the imaging position.

この構成により、所望の視点位置における画像の生成において、奥行情報を使用しないため、高画質の画像を生成することができる。また、加重平均となる対象の画像間のずれがあまり大きくない場合には、人間の知覚特性により正しい位置に物体のエッジを表現することができる。また、加重平均となる対象の画像間のずれが比較的大きい場合には、人間の知覚特性により正しい位置に物体のエッジが表現されかつ、エッジが目障りな二重像になることを抑制することができる。また、スクリーン位置と被写体の奥行方向の処理が異なる場合でも、多重像になることを防ぐことができる。これにより、高臨場な表現の画像を生成して表示することが実現できる。   With this configuration, since depth information is not used in generating an image at a desired viewpoint position, a high-quality image can be generated. Further, when the shift between the target images to be weighted average is not so large, the edge of the object can be expressed at the correct position by human perceptual characteristics. In addition, when the difference between the images of the target to be weighted average is relatively large, the edge of the object is represented at the correct position by human perceptual characteristics, and it is possible to suppress the edge from becoming an unsightly double image. Can do. In addition, even when the screen position and the depth direction processing of the subject are different, it is possible to prevent multiple images. Thereby, it is possible to realize generation and display of a highly realistic expression image.

前述した実施形態における画像生成装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve the image generation apparatus in embodiment mentioned above with a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

既存の画像から所望の視点位置の画像を生成することが不可欠な用途に適用できる。   The present invention can be applied to applications where it is indispensable to generate an image at a desired viewpoint position from an existing image.

1・・・被写体、2・・・スクリーン、3−1〜3−6・・・カメラ(撮像手段)、4・・・視点位置設定部、5、51・・・画像生成部、6・・・表示装置、7・・・映像スイッチ、8・・・伝送路   DESCRIPTION OF SYMBOLS 1 ... Subject, 2 ... Screen, 3-1 to 3-6 ... Camera (imaging means), 4 ... Viewpoint position setting part, 5, 51 ... Image generation part, 6 ...・ Display device, 7 ... Video switch, 8 ... Transmission path

Claims (5)

被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、複数の前記撮像手段が撮像した画像を選択して出力する画像選択手段と、前記被写体に対する視点位置を設定する視点位置設定手段とを備えた画像生成装置が行う画像生成方法であって、
前記被写体と前記視点位置との位置関係と、前記被写体と前記撮像手段との位置関係とが近い前記撮像手段を複数選択する選択ステップと、
選択された前記撮像手段が出力する画像を前記画像選択手段によって複数選択して、伝送路を介して、選択した複数の前記画像を伝送する伝送ステップと、
前記伝送路を介して伝送された複数の前記画像に基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を、負の加重を用いた外挿により生成する画像生成ステップと
を有することを特徴とする画像生成方法。
A plurality of imaging means for imaging the subject from different positions; an image selection means for selecting and outputting images captured by the plurality of imaging means; and a viewpoint position setting means for setting a viewpoint position for the subject. An image generation method performed by an image generation apparatus,
A selection step of selecting a plurality of the imaging means having a positional relationship between the subject and the viewpoint position and a positional relationship between the subject and the imaging means;
A transmission step of selecting a plurality of images output by the selected imaging means by the image selection means and transmitting the selected plurality of images via a transmission path;
An image generated by extrapolation using a negative weight, based on the plurality of images transmitted through the transmission path, from the viewpoint position set by the viewpoint position setting unit and viewed from the viewpoint position. An image generation method comprising: a generation step.
前記画像生成ステップでは、選択された複数の前記撮像手段によって撮像された複数の画像の対象画素の輝度値から加重平均によって求めた値を生成すべき画像の対象画素の輝度値とすることを特徴とする請求項1に記載の画像生成方法。 In the image generation step, a value obtained by weighted averaging from luminance values of target pixels of a plurality of images captured by the selected plurality of imaging means is set as a luminance value of the target pixels of the image to be generated. The image generation method according to claim 1 . 前記画像生成ステップでは、生成すべき画像の画素位置と、前記撮像手段によって撮像した複数の画像の画素位置とのずれに応じて、シフトした位置の画素を前記対象画素として選択し、選択した前記対象画素の輝度値の加重平均を求めることを特徴とする請求項に記載の画像生成方法。 In the image generation step, the pixel at the shifted position is selected as the target pixel in accordance with the shift between the pixel position of the image to be generated and the pixel positions of the plurality of images captured by the imaging unit, and the selected pixel The image generation method according to claim 2 , wherein a weighted average of luminance values of the target pixel is obtained. 被写体をそれぞれ異なる位置から撮像する複数の撮像手段と、
前記被写体に対する視点位置を設定する視点位置設定手段と、
前記被写体と前記視点位置の位置関係と、前記被写体と前記撮像手段の位置関係とが近い前記撮像手段を複数選択する選択手段と、
複数の前記撮像手段が撮像した画像を選択して出力する画像選択手段と、
選択された前記撮像手段が出力する画像を前記画像選択手段によって複数選択して、伝送路を介して、選択した複数の前記画像を伝送する伝送手段と、
前記伝送路を介して伝送された複数の前記画像に基づいて、前記視点位置設定手段によって設定された前記視点位置から見た前記被写体の画像を、負の加重を用いた外挿により生成する画像生成手段と
を備えたことを特徴とする画像生成装置。
A plurality of imaging means for imaging the subject from different positions;
Viewpoint position setting means for setting a viewpoint position with respect to the subject;
A selection means for selecting a plurality of the imaging means having a positional relationship between the subject and the viewpoint position and a positional relationship between the subject and the imaging means;
Image selection means for selecting and outputting images picked up by a plurality of the image pickup means;
A transmission unit that selects a plurality of images output by the selected imaging unit by the image selection unit, and transmits the selected plurality of the images via a transmission path;
An image generated by extrapolation using a negative weight, based on the plurality of images transmitted through the transmission path, from the viewpoint position set by the viewpoint position setting unit and viewed from the viewpoint position. An image generation apparatus comprising: generation means.
コンピュータに、請求項1からのいずれか1項に記載の画像生成方法を実行させるための画像生成プログラム。 The computer, the image generation program for executing the image generating method according to any one of claims 1 to 3.
JP2013267780A 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program Expired - Fee Related JP6200316B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013267780A JP6200316B2 (en) 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013267780A JP6200316B2 (en) 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program

Publications (2)

Publication Number Publication Date
JP2015125493A JP2015125493A (en) 2015-07-06
JP6200316B2 true JP6200316B2 (en) 2017-09-20

Family

ID=53536181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013267780A Expired - Fee Related JP6200316B2 (en) 2013-12-25 2013-12-25 Image generation method, image generation apparatus, and image generation program

Country Status (1)

Country Link
JP (1) JP6200316B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6952456B2 (en) 2016-11-28 2021-10-20 キヤノン株式会社 Information processing equipment, control methods, and programs
JP6944110B2 (en) * 2017-09-28 2021-10-06 日本電信電話株式会社 Display device and display method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005142765A (en) * 2003-11-05 2005-06-02 Sony Corp Apparatus and method for imaging

Also Published As

Publication number Publication date
JP2015125493A (en) 2015-07-06

Similar Documents

Publication Publication Date Title
US10540818B2 (en) Stereo image generation and interactive playback
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
US10373362B2 (en) Systems and methods for adaptive stitching of digital images
US10204452B2 (en) Apparatus and method for providing augmented reality-based realistic experience
KR102181735B1 (en) Omnistereo imaging
JP5456020B2 (en) Information processing apparatus and method
JP6734620B2 (en) Video processing method and video processing apparatus
US9270977B2 (en) 3D photo creation system and method
US9443338B2 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
JP2019532535A (en) Single depth tracking perspective accommodation-binocular transduction solution
US9338426B2 (en) Three-dimensional image processing apparatus, three-dimensional imaging apparatus, and three-dimensional image processing method
CN105611267B (en) Merging of real world and virtual world images based on depth and chrominance information
JP6585938B2 (en) Stereoscopic image depth conversion apparatus and program thereof
JP6200316B2 (en) Image generation method, image generation apparatus, and image generation program
JP6166985B2 (en) Image generating apparatus and image generating program
TW201733351A (en) Three-dimensional auto-focusing method and the system thereof
Park et al. 48.2: Light field rendering of multi‐view contents for high density light field 3D display
CN104253988B (en) Imaging device, imaging method, image forming apparatus and image generating method
JP6181549B2 (en) Image generation method, image generation apparatus, and image generation program
JP6042732B2 (en) Image generation method, image generation apparatus, and image generation program
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2018129026A (en) Determination device, image processing apparatus, determination method, and determination program
JP2018129025A (en) Determination device, image processing apparatus, determination method, and determination program
JP2017525197A (en) Stereoscopic video generation
KR101907127B1 (en) Stereoscopic video zooming and foreground and background detection in a video

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170825

R150 Certificate of patent or registration of utility model

Ref document number: 6200316

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees