JP2023059137A - Image composite device, image composite method, and program - Google Patents
Image composite device, image composite method, and program Download PDFInfo
- Publication number
- JP2023059137A JP2023059137A JP2021169080A JP2021169080A JP2023059137A JP 2023059137 A JP2023059137 A JP 2023059137A JP 2021169080 A JP2021169080 A JP 2021169080A JP 2021169080 A JP2021169080 A JP 2021169080A JP 2023059137 A JP2023059137 A JP 2023059137A
- Authority
- JP
- Japan
- Prior art keywords
- image
- eye
- eye image
- stereo
- virtual space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000002131 composite material Substances 0.000 title abstract description 5
- 238000000034 method Methods 0.000 title description 25
- 230000002194 synthesizing effect Effects 0.000 claims description 71
- 230000003287 optical effect Effects 0.000 claims description 18
- 238000013459 approach Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 28
- 238000003384 imaging method Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 18
- 230000008859 change Effects 0.000 description 16
- 230000008569 process Effects 0.000 description 10
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000009877 rendering Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003709 image segmentation Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 241000288673 Chiroptera Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000010189 synthetic method Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、ステレオ画像と3次元オブジェクトとを合成する画像合成装置等に関する。 The present invention relates to an image synthesizing device and the like for synthesizing a stereo image and a three-dimensional object.
従来、ヘッドマウントディスプレイ(HMD)にステレオ画像を表示することによって、HMDを装着しているユーザに立体的な画像を提供することが行われている(例えば、特許文献1参照)。また、3次元仮想空間に3次元オブジェクトを配置し、任意の視点からの2次元の画像を生成するレンダリング処理などの3次元コンピュータグラフィックス(3DCG)も知られている。 2. Description of the Related Art Conventionally, by displaying a stereo image on a head-mounted display (HMD), a stereoscopic image is provided to a user wearing the HMD (see, for example, Patent Document 1). Also known is three-dimensional computer graphics (3DCG), such as rendering processing for arranging a three-dimensional object in a three-dimensional virtual space and generating a two-dimensional image from an arbitrary viewpoint.
しかしながら、ステレオ画像に3次元オブジェクトを適切に合成するための手法は知られていなかった。例えば、3DCGによって生成された1つの2次元の画像を、ステレオ画像に含まれる右目用画像及び左目用画像とそれぞれ合成した場合には、3次元オブジェクトが平面的に表示されることになるという問題があった。 However, no technique has been known for properly synthesizing a three-dimensional object with a stereo image. For example, if one two-dimensional image generated by 3DCG is combined with the right-eye image and the left-eye image included in the stereo image, the three-dimensional object will be displayed two-dimensionally. was there.
本発明は、上記課題を解決するためになされたものであり、ステレオ画像に3次元オブジェクトを適切に合成するための画像合成装置等を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image synthesizing apparatus and the like for appropriately synthesizing a three-dimensional object with a stereo image.
上記目的を達成するため、本発明の一態様による画像合成装置は、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部と、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部と、右目用視点と第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間を除く)に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部と、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部と、第2のステレオ画像を出力する出力部と、を備えたものである。 To achieve the above object, an image synthesizing device according to an aspect of the present invention includes a storage unit storing a first stereo image having a first right-eye image and a first left-eye image; and a first straight line connecting the right-eye viewpoint and a point corresponding to infinity in the first right-eye image, and the left-eye viewpoint and the first left-eye image. A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that the second straight line connecting the point corresponding to infinity of the image intersects (however, the point corresponding to infinity is an arrangement unit for arranging a three-dimensional object according to the operation received by the reception unit (excluding the three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so as to overlap); In the three-dimensional virtual space in which the dimensional object is arranged, a second right-eye image and a first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed, are displayed. and an output unit configured to output the second stereo image.
このような構成により、例えば、3次元仮想空間における第1の右目用画像及び第1の左目用画像の配置に応じて、操作の対象である3次元オブジェクトが両画像の背面側に位置しないようにすることができ得る。そのため、3次元オブジェクトと第1のステレオ画像とが適切に合成されるようにすることができる。また、例えば、3次元オブジェクトが第1のステレオ画像の背面側に位置した際にも、第1の右目用画像及び第1の左目用画像のより短い距離の移動によって、3次元オブジェクトが第1のステレオ画像の背面側に位置しないようにすることができる。 With such a configuration, for example, according to the arrangement of the first right-eye image and the first left-eye image in the three-dimensional virtual space, the three-dimensional object to be operated is not located behind both images. can be obtained. Therefore, the three-dimensional object and the first stereo image can be appropriately synthesized. Further, for example, even when the three-dimensional object is located on the back side of the first stereo image, the three-dimensional object can be moved to the first stereo image by moving the first right eye image and the first left eye image by a shorter distance. can be arranged so as not to be located on the back side of the stereo image of the
また、本発明の一態様による画像合成装置では、3次元仮想空間では、所定の距離に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置されてもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the first right-eye image and the first left-eye image may be arranged such that points corresponding to a predetermined distance overlap in the three-dimensional virtual space.
このような構成により、3次元オブジェクトが所定の距離よりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is positioned closer to the viewer than the predetermined distance, the three-dimensional object is not positioned behind the first stereo image.
また、本発明の一態様による画像合成装置では、第1のステレオ画像に含まれる所定のオブジェクトの距離を特定する特定部をさらに備え、所定の距離は、特定部によって特定された最も長い距離を超えていてもよい。 Further, the image synthesizing device according to one aspect of the present invention further includes a specifying unit that specifies a distance of a predetermined object included in the first stereo image, and the predetermined distance is the longest distance specified by the specifying unit. may exceed.
このような構成により、3次元オブジェクトが、特定部によって距離の特定された所定のオブジェクトよりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is located on the front side of the predetermined object whose distance is specified by the specifying unit, the three-dimensional object is not located on the back side of the first stereo image. Become.
また、本発明の一態様による画像合成装置では、所定のオブジェクトは、第1のステレオ画像に含まれるすべてのオブジェクトであってもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the predetermined objects may be all objects included in the first stereo image.
このような構成により、3次元オブジェクトが、第1のステレオ画像に含まれる最も奥側のオブジェクトよりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is located on the front side of the farthest object included in the first stereo image, the three-dimensional object is not located on the back side of the first stereo image. It will be.
また、本発明の一態様による画像合成装置では、受付部は、所定のオブジェクトを指定する情報をも受け付け、所定のオブジェクトは、受付部によって受け付けられた情報によって指定されるオブジェクトであってもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the receiving unit may also receive information designating a predetermined object, and the predetermined object may be an object designated by the information received by the receiving unit. .
このような構成により、3次元オブジェクトが、受付部によって受け付けられた情報によって指定されたオブジェクトよりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is located on the front side of the object specified by the information received by the reception unit, the three-dimensional object is not located on the back side of the first stereo image. become.
また、本発明の一態様による画像合成装置では、配置部は、3次元オブジェクトまでの距離が所定の距離に近づいた場合には、所定の距離を増やして第1のステレオ画像を配置してもよい。 Further, in the image synthesizing device according to the aspect of the present invention, when the distance to the three-dimensional object approaches the predetermined distance, the placement unit may increase the predetermined distance and place the first stereo image. good.
このような構成により、第1のステレオ画像を再配置することによって、3次元オブジェクトが第1のステレオ画像の背面側に位置することを回避することができる。 With such a configuration, by rearranging the first stereo image, it is possible to avoid positioning the three-dimensional object on the back side of the first stereo image.
また、本発明の一態様による画像合成装置は、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部と、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部と、第1の右目用画像及び第1の左目用画像の配置される3次元仮想空間に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部と、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部と、第2のステレオ画像を出力する出力部と、を備えたものである。 Further, the image synthesizing device according to one aspect of the present invention includes a storage unit storing a first stereo image having a first right-eye image and a first left-eye image; An arrangement for arranging a three-dimensional object according to the operation accepted by the accepting unit in a three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged. and a second right-eye image and a first left-eye image, which are images from the right-eye viewpoint in a state where the first right-eye image is displayed in the three-dimensional virtual space in which the three-dimensional object is arranged. a generation unit that generates a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where is displayed; and an output unit that outputs the second stereo image. is.
このような構成により、ステレオ画像と3次元オブジェクトとを適切に合成することができる。すなわち、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの両方が立体的に表示される第2のステレオ画像を生成することができる。 With such a configuration, a stereo image and a three-dimensional object can be appropriately synthesized. That is, it is possible to generate a second stereo image in which both the object included in the first stereo image and the three-dimensional object are stereoscopically displayed.
また、本発明の一態様による画像合成装置では、3次元仮想空間では、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置されてもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the first right-eye image and the first left-eye image may be arranged such that points corresponding to infinity overlap in the three-dimensional virtual space.
このような構成により、例えば、第1のステレオ画像に含まれるオブジェクトと3次元オブジェクトとを重ねることなどが可能になる。 With such a configuration, for example, it is possible to overlap an object included in the first stereo image and a three-dimensional object.
また、本発明の一態様による画像合成装置では、第1のステレオ画像は、光軸が平行となるように配置された一対のカメラによって撮影されたものであってもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the first stereo image may be captured by a pair of cameras arranged so that their optical axes are parallel.
また、本発明の一態様による画像合成装置では、第1のステレオ画像は、光軸が交わるように配置された一対のカメラによって撮影されたものであってもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the first stereo image may be captured by a pair of cameras arranged so that their optical axes intersect.
また、本発明の一態様による画像合成装置では、第1のステレオ画像、及び第2のステレオ画像は動画像であってもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the first stereo image and the second stereo image may be moving images.
このような構成により、例えば、第1のステレオ画像が手術の画像である場合に、その第1のステレオ画像に含まれる鉗子等の器具に、3次元オブジェクトである鉗子等の器具を重ねることができるようになり、初心者の術者が、経験豊富な術者の操作を仮想空間において真似ることができ、手術のトレーニングを行うことができるようになる。 With such a configuration, for example, when the first stereo image is an image of a surgical operation, it is possible to superimpose an instrument such as forceps, which is a three-dimensional object, on an instrument such as forceps included in the first stereo image. Thus, a novice operator can imitate the operation of an experienced operator in the virtual space, and can train for surgery.
また、本発明の一態様による画像合成装置では、3次元仮想空間に配置された第1の右目用画像及び第1の左目用画像から、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置を特定し、その特定した位置と、3次元オブジェクトの位置との関係に関する判定を行う判定部をさらに備え、出力部は、判定部による判定結果に関する出力をも行ってもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the three-dimensional virtual space of the object included in the first stereo image is obtained from the first right-eye image and the first left-eye image arranged in the three-dimensional virtual space. may further include a determination unit that specifies a position in the 3D object and determines the relationship between the specified position and the position of the three-dimensional object, and the output unit may also output the determination result of the determination unit.
このような構成により、例えば、3次元オブジェクトを操作しているユーザは、3次元オブジェクトを適切に操作できているかどうかについて知ることができるようになる。 With such a configuration, for example, a user operating a three-dimensional object can know whether the three-dimensional object is being operated appropriately.
また、本発明の一態様による画像合成方法は、3次元仮想空間に配置される3次元オブジェクトの操作を受け付けるステップと、第1のステレオ画像が有する第1の右目用画像及び第1の左目用画像が、右目用視点と第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間を除く)に、受け付けられた操作に応じた3次元オブジェクトを配置するステップと、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成するステップと、第2のステレオ画像を出力するステップと、を備えたものである。 Further, an image synthesizing method according to an aspect of the present invention includes a step of accepting an operation of a three-dimensional object placed in a three-dimensional virtual space; A first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a first straight line connecting the left-eye viewpoint and a point corresponding to infinity on the first left-eye image. A three-dimensional virtual space arranged so that the two straight lines intersect (except for the three-dimensional virtual space where the first right-eye image and the first left-eye image are arranged so that the points corresponding to infinity overlap) ), placing a three-dimensional object in accordance with the accepted operation; and an image viewed from the right-eye viewpoint in a state in which the first right-eye image is displayed in the three-dimensional virtual space in which the three-dimensional object is arranged. and a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where the first left-eye image is displayed; and outputting two stereo images.
本発明の一態様による画像合成装置等によれば、ステレオ画像と3次元オブジェクトとを適切に合成することができるようになる。 According to the image synthesizing device and the like according to one aspect of the present invention, it is possible to appropriately synthesize a stereo image and a three-dimensional object.
以下、本発明による画像合成装置、及び画像合成方法について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による画像合成装置、及び画像合成方法は、3次元仮想空間に配置された第1のステレオ画像、及び3次元オブジェクトから、両者を合成した第2のステレオ画像を生成するものである。 An image synthesizing apparatus and an image synthesizing method according to the present invention will be described below using embodiments. In the following embodiments, constituent elements and steps with the same reference numerals are the same or correspond to each other, and repetitive description may be omitted. The image synthesizing device and image synthesizing method according to the present embodiment generate a second stereo image by synthesizing the first stereo image and the three-dimensional object arranged in a three-dimensional virtual space. .
図1は、本実施の形態による画像合成装置1の構成を示すブロック図である。本実施の形態による画像合成装置1は、記憶部11と、受付部12と、配置部13と、生成部14と、出力部15とを備える。画像合成装置1は、例えば、パーソナル・コンピュータや、スマートフォン、タブレット端末などの汎用の装置であってもよく、または、ステレオ画像と3次元オブジェクトとの合成を行う専用の装置であってもよい。また、画像合成装置1は、例えば、スタンドアロンの装置であってもよく、または、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、受付部12や出力部15は、インターネット等の通信回線を介して入力を受け付けたり、情報を出力したりしてもよい。本実施の形態では、画像合成装置1がスタンドアロンの装置である場合について主に説明する。
FIG. 1 is a block diagram showing the configuration of an image synthesizing
記憶部11では、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される。第1のステレオ画像は、例えば、動画像であってもよく、または、静止画像であってもよい。本実施の形態では、第1のステレオ画像が動画像である場合について主に説明する。第1のステレオ画像は、例えば、撮影された画像であってもよく、または、3DCG等によって生成された画像であってもよい。本実施の形態では、第1のステレオ画像が撮影されたステレオ画像である場合について主に説明する。 The storage unit 11 stores a first stereo image having a first right-eye image and a first left-eye image. The first stereo image may be, for example, a moving image or a still image. In this embodiment, a case where the first stereo image is a moving image will be mainly described. The first stereo image may be, for example, a photographed image or an image generated by 3DCG or the like. In this embodiment, a case where the first stereo image is a photographed stereo image will be mainly described.
なお、本実施の形態では、動画である第1のステレオ画像のすべてのデータが記憶部11で記憶されている場合について主に説明するが、そうでなくてもよい。例えば、動画である第1のステレオ画像が画像合成装置1においてリアルタイムで受け付けられ、処理対象の一部のデータのみが記憶部11に記憶されていてもよい。そのような場合であっても、動画である第1のステレオ画像を構成する各フレームは少なくとも一時的に記憶部11で記憶されることになるため、第1のステレオ画像が記憶部11で記憶されると言うことができる。
In this embodiment, the case where all the data of the first stereo image, which is the moving image, is stored in the storage unit 11 will be mainly described, but this does not have to be the case. For example, the first stereo image, which is a moving image, may be received in real time by the
また、本実施の形態では、撮影画像である第1のステレオ画像が、光軸が平行となるように配置された一対のカメラによって撮影されたものである場合について主に説明し、光軸が交わるように配置された一対のカメラによって撮影されたものである場合については後述する。 In addition, in the present embodiment, a case where the first stereo image, which is a photographed image, is photographed by a pair of cameras arranged so that their optical axes are parallel will be mainly described. A case in which images are taken by a pair of cameras arranged so as to intersect will be described later.
記憶部11に第1のステレオ画像が記憶される過程は問わない。例えば、記録媒体を介して第1のステレオ画像が記憶部11で記憶されるようになってもよく、通信回線等を介して送信された第1のステレオ画像が記憶部11で記憶されるようになってもよく、または、撮影デバイス等から入力された第1のステレオ画像が記憶部11で記憶されるようになってもよい。記憶部11は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスク、光ディスクなどであってもよい。 The process by which the first stereo image is stored in the storage unit 11 does not matter. For example, the first stereo image may be stored in the storage unit 11 via a recording medium, or the first stereo image transmitted via a communication line or the like may be stored in the storage unit 11. Alternatively, the storage unit 11 may store the first stereo image input from an imaging device or the like. The storage unit 11 is preferably implemented by a non-volatile recording medium, but may be implemented by a volatile recording medium. The recording medium may be, for example, a semiconductor memory, a magnetic disk, an optical disk, or the like.
受付部12は、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける。この操作は、例えば、3次元オブジェクトの姿勢、位置、形状等に関連する操作であってもよい。受付部12で受け付けられる操作は、3次元仮想空間に配置された3次元オブジェクトの向き、位置、形状等に変化が生じる操作であれば、どのような操作であってもよい。3次元オブジェクトの形状に関する操作とは、例えば、3次元オブジェクトが手術で用いる鉗子である場合に、鉗子の先端を開けたり閉じたりする操作であってもよい。受付部12は、例えば、画像合成装置1から後述する第2のステレオ画像が出力されるVR(Virtual Reality)ヘッドセット(例えば、Oculus Quest 2など)のコントローラ等から、3次元オブジェクトの操作を受け付けてもよく、ジョイスティックやマウスなどのその他の入力デバイスから3次元オブジェクトの操作を受け付けてもよい。なお、3次元オブジェクトの操作の受け付けは、例えば、加速度センサやジャイロセンサ等のセンサを用いて、3次元実空間における位置の変化、角度の変化を検出した結果の受け付けであってもよく、ボタン等の入力デバイスに対する入力の受け付けであってもよい。受付部12は、通常、HMD2や、VRヘッドセットなどのコントローラ等の入力デバイスから、リアルタイムで3次元オブジェクトの操作を受け付ける。受付部12は、入力デバイスや通信回線等を介して、3次元オブジェクトの操作を受け付けてもよい。なお、受付部12は、受け付けを行うためのデバイス(例えば、入力デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部12は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
The accepting
配置部13は、第1の右目用画像及び第1の左目用画像の配置される3次元仮想空間に、受付部12によって受け付けられた操作に応じた3次元オブジェクトを配置する。3次元オブジェクトは、受け付けられた操作に応じて位置や姿勢、形状等が変化するため、配置部13は、その操作に応じて、3次元仮想空間上の3次元オブジェクトを変化させることになる。配置部13による3次元オブジェクトの配置は、受付部12によって受け付けられた操作に応じて行われるため、例えば、操作が継続して受け付けられている場合には、3次元仮想空間における3次元オブジェクトの配置も継続して変化することになる。3次元仮想空間に配置された3次元オブジェクトを操作に応じて配置する方法はすでに公知であり、その詳細な説明を省略する。なお、3次元仮想空間に配置された3次元オブジェクトの情報は、例えば、記憶部11で記憶されてもよい。
The
なお、3次元仮想空間における、第1のステレオ画像が有する第1の右目用画像及び第1の左目用画像の配置位置と、右目用視点及び左目用視点との関係は、通常、あらかじめ決まっている。両者の具体的な関係については後述するが、例えば、(A)第1の右目用画像及び第1の左目用画像は、平行な視線方向の前方側に配置されてもよい。また、例えば、(B)第1の右目用画像及び第1の左目用画像配置は、無限遠に対応する点が重なるように配置されてもよい。 Note that the relationship between the arrangement positions of the first right-eye image and the first left-eye image included in the first stereo image and the right-eye viewpoint and left-eye viewpoint in the three-dimensional virtual space is usually predetermined. there is Although a specific relationship between the two will be described later, for example, (A) the first right-eye image and the first left-eye image may be arranged on the front side in the parallel line-of-sight direction. Also, for example, (B) the arrangement of the first right-eye image and the first left-eye image may be arranged such that points corresponding to infinity overlap.
通常、3次元オブジェクトは、第1のステレオ画像と、視点との間に配置される。3次元オブジェクトと視点との間に第1のステレオ画像が存在するようになると、レンダリング後の第2のステレオ画像に3次元オブジェクトが含まれなくなるからである。 A three-dimensional object is usually placed between the first stereo image and the viewpoint. This is because when the first stereo image exists between the three-dimensional object and the viewpoint, the second stereo image after rendering does not include the three-dimensional object.
生成部14は、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する。すなわち、第2の右目用画像を生成する際には、3次元仮想空間において第1の右目用画像を表示し、第1の左目用画像を表示しないことが好適である。また、第2の左目用画像を生成する際には、3次元仮想空間において第2の右目用画像を表示し、第2の左目用画像を表示しないことが好適である。なお、第2の右目用画像に第1の左目用画像が入らないのであれば、右目用視点を用いたレンダリング時に、第1の左目用画像が表示されていてもよい。左目用視点を用いたレンダリング時にも同様である。第2のステレオ画像は、第1のステレオ画像に含まれる立体的に表示されるオブジェクト、及び3次元オブジェクトが、第2のステレオ画像においても立体的に表示されるように生成されることが好適である。また、レンダリング時の画角は、例えば、第1のステレオ画像を撮影したカメラの画角と同じにしてもよく、または、異なっていてもよい。
The
3次元仮想空間における右目用視点及び左目用視点の各位置は、例えば、あらかじめ決まっていてもよく、または、リアルタイムに変更されてもよい。後者の場合には、例えば、HMD2の位置や向きに応じて右目用視点及び左目用視点の各位置が変更されてもよい。また、視点の変更に応じて、3次元仮想空間における第1のステレオ画像の配置も変更されてもよい。通常、視点の位置と、第1の右目用画像及び第1の左目用画像の配置される位置との相対的な関係はあらかじめ決まっているからである。なお、HMD2の位置や向きに応じた視点の変更についてはすでに公知であり、その詳細な説明を省略する。また、視線方向は、それぞれ対応する画像の中心を向いていることが好適である。例えば、右目用視点の視線方向は、右目用画像の中心を向いていることが好適である。本実施の形態では、説明の便宜上、右目用視点及び左目用視点の各視線方向が水平方向である場合について主に説明するが、各視線方向は、水平以外の方向であってもよいことは言うまでもない。
Each position of the right-eye viewpoint and the left-eye viewpoint in the three-dimensional virtual space may be determined in advance, or may be changed in real time, for example. In the latter case, for example, each position of the right-eye viewpoint and the left-eye viewpoint may be changed according to the position and orientation of the
第1のステレオ画像が動画像である場合には、その動画像の各フレームと、3次元オブジェクトとを合成した第2のステレオ画像が生成されることになるため、第2のステレオ画像も動画像となる。この場合には、例えば、3次元仮想空間において、第1のステレオ画像が再生され、また、受け付けられた操作に応じて3次元オブジェクトの配置が変更され、再生されている第1のステレオ画像、及び操作に応じて変更される3次元オブジェクトを含む第2のステレオ画像が生成されてもよい。また、第2のステレオ画像が有する第2の右目用画像及び第2の左目用画像において、第1のステレオ画像の枠(すなわち、外縁)が表示されてもよく、または、そうでなくてもよい。後者の場合には、第1の右目用画像(または、第1の左目用画像)の枠が、第2の右目用画像(または、第2の左目用画像)の枠となるように第2のステレオ画像が生成されてもよい。 When the first stereo image is a moving image, the second stereo image is generated by synthesizing each frame of the moving image with the three-dimensional object. become an image. In this case, for example, the first stereo image is reproduced in a three-dimensional virtual space, and the first stereo image being reproduced with the arrangement of the three-dimensional object changed according to the accepted operation, and a second stereo image containing the three-dimensional object modified in response to the manipulation may be generated. In addition, in the second right-eye image and the second left-eye image included in the second stereo image, the frame (that is, outer edge) of the first stereo image may be displayed, or otherwise. good. In the latter case, the frame of the first right-eye image (or the first left-eye image) is the frame of the second right-eye image (or the second left-eye image). stereo images may be generated.
なお、配置部13、及び生成部14は、例えば、Unity(Unity Technologies社)などのリアルタイム3D開発プラットフォームを用いて実現することもできる。図8A、図8Bは、Unityの3次元仮想空間に配置された、第1のステレオ画像と、3次元オブジェクトである手術用の鉗子とを示す図である。図8Aでは、第1の右目用画像と第1の左目用画像との位置をずらして配置している。例えば、上記(A)の場合には、このように配置されることになる。なお、本来、両画像は同一平面内に存在するが、説明のため両者を少しずらしている。図8Bでは、第1の右目用画像及び第1の左目用画像を重ねて配置している。例えば、上記(B)の場合には、このように配置されることになる。また、生成部14による画像の生成は、3DCGにおけるレンダリングの処理として公知であり、その詳細な説明を省略する。なお、そのレンダリング時にテクスチャマッピング等が行われてもよいことは言うまでもない。
Note that the
出力部15は、生成部14によって生成された第2のステレオ画像を出力する。ここで、この出力は、例えば、ステレオ画像を表示する表示デバイス(例えば、HMD、VRヘッドセットなど)への表示でもよく、所定の機器への通信回線を介した送信でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。本実施の形態では、上記のように、出力部15が第2のステレオ画像をHMD2に出力する場合について主に説明する。なお、出力部15は、出力を行うデバイス(例えば、表示デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、出力部15は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。
The
次に、本実施の形態による画像合成装置1の動作、すなわち画像合成方法について図2のフローチャートを用いて説明する。このフローチャートでは、記憶部11で記憶されている動画像である第1のステレオ画像に、受付部12で受け付けられた操作に応じた3次元オブジェクトを合成することによって第2のステレオ画像を生成する場合について説明する。
Next, the operation of the
(ステップS101)生成部14は、第2のステレオ画像を生成するかどうか判断する。そして、第2のステレオ画像を生成する場合には、ステップS102に進み、そうでない場合には、第2のステレオ画像を生成すると判断するまで、ステップS101の処理を繰り返す。なお、生成部14は、例えば、定期的に第2のステレオ画像を生成すると判断してもよい。より具体的には、生成部14は、第2のステレオ画像のフレーム間の時間間隔ごとに第2のステレオ画像を生成すると判断してもよい。
(Step S101) The
(ステップS102)受付部12は、3次元オブジェクトの操作を受け付けたかどうか判断する。そして、操作を受け付けた場合には、ステップS103に進み、そうでない場合には、ステップS104に進む。
(Step S102) The
(ステップS103)配置部13は、受付部12によって受け付けられた操作に応じて、3次元仮想空間に3次元オブジェクトを配置する。この3次元オブジェクトの配置は、3次元仮想空間に配置されている3次元オブジェクトの配置を変更すること、例えば、3次元オブジェクトの位置や角度、形状等を変更することであってもよい。
(Step S<b>103 ) The
(ステップS104)生成部14は、3次元仮想空間において第1の右目用画像を表示し、第1の左目用画像を表示していない状態において、第2の右目用画像を生成し、第1の左目用画像を表示し、第1の右目用画像を表示していない状態において、第2の左目用画像を生成することによって、第2のステレオ画像を生成する。なお、この第2の右目用画像及び第2の左目用画像の生成は、右目用の1個のフレーム及び左目用の1個のフレームを生成することであってもよい。この場合には、ステップS104の処理が実行されるごとに、3次元仮想空間に配置される第1の右目用画像及び第1の左目用画像が、1フレームずつ変更されてもよい。生成された一対のフレームは、例えば、図示しない記録媒体や記憶部11で記憶されてもよい。
(Step S104) The
(ステップS105)出力部15は、ステップS104で生成された第2のステレオ画像を出力する。この出力は、例えば、右目用の1個のフレーム及び左目用の1個のフレームの出力であってもよい。そして、ステップS101に戻る。このように、ステップS101~S105の処理が繰り返されることによって、HMD2に第1のステレオ画像と、操作に応じて配置が変更される3次元オブジェクトとを合成した第2のステレオ画像が表示されることになる。
(Step S105) The
なお、図2のフローチャートにおいて、例えば、ステップS101,S104,S105の処理と、ステップS102、S103の処理とは並列して行われてもよい。また、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In addition, in the flowchart of FIG. 2, for example, the processing of steps S101, S104, and S105 and the processing of steps S102 and S103 may be performed in parallel. In addition, in the flowchart of FIG. 2, the processing ends when the power is turned off or an interrupt for processing end occurs.
次に、第1のステレオ画像の撮影、及び第1のステレオ画像と3次元オブジェクトとの合成について具体的に説明する。 Next, photographing of the first stereo image and synthesis of the first stereo image and the three-dimensional object will be specifically described.
図3は、第1のステレオ画像の撮影について説明するための図である。図3では、右目用カメラ21aと左目用カメラ21bとを用いて第1のステレオ画像を撮影している。すなわち、右目用カメラ21aによって第1の右目用画像22aが撮影され、左目用カメラ21bによって第1の左目用画像22bが撮影される。右目用カメラ21a及び左目用カメラ21bは、通常、同じ仕様のものであり、その結果として、第1の右目用画像22a及び第1の左目用画像22bも同じ画素数の画像となる。図3では、第1のステレオ画像が、光軸が平行となるように配置された一対のカメラ21a、21bによって撮影されるものとする。また、両カメラ21a、21bの光軸は両方とも水平面内にあるものとする。右目用カメラ21aの光軸と、及び左目用カメラ21bの光軸との間の距離は、例えば、人間の平均的な瞳孔間距離程度であってもよい。なお、この例では、撮影対象のオブジェクト20は、中心軸が鉛直方向となるように配置されている円錐であるとする。そして、オブジェクト20は、第1の右目用画像22a及び第1の左目用画像22bに含まれているものとする。なお、図3は、水平面に垂直な鉛直方向からカメラ21a、21bを見ている状態を示しているため、厳密には、オブジェクト20は円形状になるはずであるが、説明の便宜上、オブジェクト20を三角形状に表示している。他の図面においても同様であるとする。
FIG. 3 is a diagram for explaining the shooting of the first stereo image. In FIG. 3, the first stereo image is captured using the right-
次に、第1の右目用画像22a及び第1の左目用画像22bを、3次元仮想空間において、(A)平行な視線方向の前方側にそれぞれ配置する場合、(B)無限遠に対応する点が重なるように配置する場合のそれぞれについて説明する。
Next, when the first right-
(A)平行な視線方向の前方側にそれぞれ配置する場合
図4Aは、3次元仮想空間において、第1の右目用画像22a及び第1の左目用画像22bを平行な視線方向の前方側にそれぞれ配置する場合について説明するための図である。図4Aにおいて、右目用視点23a及び左目用視点23bが、瞳孔間距離や、ステレオカメラ21a、21bの光軸間の距離程度離れて配置されている。また、矢印で示される視線方向は、平行であり、同じ方向(図4Aでは上方向)を向いている。なお、図4Aでは、視線方向が水平面内に存在するものとする。すなわち、図4Aは、図3と同様に、水平面に垂直な鉛直方向から視点23a、23bや、配置された画像22a、22bを見ているものとする。また、第1の右目用画像22a及び第1の左目用画像22bはそれぞれ、右目用視点23a及び左目用視点23bの前方側において、視線方向が画像に直交し、視線方向が画像の中心を向くように配置されている。また、右目用視点23aと第1の右目用画像22aとの位置関係と、左目用視点23bと第1の左目用画像22bとの位置関係とは同じであるとする。また、第1の右目用画像22a及び第1の左目用画像22bは、同一平面内に含まれるように配置されている。右目用視点23a及び左目用視点23bから、第1の右目用画像22a及び第1の左目用画像22bが含まれる平面までの距離は、例えば、U/(2tan(φ/2))であってもよい。ここで、Uは、第1の右目用画像22a及び第1の左目用画像22bの水平方向の長さであり、φは、右目用視点23a及び左目用視点23bの水平方向の画角である。なお、図4Aでは、第1の右目用画像22a及び第1の左目用画像22bが右側と左側とに離れて配置されている場合について示しているが、両画像は一部が重なるように配置されてもよい(例えば、図8A参照)。
(A) Arranging each on the front side of the parallel line-of-sight direction FIG. 4A shows the first right-
図4Aにおいて、第1の右目用画像22aが表示されている状態で右目用視点23aからの第2の右目用画像が生成され、第1の左目用画像22bが表示されている状態で左目用視点23bからの第2の左目用画像が生成され、それらの第2のステレオ画像がHMD2に出力されたとする。すると、その第2のステレオ画像を見たユーザには、図4Aの破線で示されるように、配置されている第1の右目用画像22a及び第1の左目用画像22bの奥側にオブジェクト20が存在するように見えることになる。
In FIG. 4A, a second right-eye image is generated from the right-
図4Aにおいて、HMD2を装着しているユーザが、ロボットハンドである3次元オブジェクトをコントローラによって操作して、3次元オブジェクト25aで示される位置に配置したとする。すると、図4Bで示されるように、ユーザにとっては、ロボットハンドは手前側に見えて、オブジェクト20は奥側に見えることになる。そのため、ユーザがロボットハンドでオブジェクト20に触ろうとする場合には、3次元オブジェクトを奥側、すなわち視点から離れる側に移動させる必要がある。そして、ユーザが、コントローラを操作して、3次元オブジェクトを奥側に移動させ、3次元オブジェクト25bで示される位置に配置すると、3次元オブジェクト25bの先端側が、第1の右目用画像22aの背面側に位置することになり、視点から見えなくなる。その結果、図4Cで示されるように、ユーザには、ロボットハンドの先端側が見えなくなる。第1の右目用画像22aは、通常、不透明だからである。なお、図4Cでは、ロボットハンドの見えない部分を破線で示している。このように、平行な視線方向の前方側に第1の右目用画像22a及び第1の左目用画像22bをそれぞれ配置する場合には、第1のステレオ画像で表示されるオブジェクト(例えば、オブジェクト20)と、3次元オブジェクトとの位置関係を調整することが困難になる。すなわち、第2のステレオ画像において、両者を重ねることが困難になる。なお、図4B、図4Cは、ステレオ画像を2次元平面上に示している図であり、実際の第2のステレオ画像とは異なるものである。ステレオ画像を示す他の図についても同様である。
In FIG. 4A, it is assumed that the user wearing the
なお、ここでは、平行な視線方向の前方側に右目用画像及び左目用画像をそれぞれ配置する場合のデメリットについて説明したが、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとが独立している状況、すなわち、両者が関連しない状況においては、上記のようにステレオ画像と3次元オブジェクトとを合成してもデメリットはないことになる。例えば、第1のステレオ画像が、風景の画像であり、3次元オブジェクトが、ユーザの操作に応じてダンスするキャラクタである場合には、風景の前景側においてキャラクタがダンスをすればよいため、この合成方法を用いることができる。 Here, the disadvantages of arranging the right-eye image and the left-eye image respectively on the front side of the parallel line-of-sight direction have been described. In a situation where the two are not related, there is no demerit in synthesizing the stereo image and the three-dimensional object as described above. For example, if the first stereo image is an image of a landscape and the three-dimensional object is a character that dances in response to a user's operation, the character may dance in the foreground of the landscape. Synthetic methods can be used.
(B)無限遠に対応する点が重なるように配置する場合
図5は、ステレオ画像における無限遠に対応する点について説明するための図である。図5で示されるように、右目用撮影位置、左目用撮影位置、画角、及び矢印で示される撮影方向がそれぞれ設定されているとすると、右目用画像及び左目用画像は、それぞれ右目用撮影位置から撮影方向に見える画角の範囲内のオブジェクト等を、図中の仮想平面に投影した画像となる。なお、仮想平面は、撮影方向に垂直な平面である。この場合には、撮影方向の前方側の無限遠に存在する点は、仮想平面上の点α、及び点βの位置に投影されることになる。すなわち、右目用画像の点α、及び左目用画像の点βが、無限遠に対応する点となる。なお、点α、及び点βはそれぞれ、右目用画像と右目用撮影位置から延びる撮影方向とが交わる点、及び左目用画像と左目用撮影位置から延びる撮影方向とが交わる点である。したがって、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像を3次元仮想空間に配置する場合には、両者を同じ位置に配置することになる。すなわち、両画像を重ねて配置すればよいことになる。
(B) Case where points corresponding to infinity are arranged so as to overlap FIG. 5 is a diagram for explaining points corresponding to infinity in a stereo image. As shown in FIG. 5, assuming that the right-eye imaging position, the left-eye imaging position, the angle of view, and the imaging direction indicated by the arrow are set, the right-eye image and the left-eye image are obtained by the right-eye imaging. An image is obtained by projecting an object or the like within the range of the angle of view that can be seen in the shooting direction from the position onto the virtual plane in the drawing. Note that the virtual plane is a plane perpendicular to the shooting direction. In this case, a point existing at infinity on the forward side in the imaging direction is projected onto the positions of points α and β on the virtual plane. That is, the point α of the image for the right eye and the point β of the image for the left eye are points corresponding to infinity. Note that the points α and β are the points where the right-eye image and the imaging direction extending from the right-eye imaging position intersect, and the points where the left-eye image and the imaging direction extending from the left-eye imaging position intersect, respectively. Therefore, when arranging the first right-eye image and the first left-eye image in the three-dimensional virtual space so that the points corresponding to infinity overlap, both are arranged at the same position. That is, both images should be superimposed and arranged.
図6Aは、3次元仮想空間において、撮影された第1の右目用画像22a及び第1の左目用画像22bを、無限遠に対応する点が重なるように配置する場合について説明するための図である。図6Aにおいても、図4Aと同様に、右目用視点23a及び左目用視点23bは、瞳孔間距離や、ステレオカメラ21a、21bの光軸間の距離程度離れて配置されている。なお、この場合には、矢印で示される視線方向は、第1の右目用画像22a及び第1の左目用画像22bの中心を向いている。また、図6Aでも、視線方向が水平面内に存在しているものとする。また、図6Aは、鉛直方向から見た図である。図6Aで示される第1の右目用画像22a及び第1の左目用画像22bはそれぞれ、図4Aで示される位置から、画像の面方向に両者が重なるまで、同じ距離だけ移動されたものである。
FIG. 6A is a diagram for explaining a case in which the photographed first right-
図6Aにおいて、第1の右目用画像22aが表示されており、第1の左目用画像22bが表示されていない状態で右目用視点23aからの第2の右目用画像が生成され、第1の左目用画像22bが表示されており、第1の右目用画像22aが表示されていない状態で左目用視点23bからの第2の左目用画像が生成され、それらの第2のステレオ画像がHMD2に出力されたとする。すると、その第2のステレオ画像を見たユーザには、図6Aの破線で示されるように、配置されている第1の右目用画像22a及び第1の左目用画像22bの手前側にオブジェクト20が存在するように見えることになる。
In FIG. 6A, the first right-
図6Aにおいて、HMD2を装着しているユーザが、ロボットハンドである3次元オブジェクトをコントローラによって操作して、3次元オブジェクト25cで示される位置に配置したとする。すると、図6Bで示されるように、ユーザにとっては、ロボットハンドがオブジェクト20の近傍に見えることになる。そのため、上記(A)の状況とは異なり、ユーザがコントローラを操作することによって、ロボットハンドの先端をオブジェクト20に重ねることができるようになる。このように、無限遠に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置することによって、第1のステレオ画像で表示されるオブジェクト(例えば、オブジェクト20)と、3次元オブジェクトとの位置関係を容易に調整できるようになる。すなわち、ステレオ画像で表示されるオブジェクトと、3次元オブジェクトとを重ねることができるようになる。これは、無限遠に対応する第1の右目用画像22a上の点と、無限遠に対応する第1の左目用画像22b上の点とが重なっているため、無限遠に相当する位置が、画像上に存在することになり、3次元オブジェクトを、視点から画像までの範囲内の任意の位置に配置することによって、視点に最も近い位置から無限遠までの任意の位置に配置できるからである。
In FIG. 6A, it is assumed that the user wearing the
次に、第1のステレオ画像が、光軸が交わるように配置された一対のカメラによって撮影される場合について説明する。例えば、手術支援ロボットであるダ・ビンチを用いてステレオ画像を撮影する場合には、光軸が交わるように配置されていることがある。この場合には、図7Aで示されるように、右目用撮影位置からの矢印で示される撮影方向(すなわち、カメラの光軸)と、左目用撮影位置からの矢印で示される撮影方向とが視線の前方側(すなわち、カメラの前方側)において交わることになる。このように撮影される右目用画像と左目用画像との無限遠に対応する位置は、図中の点α1、及び点β1となる。それらの点は、撮影方向とのなす角度が等しくなるように、右目用撮影位置及び左目用撮影位置から延びる平行な2直線と、右目用画像及び左目用画像との交点である。なお、右目側の状況と、左目側の状況とは対照になっているため、右目用画像において点α1を特定することができれば、左目用画像において点β1を特定することもできるようになる。したがって、以下、右目用画像における点α1の位置の特定について説明する。 Next, a case where the first stereo image is captured by a pair of cameras arranged so that their optical axes intersect will be described. For example, when stereo images are captured using a surgical assistance robot, da Vinci, the optical axes are sometimes arranged so as to cross each other. In this case, as shown in FIG. 7A, the imaging direction indicated by the arrow from the right-eye imaging position (that is, the optical axis of the camera) and the imaging direction indicated by the arrow from the left-eye imaging position are the lines of sight. will intersect on the front side of (that is, the front side of the camera). The positions corresponding to infinity between the right-eye image and the left-eye image photographed in this manner are points α1 and β1 in the figure. These points are the intersections of two parallel straight lines extending from the right-eye imaging position and the left-eye imaging position and the right-eye image and the left-eye image so that the angles formed with the imaging direction are equal. Since the situation on the right-eye side and the situation on the left-eye side are in contrast, if the point α1 can be specified in the right-eye image, the point β1 can also be specified in the left-eye image. Therefore, the identification of the position of the point α1 in the image for the right eye will be described below.
図7Bで示されるように、撮影方向と右目用画像との交点から点α1までの距離をXとし、右目用撮影位置から撮影画像までの距離をLとし、右目用画像の水平方向の長さをUとし、水平方向の画角をφとし、撮影方向と、右目用撮影位置と点α1とを結ぶ直線とのなす角度をθとすると、次式が得られる。
tan(φ/2)=U/(2L)
tanθ=X/L
As shown in FIG. 7B, let X be the distance from the intersection of the shooting direction and the right-eye image to point α1, let L be the distance from the right-eye shooting position to the shot image, and let L be the horizontal length of the right-eye image. is U, the angle of view in the horizontal direction is φ, and the angle between the photographing direction and the straight line connecting the photographing position for the right eye and the point α1 is θ, the following equation is obtained.
tan(φ/2)=U/(2L)
tan θ=X/L
したがって、Xは、次式のようになる。
X=U×tanθ/(2tan(φ/2))
Therefore, X becomes as follows.
X=U×tan θ/(2 tan (φ/2))
ここで、φは、撮影で用いるカメラによって決まるため既知である。また、2θが、図7Aにおける右目側及び左目側の視線方向のなす角度であるため、θも既知である。したがって、図7Aのように撮影された第1の右目用画像22a及び第1の左目用画像22bを、無限遠に対応する点が重なるように配置する際には、その画像の水平方向の幅であるUと、θ及びφを用いて上記のようにXを算出し、第1の右目用画像22aにおいて、中心から水平方向にXだけ離れた点α1と、第1の左目用画像22bにおいて、中心から水平方向にXだけ離れた点β1とが重なるように両画像を配置すればよいことになる。なお、3次元仮想空間に第1の右目用画像22a及び第1の左目用画像22bを配置する際には、図7Bにおける右目用撮影位置が右目用視点となるようにしてもよい。すなわち、3次元仮想空間に配置された右目用視点及び左目用視点からの距離がLとなる平面上に、点α1と点β1とが重なるように第1の右目用画像22a及び第1の左目用画像22bを配置してもよい。ここで、Lは、上式から、L=U/(2tan(φ/2))となる。また、第1の右目用画像22a及び第1の左目用画像22bは、右目用視点23a及び左目用視点23bを結ぶ線分の中点をとおり、その線分に垂直な平面に対して、対称になるように配置されることが好適である。すなわち、図6Aのように配置された画像を正面側から見た場合に、第1の右目用画像22aを、画像を含む平面内においてXだけ左側に移動させ、第1の左目用画像22bを、画像を含む平面内においてXだけ右側に移動させればよいことになる。その結果、図6Cで示されるように、第1の右目用画像22a及び第1の左目用画像22bが配置されることになる。なお、図6Cでは、説明の便宜上、第1の右目用画像22a及び第1の左目用画像22bをずらして表示しているが、実際には、第1の右目用画像22a及び第1の左目用画像22bは同一平面上に存在している。この場合にも、視線方向は、それぞれ対応する画像の中心を向くように設定される。このように、第1のステレオ画像が、光軸が交わるように配置された一対のカメラによって撮影される場合であっても、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像を配置することができ、その結果、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係を容易に調整することができるようになる。
Here, φ is known because it is determined by the camera used for photographing. θ is also known because 2θ is the angle formed by the line-of-sight directions of the right eye side and the left eye side in FIG. 7A. Therefore, when arranging the first right-
以上のように、本実施の形態による画像合成装置1、及び画像合成方法によれば、3次元仮想空間に第1のステレオ画像の有する第1の右目用画像及び第1の左目用画像と、3次元オブジェクトとを配置し、第1の右目用画像を表示している状態において新たな右目用画像を生成し、第1の左目用画像を表示している状態において新たな左目用画像を生成することによって、第1のステレオ画像と3次元オブジェクトとを合成した第2のステレオ画像を生成することができる。このようにして両者を合成することにより、ステレオ画像に含まれるオブジェクト、及び3次元オブジェクトの両方を立体的に表示することができる第2のステレオ画像を生成できることになる。また、3次元仮想空間において、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像を配置することによって、ステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係を適切に調整することができるようになる。例えば、ステレオ画像に含まれるオブジェクトに3次元オブジェクトを重ねて表示することができるようになる。また、3次元オブジェクトと、ステレオ画像に含まれるオブジェクトとを重ねる際に、3次元オブジェクトの一部がステレオ画像の背面側に位置することによって見えなくなる事態を回避することもできる。
As described above, according to the
なお、本実施の形態では、第1及び第2のステレオ画像が動画像である場合について主に説明したが、そうでなくてもよい。第1及び第2のステレオ画像は静止画であってもよい。この場合には、静止画である第1のステレオ画像に、操作に応じて配置された3次元オブジェクトが合成された静止画である第2のステレオ画像が生成されることになる。 Note that, in the present embodiment, the case where the first and second stereo images are moving images has been mainly described, but this does not have to be the case. The first and second stereo images may be still images. In this case, the second stereo image, which is a still image, is generated by combining the first stereo image, which is a still image, with the three-dimensional object arranged according to the operation.
次に、本実施の形態による画像合成装置1の利用例について説明する。
Next, a usage example of the
第1のステレオ画像は、熟練者の動作を撮影した動画像であり、3次元オブジェクトは、熟練者が用いている器具等に相当するものであり、その3次元オブジェクトを操作するユーザは、熟練者の動作を真似る初心者であってもよい。この場合には、熟練者の動作を示す第1のステレオ画像に、初心者が操作する3次元オブジェクトを合成した第2のステレオ画像が生成されることになる。より具体的には、熟練者の動作は、手術の動作であってもよく、スポーツにおけるプレーの動作や、楽器の演奏などにおける動作であってもよい。また、3次元オブジェクトは、例えば、手術で用いられる鉗子などの器具や、スポーツで用いられる野球のバット、ゴルフのクラブ、テニスやバドミントン、卓球のラケット等の器具、音楽の演奏で用いる楽器などであってもよい。このようにして、初心者が熟練者の動作を真似ることができ、手術やスポーツのプレー、楽器の演奏などについて練習できるようになる。この場合には、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a moving image obtained by photographing the action of an expert, the three-dimensional object corresponds to an instrument or the like used by the expert, and the user operating the three-dimensional object is an expert. It may be a beginner who imitates the movement of the person. In this case, a second stereo image is generated by synthesizing the three-dimensional object operated by the beginner with the first stereo image showing the action of the expert. More specifically, the expert's motion may be a surgical motion, a motion for playing a sport, or a motion for playing a musical instrument. Three-dimensional objects are, for example, instruments such as forceps used in surgery, instruments such as baseball bats, golf clubs, tennis rackets, badminton rackets, and table tennis rackets used in sports, and musical instruments used in music performances. There may be. In this way, a novice can imitate the actions of an expert and practice surgery, playing sports, playing a musical instrument, and the like. In this case, it is considered important to superimpose the three-dimensional object on the object included in the first stereo image. Preferably a synthesis is performed.
第1のステレオ画像は、俳優や女優、歌手など人間の動画像であり、3次元オブジェクトは、ユーザの手などであり、ユーザが3次元オブジェクトである手などを操作することによって、仮想空間上で俳優などと握手をできるようになっていてもよい。この場合には、第2のステレオ画像は、俳優などの人間と、ユーザが操作する3次元オブジェクトである手などとを合成したものとなる。このようにして、ユーザは、例えば、有名人と握手をすることができるようになる。この場合にも、第1のステレオ画像に含まれる有名人等の手の位置に、ユーザの手に相当する3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a moving image of a person such as an actor, an actress, or a singer, and the three-dimensional object is a user's hand or the like. You may be able to shake hands with an actor or the like. In this case, the second stereo image is a combination of a person such as an actor and a three-dimensional object such as a hand operated by the user. In this way the user will be able to shake hands with a celebrity, for example. In this case as well, it is considered important to superimpose the three-dimensional object corresponding to the hand of the user on the position of the hand of a celebrity or the like included in the first stereo image. Preferably, a synthesis is performed between the first stereo image and the three-dimensional object.
第1のステレオ画像は、建物の内部の撮影画像やCGなどの静止画であり、3次元オブジェクトは家具であり、ユーザが、その家具を操作することによって、家具の配置を変更し、建物の内部に配置された家具の状況を示す第2のステレオ画像が生成されてもよい。ユーザは、この第2のステレオ画像によって、家具の配置後の状況を立体的に見ることができるようになる。この場合にも、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a photographed image of the interior of the building or a still image such as CG, and the three-dimensional object is furniture. A second stereo image may be generated showing the situation of the furniture placed inside. This second stereo image enables the user to stereoscopically see the situation after the furniture has been placed. In this case as well, it is considered important to superimpose the 3D object on the object included in the first stereo image. Preferably a synthesis is performed.
第1のステレオ画像は、工事現場や、修理現場などの実空間にいるユーザが装着しているステレオカメラによって撮影された動画像であり、3次元オブジェクトは、熟練者が第1のステレオ画像上の位置を示すポインタや、実空間で使用される器具に相当するオブジェクトであり、第2のステレオ画像は、実空間の第1のステレオ画像に、3次元オブジェクトが合成されたものであってもよい。その第2のステレオ画像を、熟練者及び実空間にいるユーザが見てもよい。熟練者は、3次元オブジェクトを操作することによって、実空間のユーザに指示を出したり、実空間のユーザが実行すべきことを、3次元オブジェクトを用いて実演したりすることができる。また、実空間にいるユーザは、熟練者によって操作された3次元オブジェクトを含む第2のステレオ画像を見て、作業を行うことによって、実空間において適切な作業を行うことができるようになる。この場合には、画像合成装置1は、第1のステレオ画像をリアルタイムで受け付け、第2のステレオ画像をリアルタイムで出力してもよい。この場合にも、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。
The first stereo image is a moving image captured by a stereo camera worn by a user in a real space such as a construction site or a repair site. A pointer indicating the position of or an object corresponding to an instrument used in the real space, and the second stereo image is a three-dimensional object synthesized with the first stereo image in the real space. good. The second stereo image may be viewed by experts and users in real space. By manipulating the three-dimensional object, the expert can give instructions to the user in the real space, or demonstrate what the user in the real space should do using the three-dimensional object. Also, the user in the real space can perform appropriate tasks in the real space by viewing the second stereo image including the three-dimensional object operated by the expert and performing the task. In this case, the
なお、ここではいくつかの利用例について示したが、第1のステレオ画像と3次元オブジェクトとを合成する他の例について画像合成装置1を利用できることは明らかであり、上記以外の状況で画像合成装置1が利用されてもよいことは言うまでもない。
Although some usage examples have been shown here, it is obvious that the
また、画像合成装置1では、第1のステレオ画像に含まれるオブジェクトと、受付部12によって受け付けられる操作に応じて配置される3次元オブジェクトとの位置関係に関する判定を行ってもよい。位置関係に関する判定は、例えば、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとが当たっているかどうかを判定する当たり判定であってもよく、両者が重なっているかどうかを判定する重なり判定であってもよく、両者の位置関係に関するその他の判定であってもよい。この場合には、画像合成装置1は、図9で示されるように、判定部16をさらに備えてもよい。また、この場合には、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係の調整が重要になるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。
Further, the
判定部16は、3次元仮想空間に配置された第1の右目用画像及び第1の左目用画像から、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置を特定する。この位置の特定は、例えば、第1の右目用画像及び第1の左目用画像の対応点を特定し、3次元仮想空間における対応点の位置と、右目用視点及び左目用視点の位置とを用いて行われてもよい。例えば、第1の右目用画像及び第1の左目用画像の一対の対応点に相当する3次元仮想空間における位置は、3次元仮想空間において、第1の右目用画像の対応点と右目用視点とを結ぶ直線と、第1の左目用画像の対応点と左目用視点とを結ぶ直線との交点の位置となってもよい。なお、誤差等によって両直線が交わらない場合には、両直線間の距離が最も近くなる両直線上の位置の中点を、第1の右目用画像及び第1の左目用画像の一対の対応点に相当する3次元仮想空間における位置としてもよい。なお、このように、ステレオ画像上の対応点に相当する3次元空間上の点を特定する処理はすでに公知であり、その詳細な説明を省略する。判定部16は、このような処理を第1のステレオ画像の各対応点について行うことによって、第1の右目用画像及び第1の左目用画像に含まれる各ピクセルに相当する3次元仮想空間における位置を特定することができる。なお、このようにして特定された位置は、通常、3次元仮想空間において面を構成することになる。ステレオ画像では、背面側の構造まではわからないからである。また、判定部16は、第1のステレオ画像において輪郭抽出等を行うことによって画像に含まれるオブジェクトを特定し、特定したオブジェクトごとに位置の特定を行ってもよい。
The
第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置を特定すると、判定部16は、その特定した位置と、3次元仮想空間における3次元オブジェクトの位置との関係に関する判定を行う。この判定は、当たり判定、及び、重なり判定の少なくとも一方であってもよい。判定部16は、例えば、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置によって構成される面と、3次元仮想空間における3次元オブジェクトの少なくとも一部とが重なっている場合に、両者が当たっていると判定してもよい。また、判定部16は、例えば、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置によって構成される少なくとも一部の面と、3次元仮想空間における3次元オブジェクトの少なくとも一部の面とが重なっている場合に、両者が重なっていると判定してもよい。この場合には、例えば、重なりの程度を示す指標が取得されてもよい。その指標は、例えば、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置によって構成される面と、3次元仮想空間における3次元オブジェクトの面との重なりが最も多くなった場合の重なりを100%とした、重なりの程度を示す指標であってもよい。
After identifying the position in the three-dimensional virtual space of the object included in the first stereo image, the
出力部15は、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係に関する判定部16による判定結果に関する出力をも行ってもよい。その出力は、例えば、当たり判定の結果や、重なり判定の結果の出力であってもよく、当たり判定の結果によって両者が当たっていることが示される場合に、両者が当たっていることを示す出力であってもよく、重なり判定の結果によって両者が重なっていることが示される場合に、両者が重なっていることを示す出力や、その重なりの程度を示す指標の出力であってもよい。より具体的には、出力部15は、第2のステレオ画像に、判定結果に応じた表示を重畳して出力してもよく、判定結果に応じて、ユーザが操作しているコントローラを振動させてもよく、判定結果に応じた音を出力してもよく、判定結果に応じたその他の出力を行ってもよい。例えば、図6Bで示されるようにユーザが3次元オブジェクトであるロボットアームを操作しており、そのロボットアームが、第1のステレオ画像に含まれる円錐形状のオブジェクトに当たった時に、両者が当たったことを示す表示(例えば、画面全体の点滅等)や、両者が当たったことを示す振動出力や音出力が行われてもよい。また、例えば、図8A,図8Bで示されるようにユーザが3次元オブジェクトである鉗子を操作しており、その鉗子が、模擬手術の映像である第1のステレオ画像に含まれる鉗子に重なった時に、両者が重なったことを示す表示(例えば、重なったこと示す図形の表示等)や、両者の重なりの程度を示す指標の出力が行われてもよい。このように、第1のステレオ画像に含まれるオブジェクトの位置と、3次元オブジェクトの位置との関係に関する判定が行われることによって、3次元オブジェクトを操作しているユーザは、例えば、3次元オブジェクトの位置を確認することができ、3次元オブジェクトを適切に操作できているかどうかを知ることができるようになる。
The
なお、上記(B)では、3次元仮想空間において、無限遠に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置する場合について説明したが、そうでなくてもよい。例えば、3次元オブジェクトが視点から所定の距離だけ離れた位置より手前側(すなわち、視点側)に存在する場合には、第1の右目用画像22a及び第1の左目用画像22bは、3次元仮想空間において、その所定の距離に対応する点が重なるように配置されてもよい。例えば、図10において、破線で示される第1の右目用画像22a-1及び第1の左目用画像22b-1が、無限遠に対応する点が重なるように3次元仮想空間に配置されているとすると、図10の第1の右目用画像22a-2及び第1の左目用画像22b-2で示されるように、第1の右目用画像22a-1及び第1の左目用画像22b-1がそれらの面方向にそれぞれ矢印で示される方向に同じ距離だけ移動されて配置されてもよい。より具体的には、第1の右目用画像22a-2は、第1の右目用画像22a-1から右側に移動され、第1の左目用画像22b-2は、第1の左目用画像22b-1から左側に移動されてもよい。そして、第1の左目用画像22b-2及び第1の左目用画像22b-2では、視点23a,23bからNメートル離れた位置に対応する点が重なるように3次元仮想空間に配置されているものとする。ここで、Nは、正の実数である。また、図10でも、視線方向が水平面内に存在しており、鉛直方向から見た状況を示しているものとする。図11、図12も同様であるとする。また、配置される位置ごとに第1の右目用画像22a-1,22a-2などのように異なる符号を用いているが、特に位置を区別しない場合には、第1の右目用画像22aと呼ぶこともある。第1の左目用画像22bについても同様である。
In (B) above, the case where the first right-
なお、視点23a,23bからNメートル離れた位置に対応する点が重なるように第1のステレオ画像を配置するとは、例えば、第1のステレオ画像の撮影時にカメラからNメートル先に存在する物体が重なるように、第1の左目用画像22b-2及び第1の左目用画像22b-2が配置されることであってもよい。なお、第1の右目用画像22a及び第1の左目用画像22bにおけるNメートル離れた位置に対応する点は、例えば、視差、ステレオカメラの焦点距離、ステレオカメラのカメラ間の距離を用いて特定されてもよい。その距離は、例えば、視点23a,23bを結ぶ直線との距離であってもよい。また、Nメートルは、例えば、ユーザによって指定されてもよい。例えば、受付部12によって、Nメートルを示す情報が受け付けられ、それに応じて、3次元仮想空間において、Nメートル離れた位置に対応する点が重なるように第1のステレオ画像が配置されておよい。この配置は、例えば、配置部13によって行われてもよい。この場合に、第1の右目用画像22a及び第1の左目用画像22bにおけるNメートルだけ離れた位置に対応する点は、例えば、視差や、焦点距離、視点間の距離を用いて特定されてもよく、その他の方法によって特定されてもよい。また、例えば、距離と、その距離だけ離れた位置に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置する際の両画像の重なりの程度とを対応付ける情報が記憶部11で記憶されている場合には、その情報を用いて、Nメートルに対応する両画像の重なりの程度を取得し、その重なりの程度となるように第1の右目用画像22a及び第1の左目用画像22bが重なるように配置されてもよい。また、図10において、第1の右目用画像22a及び第1の左目用画像22bのそれぞれにおいて、無限遠に対応する点(すなわち、画像の中心点)の位置を、黒丸で示している。また、本来、第1の左目用画像22b-2及び第1の左目用画像22b-2は同一平面上(すなわち、図中では同一直線上)に存在するが、説明のため両者を上下に少しずらしている。これらのことは、図11、図12においても同様であるとする。
Arranging the first stereo image so that points corresponding to positions N meters away from the
図10で示される第1の右目用画像22a-2及び第1の左目用画像22b-2のように第1のステレオ画像が配置された場合には、3次元仮想空間において、第1のステレオ画像に含まれる、視点からNメートルまでのオブジェクトはすべて、第1の左目用画像22b-2及び第1の左目用画像22b-2の手前側において立体的に見えることになる。したがって、第1のステレオ画像に含まれるNメートルまでの距離のオブジェクトを、3次元オブジェクトで触ろうとする場合にも、3次元オブジェクトの少なくとも一部が第1のステレオ画像の奥側に位置して見えなくなる事態を回避することができる。このように、3次元仮想空間において、無限遠に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置することに代えて、所定の距離に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置するようにしてもよい。
When the first stereo images are arranged like the first right-
また、図11で示されるように、第1の右目用画像22a-2,22a-3,22a-4はそれぞれ、右目用視点23aからの画角が変わらないように配置されている。なお、図11から明らかなように、視点を基準としてより奥側に配置される第1の右目用画像22a-3は、手前側に配置される第1の右目用画像22a-2よりも大きい画像であり、また、奥側に配置される第1の右目用画像22a-4は、手前側に配置される第1の右目用画像22a-3よりも大きい画像である。なお、各画像は、縦横比が変わらないように、大きさが変化されることが好適である。第1の左目用画像22b-2,22b-3,22b-4についても同様であるとする。また、図11では、視点23a,23bと、各画像の無限遠に対応する点とを結ぶ直線26a,26bを一点鎖線で示している。そして、第1の右目用画像22a-2及び第1の左目用画像22b-2では所定の距離(例えば、Nメートル)に対応する点が重なっており、第1の右目用画像22a-3及び第1の左目用画像22b-3では無限遠に対応する点が重なっており、第1の右目用画像22a-4及び第1の左目用画像22b-4では重なる点は存在しないことになる。このように、右目用視点23aと第1の右目用画像22aの無限遠に対応する点とを結ぶ第1の直線26aと、左目用視点23bと第1の左目用画像22bの無限遠に対応する点とを結ぶ第2の直線26bとが交わるように、3次元仮想空間において第1の右目用画像22a及び第1の左目用画像22bが配置されている場合には、3次元仮想空間において、無限遠に対応する点または所定の距離に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置することと同じ状況を、それらとは異なる第1の右目用画像22a及び第1の左目用画像22bの配置によって実現することもできるようになる。したがって、第1の直線26aと第2の直線26bとが交わるように、3次元仮想空間において第1の右目用画像22a及び第1の左目用画像22bが配置されてもよい。この場合であっても、例えば、第1のステレオ画像に含まれるオブジェクトであって、受付部12によって受け付けられる操作に応じて配置される3次元オブジェクトによって触れられたり、重ねられたりするオブジェクトが、第1の右目用画像22a及び第1の左目用画像22bよりも手前側において立体的に表示されるように、第1の右目用画像22a及び第1の左目用画像22bが3次元仮想空間において配置されることが好適である。例えば、3次元オブジェクトによって触れられたり、重ねられたりするオブジェクトまでの距離がNメートル未満である場合には、3次元仮想空間において、Nメートルに対応する点、または、Nメートルを超える距離に対応する点が重なるように、第1のステレオ画像が配置されてもよく、または、第1の右目用画像22a-4及び第1の左目用画像22b-4のように、第1及び第2の直線26a,26bの交点よりも奥側(すなわち、視点から遠い側)に第1のステレオ画像が配置されてもよい。
Also, as shown in FIG. 11, the first right-
次に、第1の右目用画像22a及び第1の左目用画像22bを、面方向に移動させた場合の効果について説明する。図12において、第1の右目用画像22a-2及び第1の左目用画像22b-2と、それらをそれぞれ右向きの矢印の方向及び左向きの矢印の方向に同じ距離だけ移動させた第1の右目用画像22a-5及び第1の左目用画像22b-5とを示している。第1の右目用画像22a-2及び第1の左目用画像22b-2の無限遠に対応する点と、視点23a,23bとをそれぞれ結ぶ直線26a,26bの交点は点31aとなり、第1の右目用画像22a-5及び第1の左目用画像22b-5の無限遠に対応する点と、視点23a,23bとそれぞれを結ぶ直線26a,26bの交点は点31bとなる。点31a,31bは、それぞれ3次元仮想空間に配置された第1の右目用画像22a-2及び第1の左目用画像22b-2に対応する無限遠の位置、及び第1の右目用画像22a-5及び第1の左目用画像22b-5に対応する無限遠の位置となる。したがって、第1の右目用画像22a-2及び第1の左目用画像22b-2のように第1のステレオ画像が配置された際には、ユーザには、視点23a,23bと点31aとの間に、第1のステレオ画像に含まれるすべてのオブジェクトが存在するように見えることになる。また、第1の右目用画像22a-5及び第1の左目用画像22b-5のように第1のステレオ画像が配置された際には、ユーザには、視点23a,23bと点31bとの間に、第1のステレオ画像に含まれるすべてのオブジェクトが存在するように見えることになる。したがって、第1の右目用画像22a及び第1の左目用画像22bを重なりが減る方向にまたは両画像が離れる方向に移動させることによって、第1のステレオ画像に含まれるオブジェクトの表示範囲の奥行きがより長くなることになる。一方、第1の右目用画像22a及び第1の左目用画像22bを重なりが増える方向にまたは両画像が近づく方向に移動させることによって、第1のステレオ画像に含まれるオブジェクトの表示範囲の奥行きがより短くなることになる。そのため、例えば、第1のステレオ画像に含まれるいろいろなオブジェクトに、操作対象の3次元オブジェクトを重ねたい場合などには、第1のステレオ画像に含まれるオブジェクトの表示範囲の奥行きがより短くなるように第1の右目用画像22a及び第1の左目用画像22bを配置してもよい。このような配置により、第1のステレオ画像に含まれるいろいろなオブジェクトに3次元オブジェクトを重ねる際の3次元オブジェクトの移動量を少なくすることができる。例えば、受付部12は、視点23a,23bから、直線26a,26bの交点までの距離の変更を指示する情報を、ユーザから受け付けてもよい。そして、配置部13は、その受け付けられた情報に応じて、直線26a,26bの交点の位置が変更されるように、第1の右目用画像22a及び第1の左目用画像の配置を変更してもよい。このようにして、例えば、ユーザからの入力に応じて、第1のステレオ画像の奥行きを変更することもできるようになる。直線26a,26bが交わるように第1の右目用画像22a及び第1の左目用画像22bを配置することによって、このように第1のステレオ画像の奥行き感を調整することもできるようになる。
Next, the effect of moving the first right-
次に、第1のステレオ画像に含まれるオブジェクトの距離に応じて、3次元仮想空間において、第1の右目用画像22a及び第1の左目用画像22bが配置される場合について説明する。この場合には、画像合成装置1は、図13で示されるように、特定部17をさらに備えてもよい。なお、図9を用いて説明したように、図13で示される画像合成装置1も、判定部16をさらに備え、出力部15は、その判定部16による判定結果に関する出力をも行ってもよい。
Next, a case will be described in which the first right-
特定部17は、第1のステレオ画像に含まれる所定のオブジェクトの距離を特定する。この距離は、例えば、所定のオブジェクトに関する第1の右目用画像22aと第1の左目用画像22bとにおける視差、カメラ21a、21bの焦点距離、カメラ21a、21b間の距離等を用いて算出されてもよい。このように、第1のステレオ画像に含まれる距離の計測対象のオブジェクトが決まれば、そのオブジェクトまでの距離を算出することができる。なお、その算出された距離は、例えば、3次元仮想空間における距離に換算されて後段の処理で用いられてもよい。
The specifying
距離の計測対象のオブジェクトは、例えば、第1のステレオ画像に含まれるすべてのオブジェクトであってもよい。この場合には、例えば、特定部17は、第1のステレオ画像に含まれる各オブジェクトを特定し、その特定した各オブジェクトについてそれぞれ距離を特定してもよい。オブジェクトの特定は、例えば、輪郭抽出や、画像セグメンテーションなどによって行われてもよい。なお、特定部17は、例えば、第1のステレオ画像に含まれる空や道路などの背景は、オブジェクトとして特定しなくてもよい。
Objects whose distances are to be measured may be, for example, all objects included in the first stereo image. In this case, for example, the specifying
また、距離の計測対象のオブジェクトは、例えば、ユーザによって指定されたオブジェクトであってもよい。この場合には、受付部12は、そのオブジェクトを指定する情報を受け付けてもよい。そして、受付部12によって受け付けられた情報によって指定されるオブジェクトが、距離の計測対象のオブジェクトとなってもよい。オブジェクトを指定する情報は、例えば、画像におけるオブジェクトの位置を指定する情報であってもよく、オブジェクトの種類を指定する情報(例えば、「手」や「ボール」など)であってもよい。オブジェクトの位置の指定は、例えば、点状の位置の指定や、矩形状の領域の指定によって行われてもよい。また、オブジェクトの種類を指定する情報の受け付けは、例えば、キーボードなどの入力デバイスからの受け付けであってもよく、記録媒体からの情報の読み出しであってもよく、マイクなどから入力された音声に関する音声認識結果の受け付けであってもよく、オブジェクトの種類を指定するその他の情報の受け付けであってもよい。この場合には、受付部12は、例えば、複数種類の受け付け、すなわち、3次元オブジェクトの操作の受け付けと、オブジェクトを指定する情報の受け付けとを行うものであってもよい。
Also, the object whose distance is to be measured may be, for example, an object designated by the user. In this case, the receiving
オブジェクトを指定する情報がオブジェクトの位置を指定する情報である場合には、特定部17は、例えば、その指定された位置に表示されているオブジェクトを特定し、その特定したオブジェクトの距離を特定してもよく、または、その指定された位置に対応する第1の右目用画像22a及び第1の左目用画像22bにおける位置を特定し、その特定した位置に関する距離を特定してもよい。また、オブジェクトを指定する情報がオブジェクトの種類を特定する情報である場合には、特定部17は、例えば、その種類のオブジェクトを第1の右目用画像22a及び第1の左目用画像22bにおいて特定し、その特定したオブジェクトの距離を特定してもよい。受け付けられた種類のオブジェクトを特定する方法としては、例えば、パターンマッチングによって、画像中のオブジェクトの位置を特定する方法や、画像セグメンテーションによって特定した画像の各画素に対応する種類から、受け付けられた種類の領域を特定する方法、物体検出によって、受け付けられた種類のオブジェクトに関する画像中の領域を特定する方法などが用いられてもよい。
When the information specifying the object is the information specifying the position of the object, the specifying
オブジェクトを指定する情報がオブジェクトの位置を指定する情報である場合には、例えば、その位置の指定されたフレームにおいて、距離の特定が行われてもよい。また、オブジェクトを指定する情報がオブジェクトの種類を指定する情報である場合には、距離の計測対象のオブジェクトの特定は、例えば、第1のステレオ画像が動画像である場合に、特定のフレームについて行われてもよく、または、複数のフレームについて繰り返して行われてもよい。前者の場合には、例えば、第2のステレオ画像である動画の出力中に、受付部12によって所定のオブジェクトを指定する情報が受け付けられた際に、その時点のフレームについてオブジェクトの特定が行われてもよい。また、後者の場合、すなわち複数のフレームについてオブジェクトの特定が行われる場合には、例えば、所定の間隔のフレームごとにオブジェクトの特定が行われてもよい。なお、第1のステレオ画像がリアルタイムで受け付けられ、その受け付けられた第1のステレオ画像を用いて第2のステレオ画像がリアルタイムで生成される場合には、例えば、オブジェクトの特定もリアルタイムで行われてもよい。一方、第1のステレオ画像があらかじめ記憶部11で記憶されている場合には、例えば、オブジェクトの特定は、第2のステレオ画像が生成されるまでにあらかじめ行われてもよい。
If the information specifying the object is information specifying the position of the object, the distance may be specified, for example, in the frame in which the position is specified. Further, when the information designating the object is information designating the type of the object, the identification of the object whose distance is to be measured is performed, for example, when the first stereo image is a moving image, for a specific frame. may be performed, or may be performed repeatedly for multiple frames. In the former case, for example, when information designating a predetermined object is received by the receiving
3次元仮想空間において、第1の右目用画像22a及び第1の左目用画像22bは、特定部17によって特定された最も長い距離を超える距離に対応する点が重なるように配置されてもよい。このようにすることで、特定部17によって特定されたオブジェクトが、3次元仮想空間において、第1のステレオ画像よりも手前側に表示されることになり、例えば、そのオブジェクトに3次元オブジェクトを重ねることができるようになる。なお、複数のオブジェクトの距離が特定された場合には、複数の距離のうち、最も長い距離を超える距離に対応する点が重なるように第1のステレオ画像が配置されることが好適である。また、複数のフレームについてオブジェクトの距離が特定された場合には、例えば、特定された距離のうち、最も長い距離を超える距離に対応する点が重なるように第1のステレオ画像が配置されることが好適である。なお、特定された最も長い距離を超える距離は、例えば、特定された最も長い距離に、あらかじめ決められた距離を加算した距離であってもよい。加算対象であるあらかじめ決められた距離は、例えば、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねるための操作を行う際に発生し得る両オブジェクトの位置ずれ以上の長さであってもよい。このようにすることで、そのような位置ずれが発生したとしても、3次元オブジェクトが第1のステレオ画像の背面側に位置することを回避できる。なお、このような第1のステレオ画像の配置は、例えば、配置部13によって行われてもよい。
In the three-dimensional virtual space, the first right-
なお、特定部17を用いることなく、3次元オブジェクトが第1の右目用画像22a及び第1の左目用画像22bの背面側に位置することを回避するようにしてもよい。この場合には、所定の距離に対応する点が重なるように、第1のステレオ画像が3次元仮想空間に配置されている際に、操作対象の3次元オブジェクトまでの距離が、その所定の距離に近づいたとき(すなわち、3次元オブジェクトが第1のステレオ画像に近づいたとき)に、配置部13は、その所定の距離を増やして第1のステレオ画像を配置してもよい。例えば、視点23a,23bから3次元オブジェクトまでの距離に、あらかじめ決められた距離を加算した距離が、その所定の距離になった場合に、配置部13は、その所定の距離よりも長い距離に対応する点が重なるように、第1のステレオ画像を3次元仮想空間において再配置してもよい。所定の距離よりも長い距離は、例えば、所定の距離に、既定の距離を加算した距離であってもよい。なお、配置部13は、例えば、第2のステレオ画像の生成や出力が行われている際に、リアルタイムで第1のステレオ画像の再配置を行ってもよい。そのため、第1のステレオ画像の再配置は、例えば、3次元オブジェクトの操作に応じて繰り返して行われてもよい。
Note that the three-dimensional object may be prevented from being positioned behind the first right-
第1のステレオ画像の再配置の方法として、例えば、図11に示されるように、第1の右目用画像22a及び第1の左目用画像22bを、視点23a,23bからの画角を変えることなく、奥側に移動させる方法と、図12に示されるように、第1の右目用画像22a及び第1の左目用画像22bを、視点23a,23bからの距離を変えることなく、画像の面方向に移動させる方法とがある。後者の場合には、第1のステレオ画像の配置を変えることによって、第1のステレオ画像に含まれるオブジェクトの奥行き感が変化することになり、それに伴って、3次元仮想空間に配置されている3次元オブジェクトの合成位置も変化することになる。そのため、それらの変化を生じさせない観点からは、図11に示されるように画角を変えることなく第1のステレオ画像の配置位置を奥側に移動させる方法によって第1のステレオ画像を再配置することが好適である。なお、第1のステレオ画像のより短い距離の移動によって、3次元オブジェクトが第1のステレオ画像の背面側に位置しないようにすることができるのは、直線26a,26bが交わるように第1のステレオ画像が配置されているからである。したがって、この場合にも、直線26a,26bが交わるように第1のステレオ画像が再配置されることが好適である。
As a method of rearranging the first stereo image, for example, as shown in FIG. 12, the first right-
なお、第1のステレオ画像を再配置することによって、3次元オブジェクトが第1のステレオ画像の背面側に位置することを回避する場合には、例えば、配置部13は、第1の右目用画像22a及び第1の左目用画像22bが、所定の距離に対応する点が重なるように3次元仮想空間に配置されているときに、3次元オブジェクトの位置に応じて、その所定の距離を長くするための第1のステレオ画像の再配置のみを行い、3次元オブジェクトの位置が視点23a,23bに近づいたとしても、その所定の距離を短くするための第1のステレオ画像の再配置は行わなくてもよい。
When rearranging the first stereo image to prevent the three-dimensional object from being positioned on the back side of the first stereo image, for example, the
また、第1の直線26aと第2の直線26bとが交わるように、3次元仮想空間において第1のステレオ画像を配置することや、3次元仮想空間において、所定の距離に対応する点が重なるようにステレオ画像を配置すること、その所定の距離が、特定部17によって特定された最も長い距離を超えるようにすること、または、3次元オブジェクトが第1のステレオ画像に近づいた場合に、第1のステレオ画像を再配置することなどは、例えば、光軸が交わるように配置された一対のカメラによって撮影された第1のステレオ画像について行われてもよいことは言うまでもない。
Alternatively, the first stereo image may be arranged in the three-dimensional virtual space so that the first
また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Further, in the above embodiments, each process or function may be implemented by centralized processing by a single device or single system, or may be implemented by distributed processing by multiple devices or multiple systems. It may be realized by
また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 Further, in the above-described embodiment, when the information is passed between the components, for example, when the two components that exchange the information are physically different, one of the components output of information and reception of information by the other component, or one component if the two components that pass the information are physically the same from the phase of processing corresponding to the other component to the phase of processing corresponding to the other component.
また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component Also, information such as thresholds, formulas, addresses, etc. used by each component in processing may be stored temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, each component or an accumulation section (not shown) may accumulate information in the recording medium (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).
また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 Further, in the above embodiment, if the information used in each component etc., for example, information such as thresholds, addresses and various set values used in processing by each component may be changed by the user, the above The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information according to the change instruction. may The reception of the change instruction by the reception unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .
また、上記実施の形態において、画像合成装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。
Further, in the above embodiment, when two or more components included in the
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における画像合成装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部にアクセス可能なコンピュータを、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部、右目用視点と第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間を除く)に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部、第2のステレオ画像を出力する出力部として機能させるためのプログラムである。
Further, in the above embodiments, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU. During the execution, the program execution unit may execute the program while accessing the storage unit or recording medium. The software that implements the
また、上記実施の形態における画像合成装置1を実現するソフトウェアは、以下のようなプログラムであってもよい。このプログラムは、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部にアクセス可能なコンピュータを、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部、第1の右目用画像及び第1の左目用画像の配置される3次元仮想空間に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部、第2のステレオ画像を出力する出力部として機能させるためのプログラムである。
Further, the software that realizes the
なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を受け付ける受付部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。 In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, functions that can be realized only by hardware such as a modem or an interface card, such as a reception unit that receives information and an output unit that outputs information, are not included in the functions realized by the program.
また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。 Also, this program may be executed by being downloaded from a server or the like, and the program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, etc.) may be read. may be performed by Also, this program may be used as a program constituting a program product.
また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Also, the number of computers executing this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
図14は、上記プログラムを実行して、上記実施の形態による画像合成装置1を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現されうる。
FIG. 14 is a schematic diagram showing an example of the appearance of a computer that implements the
図14において、コンピュータシステム900は、CD-ROMドライブ905を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。
In FIG. 14,
図15は、コンピュータシステム900の内部構成を示す図である。図15において、コンピュータ901は、CD-ROMドライブ905に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANやWAN等への接続を提供する図示しないネットワークカードを含んでいてもよい。
FIG. 15 is a diagram showing the internal configuration of the
コンピュータシステム900に、上記実施の形態による画像合成装置1の機能を実行させるプログラムは、CD-ROM921に記憶されて、CD-ROMドライブ905に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD-ROM921、またはネットワークから直接、ロードされてもよい。また、CD-ROM921に代えて他の記録媒体(例えば、DVD等)を介して、プログラムがコンピュータシステム900に読み込まれてもよい。
A program that causes
プログラムは、コンピュータ901に、上記実施の形態による画像合成装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。
The program does not necessarily include an operating system (OS) or a third party program that causes the
また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 Moreover, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.
1 画像合成装置
11 記憶部
12 受付部
13 配置部
14 生成部
15 出力部
16 判定部
17 特定部
REFERENCE SIGNS
Claims (12)
3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部と、
右目用視点と前記第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と前記第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間を除く)に、前記受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部と、
前記3次元オブジェクトの配置された3次元仮想空間において、前記第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び前記第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部と、
前記第2のステレオ画像を出力する出力部と、を備えた画像合成装置。 a storage unit storing a first stereo image having a first right-eye image and a first left-eye image;
a reception unit that receives an operation of a three-dimensional object placed in a three-dimensional virtual space;
A first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a second straight line connecting the left-eye viewpoint and a point corresponding to infinity on the first left-eye image. A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that the straight lines of an arrangement unit that arranges a three-dimensional object according to the operation received by the reception unit (excluding the three-dimensional virtual space in which the first left-eye image is arranged);
In the three-dimensional virtual space in which the three-dimensional object is arranged, a second right-eye image and the first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed. a generation unit that generates a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where is displayed;
and an output unit that outputs the second stereo image.
前記所定の距離は、前記特定部によって特定された最も長い距離を超えている、請求項2記載の画像合成装置。 further comprising a specifying unit that specifies the distance of a predetermined object included in the first stereo image,
3. The image synthesizing device according to claim 2, wherein said predetermined distance exceeds the longest distance specified by said specifying unit.
前記所定のオブジェクトは、前記受付部によって受け付けられた情報によって指定されるオブジェクトである、請求項3記載の画像合成装置。 The receiving unit also receives information designating the predetermined object,
4. The image synthesizing device according to claim 3, wherein said predetermined object is an object designated by information received by said receiving unit.
前記出力部は、前記判定部による判定結果に関する出力をも行う、請求項1から請求項9のいずれか記載の画像合成装置。 specifying a position in the three-dimensional virtual space of an object included in the first stereo image from the first right-eye image and the first left-eye image arranged in the three-dimensional virtual space; and a determination unit that determines the relationship between the position of the three-dimensional object and the position of the three-dimensional object,
10. The image synthesizing device according to claim 1, wherein said output unit also outputs a result of determination by said determination unit.
第1のステレオ画像が有する第1の右目用画像及び第1の左目用画像が、右目用視点と前記第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と前記第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間を除く)に、前記受け付けられた操作に応じた3次元オブジェクトを配置するステップと、
前記3次元オブジェクトの配置された3次元仮想空間において、前記第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び前記第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成するステップと、
前記第2のステレオ画像を出力するステップと、を備えた画像合成方法。 receiving an operation of a three-dimensional object placed in a three-dimensional virtual space;
A first right-eye image and a first left-eye image included in a first stereo image are a first straight line connecting a right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a left eye. A three-dimensional virtual space arranged so that a second straight line connecting the viewpoint and a point corresponding to infinity in the first image for left eye intersects arranging the 3D object according to the accepted operation in a 3D virtual space (excluding the 3D virtual space in which the first right-eye image and the first left-eye image are arranged);
In the three-dimensional virtual space in which the three-dimensional object is arranged, a second right-eye image and the first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed. generating a second stereo image including a second left-eye image that is an image from a left-eye viewpoint when is displayed;
and outputting the second stereo image.
3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部、
右目用視点と前記第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と前記第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間を除く)に、前記受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部、
前記3次元オブジェクトの配置された3次元仮想空間において、前記第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び前記第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部、
前記第2のステレオ画像を出力する出力部として機能させるためのプログラム。 a computer accessible to storage in which a first stereo image having a first right eye image and a first left eye image is stored;
a reception unit that receives an operation of a three-dimensional object placed in a three-dimensional virtual space;
A first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a second straight line connecting the left-eye viewpoint and a point corresponding to infinity on the first left-eye image. A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that the straight lines of an arrangement unit that arranges a three-dimensional object according to the operation received by the reception unit (excluding the three-dimensional virtual space in which the first left-eye image is arranged);
In the three-dimensional virtual space in which the three-dimensional object is arranged, a second right-eye image and the first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed. A generation unit that generates a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where is displayed;
A program for functioning as an output unit that outputs the second stereo image.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021169080A JP7044426B1 (en) | 2021-10-14 | 2021-10-14 | Image compositing device, image compositing method, and program |
CN202180093703.1A CN116917951A (en) | 2020-12-28 | 2021-12-27 | Image synthesizing device, image synthesizing method, and program |
PCT/JP2021/048501 WO2022145414A1 (en) | 2020-12-28 | 2021-12-27 | Image compositing device, image compositing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021169080A JP7044426B1 (en) | 2021-10-14 | 2021-10-14 | Image compositing device, image compositing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7044426B1 JP7044426B1 (en) | 2022-03-30 |
JP2023059137A true JP2023059137A (en) | 2023-04-26 |
Family
ID=81215159
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021169080A Active JP7044426B1 (en) | 2020-12-28 | 2021-10-14 | Image compositing device, image compositing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7044426B1 (en) |
CN (1) | CN116917951A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7412826B1 (en) | 2023-07-28 | 2024-01-15 | 株式会社計数技研 | Video compositing device, video compositing method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188034A (en) * | 1996-12-28 | 1998-07-21 | Olympus Optical Co Ltd | Three-dimensional image generator and distance operating device |
JP2002044683A (en) * | 2000-07-19 | 2002-02-08 | Yasushi Haruta | Video camera for three-dimensional image and three- dimensional image-reproducing device |
JP2003107603A (en) * | 2001-09-28 | 2003-04-09 | Namco Ltd | Stereophonic image generating device, stereophonic image generation information and information storage medium |
JP2005165614A (en) * | 2003-12-02 | 2005-06-23 | Canon Inc | Device and method for synthesizing picture |
JP2012216077A (en) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | Augmented reality providing device and superimposition method of virtual object |
JP2014505917A (en) * | 2010-12-03 | 2014-03-06 | クゥアルコム・インコーポレイテッド | Hybrid reality for 3D human machine interface |
WO2020017261A1 (en) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2021
- 2021-10-14 JP JP2021169080A patent/JP7044426B1/en active Active
- 2021-12-27 CN CN202180093703.1A patent/CN116917951A/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10188034A (en) * | 1996-12-28 | 1998-07-21 | Olympus Optical Co Ltd | Three-dimensional image generator and distance operating device |
JP2002044683A (en) * | 2000-07-19 | 2002-02-08 | Yasushi Haruta | Video camera for three-dimensional image and three- dimensional image-reproducing device |
JP2003107603A (en) * | 2001-09-28 | 2003-04-09 | Namco Ltd | Stereophonic image generating device, stereophonic image generation information and information storage medium |
JP2005165614A (en) * | 2003-12-02 | 2005-06-23 | Canon Inc | Device and method for synthesizing picture |
JP2014505917A (en) * | 2010-12-03 | 2014-03-06 | クゥアルコム・インコーポレイテッド | Hybrid reality for 3D human machine interface |
JP2012216077A (en) * | 2011-03-31 | 2012-11-08 | Fujifilm Corp | Augmented reality providing device and superimposition method of virtual object |
WO2020017261A1 (en) * | 2018-07-20 | 2020-01-23 | ソニー株式会社 | Information processing device, information processing method, and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7412826B1 (en) | 2023-07-28 | 2024-01-15 | 株式会社計数技研 | Video compositing device, video compositing method, and program |
Also Published As
Publication number | Publication date |
---|---|
CN116917951A (en) | 2023-10-20 |
JP7044426B1 (en) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7068562B2 (en) | Techniques for recording augmented reality data | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
JP6340017B2 (en) | An imaging system that synthesizes a subject and a three-dimensional virtual space in real time | |
US7321682B2 (en) | Image generation system, image generation method, program, and information storage medium | |
JP4917664B1 (en) | Image display device, game program, and game control method | |
JP2012058968A (en) | Program, information storage medium and image generation system | |
JP2005295004A (en) | Stereoscopic image processing method and apparatus thereof | |
JP2018523326A (en) | Full spherical capture method | |
US20120306860A1 (en) | Image generation system, image generation method, and information storage medium | |
JP2003107603A (en) | Stereophonic image generating device, stereophonic image generation information and information storage medium | |
WO2018151038A1 (en) | Image generation device and image generation method | |
JP2003284093A (en) | Stereoscopic image processing method and apparatus therefor | |
JP7044426B1 (en) | Image compositing device, image compositing method, and program | |
KR20190074911A (en) | Method for providing realistic type image contents and server using the same | |
JP2002300611A (en) | Image generating device, program, and information recording medium | |
JP2012106005A (en) | Image display device, game program, and game control method | |
JP2003284095A (en) | Stereoscopic image processing method and apparatus therefor | |
JP2016192029A (en) | Image generation system and program | |
JP2012141820A (en) | Program, information storage medium, image generation system and server system | |
JP7387286B2 (en) | Information processing device, information processing method, and program | |
KR102453296B1 (en) | Information processing apparatus, control method therefor and computer program | |
WO2022145414A1 (en) | Image compositing device, image compositing method, and program | |
JP6959682B1 (en) | Image synthesizer, image synthesizer, and program | |
JP4624588B2 (en) | Image generating apparatus, program, and information storage medium | |
JP2012141826A (en) | Program, information storage medium, image generation system and server system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211015 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211015 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7044426 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |