[go: up one dir, main page]
More Web Proxy on the site http://driver.im/

JP2023059137A - Image composite device, image composite method, and program - Google Patents

Image composite device, image composite method, and program Download PDF

Info

Publication number
JP2023059137A
JP2023059137A JP2021169080A JP2021169080A JP2023059137A JP 2023059137 A JP2023059137 A JP 2023059137A JP 2021169080 A JP2021169080 A JP 2021169080A JP 2021169080 A JP2021169080 A JP 2021169080A JP 2023059137 A JP2023059137 A JP 2023059137A
Authority
JP
Japan
Prior art keywords
image
eye
eye image
stereo
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021169080A
Other languages
Japanese (ja)
Other versions
JP7044426B1 (en
Inventor
拓 宮尻
Hiroshi Miyajiri
直広 早石
Naohiro HAYAISHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keisu Giken Co Ltd
Original Assignee
Keisu Giken Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keisu Giken Co Ltd filed Critical Keisu Giken Co Ltd
Priority to JP2021169080A priority Critical patent/JP7044426B1/en
Priority to CN202180093703.1A priority patent/CN116917951A/en
Priority to PCT/JP2021/048501 priority patent/WO2022145414A1/en
Application granted granted Critical
Publication of JP7044426B1 publication Critical patent/JP7044426B1/en
Publication of JP2023059137A publication Critical patent/JP2023059137A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide an image composite device capable of appropriately composing a stereo image and a three-dimensional object.SOLUTION: An image composite device 1 comprises: a storage unit 11 into which a first stereo image having a first right-eye image and a first left-eye image is stored; an acceptance unit 12 which accepts operations for a three-dimensional object; an arrangement unit 13 which arranges the three-dimensional object correspondingly to the operations in a three-dimensional virtual space where both the first right-eye image and the first left-eye image are arranged so that a straight line connecting a right-eye viewpoint and a point corresponding to infinity on the first right-eye image intersects a straight line connecting a left-eye viewpoint and a point corresponding to infinity on the first left-eye image; a generation unit 14 which generates a second stereo image including a second right-eye image representing an image from the right-eye viewpoint while the first right-eye image is displayed and a second left-eye image representing an image from the left-eye viewpoint while the first left-eye image is displayed, in the three-dimensional virtual space in which the three-dimensional object is arranged; and an output unit 15 which outputs the second stereo image.SELECTED DRAWING: Figure 1

Description

本発明は、ステレオ画像と3次元オブジェクトとを合成する画像合成装置等に関する。 The present invention relates to an image synthesizing device and the like for synthesizing a stereo image and a three-dimensional object.

従来、ヘッドマウントディスプレイ(HMD)にステレオ画像を表示することによって、HMDを装着しているユーザに立体的な画像を提供することが行われている(例えば、特許文献1参照)。また、3次元仮想空間に3次元オブジェクトを配置し、任意の視点からの2次元の画像を生成するレンダリング処理などの3次元コンピュータグラフィックス(3DCG)も知られている。 2. Description of the Related Art Conventionally, by displaying a stereo image on a head-mounted display (HMD), a stereoscopic image is provided to a user wearing the HMD (see, for example, Patent Document 1). Also known is three-dimensional computer graphics (3DCG), such as rendering processing for arranging a three-dimensional object in a three-dimensional virtual space and generating a two-dimensional image from an arbitrary viewpoint.

特開2020-071718号公報Japanese Patent Application Laid-Open No. 2020-071718

しかしながら、ステレオ画像に3次元オブジェクトを適切に合成するための手法は知られていなかった。例えば、3DCGによって生成された1つの2次元の画像を、ステレオ画像に含まれる右目用画像及び左目用画像とそれぞれ合成した場合には、3次元オブジェクトが平面的に表示されることになるという問題があった。 However, no technique has been known for properly synthesizing a three-dimensional object with a stereo image. For example, if one two-dimensional image generated by 3DCG is combined with the right-eye image and the left-eye image included in the stereo image, the three-dimensional object will be displayed two-dimensionally. was there.

本発明は、上記課題を解決するためになされたものであり、ステレオ画像に3次元オブジェクトを適切に合成するための画像合成装置等を提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an image synthesizing apparatus and the like for appropriately synthesizing a three-dimensional object with a stereo image.

上記目的を達成するため、本発明の一態様による画像合成装置は、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部と、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部と、右目用視点と第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間を除く)に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部と、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部と、第2のステレオ画像を出力する出力部と、を備えたものである。 To achieve the above object, an image synthesizing device according to an aspect of the present invention includes a storage unit storing a first stereo image having a first right-eye image and a first left-eye image; and a first straight line connecting the right-eye viewpoint and a point corresponding to infinity in the first right-eye image, and the left-eye viewpoint and the first left-eye image. A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that the second straight line connecting the point corresponding to infinity of the image intersects (however, the point corresponding to infinity is an arrangement unit for arranging a three-dimensional object according to the operation received by the reception unit (excluding the three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so as to overlap); In the three-dimensional virtual space in which the dimensional object is arranged, a second right-eye image and a first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed, are displayed. and an output unit configured to output the second stereo image.

このような構成により、例えば、3次元仮想空間における第1の右目用画像及び第1の左目用画像の配置に応じて、操作の対象である3次元オブジェクトが両画像の背面側に位置しないようにすることができ得る。そのため、3次元オブジェクトと第1のステレオ画像とが適切に合成されるようにすることができる。また、例えば、3次元オブジェクトが第1のステレオ画像の背面側に位置した際にも、第1の右目用画像及び第1の左目用画像のより短い距離の移動によって、3次元オブジェクトが第1のステレオ画像の背面側に位置しないようにすることができる。 With such a configuration, for example, according to the arrangement of the first right-eye image and the first left-eye image in the three-dimensional virtual space, the three-dimensional object to be operated is not located behind both images. can be obtained. Therefore, the three-dimensional object and the first stereo image can be appropriately synthesized. Further, for example, even when the three-dimensional object is located on the back side of the first stereo image, the three-dimensional object can be moved to the first stereo image by moving the first right eye image and the first left eye image by a shorter distance. can be arranged so as not to be located on the back side of the stereo image of the

また、本発明の一態様による画像合成装置では、3次元仮想空間では、所定の距離に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置されてもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the first right-eye image and the first left-eye image may be arranged such that points corresponding to a predetermined distance overlap in the three-dimensional virtual space.

このような構成により、3次元オブジェクトが所定の距離よりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is positioned closer to the viewer than the predetermined distance, the three-dimensional object is not positioned behind the first stereo image.

また、本発明の一態様による画像合成装置では、第1のステレオ画像に含まれる所定のオブジェクトの距離を特定する特定部をさらに備え、所定の距離は、特定部によって特定された最も長い距離を超えていてもよい。 Further, the image synthesizing device according to one aspect of the present invention further includes a specifying unit that specifies a distance of a predetermined object included in the first stereo image, and the predetermined distance is the longest distance specified by the specifying unit. may exceed.

このような構成により、3次元オブジェクトが、特定部によって距離の特定された所定のオブジェクトよりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is located on the front side of the predetermined object whose distance is specified by the specifying unit, the three-dimensional object is not located on the back side of the first stereo image. Become.

また、本発明の一態様による画像合成装置では、所定のオブジェクトは、第1のステレオ画像に含まれるすべてのオブジェクトであってもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the predetermined objects may be all objects included in the first stereo image.

このような構成により、3次元オブジェクトが、第1のステレオ画像に含まれる最も奥側のオブジェクトよりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is located on the front side of the farthest object included in the first stereo image, the three-dimensional object is not located on the back side of the first stereo image. It will be.

また、本発明の一態様による画像合成装置では、受付部は、所定のオブジェクトを指定する情報をも受け付け、所定のオブジェクトは、受付部によって受け付けられた情報によって指定されるオブジェクトであってもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the receiving unit may also receive information designating a predetermined object, and the predetermined object may be an object designated by the information received by the receiving unit. .

このような構成により、3次元オブジェクトが、受付部によって受け付けられた情報によって指定されたオブジェクトよりも手前側に位置する場合には、3次元オブジェクトが第1のステレオ画像の背面側に位置しないことになる。 With such a configuration, when the three-dimensional object is located on the front side of the object specified by the information received by the reception unit, the three-dimensional object is not located on the back side of the first stereo image. become.

また、本発明の一態様による画像合成装置では、配置部は、3次元オブジェクトまでの距離が所定の距離に近づいた場合には、所定の距離を増やして第1のステレオ画像を配置してもよい。 Further, in the image synthesizing device according to the aspect of the present invention, when the distance to the three-dimensional object approaches the predetermined distance, the placement unit may increase the predetermined distance and place the first stereo image. good.

このような構成により、第1のステレオ画像を再配置することによって、3次元オブジェクトが第1のステレオ画像の背面側に位置することを回避することができる。 With such a configuration, by rearranging the first stereo image, it is possible to avoid positioning the three-dimensional object on the back side of the first stereo image.

また、本発明の一態様による画像合成装置は、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部と、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部と、第1の右目用画像及び第1の左目用画像の配置される3次元仮想空間に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部と、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部と、第2のステレオ画像を出力する出力部と、を備えたものである。 Further, the image synthesizing device according to one aspect of the present invention includes a storage unit storing a first stereo image having a first right-eye image and a first left-eye image; An arrangement for arranging a three-dimensional object according to the operation accepted by the accepting unit in a three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged. and a second right-eye image and a first left-eye image, which are images from the right-eye viewpoint in a state where the first right-eye image is displayed in the three-dimensional virtual space in which the three-dimensional object is arranged. a generation unit that generates a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where is displayed; and an output unit that outputs the second stereo image. is.

このような構成により、ステレオ画像と3次元オブジェクトとを適切に合成することができる。すなわち、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの両方が立体的に表示される第2のステレオ画像を生成することができる。 With such a configuration, a stereo image and a three-dimensional object can be appropriately synthesized. That is, it is possible to generate a second stereo image in which both the object included in the first stereo image and the three-dimensional object are stereoscopically displayed.

また、本発明の一態様による画像合成装置では、3次元仮想空間では、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置されてもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the first right-eye image and the first left-eye image may be arranged such that points corresponding to infinity overlap in the three-dimensional virtual space.

このような構成により、例えば、第1のステレオ画像に含まれるオブジェクトと3次元オブジェクトとを重ねることなどが可能になる。 With such a configuration, for example, it is possible to overlap an object included in the first stereo image and a three-dimensional object.

また、本発明の一態様による画像合成装置では、第1のステレオ画像は、光軸が平行となるように配置された一対のカメラによって撮影されたものであってもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the first stereo image may be captured by a pair of cameras arranged so that their optical axes are parallel.

また、本発明の一態様による画像合成装置では、第1のステレオ画像は、光軸が交わるように配置された一対のカメラによって撮影されたものであってもよい。 Further, in the image synthesizing device according to the aspect of the present invention, the first stereo image may be captured by a pair of cameras arranged so that their optical axes intersect.

また、本発明の一態様による画像合成装置では、第1のステレオ画像、及び第2のステレオ画像は動画像であってもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the first stereo image and the second stereo image may be moving images.

このような構成により、例えば、第1のステレオ画像が手術の画像である場合に、その第1のステレオ画像に含まれる鉗子等の器具に、3次元オブジェクトである鉗子等の器具を重ねることができるようになり、初心者の術者が、経験豊富な術者の操作を仮想空間において真似ることができ、手術のトレーニングを行うことができるようになる。 With such a configuration, for example, when the first stereo image is an image of a surgical operation, it is possible to superimpose an instrument such as forceps, which is a three-dimensional object, on an instrument such as forceps included in the first stereo image. Thus, a novice operator can imitate the operation of an experienced operator in the virtual space, and can train for surgery.

また、本発明の一態様による画像合成装置では、3次元仮想空間に配置された第1の右目用画像及び第1の左目用画像から、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置を特定し、その特定した位置と、3次元オブジェクトの位置との関係に関する判定を行う判定部をさらに備え、出力部は、判定部による判定結果に関する出力をも行ってもよい。 Further, in the image synthesizing device according to one aspect of the present invention, the three-dimensional virtual space of the object included in the first stereo image is obtained from the first right-eye image and the first left-eye image arranged in the three-dimensional virtual space. may further include a determination unit that specifies a position in the 3D object and determines the relationship between the specified position and the position of the three-dimensional object, and the output unit may also output the determination result of the determination unit.

このような構成により、例えば、3次元オブジェクトを操作しているユーザは、3次元オブジェクトを適切に操作できているかどうかについて知ることができるようになる。 With such a configuration, for example, a user operating a three-dimensional object can know whether the three-dimensional object is being operated appropriately.

また、本発明の一態様による画像合成方法は、3次元仮想空間に配置される3次元オブジェクトの操作を受け付けるステップと、第1のステレオ画像が有する第1の右目用画像及び第1の左目用画像が、右目用視点と第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間を除く)に、受け付けられた操作に応じた3次元オブジェクトを配置するステップと、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成するステップと、第2のステレオ画像を出力するステップと、を備えたものである。 Further, an image synthesizing method according to an aspect of the present invention includes a step of accepting an operation of a three-dimensional object placed in a three-dimensional virtual space; A first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a first straight line connecting the left-eye viewpoint and a point corresponding to infinity on the first left-eye image. A three-dimensional virtual space arranged so that the two straight lines intersect (except for the three-dimensional virtual space where the first right-eye image and the first left-eye image are arranged so that the points corresponding to infinity overlap) ), placing a three-dimensional object in accordance with the accepted operation; and an image viewed from the right-eye viewpoint in a state in which the first right-eye image is displayed in the three-dimensional virtual space in which the three-dimensional object is arranged. and a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where the first left-eye image is displayed; and outputting two stereo images.

本発明の一態様による画像合成装置等によれば、ステレオ画像と3次元オブジェクトとを適切に合成することができるようになる。 According to the image synthesizing device and the like according to one aspect of the present invention, it is possible to appropriately synthesize a stereo image and a three-dimensional object.

本発明の実施の形態による画像合成装置の構成を示すブロック図1 is a block diagram showing the configuration of an image synthesizing device according to an embodiment of the present invention; 同実施の形態による画像合成装置の動作を示すフローチャート3 is a flow chart showing the operation of the image synthesizing device according to the same embodiment; 同実施の形態におけるステレオ画像の撮影について説明するための図FIG. 4 is a diagram for explaining stereo image shooting in the same embodiment; 同実施の形態におけるステレオ画像の生成について説明するための図FIG. 4 is a diagram for explaining generation of stereo images in the same embodiment; 同実施の形態における合成後のステレオ画像の表示の一例を示す図FIG. 4 is a diagram showing an example of display of stereo images after synthesis in the same embodiment; 同実施の形態における合成後のステレオ画像の表示の一例を示す図FIG. 4 is a diagram showing an example of display of stereo images after synthesis in the same embodiment; 同実施の形態における無限遠に対応する点について説明するための図A diagram for explaining a point corresponding to infinity in the same embodiment. 同実施の形態におけるステレオ画像の生成について説明するための図FIG. 4 is a diagram for explaining generation of stereo images in the same embodiment; 同実施の形態における合成後のステレオ画像の表示の一例を示す図FIG. 4 is a diagram showing an example of display of stereo images after synthesis in the same embodiment; 同実施の形態におけるステレオ画像の生成について説明するための図FIG. 4 is a diagram for explaining generation of stereo images in the same embodiment; 同実施の形態における無限遠に対応する点について説明するための図A diagram for explaining a point corresponding to infinity in the same embodiment. 同実施の形態における無限遠に対応する点について説明するための図A diagram for explaining a point corresponding to infinity in the same embodiment. 同実施の形態における3次元仮想空間に配置されたステレオ画像及び3次元オブジェクトの一例を示す図FIG. 4 is a diagram showing an example of a stereo image and a three-dimensional object arranged in a three-dimensional virtual space according to the same embodiment; 同実施の形態における3次元仮想空間に配置されたステレオ画像及び3次元オブジェクトの一例を示す図FIG. 4 is a diagram showing an example of a stereo image and a three-dimensional object arranged in a three-dimensional virtual space according to the same embodiment; 同実施の形態による画像合成装置の他の構成を示すブロック図FIG. 3 is a block diagram showing another configuration of the image synthesizing device according to the same embodiment; 同実施の形態における3次元仮想空間に配置されたステレオ画像の一例を示す図A diagram showing an example of a stereo image arranged in a three-dimensional virtual space in the same embodiment. 同実施の形態における3次元仮想空間に配置されたステレオ画像の一例を示す図A diagram showing an example of a stereo image arranged in a three-dimensional virtual space in the same embodiment. 同実施の形態における3次元仮想空間に配置されたステレオ画像の一例を示す図A diagram showing an example of a stereo image arranged in a three-dimensional virtual space in the same embodiment. 同実施の形態による画像合成装置の他の構成を示すブロック図FIG. 3 is a block diagram showing another configuration of the image synthesizing device according to the same embodiment; 同実施の形態におけるコンピュータシステムの外観一例を示す模式図Schematic diagram showing an example of the appearance of a computer system according to the same embodiment 同実施の形態におけるコンピュータシステムの構成の一例を示す図A diagram showing an example of a configuration of a computer system according to the same embodiment.

以下、本発明による画像合成装置、及び画像合成方法について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による画像合成装置、及び画像合成方法は、3次元仮想空間に配置された第1のステレオ画像、及び3次元オブジェクトから、両者を合成した第2のステレオ画像を生成するものである。 An image synthesizing apparatus and an image synthesizing method according to the present invention will be described below using embodiments. In the following embodiments, constituent elements and steps with the same reference numerals are the same or correspond to each other, and repetitive description may be omitted. The image synthesizing device and image synthesizing method according to the present embodiment generate a second stereo image by synthesizing the first stereo image and the three-dimensional object arranged in a three-dimensional virtual space. .

図1は、本実施の形態による画像合成装置1の構成を示すブロック図である。本実施の形態による画像合成装置1は、記憶部11と、受付部12と、配置部13と、生成部14と、出力部15とを備える。画像合成装置1は、例えば、パーソナル・コンピュータや、スマートフォン、タブレット端末などの汎用の装置であってもよく、または、ステレオ画像と3次元オブジェクトとの合成を行う専用の装置であってもよい。また、画像合成装置1は、例えば、スタンドアロンの装置であってもよく、または、サーバ・クライアントシステムにおけるサーバ装置であってもよい。後者の場合には、受付部12や出力部15は、インターネット等の通信回線を介して入力を受け付けたり、情報を出力したりしてもよい。本実施の形態では、画像合成装置1がスタンドアロンの装置である場合について主に説明する。 FIG. 1 is a block diagram showing the configuration of an image synthesizing device 1 according to this embodiment. The image synthesizing device 1 according to this embodiment includes a storage unit 11 , a reception unit 12 , an arrangement unit 13 , a generation unit 14 and an output unit 15 . The image synthesizing device 1 may be, for example, a general-purpose device such as a personal computer, a smartphone, or a tablet terminal, or may be a dedicated device that synthesizes a stereo image and a three-dimensional object. Further, the image synthesizing device 1 may be, for example, a stand-alone device or a server device in a server-client system. In the latter case, the reception unit 12 and the output unit 15 may receive inputs and output information via communication lines such as the Internet. In this embodiment, the case where the image synthesizing device 1 is a stand-alone device will be mainly described.

記憶部11では、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される。第1のステレオ画像は、例えば、動画像であってもよく、または、静止画像であってもよい。本実施の形態では、第1のステレオ画像が動画像である場合について主に説明する。第1のステレオ画像は、例えば、撮影された画像であってもよく、または、3DCG等によって生成された画像であってもよい。本実施の形態では、第1のステレオ画像が撮影されたステレオ画像である場合について主に説明する。 The storage unit 11 stores a first stereo image having a first right-eye image and a first left-eye image. The first stereo image may be, for example, a moving image or a still image. In this embodiment, a case where the first stereo image is a moving image will be mainly described. The first stereo image may be, for example, a photographed image or an image generated by 3DCG or the like. In this embodiment, a case where the first stereo image is a photographed stereo image will be mainly described.

なお、本実施の形態では、動画である第1のステレオ画像のすべてのデータが記憶部11で記憶されている場合について主に説明するが、そうでなくてもよい。例えば、動画である第1のステレオ画像が画像合成装置1においてリアルタイムで受け付けられ、処理対象の一部のデータのみが記憶部11に記憶されていてもよい。そのような場合であっても、動画である第1のステレオ画像を構成する各フレームは少なくとも一時的に記憶部11で記憶されることになるため、第1のステレオ画像が記憶部11で記憶されると言うことができる。 In this embodiment, the case where all the data of the first stereo image, which is the moving image, is stored in the storage unit 11 will be mainly described, but this does not have to be the case. For example, the first stereo image, which is a moving image, may be received in real time by the image synthesizing device 1 and only part of the data to be processed may be stored in the storage unit 11 . Even in such a case, since each frame constituting the first stereo image, which is a moving image, is stored at least temporarily in the storage unit 11, the first stereo image is stored in the storage unit 11. can be said to be

また、本実施の形態では、撮影画像である第1のステレオ画像が、光軸が平行となるように配置された一対のカメラによって撮影されたものである場合について主に説明し、光軸が交わるように配置された一対のカメラによって撮影されたものである場合については後述する。 In addition, in the present embodiment, a case where the first stereo image, which is a photographed image, is photographed by a pair of cameras arranged so that their optical axes are parallel will be mainly described. A case in which images are taken by a pair of cameras arranged so as to intersect will be described later.

記憶部11に第1のステレオ画像が記憶される過程は問わない。例えば、記録媒体を介して第1のステレオ画像が記憶部11で記憶されるようになってもよく、通信回線等を介して送信された第1のステレオ画像が記憶部11で記憶されるようになってもよく、または、撮影デバイス等から入力された第1のステレオ画像が記憶部11で記憶されるようになってもよい。記憶部11は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスク、光ディスクなどであってもよい。 The process by which the first stereo image is stored in the storage unit 11 does not matter. For example, the first stereo image may be stored in the storage unit 11 via a recording medium, or the first stereo image transmitted via a communication line or the like may be stored in the storage unit 11. Alternatively, the storage unit 11 may store the first stereo image input from an imaging device or the like. The storage unit 11 is preferably implemented by a non-volatile recording medium, but may be implemented by a volatile recording medium. The recording medium may be, for example, a semiconductor memory, a magnetic disk, an optical disk, or the like.

受付部12は、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける。この操作は、例えば、3次元オブジェクトの姿勢、位置、形状等に関連する操作であってもよい。受付部12で受け付けられる操作は、3次元仮想空間に配置された3次元オブジェクトの向き、位置、形状等に変化が生じる操作であれば、どのような操作であってもよい。3次元オブジェクトの形状に関する操作とは、例えば、3次元オブジェクトが手術で用いる鉗子である場合に、鉗子の先端を開けたり閉じたりする操作であってもよい。受付部12は、例えば、画像合成装置1から後述する第2のステレオ画像が出力されるVR(Virtual Reality)ヘッドセット(例えば、Oculus Quest 2など)のコントローラ等から、3次元オブジェクトの操作を受け付けてもよく、ジョイスティックやマウスなどのその他の入力デバイスから3次元オブジェクトの操作を受け付けてもよい。なお、3次元オブジェクトの操作の受け付けは、例えば、加速度センサやジャイロセンサ等のセンサを用いて、3次元実空間における位置の変化、角度の変化を検出した結果の受け付けであってもよく、ボタン等の入力デバイスに対する入力の受け付けであってもよい。受付部12は、通常、HMD2や、VRヘッドセットなどのコントローラ等の入力デバイスから、リアルタイムで3次元オブジェクトの操作を受け付ける。受付部12は、入力デバイスや通信回線等を介して、3次元オブジェクトの操作を受け付けてもよい。なお、受付部12は、受け付けを行うためのデバイス(例えば、入力デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部12は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。 The accepting unit 12 accepts an operation of a three-dimensional object placed in a three-dimensional virtual space. This operation may be, for example, an operation related to the posture, position, shape, etc. of the three-dimensional object. The operation accepted by the accepting unit 12 may be any operation as long as it causes a change in the orientation, position, shape, etc. of the three-dimensional object placed in the three-dimensional virtual space. For example, when the three-dimensional object is forceps used in surgery, the operation related to the shape of the three-dimensional object may be an operation of opening or closing the tip of the forceps. The reception unit 12 receives an operation of a three-dimensional object from, for example, a controller of a VR (Virtual Reality) headset (for example, Oculus Quest 2, etc.) outputting a second stereo image, which will be described later, from the image synthesizing device 1 . Alternatively, the operation of the three-dimensional object may be received from other input devices such as a joystick or mouse. The acceptance of the operation of the three-dimensional object may be, for example, the acceptance of the result of detecting changes in position and angle in the three-dimensional real space using a sensor such as an acceleration sensor or a gyro sensor. It may be acceptance of input to an input device such as. The reception unit 12 normally receives an operation of a three-dimensional object in real time from an input device such as the HMD 2 or a controller such as a VR headset. The accepting unit 12 may accept an operation of a three-dimensional object via an input device, a communication line, or the like. Note that the receiving unit 12 may or may not include a device for receiving (for example, an input device or a communication device). Further, the reception unit 12 may be realized by hardware, or may be realized by software such as a driver for driving a predetermined device.

配置部13は、第1の右目用画像及び第1の左目用画像の配置される3次元仮想空間に、受付部12によって受け付けられた操作に応じた3次元オブジェクトを配置する。3次元オブジェクトは、受け付けられた操作に応じて位置や姿勢、形状等が変化するため、配置部13は、その操作に応じて、3次元仮想空間上の3次元オブジェクトを変化させることになる。配置部13による3次元オブジェクトの配置は、受付部12によって受け付けられた操作に応じて行われるため、例えば、操作が継続して受け付けられている場合には、3次元仮想空間における3次元オブジェクトの配置も継続して変化することになる。3次元仮想空間に配置された3次元オブジェクトを操作に応じて配置する方法はすでに公知であり、その詳細な説明を省略する。なお、3次元仮想空間に配置された3次元オブジェクトの情報は、例えば、記憶部11で記憶されてもよい。 The arrangement unit 13 arranges a three-dimensional object according to the operation received by the reception unit 12 in the three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged. Since the position, posture, shape, etc. of the 3D object change according to the received operation, the arrangement unit 13 changes the 3D object in the 3D virtual space according to the operation. Since the placement of the three-dimensional object by the placement unit 13 is performed in accordance with the operation accepted by the acceptance unit 12, for example, when the operation is continuously accepted, the placement of the three-dimensional object in the three-dimensional virtual space Placement will continue to change. A method of arranging a three-dimensional object arranged in a three-dimensional virtual space in accordance with an operation is already known, and a detailed description thereof will be omitted. Information on the three-dimensional object arranged in the three-dimensional virtual space may be stored in the storage unit 11, for example.

なお、3次元仮想空間における、第1のステレオ画像が有する第1の右目用画像及び第1の左目用画像の配置位置と、右目用視点及び左目用視点との関係は、通常、あらかじめ決まっている。両者の具体的な関係については後述するが、例えば、(A)第1の右目用画像及び第1の左目用画像は、平行な視線方向の前方側に配置されてもよい。また、例えば、(B)第1の右目用画像及び第1の左目用画像配置は、無限遠に対応する点が重なるように配置されてもよい。 Note that the relationship between the arrangement positions of the first right-eye image and the first left-eye image included in the first stereo image and the right-eye viewpoint and left-eye viewpoint in the three-dimensional virtual space is usually predetermined. there is Although a specific relationship between the two will be described later, for example, (A) the first right-eye image and the first left-eye image may be arranged on the front side in the parallel line-of-sight direction. Also, for example, (B) the arrangement of the first right-eye image and the first left-eye image may be arranged such that points corresponding to infinity overlap.

通常、3次元オブジェクトは、第1のステレオ画像と、視点との間に配置される。3次元オブジェクトと視点との間に第1のステレオ画像が存在するようになると、レンダリング後の第2のステレオ画像に3次元オブジェクトが含まれなくなるからである。 A three-dimensional object is usually placed between the first stereo image and the viewpoint. This is because when the first stereo image exists between the three-dimensional object and the viewpoint, the second stereo image after rendering does not include the three-dimensional object.

生成部14は、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する。すなわち、第2の右目用画像を生成する際には、3次元仮想空間において第1の右目用画像を表示し、第1の左目用画像を表示しないことが好適である。また、第2の左目用画像を生成する際には、3次元仮想空間において第2の右目用画像を表示し、第2の左目用画像を表示しないことが好適である。なお、第2の右目用画像に第1の左目用画像が入らないのであれば、右目用視点を用いたレンダリング時に、第1の左目用画像が表示されていてもよい。左目用視点を用いたレンダリング時にも同様である。第2のステレオ画像は、第1のステレオ画像に含まれる立体的に表示されるオブジェクト、及び3次元オブジェクトが、第2のステレオ画像においても立体的に表示されるように生成されることが好適である。また、レンダリング時の画角は、例えば、第1のステレオ画像を撮影したカメラの画角と同じにしてもよく、または、異なっていてもよい。 The generation unit 14 generates a second right-eye image and a first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed, in a three-dimensional virtual space in which a three-dimensional object is arranged. A second stereo image is generated that includes a second left-eye image that is an image from the left-eye viewpoint in a state where the for-eye image is displayed. That is, when generating the second right-eye image, it is preferable to display the first right-eye image and not display the first left-eye image in the three-dimensional virtual space. Also, when generating the second left-eye image, it is preferable to display the second right-eye image and not display the second left-eye image in the three-dimensional virtual space. If the first left-eye image does not fit in the second right-eye image, the first left-eye image may be displayed during rendering using the right-eye viewpoint. The same is true when rendering using the left-eye viewpoint. The second stereo image is preferably generated so that the stereoscopically displayed object and the three-dimensional object included in the first stereo image are also stereoscopically displayed in the second stereo image. is. Also, the angle of view during rendering may be, for example, the same as the angle of view of the camera that captured the first stereo image, or may be different.

3次元仮想空間における右目用視点及び左目用視点の各位置は、例えば、あらかじめ決まっていてもよく、または、リアルタイムに変更されてもよい。後者の場合には、例えば、HMD2の位置や向きに応じて右目用視点及び左目用視点の各位置が変更されてもよい。また、視点の変更に応じて、3次元仮想空間における第1のステレオ画像の配置も変更されてもよい。通常、視点の位置と、第1の右目用画像及び第1の左目用画像の配置される位置との相対的な関係はあらかじめ決まっているからである。なお、HMD2の位置や向きに応じた視点の変更についてはすでに公知であり、その詳細な説明を省略する。また、視線方向は、それぞれ対応する画像の中心を向いていることが好適である。例えば、右目用視点の視線方向は、右目用画像の中心を向いていることが好適である。本実施の形態では、説明の便宜上、右目用視点及び左目用視点の各視線方向が水平方向である場合について主に説明するが、各視線方向は、水平以外の方向であってもよいことは言うまでもない。 Each position of the right-eye viewpoint and the left-eye viewpoint in the three-dimensional virtual space may be determined in advance, or may be changed in real time, for example. In the latter case, for example, each position of the right-eye viewpoint and the left-eye viewpoint may be changed according to the position and orientation of the HMD 2 . Also, the arrangement of the first stereo image in the three-dimensional virtual space may be changed according to the change of the viewpoint. This is because the relative relationship between the position of the viewpoint and the positions where the first right-eye image and the first left-eye image are arranged is usually determined in advance. Note that changing the viewpoint according to the position and orientation of the HMD 2 is already known, and detailed description thereof will be omitted. Moreover, it is preferable that the line-of-sight direction is directed toward the center of each corresponding image. For example, the line-of-sight direction of the right-eye viewpoint is preferably directed toward the center of the right-eye image. In this embodiment, for convenience of explanation, the case where each line-of-sight direction of the right-eye viewpoint and left-eye viewpoint is the horizontal direction will be mainly described, but each line-of-sight direction may be a direction other than the horizontal direction. Needless to say.

第1のステレオ画像が動画像である場合には、その動画像の各フレームと、3次元オブジェクトとを合成した第2のステレオ画像が生成されることになるため、第2のステレオ画像も動画像となる。この場合には、例えば、3次元仮想空間において、第1のステレオ画像が再生され、また、受け付けられた操作に応じて3次元オブジェクトの配置が変更され、再生されている第1のステレオ画像、及び操作に応じて変更される3次元オブジェクトを含む第2のステレオ画像が生成されてもよい。また、第2のステレオ画像が有する第2の右目用画像及び第2の左目用画像において、第1のステレオ画像の枠(すなわち、外縁)が表示されてもよく、または、そうでなくてもよい。後者の場合には、第1の右目用画像(または、第1の左目用画像)の枠が、第2の右目用画像(または、第2の左目用画像)の枠となるように第2のステレオ画像が生成されてもよい。 When the first stereo image is a moving image, the second stereo image is generated by synthesizing each frame of the moving image with the three-dimensional object. become an image. In this case, for example, the first stereo image is reproduced in a three-dimensional virtual space, and the first stereo image being reproduced with the arrangement of the three-dimensional object changed according to the accepted operation, and a second stereo image containing the three-dimensional object modified in response to the manipulation may be generated. In addition, in the second right-eye image and the second left-eye image included in the second stereo image, the frame (that is, outer edge) of the first stereo image may be displayed, or otherwise. good. In the latter case, the frame of the first right-eye image (or the first left-eye image) is the frame of the second right-eye image (or the second left-eye image). stereo images may be generated.

なお、配置部13、及び生成部14は、例えば、Unity(Unity Technologies社)などのリアルタイム3D開発プラットフォームを用いて実現することもできる。図8A、図8Bは、Unityの3次元仮想空間に配置された、第1のステレオ画像と、3次元オブジェクトである手術用の鉗子とを示す図である。図8Aでは、第1の右目用画像と第1の左目用画像との位置をずらして配置している。例えば、上記(A)の場合には、このように配置されることになる。なお、本来、両画像は同一平面内に存在するが、説明のため両者を少しずらしている。図8Bでは、第1の右目用画像及び第1の左目用画像を重ねて配置している。例えば、上記(B)の場合には、このように配置されることになる。また、生成部14による画像の生成は、3DCGにおけるレンダリングの処理として公知であり、その詳細な説明を省略する。なお、そのレンダリング時にテクスチャマッピング等が行われてもよいことは言うまでもない。 Note that the placement unit 13 and the generation unit 14 can also be implemented using a real-time 3D development platform such as Unity (Unity Technologies). 8A and 8B are diagrams showing a first stereo image and surgical forceps, which are three-dimensional objects, placed in a three-dimensional virtual space of Unity. In FIG. 8A, the positions of the first right-eye image and the first left-eye image are shifted. For example, in the case of (A) above, they are arranged in this manner. Although both images are originally on the same plane, they are slightly shifted for explanation. In FIG. 8B, the first right-eye image and the first left-eye image are superimposed. For example, in the case of (B) above, they are arranged in this manner. The generation of images by the generation unit 14 is known as rendering processing in 3DCG, and detailed description thereof will be omitted. Needless to say, texture mapping or the like may be performed at the time of rendering.

出力部15は、生成部14によって生成された第2のステレオ画像を出力する。ここで、この出力は、例えば、ステレオ画像を表示する表示デバイス(例えば、HMD、VRヘッドセットなど)への表示でもよく、所定の機器への通信回線を介した送信でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。本実施の形態では、上記のように、出力部15が第2のステレオ画像をHMD2に出力する場合について主に説明する。なお、出力部15は、出力を行うデバイス(例えば、表示デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、出力部15は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。 The output unit 15 outputs the second stereo image generated by the generation unit 14 . Here, this output may be, for example, display on a display device (e.g., HMD, VR headset, etc.) that displays stereo images, transmission to a predetermined device via a communication line, or transmission to a recording medium. It may be stored or handed over to another component. In this embodiment, as described above, the case where the output unit 15 outputs the second stereo image to the HMD 2 will be mainly described. Note that the output unit 15 may or may not include a device for output (for example, a display device or a communication device). Also, the output unit 15 may be realized by hardware, or may be realized by software such as a driver for driving those devices.

次に、本実施の形態による画像合成装置1の動作、すなわち画像合成方法について図2のフローチャートを用いて説明する。このフローチャートでは、記憶部11で記憶されている動画像である第1のステレオ画像に、受付部12で受け付けられた操作に応じた3次元オブジェクトを合成することによって第2のステレオ画像を生成する場合について説明する。 Next, the operation of the image synthesizing apparatus 1 according to the present embodiment, that is, the image synthesizing method will be described with reference to the flowchart of FIG. In this flowchart, a second stereo image is generated by synthesizing a three-dimensional object corresponding to an operation received by the reception unit 12 with a first stereo image, which is a moving image stored in the storage unit 11. A case will be described.

(ステップS101)生成部14は、第2のステレオ画像を生成するかどうか判断する。そして、第2のステレオ画像を生成する場合には、ステップS102に進み、そうでない場合には、第2のステレオ画像を生成すると判断するまで、ステップS101の処理を繰り返す。なお、生成部14は、例えば、定期的に第2のステレオ画像を生成すると判断してもよい。より具体的には、生成部14は、第2のステレオ画像のフレーム間の時間間隔ごとに第2のステレオ画像を生成すると判断してもよい。 (Step S101) The generator 14 determines whether to generate the second stereo image. If the second stereo image is to be generated, the process proceeds to step S102. If not, the process of step S101 is repeated until it is determined that the second stereo image is to be generated. Note that the generation unit 14 may determine, for example, to generate the second stereo image periodically. More specifically, the generation unit 14 may determine to generate the second stereo image for each time interval between frames of the second stereo image.

(ステップS102)受付部12は、3次元オブジェクトの操作を受け付けたかどうか判断する。そして、操作を受け付けた場合には、ステップS103に進み、そうでない場合には、ステップS104に進む。 (Step S102) The reception unit 12 determines whether or not the operation of the three-dimensional object has been received. If the operation has been accepted, the process proceeds to step S103; otherwise, the process proceeds to step S104.

(ステップS103)配置部13は、受付部12によって受け付けられた操作に応じて、3次元仮想空間に3次元オブジェクトを配置する。この3次元オブジェクトの配置は、3次元仮想空間に配置されている3次元オブジェクトの配置を変更すること、例えば、3次元オブジェクトの位置や角度、形状等を変更することであってもよい。 (Step S<b>103 ) The placement unit 13 places the three-dimensional object in the three-dimensional virtual space according to the operation accepted by the acceptance unit 12 . The placement of the 3D object may be to change the placement of the 3D object placed in the 3D virtual space, for example, to change the position, angle, shape, etc. of the 3D object.

(ステップS104)生成部14は、3次元仮想空間において第1の右目用画像を表示し、第1の左目用画像を表示していない状態において、第2の右目用画像を生成し、第1の左目用画像を表示し、第1の右目用画像を表示していない状態において、第2の左目用画像を生成することによって、第2のステレオ画像を生成する。なお、この第2の右目用画像及び第2の左目用画像の生成は、右目用の1個のフレーム及び左目用の1個のフレームを生成することであってもよい。この場合には、ステップS104の処理が実行されるごとに、3次元仮想空間に配置される第1の右目用画像及び第1の左目用画像が、1フレームずつ変更されてもよい。生成された一対のフレームは、例えば、図示しない記録媒体や記憶部11で記憶されてもよい。 (Step S104) The generation unit 14 displays the first right-eye image in the three-dimensional virtual space and generates the second right-eye image in a state in which the first left-eye image is not displayed. A second left-eye image is displayed and a second left-eye image is generated in a state in which the first right-eye image is not displayed, thereby generating a second stereo image. Note that the generation of the second right-eye image and the second left-eye image may be generation of one frame for the right eye and one frame for the left eye. In this case, the first right-eye image and the first left-eye image arranged in the three-dimensional virtual space may be changed frame by frame each time the process of step S104 is executed. The generated pair of frames may be stored in a recording medium (not shown) or the storage unit 11, for example.

(ステップS105)出力部15は、ステップS104で生成された第2のステレオ画像を出力する。この出力は、例えば、右目用の1個のフレーム及び左目用の1個のフレームの出力であってもよい。そして、ステップS101に戻る。このように、ステップS101~S105の処理が繰り返されることによって、HMD2に第1のステレオ画像と、操作に応じて配置が変更される3次元オブジェクトとを合成した第2のステレオ画像が表示されることになる。 (Step S105) The output unit 15 outputs the second stereo image generated in step S104. This output may be, for example, one frame for the right eye and one frame for the left eye. Then, the process returns to step S101. In this way, by repeating the processing of steps S101 to S105, the HMD 2 displays a second stereo image obtained by synthesizing the first stereo image and the three-dimensional object whose arrangement is changed according to the operation. It will be.

なお、図2のフローチャートにおいて、例えば、ステップS101,S104,S105の処理と、ステップS102、S103の処理とは並列して行われてもよい。また、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In addition, in the flowchart of FIG. 2, for example, the processing of steps S101, S104, and S105 and the processing of steps S102 and S103 may be performed in parallel. In addition, in the flowchart of FIG. 2, the processing ends when the power is turned off or an interrupt for processing end occurs.

次に、第1のステレオ画像の撮影、及び第1のステレオ画像と3次元オブジェクトとの合成について具体的に説明する。 Next, photographing of the first stereo image and synthesis of the first stereo image and the three-dimensional object will be specifically described.

図3は、第1のステレオ画像の撮影について説明するための図である。図3では、右目用カメラ21aと左目用カメラ21bとを用いて第1のステレオ画像を撮影している。すなわち、右目用カメラ21aによって第1の右目用画像22aが撮影され、左目用カメラ21bによって第1の左目用画像22bが撮影される。右目用カメラ21a及び左目用カメラ21bは、通常、同じ仕様のものであり、その結果として、第1の右目用画像22a及び第1の左目用画像22bも同じ画素数の画像となる。図3では、第1のステレオ画像が、光軸が平行となるように配置された一対のカメラ21a、21bによって撮影されるものとする。また、両カメラ21a、21bの光軸は両方とも水平面内にあるものとする。右目用カメラ21aの光軸と、及び左目用カメラ21bの光軸との間の距離は、例えば、人間の平均的な瞳孔間距離程度であってもよい。なお、この例では、撮影対象のオブジェクト20は、中心軸が鉛直方向となるように配置されている円錐であるとする。そして、オブジェクト20は、第1の右目用画像22a及び第1の左目用画像22bに含まれているものとする。なお、図3は、水平面に垂直な鉛直方向からカメラ21a、21bを見ている状態を示しているため、厳密には、オブジェクト20は円形状になるはずであるが、説明の便宜上、オブジェクト20を三角形状に表示している。他の図面においても同様であるとする。 FIG. 3 is a diagram for explaining the shooting of the first stereo image. In FIG. 3, the first stereo image is captured using the right-eye camera 21a and the left-eye camera 21b. That is, the first right-eye image 22a is captured by the right-eye camera 21a, and the first left-eye image 22b is captured by the left-eye camera 21b. The right-eye camera 21a and the left-eye camera 21b usually have the same specifications, and as a result, the first right-eye image 22a and the first left-eye image 22b also have the same number of pixels. In FIG. 3, it is assumed that the first stereo image is captured by a pair of cameras 21a and 21b arranged so that their optical axes are parallel. It is also assumed that the optical axes of both cameras 21a and 21b are both in the horizontal plane. The distance between the optical axis of the right-eye camera 21a and the optical axis of the left-eye camera 21b may be, for example, about the average human interpupillary distance. In this example, it is assumed that the object 20 to be photographed is a cone arranged so that the central axis is in the vertical direction. It is assumed that the object 20 is included in the first right-eye image 22a and the first left-eye image 22b. Note that FIG. 3 shows the state in which the cameras 21a and 21b are viewed from the vertical direction perpendicular to the horizontal plane. Strictly speaking, the object 20 should have a circular shape. is displayed in a triangle. Suppose that it is the same also in other drawings.

次に、第1の右目用画像22a及び第1の左目用画像22bを、3次元仮想空間において、(A)平行な視線方向の前方側にそれぞれ配置する場合、(B)無限遠に対応する点が重なるように配置する場合のそれぞれについて説明する。 Next, when the first right-eye image 22a and the first left-eye image 22b are arranged in the three-dimensional virtual space (A) on the front side of the parallel viewing direction, (B) they correspond to infinity. Each of the cases where points are arranged so as to overlap will be described.

(A)平行な視線方向の前方側にそれぞれ配置する場合
図4Aは、3次元仮想空間において、第1の右目用画像22a及び第1の左目用画像22bを平行な視線方向の前方側にそれぞれ配置する場合について説明するための図である。図4Aにおいて、右目用視点23a及び左目用視点23bが、瞳孔間距離や、ステレオカメラ21a、21bの光軸間の距離程度離れて配置されている。また、矢印で示される視線方向は、平行であり、同じ方向(図4Aでは上方向)を向いている。なお、図4Aでは、視線方向が水平面内に存在するものとする。すなわち、図4Aは、図3と同様に、水平面に垂直な鉛直方向から視点23a、23bや、配置された画像22a、22bを見ているものとする。また、第1の右目用画像22a及び第1の左目用画像22bはそれぞれ、右目用視点23a及び左目用視点23bの前方側において、視線方向が画像に直交し、視線方向が画像の中心を向くように配置されている。また、右目用視点23aと第1の右目用画像22aとの位置関係と、左目用視点23bと第1の左目用画像22bとの位置関係とは同じであるとする。また、第1の右目用画像22a及び第1の左目用画像22bは、同一平面内に含まれるように配置されている。右目用視点23a及び左目用視点23bから、第1の右目用画像22a及び第1の左目用画像22bが含まれる平面までの距離は、例えば、U/(2tan(φ/2))であってもよい。ここで、Uは、第1の右目用画像22a及び第1の左目用画像22bの水平方向の長さであり、φは、右目用視点23a及び左目用視点23bの水平方向の画角である。なお、図4Aでは、第1の右目用画像22a及び第1の左目用画像22bが右側と左側とに離れて配置されている場合について示しているが、両画像は一部が重なるように配置されてもよい(例えば、図8A参照)。
(A) Arranging each on the front side of the parallel line-of-sight direction FIG. 4A shows the first right-eye image 22a and the first left-eye image 22b on the front side of the parallel line-of-sight direction in the three-dimensional virtual space. It is a figure for demonstrating the case where it arrange|positions. In FIG. 4A, the right-eye viewpoint 23a and the left-eye viewpoint 23b are arranged apart by the distance between the pupils and the distance between the optical axes of the stereo cameras 21a and 21b. Also, the line-of-sight directions indicated by arrows are parallel and face the same direction (upward in FIG. 4A). In addition, in FIG. 4A, it is assumed that the line-of-sight direction exists in the horizontal plane. That is, in FIG. 4A, as in FIG. 3, it is assumed that the viewpoints 23a and 23b and the arranged images 22a and 22b are viewed from the vertical direction perpendicular to the horizontal plane. Also, the first right-eye image 22a and the first left-eye image 22b are orthogonal to the image on the front side of the right-eye viewpoint 23a and the left-eye viewpoint 23b, respectively, and the direction of the line of sight is directed toward the center of the image. are arranged as It is also assumed that the positional relationship between the right-eye viewpoint 23a and the first right-eye image 22a is the same as the positional relationship between the left-eye viewpoint 23b and the first left-eye image 22b. Also, the first right-eye image 22a and the first left-eye image 22b are arranged so as to be included in the same plane. The distance from the right-eye viewpoint 23a and the left-eye viewpoint 23b to the plane containing the first right-eye image 22a and the first left-eye image 22b is, for example, U/(2tan(φ/2)). good too. Here, U is the horizontal length of the first right-eye image 22a and the first left-eye image 22b, and φ is the horizontal angle of view of the right-eye viewpoint 23a and the left-eye viewpoint 23b. . Note that FIG. 4A shows the case where the first right-eye image 22a and the first left-eye image 22b are arranged apart from each other on the right side and the left side, but the two images are arranged such that they partially overlap each other. (see, eg, FIG. 8A).

図4Aにおいて、第1の右目用画像22aが表示されている状態で右目用視点23aからの第2の右目用画像が生成され、第1の左目用画像22bが表示されている状態で左目用視点23bからの第2の左目用画像が生成され、それらの第2のステレオ画像がHMD2に出力されたとする。すると、その第2のステレオ画像を見たユーザには、図4Aの破線で示されるように、配置されている第1の右目用画像22a及び第1の左目用画像22bの奥側にオブジェクト20が存在するように見えることになる。 In FIG. 4A, a second right-eye image is generated from the right-eye viewpoint 23a while the first right-eye image 22a is displayed, and a left-eye image 22b is displayed while the first left-eye image 22b is displayed. Assume that second left-eye images from viewpoint 23b are generated and their second stereo images are output to HMD 2 . Then, the user viewing the second stereo image will see the object 20 behind the arranged first right-eye image 22a and first left-eye image 22b, as indicated by the dashed lines in FIG. 4A. appears to exist.

図4Aにおいて、HMD2を装着しているユーザが、ロボットハンドである3次元オブジェクトをコントローラによって操作して、3次元オブジェクト25aで示される位置に配置したとする。すると、図4Bで示されるように、ユーザにとっては、ロボットハンドは手前側に見えて、オブジェクト20は奥側に見えることになる。そのため、ユーザがロボットハンドでオブジェクト20に触ろうとする場合には、3次元オブジェクトを奥側、すなわち視点から離れる側に移動させる必要がある。そして、ユーザが、コントローラを操作して、3次元オブジェクトを奥側に移動させ、3次元オブジェクト25bで示される位置に配置すると、3次元オブジェクト25bの先端側が、第1の右目用画像22aの背面側に位置することになり、視点から見えなくなる。その結果、図4Cで示されるように、ユーザには、ロボットハンドの先端側が見えなくなる。第1の右目用画像22aは、通常、不透明だからである。なお、図4Cでは、ロボットハンドの見えない部分を破線で示している。このように、平行な視線方向の前方側に第1の右目用画像22a及び第1の左目用画像22bをそれぞれ配置する場合には、第1のステレオ画像で表示されるオブジェクト(例えば、オブジェクト20)と、3次元オブジェクトとの位置関係を調整することが困難になる。すなわち、第2のステレオ画像において、両者を重ねることが困難になる。なお、図4B、図4Cは、ステレオ画像を2次元平面上に示している図であり、実際の第2のステレオ画像とは異なるものである。ステレオ画像を示す他の図についても同様である。 In FIG. 4A, it is assumed that the user wearing the HMD 2 manipulates the three-dimensional object, which is the robot hand, using the controller to place the three-dimensional object 25a at the position indicated by the three-dimensional object 25a. Then, as shown in FIG. 4B, the user can see the robot hand on the front side and the object 20 on the back side. Therefore, when the user tries to touch the object 20 with the robot hand, it is necessary to move the three-dimensional object farther away from the viewpoint. Then, when the user operates the controller to move the three-dimensional object to the back side and place it at the position indicated by the three-dimensional object 25b, the front end side of the three-dimensional object 25b becomes the rear surface of the first right-eye image 22a. It will be positioned on the side and disappear from the viewpoint. As a result, the user cannot see the tip side of the robot hand, as shown in FIG. 4C. This is because the first right-eye image 22a is normally opaque. In addition, in FIG. 4C, the portion of the robot hand that cannot be seen is indicated by a dashed line. In this way, when the first right-eye image 22a and the first left-eye image 22b are respectively arranged on the front side of the parallel line-of-sight direction, the object displayed in the first stereo image (for example, the object 20 ) and the three-dimensional object. That is, it becomes difficult to overlap both in the second stereo image. 4B and 4C are diagrams showing stereo images on a two-dimensional plane, and are different from the actual second stereo images. The same applies to other figures showing stereo images.

なお、ここでは、平行な視線方向の前方側に右目用画像及び左目用画像をそれぞれ配置する場合のデメリットについて説明したが、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとが独立している状況、すなわち、両者が関連しない状況においては、上記のようにステレオ画像と3次元オブジェクトとを合成してもデメリットはないことになる。例えば、第1のステレオ画像が、風景の画像であり、3次元オブジェクトが、ユーザの操作に応じてダンスするキャラクタである場合には、風景の前景側においてキャラクタがダンスをすればよいため、この合成方法を用いることができる。 Here, the disadvantages of arranging the right-eye image and the left-eye image respectively on the front side of the parallel line-of-sight direction have been described. In a situation where the two are not related, there is no demerit in synthesizing the stereo image and the three-dimensional object as described above. For example, if the first stereo image is an image of a landscape and the three-dimensional object is a character that dances in response to a user's operation, the character may dance in the foreground of the landscape. Synthetic methods can be used.

(B)無限遠に対応する点が重なるように配置する場合
図5は、ステレオ画像における無限遠に対応する点について説明するための図である。図5で示されるように、右目用撮影位置、左目用撮影位置、画角、及び矢印で示される撮影方向がそれぞれ設定されているとすると、右目用画像及び左目用画像は、それぞれ右目用撮影位置から撮影方向に見える画角の範囲内のオブジェクト等を、図中の仮想平面に投影した画像となる。なお、仮想平面は、撮影方向に垂直な平面である。この場合には、撮影方向の前方側の無限遠に存在する点は、仮想平面上の点α、及び点βの位置に投影されることになる。すなわち、右目用画像の点α、及び左目用画像の点βが、無限遠に対応する点となる。なお、点α、及び点βはそれぞれ、右目用画像と右目用撮影位置から延びる撮影方向とが交わる点、及び左目用画像と左目用撮影位置から延びる撮影方向とが交わる点である。したがって、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像を3次元仮想空間に配置する場合には、両者を同じ位置に配置することになる。すなわち、両画像を重ねて配置すればよいことになる。
(B) Case where points corresponding to infinity are arranged so as to overlap FIG. 5 is a diagram for explaining points corresponding to infinity in a stereo image. As shown in FIG. 5, assuming that the right-eye imaging position, the left-eye imaging position, the angle of view, and the imaging direction indicated by the arrow are set, the right-eye image and the left-eye image are obtained by the right-eye imaging. An image is obtained by projecting an object or the like within the range of the angle of view that can be seen in the shooting direction from the position onto the virtual plane in the drawing. Note that the virtual plane is a plane perpendicular to the shooting direction. In this case, a point existing at infinity on the forward side in the imaging direction is projected onto the positions of points α and β on the virtual plane. That is, the point α of the image for the right eye and the point β of the image for the left eye are points corresponding to infinity. Note that the points α and β are the points where the right-eye image and the imaging direction extending from the right-eye imaging position intersect, and the points where the left-eye image and the imaging direction extending from the left-eye imaging position intersect, respectively. Therefore, when arranging the first right-eye image and the first left-eye image in the three-dimensional virtual space so that the points corresponding to infinity overlap, both are arranged at the same position. That is, both images should be superimposed and arranged.

図6Aは、3次元仮想空間において、撮影された第1の右目用画像22a及び第1の左目用画像22bを、無限遠に対応する点が重なるように配置する場合について説明するための図である。図6Aにおいても、図4Aと同様に、右目用視点23a及び左目用視点23bは、瞳孔間距離や、ステレオカメラ21a、21bの光軸間の距離程度離れて配置されている。なお、この場合には、矢印で示される視線方向は、第1の右目用画像22a及び第1の左目用画像22bの中心を向いている。また、図6Aでも、視線方向が水平面内に存在しているものとする。また、図6Aは、鉛直方向から見た図である。図6Aで示される第1の右目用画像22a及び第1の左目用画像22bはそれぞれ、図4Aで示される位置から、画像の面方向に両者が重なるまで、同じ距離だけ移動されたものである。 FIG. 6A is a diagram for explaining a case in which the photographed first right-eye image 22a and first left-eye image 22b are arranged so that points corresponding to infinity overlap in the three-dimensional virtual space. be. In FIG. 6A, similarly to FIG. 4A, the right-eye viewpoint 23a and the left-eye viewpoint 23b are separated by the distance between the pupils and the distance between the optical axes of the stereo cameras 21a and 21b. In this case, the line-of-sight directions indicated by the arrows face the centers of the first right-eye image 22a and the first left-eye image 22b. Also in FIG. 6A, it is assumed that the line-of-sight direction exists in the horizontal plane. Moreover, FIG. 6A is a view seen from the vertical direction. The first right-eye image 22a and the first left-eye image 22b shown in FIG. 6A are each moved by the same distance from the position shown in FIG. 4A until they overlap in the plane direction of the images. .

図6Aにおいて、第1の右目用画像22aが表示されており、第1の左目用画像22bが表示されていない状態で右目用視点23aからの第2の右目用画像が生成され、第1の左目用画像22bが表示されており、第1の右目用画像22aが表示されていない状態で左目用視点23bからの第2の左目用画像が生成され、それらの第2のステレオ画像がHMD2に出力されたとする。すると、その第2のステレオ画像を見たユーザには、図6Aの破線で示されるように、配置されている第1の右目用画像22a及び第1の左目用画像22bの手前側にオブジェクト20が存在するように見えることになる。 In FIG. 6A, the first right-eye image 22a is displayed, and the second right-eye image is generated from the right-eye viewpoint 23a while the first left-eye image 22b is not displayed. A second left-eye image is generated from the left-eye viewpoint 23b in a state in which the left-eye image 22b is displayed and the first right-eye image 22a is not displayed, and these second stereo images are displayed on the HMD 2. Suppose it is output. Then, the user viewing the second stereo image will see the object 20 in front of the arranged first right-eye image 22a and first left-eye image 22b, as indicated by broken lines in FIG. 6A. appears to exist.

図6Aにおいて、HMD2を装着しているユーザが、ロボットハンドである3次元オブジェクトをコントローラによって操作して、3次元オブジェクト25cで示される位置に配置したとする。すると、図6Bで示されるように、ユーザにとっては、ロボットハンドがオブジェクト20の近傍に見えることになる。そのため、上記(A)の状況とは異なり、ユーザがコントローラを操作することによって、ロボットハンドの先端をオブジェクト20に重ねることができるようになる。このように、無限遠に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置することによって、第1のステレオ画像で表示されるオブジェクト(例えば、オブジェクト20)と、3次元オブジェクトとの位置関係を容易に調整できるようになる。すなわち、ステレオ画像で表示されるオブジェクトと、3次元オブジェクトとを重ねることができるようになる。これは、無限遠に対応する第1の右目用画像22a上の点と、無限遠に対応する第1の左目用画像22b上の点とが重なっているため、無限遠に相当する位置が、画像上に存在することになり、3次元オブジェクトを、視点から画像までの範囲内の任意の位置に配置することによって、視点に最も近い位置から無限遠までの任意の位置に配置できるからである。 In FIG. 6A, it is assumed that the user wearing the HMD 2 manipulates the three-dimensional object, which is the robot hand, using the controller to place it at the position indicated by the three-dimensional object 25c. Then, as shown in FIG. 6B, the user sees the robot hand in the vicinity of the object 20 . Therefore, unlike the situation (A) above, the user can operate the controller to place the tip of the robot hand on the object 20 . In this way, by arranging the first right-eye image 22a and the first left-eye image 22b so that the points corresponding to infinity overlap, an object displayed in the first stereo image (for example, the object 20 ) and the three-dimensional object can be easily adjusted. That is, an object displayed as a stereo image and a three-dimensional object can be superimposed. This is because the point on the first right-eye image 22a corresponding to infinity and the point on the first left-eye image 22b corresponding to infinity overlap, so the position corresponding to infinity is This is because the three-dimensional object can be placed anywhere from the closest point to the point of view to infinity by placing the three-dimensional object at any point within the range from the point of view to the image. .

次に、第1のステレオ画像が、光軸が交わるように配置された一対のカメラによって撮影される場合について説明する。例えば、手術支援ロボットであるダ・ビンチを用いてステレオ画像を撮影する場合には、光軸が交わるように配置されていることがある。この場合には、図7Aで示されるように、右目用撮影位置からの矢印で示される撮影方向(すなわち、カメラの光軸)と、左目用撮影位置からの矢印で示される撮影方向とが視線の前方側(すなわち、カメラの前方側)において交わることになる。このように撮影される右目用画像と左目用画像との無限遠に対応する位置は、図中の点α1、及び点β1となる。それらの点は、撮影方向とのなす角度が等しくなるように、右目用撮影位置及び左目用撮影位置から延びる平行な2直線と、右目用画像及び左目用画像との交点である。なお、右目側の状況と、左目側の状況とは対照になっているため、右目用画像において点α1を特定することができれば、左目用画像において点β1を特定することもできるようになる。したがって、以下、右目用画像における点α1の位置の特定について説明する。 Next, a case where the first stereo image is captured by a pair of cameras arranged so that their optical axes intersect will be described. For example, when stereo images are captured using a surgical assistance robot, da Vinci, the optical axes are sometimes arranged so as to cross each other. In this case, as shown in FIG. 7A, the imaging direction indicated by the arrow from the right-eye imaging position (that is, the optical axis of the camera) and the imaging direction indicated by the arrow from the left-eye imaging position are the lines of sight. will intersect on the front side of (that is, the front side of the camera). The positions corresponding to infinity between the right-eye image and the left-eye image photographed in this manner are points α1 and β1 in the figure. These points are the intersections of two parallel straight lines extending from the right-eye imaging position and the left-eye imaging position and the right-eye image and the left-eye image so that the angles formed with the imaging direction are equal. Since the situation on the right-eye side and the situation on the left-eye side are in contrast, if the point α1 can be specified in the right-eye image, the point β1 can also be specified in the left-eye image. Therefore, the identification of the position of the point α1 in the image for the right eye will be described below.

図7Bで示されるように、撮影方向と右目用画像との交点から点α1までの距離をXとし、右目用撮影位置から撮影画像までの距離をLとし、右目用画像の水平方向の長さをUとし、水平方向の画角をφとし、撮影方向と、右目用撮影位置と点α1とを結ぶ直線とのなす角度をθとすると、次式が得られる。
tan(φ/2)=U/(2L)
tanθ=X/L
As shown in FIG. 7B, let X be the distance from the intersection of the shooting direction and the right-eye image to point α1, let L be the distance from the right-eye shooting position to the shot image, and let L be the horizontal length of the right-eye image. is U, the angle of view in the horizontal direction is φ, and the angle between the photographing direction and the straight line connecting the photographing position for the right eye and the point α1 is θ, the following equation is obtained.
tan(φ/2)=U/(2L)
tan θ=X/L

したがって、Xは、次式のようになる。
X=U×tanθ/(2tan(φ/2))
Therefore, X becomes as follows.
X=U×tan θ/(2 tan (φ/2))

ここで、φは、撮影で用いるカメラによって決まるため既知である。また、2θが、図7Aにおける右目側及び左目側の視線方向のなす角度であるため、θも既知である。したがって、図7Aのように撮影された第1の右目用画像22a及び第1の左目用画像22bを、無限遠に対応する点が重なるように配置する際には、その画像の水平方向の幅であるUと、θ及びφを用いて上記のようにXを算出し、第1の右目用画像22aにおいて、中心から水平方向にXだけ離れた点α1と、第1の左目用画像22bにおいて、中心から水平方向にXだけ離れた点β1とが重なるように両画像を配置すればよいことになる。なお、3次元仮想空間に第1の右目用画像22a及び第1の左目用画像22bを配置する際には、図7Bにおける右目用撮影位置が右目用視点となるようにしてもよい。すなわち、3次元仮想空間に配置された右目用視点及び左目用視点からの距離がLとなる平面上に、点α1と点β1とが重なるように第1の右目用画像22a及び第1の左目用画像22bを配置してもよい。ここで、Lは、上式から、L=U/(2tan(φ/2))となる。また、第1の右目用画像22a及び第1の左目用画像22bは、右目用視点23a及び左目用視点23bを結ぶ線分の中点をとおり、その線分に垂直な平面に対して、対称になるように配置されることが好適である。すなわち、図6Aのように配置された画像を正面側から見た場合に、第1の右目用画像22aを、画像を含む平面内においてXだけ左側に移動させ、第1の左目用画像22bを、画像を含む平面内においてXだけ右側に移動させればよいことになる。その結果、図6Cで示されるように、第1の右目用画像22a及び第1の左目用画像22bが配置されることになる。なお、図6Cでは、説明の便宜上、第1の右目用画像22a及び第1の左目用画像22bをずらして表示しているが、実際には、第1の右目用画像22a及び第1の左目用画像22bは同一平面上に存在している。この場合にも、視線方向は、それぞれ対応する画像の中心を向くように設定される。このように、第1のステレオ画像が、光軸が交わるように配置された一対のカメラによって撮影される場合であっても、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像を配置することができ、その結果、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係を容易に調整することができるようになる。 Here, φ is known because it is determined by the camera used for photographing. θ is also known because 2θ is the angle formed by the line-of-sight directions of the right eye side and the left eye side in FIG. 7A. Therefore, when arranging the first right-eye image 22a and the first left-eye image 22b photographed as shown in FIG. 7A so that points corresponding to infinity overlap, the horizontal width of the images and θ and φ are used to calculate X as described above. , and the point β1, which is horizontally away from the center by X, should be placed on top of each other. When arranging the first right-eye image 22a and the first left-eye image 22b in the three-dimensional virtual space, the right-eye imaging position in FIG. 7B may be the right-eye viewpoint. That is, the first right-eye image 22a and the first left-eye image 22a are placed on a plane at a distance L from the right-eye viewpoint and the left-eye viewpoint arranged in the three-dimensional virtual space so that the points α1 and β1 overlap each other. You may arrange|position the image 22b for. Here, L is L=U/(2tan(φ/2)) from the above equation. In addition, the first right-eye image 22a and the first left-eye image 22b pass through the midpoint of the line segment connecting the right-eye viewpoint 23a and the left-eye viewpoint 23b, and are symmetrical about a plane perpendicular to the line segment. is preferably arranged so that That is, when the images arranged as shown in FIG. 6A are viewed from the front side, the first right-eye image 22a is moved to the left by X in the plane including the images, and the first left-eye image 22b is moved to the left. , to the right by X in the plane containing the image. As a result, the first right-eye image 22a and the first left-eye image 22b are arranged as shown in FIG. 6C. In addition, in FIG. 6C, for convenience of explanation, the first right-eye image 22a and the first left-eye image 22b are shifted and displayed. image 22b exists on the same plane. Also in this case, the line-of-sight direction is set so as to face the center of each corresponding image. In this way, even when the first stereo image is captured by a pair of cameras arranged so that their optical axes intersect, the first right-eye image and The first left-eye image can be arranged, and as a result, the positional relationship between the object included in the first stereo image and the three-dimensional object can be easily adjusted.

以上のように、本実施の形態による画像合成装置1、及び画像合成方法によれば、3次元仮想空間に第1のステレオ画像の有する第1の右目用画像及び第1の左目用画像と、3次元オブジェクトとを配置し、第1の右目用画像を表示している状態において新たな右目用画像を生成し、第1の左目用画像を表示している状態において新たな左目用画像を生成することによって、第1のステレオ画像と3次元オブジェクトとを合成した第2のステレオ画像を生成することができる。このようにして両者を合成することにより、ステレオ画像に含まれるオブジェクト、及び3次元オブジェクトの両方を立体的に表示することができる第2のステレオ画像を生成できることになる。また、3次元仮想空間において、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像を配置することによって、ステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係を適切に調整することができるようになる。例えば、ステレオ画像に含まれるオブジェクトに3次元オブジェクトを重ねて表示することができるようになる。また、3次元オブジェクトと、ステレオ画像に含まれるオブジェクトとを重ねる際に、3次元オブジェクトの一部がステレオ画像の背面側に位置することによって見えなくなる事態を回避することもできる。 As described above, according to the image synthesizing device 1 and the image synthesizing method according to the present embodiment, the first right-eye image and the first left-eye image included in the first stereo image in the three-dimensional virtual space, 3D objects are arranged, a new right-eye image is generated while the first right-eye image is displayed, and a new left-eye image is generated while the first left-eye image is displayed. By doing so, it is possible to generate a second stereo image by synthesizing the first stereo image and the three-dimensional object. By synthesizing the two in this way, it is possible to generate a second stereo image capable of stereoscopically displaying both the object included in the stereo image and the three-dimensional object. Also, by arranging the first right-eye image and the first left-eye image so that points corresponding to infinity overlap in the three-dimensional virtual space, the object included in the stereo image and the three-dimensional object It becomes possible to adjust the positional relationship appropriately. For example, it becomes possible to display a three-dimensional object superimposed on an object included in a stereo image. Also, when the 3D object and the object included in the stereo image are superimposed, it is possible to avoid a situation in which a part of the 3D object is positioned behind the stereo image and becomes invisible.

なお、本実施の形態では、第1及び第2のステレオ画像が動画像である場合について主に説明したが、そうでなくてもよい。第1及び第2のステレオ画像は静止画であってもよい。この場合には、静止画である第1のステレオ画像に、操作に応じて配置された3次元オブジェクトが合成された静止画である第2のステレオ画像が生成されることになる。 Note that, in the present embodiment, the case where the first and second stereo images are moving images has been mainly described, but this does not have to be the case. The first and second stereo images may be still images. In this case, the second stereo image, which is a still image, is generated by combining the first stereo image, which is a still image, with the three-dimensional object arranged according to the operation.

次に、本実施の形態による画像合成装置1の利用例について説明する。 Next, a usage example of the image synthesizing device 1 according to the present embodiment will be described.

第1のステレオ画像は、熟練者の動作を撮影した動画像であり、3次元オブジェクトは、熟練者が用いている器具等に相当するものであり、その3次元オブジェクトを操作するユーザは、熟練者の動作を真似る初心者であってもよい。この場合には、熟練者の動作を示す第1のステレオ画像に、初心者が操作する3次元オブジェクトを合成した第2のステレオ画像が生成されることになる。より具体的には、熟練者の動作は、手術の動作であってもよく、スポーツにおけるプレーの動作や、楽器の演奏などにおける動作であってもよい。また、3次元オブジェクトは、例えば、手術で用いられる鉗子などの器具や、スポーツで用いられる野球のバット、ゴルフのクラブ、テニスやバドミントン、卓球のラケット等の器具、音楽の演奏で用いる楽器などであってもよい。このようにして、初心者が熟練者の動作を真似ることができ、手術やスポーツのプレー、楽器の演奏などについて練習できるようになる。この場合には、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a moving image obtained by photographing the action of an expert, the three-dimensional object corresponds to an instrument or the like used by the expert, and the user operating the three-dimensional object is an expert. It may be a beginner who imitates the movement of the person. In this case, a second stereo image is generated by synthesizing the three-dimensional object operated by the beginner with the first stereo image showing the action of the expert. More specifically, the expert's motion may be a surgical motion, a motion for playing a sport, or a motion for playing a musical instrument. Three-dimensional objects are, for example, instruments such as forceps used in surgery, instruments such as baseball bats, golf clubs, tennis rackets, badminton rackets, and table tennis rackets used in sports, and musical instruments used in music performances. There may be. In this way, a novice can imitate the actions of an expert and practice surgery, playing sports, playing a musical instrument, and the like. In this case, it is considered important to superimpose the three-dimensional object on the object included in the first stereo image. Preferably a synthesis is performed.

第1のステレオ画像は、俳優や女優、歌手など人間の動画像であり、3次元オブジェクトは、ユーザの手などであり、ユーザが3次元オブジェクトである手などを操作することによって、仮想空間上で俳優などと握手をできるようになっていてもよい。この場合には、第2のステレオ画像は、俳優などの人間と、ユーザが操作する3次元オブジェクトである手などとを合成したものとなる。このようにして、ユーザは、例えば、有名人と握手をすることができるようになる。この場合にも、第1のステレオ画像に含まれる有名人等の手の位置に、ユーザの手に相当する3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a moving image of a person such as an actor, an actress, or a singer, and the three-dimensional object is a user's hand or the like. You may be able to shake hands with an actor or the like. In this case, the second stereo image is a combination of a person such as an actor and a three-dimensional object such as a hand operated by the user. In this way the user will be able to shake hands with a celebrity, for example. In this case as well, it is considered important to superimpose the three-dimensional object corresponding to the hand of the user on the position of the hand of a celebrity or the like included in the first stereo image. Preferably, a synthesis is performed between the first stereo image and the three-dimensional object.

第1のステレオ画像は、建物の内部の撮影画像やCGなどの静止画であり、3次元オブジェクトは家具であり、ユーザが、その家具を操作することによって、家具の配置を変更し、建物の内部に配置された家具の状況を示す第2のステレオ画像が生成されてもよい。ユーザは、この第2のステレオ画像によって、家具の配置後の状況を立体的に見ることができるようになる。この場合にも、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a photographed image of the interior of the building or a still image such as CG, and the three-dimensional object is furniture. A second stereo image may be generated showing the situation of the furniture placed inside. This second stereo image enables the user to stereoscopically see the situation after the furniture has been placed. In this case as well, it is considered important to superimpose the 3D object on the object included in the first stereo image. Preferably a synthesis is performed.

第1のステレオ画像は、工事現場や、修理現場などの実空間にいるユーザが装着しているステレオカメラによって撮影された動画像であり、3次元オブジェクトは、熟練者が第1のステレオ画像上の位置を示すポインタや、実空間で使用される器具に相当するオブジェクトであり、第2のステレオ画像は、実空間の第1のステレオ画像に、3次元オブジェクトが合成されたものであってもよい。その第2のステレオ画像を、熟練者及び実空間にいるユーザが見てもよい。熟練者は、3次元オブジェクトを操作することによって、実空間のユーザに指示を出したり、実空間のユーザが実行すべきことを、3次元オブジェクトを用いて実演したりすることができる。また、実空間にいるユーザは、熟練者によって操作された3次元オブジェクトを含む第2のステレオ画像を見て、作業を行うことによって、実空間において適切な作業を行うことができるようになる。この場合には、画像合成装置1は、第1のステレオ画像をリアルタイムで受け付け、第2のステレオ画像をリアルタイムで出力してもよい。この場合にも、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねられることが重要であると考えられるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 The first stereo image is a moving image captured by a stereo camera worn by a user in a real space such as a construction site or a repair site. A pointer indicating the position of or an object corresponding to an instrument used in the real space, and the second stereo image is a three-dimensional object synthesized with the first stereo image in the real space. good. The second stereo image may be viewed by experts and users in real space. By manipulating the three-dimensional object, the expert can give instructions to the user in the real space, or demonstrate what the user in the real space should do using the three-dimensional object. Also, the user in the real space can perform appropriate tasks in the real space by viewing the second stereo image including the three-dimensional object operated by the expert and performing the task. In this case, the image synthesizing device 1 may receive the first stereo image in real time and output the second stereo image in real time. In this case as well, it is considered important to superimpose the 3D object on the object included in the first stereo image. Preferably a synthesis is performed.

なお、ここではいくつかの利用例について示したが、第1のステレオ画像と3次元オブジェクトとを合成する他の例について画像合成装置1を利用できることは明らかであり、上記以外の状況で画像合成装置1が利用されてもよいことは言うまでもない。 Although some usage examples have been shown here, it is obvious that the image synthesizing apparatus 1 can be used for other examples of synthesizing the first stereo image and the three-dimensional object, and the image synthesizing apparatus 1 can be used in situations other than the above. It goes without saying that the device 1 may also be used.

また、画像合成装置1では、第1のステレオ画像に含まれるオブジェクトと、受付部12によって受け付けられる操作に応じて配置される3次元オブジェクトとの位置関係に関する判定を行ってもよい。位置関係に関する判定は、例えば、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとが当たっているかどうかを判定する当たり判定であってもよく、両者が重なっているかどうかを判定する重なり判定であってもよく、両者の位置関係に関するその他の判定であってもよい。この場合には、画像合成装置1は、図9で示されるように、判定部16をさらに備えてもよい。また、この場合には、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係の調整が重要になるため、上記(B)のように第1のステレオ画像と3次元オブジェクトとの合成が行われることが好適である。 Further, the image synthesizing device 1 may determine the positional relationship between the object included in the first stereo image and the three-dimensional object arranged according to the operation received by the receiving unit 12 . The determination regarding the positional relationship may be, for example, a collision determination that determines whether the object included in the first stereo image and the three-dimensional object are in contact, or an overlap determination that determines whether the two overlap. or other determinations relating to the positional relationship between the two. In this case, the image synthesizing device 1 may further include a determining section 16 as shown in FIG. Also, in this case, it is important to adjust the positional relationship between the object included in the first stereo image and the three-dimensional object. is preferably performed.

判定部16は、3次元仮想空間に配置された第1の右目用画像及び第1の左目用画像から、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置を特定する。この位置の特定は、例えば、第1の右目用画像及び第1の左目用画像の対応点を特定し、3次元仮想空間における対応点の位置と、右目用視点及び左目用視点の位置とを用いて行われてもよい。例えば、第1の右目用画像及び第1の左目用画像の一対の対応点に相当する3次元仮想空間における位置は、3次元仮想空間において、第1の右目用画像の対応点と右目用視点とを結ぶ直線と、第1の左目用画像の対応点と左目用視点とを結ぶ直線との交点の位置となってもよい。なお、誤差等によって両直線が交わらない場合には、両直線間の距離が最も近くなる両直線上の位置の中点を、第1の右目用画像及び第1の左目用画像の一対の対応点に相当する3次元仮想空間における位置としてもよい。なお、このように、ステレオ画像上の対応点に相当する3次元空間上の点を特定する処理はすでに公知であり、その詳細な説明を省略する。判定部16は、このような処理を第1のステレオ画像の各対応点について行うことによって、第1の右目用画像及び第1の左目用画像に含まれる各ピクセルに相当する3次元仮想空間における位置を特定することができる。なお、このようにして特定された位置は、通常、3次元仮想空間において面を構成することになる。ステレオ画像では、背面側の構造まではわからないからである。また、判定部16は、第1のステレオ画像において輪郭抽出等を行うことによって画像に含まれるオブジェクトを特定し、特定したオブジェクトごとに位置の特定を行ってもよい。 The determination unit 16 identifies the position in the three-dimensional virtual space of the object included in the first stereo image from the first right-eye image and the first left-eye image arranged in the three-dimensional virtual space. This position identification is, for example, identifying the corresponding points of the first right-eye image and the first left-eye image, and determining the positions of the corresponding points in the three-dimensional virtual space and the positions of the right-eye viewpoint and the left-eye viewpoint. may be performed using For example, the position in the three-dimensional virtual space corresponding to the pair of corresponding points of the first right-eye image and the first left-eye image is the same as the corresponding point of the first right-eye image and the right-eye viewpoint in the three-dimensional virtual space. and a straight line connecting the corresponding point of the first left-eye image and the left-eye viewpoint. If the two straight lines do not intersect due to an error or the like, the midpoint of the position on the two straight lines where the distance between the two straight lines is the shortest is the corresponding pair of the first right-eye image and the first left-eye image. It may be a position in a three-dimensional virtual space corresponding to a point. It should be noted that the process of specifying the points in the three-dimensional space corresponding to the corresponding points on the stereo image in this manner is already known, and detailed description thereof will be omitted. By performing such a process on each corresponding point of the first stereo image, the determination unit 16 determines the corresponding points in the three-dimensional virtual space corresponding to each pixel included in the first right-eye image and the first left-eye image. can be located. Note that the positions specified in this way usually form a plane in the three-dimensional virtual space. This is because stereo images do not show the structure on the back side. Alternatively, the determining unit 16 may identify objects included in the image by performing contour extraction or the like on the first stereo image, and identify the position of each identified object.

第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置を特定すると、判定部16は、その特定した位置と、3次元仮想空間における3次元オブジェクトの位置との関係に関する判定を行う。この判定は、当たり判定、及び、重なり判定の少なくとも一方であってもよい。判定部16は、例えば、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置によって構成される面と、3次元仮想空間における3次元オブジェクトの少なくとも一部とが重なっている場合に、両者が当たっていると判定してもよい。また、判定部16は、例えば、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置によって構成される少なくとも一部の面と、3次元仮想空間における3次元オブジェクトの少なくとも一部の面とが重なっている場合に、両者が重なっていると判定してもよい。この場合には、例えば、重なりの程度を示す指標が取得されてもよい。その指標は、例えば、第1のステレオ画像に含まれるオブジェクトの3次元仮想空間における位置によって構成される面と、3次元仮想空間における3次元オブジェクトの面との重なりが最も多くなった場合の重なりを100%とした、重なりの程度を示す指標であってもよい。 After identifying the position in the three-dimensional virtual space of the object included in the first stereo image, the determination unit 16 determines the relationship between the identified position and the position of the three-dimensional object in the three-dimensional virtual space. This determination may be at least one of hit determination and overlap determination. For example, when a plane formed by the position of an object included in the first stereo image in the three-dimensional virtual space and at least part of the three-dimensional object in the three-dimensional virtual space overlap, It may be determined that both are hit. Further, the determining unit 16 may determine, for example, at least a partial surface formed by the position of the object in the three-dimensional virtual space included in the first stereo image and at least a partial surface of the three-dimensional object in the three-dimensional virtual space. and overlap, it may be determined that both overlap. In this case, for example, an index indicating the degree of overlap may be obtained. The index is, for example, the maximum overlap between the plane formed by the position of the object in the three-dimensional virtual space included in the first stereo image and the plane of the three-dimensional object in the three-dimensional virtual space. is 100%, and may be an index indicating the degree of overlap.

出力部15は、第1のステレオ画像に含まれるオブジェクトと、3次元オブジェクトとの位置関係に関する判定部16による判定結果に関する出力をも行ってもよい。その出力は、例えば、当たり判定の結果や、重なり判定の結果の出力であってもよく、当たり判定の結果によって両者が当たっていることが示される場合に、両者が当たっていることを示す出力であってもよく、重なり判定の結果によって両者が重なっていることが示される場合に、両者が重なっていることを示す出力や、その重なりの程度を示す指標の出力であってもよい。より具体的には、出力部15は、第2のステレオ画像に、判定結果に応じた表示を重畳して出力してもよく、判定結果に応じて、ユーザが操作しているコントローラを振動させてもよく、判定結果に応じた音を出力してもよく、判定結果に応じたその他の出力を行ってもよい。例えば、図6Bで示されるようにユーザが3次元オブジェクトであるロボットアームを操作しており、そのロボットアームが、第1のステレオ画像に含まれる円錐形状のオブジェクトに当たった時に、両者が当たったことを示す表示(例えば、画面全体の点滅等)や、両者が当たったことを示す振動出力や音出力が行われてもよい。また、例えば、図8A,図8Bで示されるようにユーザが3次元オブジェクトである鉗子を操作しており、その鉗子が、模擬手術の映像である第1のステレオ画像に含まれる鉗子に重なった時に、両者が重なったことを示す表示(例えば、重なったこと示す図形の表示等)や、両者の重なりの程度を示す指標の出力が行われてもよい。このように、第1のステレオ画像に含まれるオブジェクトの位置と、3次元オブジェクトの位置との関係に関する判定が行われることによって、3次元オブジェクトを操作しているユーザは、例えば、3次元オブジェクトの位置を確認することができ、3次元オブジェクトを適切に操作できているかどうかを知ることができるようになる。 The output unit 15 may also output the determination result of the determination unit 16 regarding the positional relationship between the object included in the first stereo image and the three-dimensional object. The output may be, for example, the result of collision judgment or the result of overlap judgment. If the result of collision judgment indicates that both are in collision, an output indicating that both are in collision. Alternatively, if the result of the overlap determination indicates that the two overlap, the output may be an output indicating that the two overlap or an index indicating the degree of overlap. More specifically, the output unit 15 may superimpose a display corresponding to the determination result on the second stereo image and output it, and vibrate the controller operated by the user according to the determination result. Alternatively, a sound may be output according to the determination result, or other output may be performed according to the determination result. For example, as shown in FIG. 6B, the user is operating a robot arm that is a three-dimensional object, and when the robot arm hits the cone-shaped object included in the first stereo image, both hit A display (for example, blinking of the entire screen, etc.), or a vibration output or a sound output indicating that the two have hit each other may be performed. Also, for example, as shown in FIGS. 8A and 8B, the user is operating a forceps that is a three-dimensional object, and the forceps overlaps the forceps included in the first stereo image that is the video of the simulated surgery. Sometimes, display indicating that the two overlap each other (for example, display of a graphic indicating that they overlap) or an index indicating the degree of overlap between the two may be output. In this way, by determining the relationship between the position of the object included in the first stereo image and the position of the three-dimensional object, the user operating the three-dimensional object can, for example, It will be possible to check the position and know whether the three-dimensional object is properly manipulated.

なお、上記(B)では、3次元仮想空間において、無限遠に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置する場合について説明したが、そうでなくてもよい。例えば、3次元オブジェクトが視点から所定の距離だけ離れた位置より手前側(すなわち、視点側)に存在する場合には、第1の右目用画像22a及び第1の左目用画像22bは、3次元仮想空間において、その所定の距離に対応する点が重なるように配置されてもよい。例えば、図10において、破線で示される第1の右目用画像22a-1及び第1の左目用画像22b-1が、無限遠に対応する点が重なるように3次元仮想空間に配置されているとすると、図10の第1の右目用画像22a-2及び第1の左目用画像22b-2で示されるように、第1の右目用画像22a-1及び第1の左目用画像22b-1がそれらの面方向にそれぞれ矢印で示される方向に同じ距離だけ移動されて配置されてもよい。より具体的には、第1の右目用画像22a-2は、第1の右目用画像22a-1から右側に移動され、第1の左目用画像22b-2は、第1の左目用画像22b-1から左側に移動されてもよい。そして、第1の左目用画像22b-2及び第1の左目用画像22b-2では、視点23a,23bからNメートル離れた位置に対応する点が重なるように3次元仮想空間に配置されているものとする。ここで、Nは、正の実数である。また、図10でも、視線方向が水平面内に存在しており、鉛直方向から見た状況を示しているものとする。図11、図12も同様であるとする。また、配置される位置ごとに第1の右目用画像22a-1,22a-2などのように異なる符号を用いているが、特に位置を区別しない場合には、第1の右目用画像22aと呼ぶこともある。第1の左目用画像22bについても同様である。 In (B) above, the case where the first right-eye image 22a and the first left-eye image 22b are arranged so that the points corresponding to infinity overlap in the three-dimensional virtual space has been described. It doesn't have to be. For example, when a three-dimensional object exists on the near side (that is, on the viewpoint side) of a position a predetermined distance away from the viewpoint, the first right-eye image 22a and the first left-eye image 22b are three-dimensional objects. In the virtual space, points corresponding to the predetermined distance may be arranged so as to overlap. For example, in FIG. 10, a first right-eye image 22a-1 and a first left-eye image 22b-1 indicated by dashed lines are arranged in a three-dimensional virtual space so that points corresponding to infinity overlap. Then, as shown by the first right-eye image 22a-2 and the first left-eye image 22b-2 in FIG. 10, the first right-eye image 22a-1 and the first left-eye image 22b-1 may be displaced by the same distance in the directions indicated by the arrows respectively in their plane directions. More specifically, the first right eye image 22a-2 is shifted to the right from the first right eye image 22a-1, and the first left eye image 22b-2 is shifted to the first left eye image 22b. It may be moved left from -1. The first left-eye image 22b-2 and the first left-eye image 22b-2 are arranged in the three-dimensional virtual space so that points corresponding to positions N meters away from the viewpoints 23a and 23b overlap. shall be where N is a positive real number. Also, in FIG. 10, it is assumed that the line-of-sight direction exists in the horizontal plane and the situation seen from the vertical direction is shown. 11 and 12 are assumed to be the same. Also, although different codes are used for each position, such as the first right-eye images 22a-1 and 22a-2, if the positions are not particularly distinguished, the first right-eye image 22a and the first right-eye image 22a are used. sometimes called. The same is true for the first left-eye image 22b.

なお、視点23a,23bからNメートル離れた位置に対応する点が重なるように第1のステレオ画像を配置するとは、例えば、第1のステレオ画像の撮影時にカメラからNメートル先に存在する物体が重なるように、第1の左目用画像22b-2及び第1の左目用画像22b-2が配置されることであってもよい。なお、第1の右目用画像22a及び第1の左目用画像22bにおけるNメートル離れた位置に対応する点は、例えば、視差、ステレオカメラの焦点距離、ステレオカメラのカメラ間の距離を用いて特定されてもよい。その距離は、例えば、視点23a,23bを結ぶ直線との距離であってもよい。また、Nメートルは、例えば、ユーザによって指定されてもよい。例えば、受付部12によって、Nメートルを示す情報が受け付けられ、それに応じて、3次元仮想空間において、Nメートル離れた位置に対応する点が重なるように第1のステレオ画像が配置されておよい。この配置は、例えば、配置部13によって行われてもよい。この場合に、第1の右目用画像22a及び第1の左目用画像22bにおけるNメートルだけ離れた位置に対応する点は、例えば、視差や、焦点距離、視点間の距離を用いて特定されてもよく、その他の方法によって特定されてもよい。また、例えば、距離と、その距離だけ離れた位置に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置する際の両画像の重なりの程度とを対応付ける情報が記憶部11で記憶されている場合には、その情報を用いて、Nメートルに対応する両画像の重なりの程度を取得し、その重なりの程度となるように第1の右目用画像22a及び第1の左目用画像22bが重なるように配置されてもよい。また、図10において、第1の右目用画像22a及び第1の左目用画像22bのそれぞれにおいて、無限遠に対応する点(すなわち、画像の中心点)の位置を、黒丸で示している。また、本来、第1の左目用画像22b-2及び第1の左目用画像22b-2は同一平面上(すなわち、図中では同一直線上)に存在するが、説明のため両者を上下に少しずらしている。これらのことは、図11、図12においても同様であるとする。 Arranging the first stereo image so that points corresponding to positions N meters away from the viewpoints 23a and 23b are superimposed means, for example, that when the first stereo image is captured, an object existing N meters ahead of the camera is The first left-eye image 22b-2 and the first left-eye image 22b-2 may be arranged so as to overlap each other. Note that the points corresponding to the positions separated by N meters in the first right-eye image 22a and the first left-eye image 22b are specified using, for example, the parallax, the focal length of the stereo camera, and the distance between the stereo cameras. may be The distance may be, for example, the distance from a straight line connecting the viewpoints 23a and 23b. N meters may also be specified by the user, for example. For example, information indicating N meters may be received by the receiving unit 12, and the first stereo image may be arranged such that points corresponding to positions separated by N meters overlap accordingly in the three-dimensional virtual space. . This placement may be performed by the placement unit 13, for example. In this case, the points corresponding to the positions separated by N meters in the first right-eye image 22a and the first left-eye image 22b are specified using, for example, parallax, focal length, and distance between viewpoints. may be identified by other methods. Also, for example, the distance is associated with the degree of overlap between the first right-eye image 22a and the first left-eye image 22b when arranging the first right-eye image 22a and the first left-eye image 22b so that points corresponding to positions separated by the distance overlap. When the information is stored in the storage unit 11, the degree of overlap between the two images corresponding to N meters is acquired using the information, and the first right-eye image 22a is adjusted so as to achieve the degree of overlap. and the first left-eye image 22b may be arranged so as to overlap each other. Further, in FIG. 10, the positions of the points corresponding to infinity (that is, the center points of the images) are indicated by black circles in each of the first right-eye image 22a and the first left-eye image 22b. Originally, the first left-eye image 22b-2 and the first left-eye image 22b-2 exist on the same plane (that is, on the same straight line in the figure), but for the sake of explanation, they are moved slightly vertically. staggered. These things are assumed to be the same in FIGS. 11 and 12 as well.

図10で示される第1の右目用画像22a-2及び第1の左目用画像22b-2のように第1のステレオ画像が配置された場合には、3次元仮想空間において、第1のステレオ画像に含まれる、視点からNメートルまでのオブジェクトはすべて、第1の左目用画像22b-2及び第1の左目用画像22b-2の手前側において立体的に見えることになる。したがって、第1のステレオ画像に含まれるNメートルまでの距離のオブジェクトを、3次元オブジェクトで触ろうとする場合にも、3次元オブジェクトの少なくとも一部が第1のステレオ画像の奥側に位置して見えなくなる事態を回避することができる。このように、3次元仮想空間において、無限遠に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置することに代えて、所定の距離に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置するようにしてもよい。 When the first stereo images are arranged like the first right-eye image 22a-2 and the first left-eye image 22b-2 shown in FIG. All objects within N meters from the viewpoint, which are included in the images, will appear stereoscopically in the first left-eye image 22b-2 and in front of the first left-eye image 22b-2. Therefore, even when a three-dimensional object attempts to touch an object at a distance of up to N meters contained in the first stereo image, at least a part of the three-dimensional object is located on the far side of the first stereo image. You can avoid invisible situations. Thus, in the three-dimensional virtual space, instead of arranging the first right-eye image 22a and the first left-eye image 22b so that points corresponding to infinity overlap, points corresponding to a predetermined distance The first image for the right eye 22a and the first image for the left eye 22b may be arranged so that they overlap each other.

また、図11で示されるように、第1の右目用画像22a-2,22a-3,22a-4はそれぞれ、右目用視点23aからの画角が変わらないように配置されている。なお、図11から明らかなように、視点を基準としてより奥側に配置される第1の右目用画像22a-3は、手前側に配置される第1の右目用画像22a-2よりも大きい画像であり、また、奥側に配置される第1の右目用画像22a-4は、手前側に配置される第1の右目用画像22a-3よりも大きい画像である。なお、各画像は、縦横比が変わらないように、大きさが変化されることが好適である。第1の左目用画像22b-2,22b-3,22b-4についても同様であるとする。また、図11では、視点23a,23bと、各画像の無限遠に対応する点とを結ぶ直線26a,26bを一点鎖線で示している。そして、第1の右目用画像22a-2及び第1の左目用画像22b-2では所定の距離(例えば、Nメートル)に対応する点が重なっており、第1の右目用画像22a-3及び第1の左目用画像22b-3では無限遠に対応する点が重なっており、第1の右目用画像22a-4及び第1の左目用画像22b-4では重なる点は存在しないことになる。このように、右目用視点23aと第1の右目用画像22aの無限遠に対応する点とを結ぶ第1の直線26aと、左目用視点23bと第1の左目用画像22bの無限遠に対応する点とを結ぶ第2の直線26bとが交わるように、3次元仮想空間において第1の右目用画像22a及び第1の左目用画像22bが配置されている場合には、3次元仮想空間において、無限遠に対応する点または所定の距離に対応する点が重なるように第1の右目用画像22a及び第1の左目用画像22bを配置することと同じ状況を、それらとは異なる第1の右目用画像22a及び第1の左目用画像22bの配置によって実現することもできるようになる。したがって、第1の直線26aと第2の直線26bとが交わるように、3次元仮想空間において第1の右目用画像22a及び第1の左目用画像22bが配置されてもよい。この場合であっても、例えば、第1のステレオ画像に含まれるオブジェクトであって、受付部12によって受け付けられる操作に応じて配置される3次元オブジェクトによって触れられたり、重ねられたりするオブジェクトが、第1の右目用画像22a及び第1の左目用画像22bよりも手前側において立体的に表示されるように、第1の右目用画像22a及び第1の左目用画像22bが3次元仮想空間において配置されることが好適である。例えば、3次元オブジェクトによって触れられたり、重ねられたりするオブジェクトまでの距離がNメートル未満である場合には、3次元仮想空間において、Nメートルに対応する点、または、Nメートルを超える距離に対応する点が重なるように、第1のステレオ画像が配置されてもよく、または、第1の右目用画像22a-4及び第1の左目用画像22b-4のように、第1及び第2の直線26a,26bの交点よりも奥側(すなわち、視点から遠い側)に第1のステレオ画像が配置されてもよい。 Also, as shown in FIG. 11, the first right-eye images 22a-2, 22a-3, and 22a-4 are arranged so that the angles of view from the right-eye viewpoint 23a do not change. Note that, as is clear from FIG. 11, the first right-eye image 22a-3 arranged on the far side with respect to the viewpoint is larger than the first right-eye image 22a-2 arranged on the front side. The first right-eye image 22a-4, which is an image and is arranged on the back side, is an image larger than the first right-eye image 22a-3, which is arranged on the front side. In addition, it is preferable that the size of each image is changed so that the aspect ratio is not changed. The same applies to the first left-eye images 22b-2, 22b-3, and 22b-4. Further, in FIG. 11, straight lines 26a and 26b connecting the viewpoints 23a and 23b and points corresponding to infinity in each image are indicated by dashed-dotted lines. The first right-eye image 22a-2 and the first left-eye image 22b-2 overlap at points corresponding to a predetermined distance (for example, N meters), and the first right-eye image 22a-3 and the first left-eye image 22b-2 overlap each other. In the first left-eye image 22b-3, the points corresponding to infinity overlap, and in the first right-eye image 22a-4 and the first left-eye image 22b-4, there is no overlapping point. In this way, a first straight line 26a connecting the right-eye viewpoint 23a and a point corresponding to infinity on the first right-eye image 22a and a line corresponding to the left-eye viewpoint 23b and infinity on the first left-eye image 22b. In the three-dimensional virtual space, when the first right-eye image 22a and the first left-eye image 22b are arranged in the three-dimensional virtual space so that the second straight line 26b connecting the two points intersects , arranging the first right-eye image 22a and the first left-eye image 22b so that the point corresponding to infinity or the point corresponding to the predetermined distance overlaps the same situation as the first It can also be realized by arranging the right-eye image 22a and the first left-eye image 22b. Therefore, the first right-eye image 22a and the first left-eye image 22b may be arranged in the three-dimensional virtual space such that the first straight line 26a and the second straight line 26b intersect. Even in this case, for example, an object that is included in the first stereo image and that is touched or superimposed by a three-dimensional object arranged according to an operation received by the receiving unit 12 is The first right-eye image 22a and the first left-eye image 22b are displayed in three-dimensional virtual space so as to be stereoscopically displayed in front of the first right-eye image 22a and the first left-eye image 22b. is preferably arranged. For example, if the distance to an object that is touched or superimposed by a three-dimensional object is less than N meters, the point corresponding to N meters in the three-dimensional virtual space, or the distance exceeding N meters The first stereo image may be arranged such that the points overlap, or the first and second stereo images may be arranged such that the first right eye image 22a-4 and the first left eye image 22b-4. The first stereo image may be arranged on the far side (that is, on the far side from the viewpoint) of the intersection of the straight lines 26a and 26b.

次に、第1の右目用画像22a及び第1の左目用画像22bを、面方向に移動させた場合の効果について説明する。図12において、第1の右目用画像22a-2及び第1の左目用画像22b-2と、それらをそれぞれ右向きの矢印の方向及び左向きの矢印の方向に同じ距離だけ移動させた第1の右目用画像22a-5及び第1の左目用画像22b-5とを示している。第1の右目用画像22a-2及び第1の左目用画像22b-2の無限遠に対応する点と、視点23a,23bとをそれぞれ結ぶ直線26a,26bの交点は点31aとなり、第1の右目用画像22a-5及び第1の左目用画像22b-5の無限遠に対応する点と、視点23a,23bとそれぞれを結ぶ直線26a,26bの交点は点31bとなる。点31a,31bは、それぞれ3次元仮想空間に配置された第1の右目用画像22a-2及び第1の左目用画像22b-2に対応する無限遠の位置、及び第1の右目用画像22a-5及び第1の左目用画像22b-5に対応する無限遠の位置となる。したがって、第1の右目用画像22a-2及び第1の左目用画像22b-2のように第1のステレオ画像が配置された際には、ユーザには、視点23a,23bと点31aとの間に、第1のステレオ画像に含まれるすべてのオブジェクトが存在するように見えることになる。また、第1の右目用画像22a-5及び第1の左目用画像22b-5のように第1のステレオ画像が配置された際には、ユーザには、視点23a,23bと点31bとの間に、第1のステレオ画像に含まれるすべてのオブジェクトが存在するように見えることになる。したがって、第1の右目用画像22a及び第1の左目用画像22bを重なりが減る方向にまたは両画像が離れる方向に移動させることによって、第1のステレオ画像に含まれるオブジェクトの表示範囲の奥行きがより長くなることになる。一方、第1の右目用画像22a及び第1の左目用画像22bを重なりが増える方向にまたは両画像が近づく方向に移動させることによって、第1のステレオ画像に含まれるオブジェクトの表示範囲の奥行きがより短くなることになる。そのため、例えば、第1のステレオ画像に含まれるいろいろなオブジェクトに、操作対象の3次元オブジェクトを重ねたい場合などには、第1のステレオ画像に含まれるオブジェクトの表示範囲の奥行きがより短くなるように第1の右目用画像22a及び第1の左目用画像22bを配置してもよい。このような配置により、第1のステレオ画像に含まれるいろいろなオブジェクトに3次元オブジェクトを重ねる際の3次元オブジェクトの移動量を少なくすることができる。例えば、受付部12は、視点23a,23bから、直線26a,26bの交点までの距離の変更を指示する情報を、ユーザから受け付けてもよい。そして、配置部13は、その受け付けられた情報に応じて、直線26a,26bの交点の位置が変更されるように、第1の右目用画像22a及び第1の左目用画像の配置を変更してもよい。このようにして、例えば、ユーザからの入力に応じて、第1のステレオ画像の奥行きを変更することもできるようになる。直線26a,26bが交わるように第1の右目用画像22a及び第1の左目用画像22bを配置することによって、このように第1のステレオ画像の奥行き感を調整することもできるようになる。 Next, the effect of moving the first right-eye image 22a and the first left-eye image 22b in the planar direction will be described. In FIG. 12, the first right-eye image 22a-2, the first left-eye image 22b-2, and the first right-eye image obtained by moving them by the same distance in the direction of the right-pointing arrow and the direction of the left-pointing arrow, respectively. 22a-5 and a first left-eye image 22b-5. A point 31a is the intersection of straight lines 26a and 26b connecting points corresponding to infinity in the first right-eye image 22a-2 and the first left-eye image 22b-2 and the viewpoints 23a and 23b. A point 31b is the intersection of straight lines 26a and 26b connecting points corresponding to infinity in the right-eye image 22a-5 and the first left-eye image 22b-5 and the viewpoints 23a and 23b. The points 31a and 31b are the positions at infinity corresponding to the first right-eye image 22a-2 and the first left-eye image 22b-2 respectively arranged in the three-dimensional virtual space, and the first right-eye image 22a -5 and the position of infinity corresponding to the first left-eye image 22b-5. Therefore, when the first stereo images are arranged like the first right-eye image 22a-2 and the first left-eye image 22b-2, the user can see the difference between the viewpoints 23a and 23b and the point 31a. In between, all objects contained in the first stereo image will appear to be present. Further, when the first stereo images are arranged like the first right-eye image 22a-5 and the first left-eye image 22b-5, the user will not be able to see the difference between the viewpoints 23a and 23b and the point 31b. In between, all objects contained in the first stereo image will appear to be present. Therefore, by moving the first right-eye image 22a and the first left-eye image 22b in a direction in which the overlap is reduced or in a direction in which both images are separated, the depth of the display range of the object included in the first stereo image is increased. will be longer. On the other hand, by moving the first right-eye image 22a and the first left-eye image 22b in a direction in which the overlap increases or in a direction in which both images approach each other, the depth of the display range of the object included in the first stereo image is increased. will be shorter. Therefore, for example, when it is desired to superimpose a three-dimensional object to be manipulated on various objects included in the first stereo image, the depth of the display range of the objects included in the first stereo image is shortened. , the first right-eye image 22a and the first left-eye image 22b may be arranged. With such an arrangement, it is possible to reduce the amount of movement of the three-dimensional object when superimposing the three-dimensional object on various objects contained in the first stereo image. For example, the reception unit 12 may receive information from the user that instructs to change the distance from the viewpoints 23a and 23b to the intersection of the straight lines 26a and 26b. Then, the placement unit 13 changes the placement of the first right-eye image 22a and the first left-eye image so that the position of the intersection of the straight lines 26a and 26b is changed according to the received information. may In this way, for example, it is also possible to change the depth of the first stereo image in response to an input from the user. By arranging the first right-eye image 22a and the first left-eye image 22b so that the straight lines 26a and 26b intersect, the sense of depth of the first stereo image can be adjusted in this way.

次に、第1のステレオ画像に含まれるオブジェクトの距離に応じて、3次元仮想空間において、第1の右目用画像22a及び第1の左目用画像22bが配置される場合について説明する。この場合には、画像合成装置1は、図13で示されるように、特定部17をさらに備えてもよい。なお、図9を用いて説明したように、図13で示される画像合成装置1も、判定部16をさらに備え、出力部15は、その判定部16による判定結果に関する出力をも行ってもよい。 Next, a case will be described in which the first right-eye image 22a and the first left-eye image 22b are arranged in the three-dimensional virtual space according to the distance of the object included in the first stereo image. In this case, the image synthesizing device 1 may further include a specifying unit 17 as shown in FIG. 9, the image synthesizing apparatus 1 shown in FIG. 13 may further include a determination unit 16, and the output unit 15 may also output the result of determination by the determination unit 16. .

特定部17は、第1のステレオ画像に含まれる所定のオブジェクトの距離を特定する。この距離は、例えば、所定のオブジェクトに関する第1の右目用画像22aと第1の左目用画像22bとにおける視差、カメラ21a、21bの焦点距離、カメラ21a、21b間の距離等を用いて算出されてもよい。このように、第1のステレオ画像に含まれる距離の計測対象のオブジェクトが決まれば、そのオブジェクトまでの距離を算出することができる。なお、その算出された距離は、例えば、3次元仮想空間における距離に換算されて後段の処理で用いられてもよい。 The specifying unit 17 specifies the distance of a predetermined object included in the first stereo image. This distance is calculated using, for example, the parallax between the first right-eye image 22a and the first left-eye image 22b regarding a predetermined object, the focal length of the cameras 21a and 21b, the distance between the cameras 21a and 21b, and the like. may In this way, once the object whose distance is to be measured included in the first stereo image is determined, the distance to that object can be calculated. Note that the calculated distance may be converted into a distance in a three-dimensional virtual space and used in subsequent processing, for example.

距離の計測対象のオブジェクトは、例えば、第1のステレオ画像に含まれるすべてのオブジェクトであってもよい。この場合には、例えば、特定部17は、第1のステレオ画像に含まれる各オブジェクトを特定し、その特定した各オブジェクトについてそれぞれ距離を特定してもよい。オブジェクトの特定は、例えば、輪郭抽出や、画像セグメンテーションなどによって行われてもよい。なお、特定部17は、例えば、第1のステレオ画像に含まれる空や道路などの背景は、オブジェクトとして特定しなくてもよい。 Objects whose distances are to be measured may be, for example, all objects included in the first stereo image. In this case, for example, the specifying unit 17 may specify each object included in the first stereo image and specify the distance for each of the specified objects. Object identification may be performed, for example, by contour extraction, image segmentation, or the like. Note that the specifying unit 17 does not have to specify, for example, the background such as the sky or the road included in the first stereo image as an object.

また、距離の計測対象のオブジェクトは、例えば、ユーザによって指定されたオブジェクトであってもよい。この場合には、受付部12は、そのオブジェクトを指定する情報を受け付けてもよい。そして、受付部12によって受け付けられた情報によって指定されるオブジェクトが、距離の計測対象のオブジェクトとなってもよい。オブジェクトを指定する情報は、例えば、画像におけるオブジェクトの位置を指定する情報であってもよく、オブジェクトの種類を指定する情報(例えば、「手」や「ボール」など)であってもよい。オブジェクトの位置の指定は、例えば、点状の位置の指定や、矩形状の領域の指定によって行われてもよい。また、オブジェクトの種類を指定する情報の受け付けは、例えば、キーボードなどの入力デバイスからの受け付けであってもよく、記録媒体からの情報の読み出しであってもよく、マイクなどから入力された音声に関する音声認識結果の受け付けであってもよく、オブジェクトの種類を指定するその他の情報の受け付けであってもよい。この場合には、受付部12は、例えば、複数種類の受け付け、すなわち、3次元オブジェクトの操作の受け付けと、オブジェクトを指定する情報の受け付けとを行うものであってもよい。 Also, the object whose distance is to be measured may be, for example, an object designated by the user. In this case, the receiving unit 12 may receive information designating the object. Then, the object specified by the information received by the receiving unit 12 may be the object whose distance is to be measured. The information designating the object may be, for example, information designating the position of the object in the image, or information designating the type of object (for example, "hand" or "ball"). The designation of the position of the object may be performed by, for example, designation of a point-like position or designation of a rectangular area. Also, the reception of information specifying the type of object may be, for example, reception from an input device such as a keyboard, or reading of information from a recording medium. It may be reception of the voice recognition result, or reception of other information specifying the type of object. In this case, the reception unit 12 may perform, for example, a plurality of types of reception, that is, reception of operation of the three-dimensional object and reception of information designating the object.

オブジェクトを指定する情報がオブジェクトの位置を指定する情報である場合には、特定部17は、例えば、その指定された位置に表示されているオブジェクトを特定し、その特定したオブジェクトの距離を特定してもよく、または、その指定された位置に対応する第1の右目用画像22a及び第1の左目用画像22bにおける位置を特定し、その特定した位置に関する距離を特定してもよい。また、オブジェクトを指定する情報がオブジェクトの種類を特定する情報である場合には、特定部17は、例えば、その種類のオブジェクトを第1の右目用画像22a及び第1の左目用画像22bにおいて特定し、その特定したオブジェクトの距離を特定してもよい。受け付けられた種類のオブジェクトを特定する方法としては、例えば、パターンマッチングによって、画像中のオブジェクトの位置を特定する方法や、画像セグメンテーションによって特定した画像の各画素に対応する種類から、受け付けられた種類の領域を特定する方法、物体検出によって、受け付けられた種類のオブジェクトに関する画像中の領域を特定する方法などが用いられてもよい。 When the information specifying the object is the information specifying the position of the object, the specifying unit 17, for example, specifies the object displayed at the specified position, and specifies the distance to the specified object. Alternatively, a position in the first right-eye image 22a and the first left-eye image 22b corresponding to the specified position may be specified, and the distance related to the specified position may be specified. Further, when the information specifying an object is information specifying the type of object, the specifying unit 17 specifies the type of object in the first right-eye image 22a and the first left-eye image 22b, for example. and determine the distance of the identified object. Examples of the method of identifying the accepted type of object include a method of identifying the position of an object in an image by pattern matching, and a method of identifying the accepted type from the types corresponding to each pixel of the image identified by image segmentation. , object detection to identify areas in the image for objects of the accepted type, and the like.

オブジェクトを指定する情報がオブジェクトの位置を指定する情報である場合には、例えば、その位置の指定されたフレームにおいて、距離の特定が行われてもよい。また、オブジェクトを指定する情報がオブジェクトの種類を指定する情報である場合には、距離の計測対象のオブジェクトの特定は、例えば、第1のステレオ画像が動画像である場合に、特定のフレームについて行われてもよく、または、複数のフレームについて繰り返して行われてもよい。前者の場合には、例えば、第2のステレオ画像である動画の出力中に、受付部12によって所定のオブジェクトを指定する情報が受け付けられた際に、その時点のフレームについてオブジェクトの特定が行われてもよい。また、後者の場合、すなわち複数のフレームについてオブジェクトの特定が行われる場合には、例えば、所定の間隔のフレームごとにオブジェクトの特定が行われてもよい。なお、第1のステレオ画像がリアルタイムで受け付けられ、その受け付けられた第1のステレオ画像を用いて第2のステレオ画像がリアルタイムで生成される場合には、例えば、オブジェクトの特定もリアルタイムで行われてもよい。一方、第1のステレオ画像があらかじめ記憶部11で記憶されている場合には、例えば、オブジェクトの特定は、第2のステレオ画像が生成されるまでにあらかじめ行われてもよい。 If the information specifying the object is information specifying the position of the object, the distance may be specified, for example, in the frame in which the position is specified. Further, when the information designating the object is information designating the type of the object, the identification of the object whose distance is to be measured is performed, for example, when the first stereo image is a moving image, for a specific frame. may be performed, or may be performed repeatedly for multiple frames. In the former case, for example, when information designating a predetermined object is received by the receiving unit 12 during output of a moving image that is the second stereo image, the object is specified for the frame at that time. may In the latter case, that is, when the object is specified for a plurality of frames, the object may be specified for each frame at a predetermined interval, for example. Note that when the first stereo image is accepted in real time and the second stereo image is generated in real time using the accepted first stereo image, for example, the identification of the object is also performed in real time. may On the other hand, when the first stereo image is stored in the storage unit 11 in advance, for example, the object may be specified in advance before the second stereo image is generated.

3次元仮想空間において、第1の右目用画像22a及び第1の左目用画像22bは、特定部17によって特定された最も長い距離を超える距離に対応する点が重なるように配置されてもよい。このようにすることで、特定部17によって特定されたオブジェクトが、3次元仮想空間において、第1のステレオ画像よりも手前側に表示されることになり、例えば、そのオブジェクトに3次元オブジェクトを重ねることができるようになる。なお、複数のオブジェクトの距離が特定された場合には、複数の距離のうち、最も長い距離を超える距離に対応する点が重なるように第1のステレオ画像が配置されることが好適である。また、複数のフレームについてオブジェクトの距離が特定された場合には、例えば、特定された距離のうち、最も長い距離を超える距離に対応する点が重なるように第1のステレオ画像が配置されることが好適である。なお、特定された最も長い距離を超える距離は、例えば、特定された最も長い距離に、あらかじめ決められた距離を加算した距離であってもよい。加算対象であるあらかじめ決められた距離は、例えば、第1のステレオ画像に含まれるオブジェクトに、3次元オブジェクトを重ねるための操作を行う際に発生し得る両オブジェクトの位置ずれ以上の長さであってもよい。このようにすることで、そのような位置ずれが発生したとしても、3次元オブジェクトが第1のステレオ画像の背面側に位置することを回避できる。なお、このような第1のステレオ画像の配置は、例えば、配置部13によって行われてもよい。 In the three-dimensional virtual space, the first right-eye image 22a and the first left-eye image 22b may be arranged such that points corresponding to distances exceeding the longest distance specified by the specifying unit 17 overlap. By doing so, the object specified by the specifying unit 17 is displayed in front of the first stereo image in the three-dimensional virtual space. be able to In addition, when the distances of a plurality of objects are specified, it is preferable that the first stereo image is arranged so that the point corresponding to the distance exceeding the longest distance among the plurality of distances overlaps. Further, when the object distance is specified for a plurality of frames, for example, the first stereo image is arranged so that the point corresponding to the distance exceeding the longest distance among the specified distances overlaps. is preferred. Note that the distance exceeding the specified longest distance may be, for example, a distance obtained by adding a predetermined distance to the specified longest distance. The predetermined distance to be added is, for example, a length equal to or greater than a positional deviation between the objects included in the first stereo image that may occur when performing an operation to superimpose the three-dimensional object on the object. may By doing so, it is possible to prevent the three-dimensional object from being located on the back side of the first stereo image even if such positional deviation occurs. Note that such placement of the first stereo images may be performed by the placement unit 13, for example.

なお、特定部17を用いることなく、3次元オブジェクトが第1の右目用画像22a及び第1の左目用画像22bの背面側に位置することを回避するようにしてもよい。この場合には、所定の距離に対応する点が重なるように、第1のステレオ画像が3次元仮想空間に配置されている際に、操作対象の3次元オブジェクトまでの距離が、その所定の距離に近づいたとき(すなわち、3次元オブジェクトが第1のステレオ画像に近づいたとき)に、配置部13は、その所定の距離を増やして第1のステレオ画像を配置してもよい。例えば、視点23a,23bから3次元オブジェクトまでの距離に、あらかじめ決められた距離を加算した距離が、その所定の距離になった場合に、配置部13は、その所定の距離よりも長い距離に対応する点が重なるように、第1のステレオ画像を3次元仮想空間において再配置してもよい。所定の距離よりも長い距離は、例えば、所定の距離に、既定の距離を加算した距離であってもよい。なお、配置部13は、例えば、第2のステレオ画像の生成や出力が行われている際に、リアルタイムで第1のステレオ画像の再配置を行ってもよい。そのため、第1のステレオ画像の再配置は、例えば、3次元オブジェクトの操作に応じて繰り返して行われてもよい。 Note that the three-dimensional object may be prevented from being positioned behind the first right-eye image 22a and the first left-eye image 22b without using the specifying unit 17. FIG. In this case, when the first stereo image is arranged in the three-dimensional virtual space so that the points corresponding to the predetermined distance overlap, the distance to the three-dimensional object to be operated is the predetermined distance. (that is, when the three-dimensional object approaches the first stereo image), the placement unit 13 may increase the predetermined distance and place the first stereo image. For example, when the distance obtained by adding a predetermined distance to the distance from the viewpoints 23a and 23b to the three-dimensional object becomes the predetermined distance, the placement unit 13 sets the distance longer than the predetermined distance. The first stereo image may be rearranged in the three-dimensional virtual space such that corresponding points overlap. A distance longer than the predetermined distance may be, for example, a distance obtained by adding a predetermined distance to the predetermined distance. Note that the placement unit 13 may rearrange the first stereo image in real time, for example, while the second stereo image is being generated or output. Therefore, the rearrangement of the first stereo image may be performed repeatedly according to the manipulation of the three-dimensional object, for example.

第1のステレオ画像の再配置の方法として、例えば、図11に示されるように、第1の右目用画像22a及び第1の左目用画像22bを、視点23a,23bからの画角を変えることなく、奥側に移動させる方法と、図12に示されるように、第1の右目用画像22a及び第1の左目用画像22bを、視点23a,23bからの距離を変えることなく、画像の面方向に移動させる方法とがある。後者の場合には、第1のステレオ画像の配置を変えることによって、第1のステレオ画像に含まれるオブジェクトの奥行き感が変化することになり、それに伴って、3次元仮想空間に配置されている3次元オブジェクトの合成位置も変化することになる。そのため、それらの変化を生じさせない観点からは、図11に示されるように画角を変えることなく第1のステレオ画像の配置位置を奥側に移動させる方法によって第1のステレオ画像を再配置することが好適である。なお、第1のステレオ画像のより短い距離の移動によって、3次元オブジェクトが第1のステレオ画像の背面側に位置しないようにすることができるのは、直線26a,26bが交わるように第1のステレオ画像が配置されているからである。したがって、この場合にも、直線26a,26bが交わるように第1のステレオ画像が再配置されることが好適である。 As a method of rearranging the first stereo image, for example, as shown in FIG. 12, the first right-eye image 22a and the first left-eye image 22b are moved to the plane of the image without changing the distance from the viewpoints 23a and 23b. There is a method of moving in a direction. In the latter case, by changing the arrangement of the first stereo image, the sense of depth of the objects included in the first stereo image changes, and accordingly the objects are arranged in the three-dimensional virtual space. The composite position of the three-dimensional object will also change. Therefore, from the viewpoint of not causing these changes, the first stereo image is rearranged by a method of moving the arrangement position of the first stereo image to the back side without changing the angle of view as shown in FIG. is preferred. It should be noted that moving the first stereo image by a shorter distance can prevent the three-dimensional object from being positioned behind the first stereo image by moving the first stereo image so that the straight lines 26a and 26b intersect. This is because stereo images are arranged. Therefore, in this case as well, it is preferable to rearrange the first stereo image so that the straight lines 26a and 26b intersect.

なお、第1のステレオ画像を再配置することによって、3次元オブジェクトが第1のステレオ画像の背面側に位置することを回避する場合には、例えば、配置部13は、第1の右目用画像22a及び第1の左目用画像22bが、所定の距離に対応する点が重なるように3次元仮想空間に配置されているときに、3次元オブジェクトの位置に応じて、その所定の距離を長くするための第1のステレオ画像の再配置のみを行い、3次元オブジェクトの位置が視点23a,23bに近づいたとしても、その所定の距離を短くするための第1のステレオ画像の再配置は行わなくてもよい。 When rearranging the first stereo image to prevent the three-dimensional object from being positioned on the back side of the first stereo image, for example, the arrangement unit 13 rearranges the first image for the right eye. 22a and the first left-eye image 22b are arranged in a three-dimensional virtual space so that points corresponding to a predetermined distance overlap, the predetermined distance is lengthened according to the position of the three-dimensional object. Even if the position of the three-dimensional object approaches the viewpoints 23a and 23b, the first stereo image is not rearranged to shorten the predetermined distance. may

また、第1の直線26aと第2の直線26bとが交わるように、3次元仮想空間において第1のステレオ画像を配置することや、3次元仮想空間において、所定の距離に対応する点が重なるようにステレオ画像を配置すること、その所定の距離が、特定部17によって特定された最も長い距離を超えるようにすること、または、3次元オブジェクトが第1のステレオ画像に近づいた場合に、第1のステレオ画像を再配置することなどは、例えば、光軸が交わるように配置された一対のカメラによって撮影された第1のステレオ画像について行われてもよいことは言うまでもない。 Alternatively, the first stereo image may be arranged in the three-dimensional virtual space so that the first straight line 26a and the second straight line 26b intersect, or points corresponding to a predetermined distance may overlap in the three-dimensional virtual space. arranging the stereo images so that the predetermined distance exceeds the longest distance specified by the specifying unit 17, or when the three-dimensional object approaches the first stereo image, the first Needless to say, the rearrangement of one stereo image may be performed, for example, on the first stereo image taken by a pair of cameras arranged so that their optical axes intersect.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Further, in the above embodiments, each process or function may be implemented by centralized processing by a single device or single system, or may be implemented by distributed processing by multiple devices or multiple systems. It may be realized by

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 Further, in the above-described embodiment, when the information is passed between the components, for example, when the two components that exchange the information are physically different, one of the components output of information and reception of information by the other component, or one component if the two components that pass the information are physically the same from the phase of processing corresponding to the other component to the phase of processing corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component Also, information such as thresholds, formulas, addresses, etc. used by each component in processing may be stored temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, each component or an accumulation section (not shown) may accumulate information in the recording medium (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 Further, in the above embodiment, if the information used in each component etc., for example, information such as thresholds, addresses and various set values used in processing by each component may be changed by the user, the above The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information according to the change instruction. may The reception of the change instruction by the reception unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .

また、上記実施の形態において、画像合成装置1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。 Further, in the above embodiment, when two or more components included in the image synthesizing apparatus 1 have communication devices, input devices, etc., the two or more components may physically have a single device. or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。なお、上記実施の形態における画像合成装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部にアクセス可能なコンピュータを、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部、右目用視点と第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように第1の右目用画像及び第1の左目用画像が配置される3次元仮想空間を除く)に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部、第2のステレオ画像を出力する出力部として機能させるためのプログラムである。 Further, in the above embodiments, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU. During the execution, the program execution unit may execute the program while accessing the storage unit or recording medium. The software that implements the image synthesizing device 1 in the above embodiment is the following program. In other words, this program causes a computer capable of accessing a storage unit in which a first stereo image having a first right-eye image and a first left-eye image is stored to a three-dimensional object arranged in a three-dimensional virtual space. a first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a point corresponding to infinity on the left-eye viewpoint and the first left-eye image A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that a second straight line connecting an arrangement unit for arranging a 3D object according to the operation received by the reception unit, a 3D virtual space in which the 3D object is arranged (excluding the 3D virtual space in which the image and the first image for the left eye are arranged); In space, a second right-eye image, which is an image from the right-eye viewpoint when the first right-eye image is displayed, and an image from the left-eye viewpoint when the first left-eye image is displayed. A program for functioning as a generation unit that generates a second stereo image including a certain second left-eye image and an output unit that outputs the second stereo image.

また、上記実施の形態における画像合成装置1を実現するソフトウェアは、以下のようなプログラムであってもよい。このプログラムは、第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部にアクセス可能なコンピュータを、3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部、第1の右目用画像及び第1の左目用画像の配置される3次元仮想空間に、受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部、3次元オブジェクトの配置された3次元仮想空間において、第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部、第2のステレオ画像を出力する出力部として機能させるためのプログラムである。 Further, the software that realizes the image synthesizing device 1 in the above embodiment may be the following program. This program manipulates a three-dimensional object placed in a three-dimensional virtual space by a computer having access to a storage unit in which a first stereo image having a first right-eye image and a first left-eye image is stored. a receiving unit for receiving; a placing unit for placing a three-dimensional object according to an operation received by the receiving unit in a three-dimensional virtual space in which the first right-eye image and the first left-eye image are placed; In the three-dimensional virtual space in which the first right-eye image is displayed and the second right-eye image, which is an image from the right-eye viewpoint, and the first left-eye image are displayed A program for functioning as a generation unit that generates a second stereo image including a second left eye image that is an image from a left eye viewpoint, and an output unit that outputs the second stereo image.

なお、上記プログラムにおいて、上記プログラムが実現する機能には、ハードウェアでしか実現できない機能は含まれない。例えば、情報を受け付ける受付部や、情報を出力する出力部などにおけるモデムやインターフェースカードなどのハードウェアでしか実現できない機能は、上記プログラムが実現する機能には少なくとも含まれない。 In the program, the functions realized by the program do not include functions that can be realized only by hardware. For example, functions that can be realized only by hardware such as a modem or an interface card, such as a reception unit that receives information and an output unit that outputs information, are not included in the functions realized by the program.

また、このプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、CD-ROMなどの光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。 Also, this program may be executed by being downloaded from a server or the like, and the program recorded on a predetermined recording medium (for example, an optical disk such as a CD-ROM, a magnetic disk, a semiconductor memory, etc.) may be read. may be performed by Also, this program may be used as a program constituting a program product.

また、このプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Also, the number of computers executing this program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

図14は、上記プログラムを実行して、上記実施の形態による画像合成装置1を実現するコンピュータの外観の一例を示す模式図である。上記実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムによって実現されうる。 FIG. 14 is a schematic diagram showing an example of the appearance of a computer that implements the image synthesizing device 1 according to the above embodiment by executing the above program. The above embodiments can be implemented by computer hardware and computer programs executed thereon.

図14において、コンピュータシステム900は、CD-ROMドライブ905を含むコンピュータ901と、キーボード902と、マウス903と、モニタ904とを備える。 In FIG. 14, computer system 900 comprises computer 901 including CD-ROM drive 905 , keyboard 902 , mouse 903 and monitor 904 .

図15は、コンピュータシステム900の内部構成を示す図である。図15において、コンピュータ901は、CD-ROMドライブ905に加えて、MPU(Micro Processing Unit)911と、ブートアッププログラム等のプログラムを記憶するためのROM912と、MPU911に接続され、アプリケーションプログラムの命令を一時的に記憶すると共に、一時記憶空間を提供するRAM913と、アプリケーションプログラム、システムプログラム、及びデータを記憶するハードディスク914と、MPU911、ROM912等を相互に接続するバス915とを備える。なお、コンピュータ901は、LANやWAN等への接続を提供する図示しないネットワークカードを含んでいてもよい。 FIG. 15 is a diagram showing the internal configuration of the computer system 900. As shown in FIG. In FIG. 15, a computer 901 includes a CD-ROM drive 905, an MPU (Micro Processing Unit) 911, a ROM 912 for storing programs such as a boot-up program, and a ROM 912 for storing programs such as a boot-up program. A RAM 913 for temporarily storing and providing a temporary storage space, a hard disk 914 for storing application programs, system programs and data, and a bus 915 for interconnecting the MPU 911, ROM 912 and the like are provided. Note that the computer 901 may include a network card (not shown) that provides connection to a LAN, WAN, or the like.

コンピュータシステム900に、上記実施の形態による画像合成装置1の機能を実行させるプログラムは、CD-ROM921に記憶されて、CD-ROMドライブ905に挿入され、ハードディスク914に転送されてもよい。これに代えて、そのプログラムは、図示しないネットワークを介してコンピュータ901に送信され、ハードディスク914に記憶されてもよい。プログラムは実行の際にRAM913にロードされる。なお、プログラムは、CD-ROM921、またはネットワークから直接、ロードされてもよい。また、CD-ROM921に代えて他の記録媒体(例えば、DVD等)を介して、プログラムがコンピュータシステム900に読み込まれてもよい。 A program that causes computer system 900 to execute the functions of image synthesizing apparatus 1 according to the above embodiment may be stored in CD-ROM 921 , inserted into CD-ROM drive 905 , and transferred to hard disk 914 . Alternatively, the program may be transmitted to computer 901 via a network (not shown) and stored in hard disk 914 . Programs are loaded into RAM 913 during execution. The program may be loaded directly from the CD-ROM 921 or network. Also, the program may be read into the computer system 900 via another recording medium (eg, DVD, etc.) instead of the CD-ROM 921 .

プログラムは、コンピュータ901に、上記実施の形態による画像合成装置1の機能を実行させるオペレーティングシステム(OS)、またはサードパーティプログラム等を必ずしも含んでいなくてもよい。プログラムは、制御された態様で適切な機能やモジュールを呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいてもよい。コンピュータシステム900がどのように動作するのかについては周知であり、詳細な説明は省略する。 The program does not necessarily include an operating system (OS) or a third party program that causes the computer 901 to execute the functions of the image synthesizing apparatus 1 according to the above embodiment. A program may contain only those portions of instructions that call the appropriate functions or modules in a controlled manner to produce the desired result. How the computer system 900 operates is well known and will not be described in detail.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 Moreover, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

1 画像合成装置
11 記憶部
12 受付部
13 配置部
14 生成部
15 出力部
16 判定部
17 特定部
REFERENCE SIGNS LIST 1 image synthesizing device 11 storage unit 12 reception unit 13 placement unit 14 generation unit 15 output unit 16 determination unit 17 identification unit

Claims (12)

第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部と、
3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部と、
右目用視点と前記第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と前記第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間を除く)に、前記受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部と、
前記3次元オブジェクトの配置された3次元仮想空間において、前記第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び前記第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部と、
前記第2のステレオ画像を出力する出力部と、を備えた画像合成装置。
a storage unit storing a first stereo image having a first right-eye image and a first left-eye image;
a reception unit that receives an operation of a three-dimensional object placed in a three-dimensional virtual space;
A first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a second straight line connecting the left-eye viewpoint and a point corresponding to infinity on the first left-eye image. A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that the straight lines of an arrangement unit that arranges a three-dimensional object according to the operation received by the reception unit (excluding the three-dimensional virtual space in which the first left-eye image is arranged);
In the three-dimensional virtual space in which the three-dimensional object is arranged, a second right-eye image and the first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed. a generation unit that generates a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where is displayed;
and an output unit that outputs the second stereo image.
前記3次元仮想空間では、所定の距離に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される、請求項1記載の画像合成装置。 2. The image synthesizing device according to claim 1, wherein said first right-eye image and said first left-eye image are arranged such that points corresponding to a predetermined distance overlap in said three-dimensional virtual space. 前記第1のステレオ画像に含まれる所定のオブジェクトの距離を特定する特定部をさらに備え、
前記所定の距離は、前記特定部によって特定された最も長い距離を超えている、請求項2記載の画像合成装置。
further comprising a specifying unit that specifies the distance of a predetermined object included in the first stereo image,
3. The image synthesizing device according to claim 2, wherein said predetermined distance exceeds the longest distance specified by said specifying unit.
前記所定のオブジェクトは、前記第1のステレオ画像に含まれるすべてのオブジェクトである、請求項3記載の画像合成装置。 4. The image synthesizing device according to claim 3, wherein said predetermined objects are all objects included in said first stereo image. 前記受付部は、前記所定のオブジェクトを指定する情報をも受け付け、
前記所定のオブジェクトは、前記受付部によって受け付けられた情報によって指定されるオブジェクトである、請求項3記載の画像合成装置。
The receiving unit also receives information designating the predetermined object,
4. The image synthesizing device according to claim 3, wherein said predetermined object is an object designated by information received by said receiving unit.
前記配置部は、前記3次元オブジェクトまでの距離が前記所定の距離に近づいた場合には、前記所定の距離を増やして前記第1のステレオ画像を配置する、請求項2記載の画像合成装置。 3. The image synthesizing device according to claim 2, wherein when the distance to said three-dimensional object approaches said predetermined distance, said placement unit increases said predetermined distance and places said first stereo image. 前記第1のステレオ画像は、光軸が平行となるように配置された一対のカメラによって撮影されたものである、請求項1から請求項6のいずれか記載の画像合成装置。 7. The image synthesizing apparatus according to claim 1, wherein said first stereo image is captured by a pair of cameras arranged so that their optical axes are parallel. 前記第1のステレオ画像は、光軸が交わるように配置された一対のカメラによって撮影されたものである、請求項1から請求項6のいずれか記載の画像合成装置。 7. The image synthesizing device according to claim 1, wherein said first stereo image is captured by a pair of cameras arranged so that their optical axes intersect. 前記第1のステレオ画像、及び前記第2のステレオ画像は動画像である、請求項1から請求項8のいずれか記載の画像合成装置。 9. The image synthesizing device according to claim 1, wherein said first stereo image and said second stereo image are moving images. 前記3次元仮想空間に配置された前記第1の右目用画像及び前記第1の左目用画像から、前記第1のステレオ画像に含まれるオブジェクトの前記3次元仮想空間における位置を特定し、当該特定した位置と、前記3次元オブジェクトの位置との関係に関する判定を行う判定部をさらに備え、
前記出力部は、前記判定部による判定結果に関する出力をも行う、請求項1から請求項9のいずれか記載の画像合成装置。
specifying a position in the three-dimensional virtual space of an object included in the first stereo image from the first right-eye image and the first left-eye image arranged in the three-dimensional virtual space; and a determination unit that determines the relationship between the position of the three-dimensional object and the position of the three-dimensional object,
10. The image synthesizing device according to claim 1, wherein said output unit also outputs a result of determination by said determination unit.
3次元仮想空間に配置される3次元オブジェクトの操作を受け付けるステップと、
第1のステレオ画像が有する第1の右目用画像及び第1の左目用画像が、右目用視点と前記第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と前記第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間を除く)に、前記受け付けられた操作に応じた3次元オブジェクトを配置するステップと、
前記3次元オブジェクトの配置された3次元仮想空間において、前記第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び前記第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成するステップと、
前記第2のステレオ画像を出力するステップと、を備えた画像合成方法。
receiving an operation of a three-dimensional object placed in a three-dimensional virtual space;
A first right-eye image and a first left-eye image included in a first stereo image are a first straight line connecting a right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a left eye. A three-dimensional virtual space arranged so that a second straight line connecting the viewpoint and a point corresponding to infinity in the first image for left eye intersects arranging the 3D object according to the accepted operation in a 3D virtual space (excluding the 3D virtual space in which the first right-eye image and the first left-eye image are arranged);
In the three-dimensional virtual space in which the three-dimensional object is arranged, a second right-eye image and the first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed. generating a second stereo image including a second left-eye image that is an image from a left-eye viewpoint when is displayed;
and outputting the second stereo image.
第1の右目用画像及び第1の左目用画像を有する第1のステレオ画像が記憶される記憶部にアクセス可能なコンピュータを、
3次元仮想空間に配置される3次元オブジェクトの操作を受け付ける受付部、
右目用視点と前記第1の右目用画像の無限遠に対応する点とを結ぶ第1の直線、及び左目用視点と前記第1の左目用画像の無限遠に対応する点とを結ぶ第2の直線が交わるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間(ただし、無限遠に対応する点が重なるように前記第1の右目用画像及び前記第1の左目用画像が配置される3次元仮想空間を除く)に、前記受付部によって受け付けられた操作に応じた3次元オブジェクトを配置する配置部、
前記3次元オブジェクトの配置された3次元仮想空間において、前記第1の右目用画像が表示された状態における右目用視点からの画像である第2の右目用画像、及び前記第1の左目用画像が表示された状態における左目用視点からの画像である第2の左目用画像を含む第2のステレオ画像を生成する生成部、
前記第2のステレオ画像を出力する出力部として機能させるためのプログラム。
a computer accessible to storage in which a first stereo image having a first right eye image and a first left eye image is stored;
a reception unit that receives an operation of a three-dimensional object placed in a three-dimensional virtual space;
A first straight line connecting the right-eye viewpoint and a point corresponding to infinity on the first right-eye image, and a second straight line connecting the left-eye viewpoint and a point corresponding to infinity on the first left-eye image. A three-dimensional virtual space in which the first right-eye image and the first left-eye image are arranged so that the straight lines of an arrangement unit that arranges a three-dimensional object according to the operation received by the reception unit (excluding the three-dimensional virtual space in which the first left-eye image is arranged);
In the three-dimensional virtual space in which the three-dimensional object is arranged, a second right-eye image and the first left-eye image, which are images from a right-eye viewpoint in a state where the first right-eye image is displayed. A generation unit that generates a second stereo image including a second left-eye image that is an image from a left-eye viewpoint in a state where is displayed;
A program for functioning as an output unit that outputs the second stereo image.
JP2021169080A 2020-12-28 2021-10-14 Image compositing device, image compositing method, and program Active JP7044426B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021169080A JP7044426B1 (en) 2021-10-14 2021-10-14 Image compositing device, image compositing method, and program
CN202180093703.1A CN116917951A (en) 2020-12-28 2021-12-27 Image synthesizing device, image synthesizing method, and program
PCT/JP2021/048501 WO2022145414A1 (en) 2020-12-28 2021-12-27 Image compositing device, image compositing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021169080A JP7044426B1 (en) 2021-10-14 2021-10-14 Image compositing device, image compositing method, and program

Publications (2)

Publication Number Publication Date
JP7044426B1 JP7044426B1 (en) 2022-03-30
JP2023059137A true JP2023059137A (en) 2023-04-26

Family

ID=81215159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021169080A Active JP7044426B1 (en) 2020-12-28 2021-10-14 Image compositing device, image compositing method, and program

Country Status (2)

Country Link
JP (1) JP7044426B1 (en)
CN (1) CN116917951A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412826B1 (en) 2023-07-28 2024-01-15 株式会社計数技研 Video compositing device, video compositing method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188034A (en) * 1996-12-28 1998-07-21 Olympus Optical Co Ltd Three-dimensional image generator and distance operating device
JP2002044683A (en) * 2000-07-19 2002-02-08 Yasushi Haruta Video camera for three-dimensional image and three- dimensional image-reproducing device
JP2003107603A (en) * 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
JP2005165614A (en) * 2003-12-02 2005-06-23 Canon Inc Device and method for synthesizing picture
JP2012216077A (en) * 2011-03-31 2012-11-08 Fujifilm Corp Augmented reality providing device and superimposition method of virtual object
JP2014505917A (en) * 2010-12-03 2014-03-06 クゥアルコム・インコーポレイテッド Hybrid reality for 3D human machine interface
WO2020017261A1 (en) * 2018-07-20 2020-01-23 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188034A (en) * 1996-12-28 1998-07-21 Olympus Optical Co Ltd Three-dimensional image generator and distance operating device
JP2002044683A (en) * 2000-07-19 2002-02-08 Yasushi Haruta Video camera for three-dimensional image and three- dimensional image-reproducing device
JP2003107603A (en) * 2001-09-28 2003-04-09 Namco Ltd Stereophonic image generating device, stereophonic image generation information and information storage medium
JP2005165614A (en) * 2003-12-02 2005-06-23 Canon Inc Device and method for synthesizing picture
JP2014505917A (en) * 2010-12-03 2014-03-06 クゥアルコム・インコーポレイテッド Hybrid reality for 3D human machine interface
JP2012216077A (en) * 2011-03-31 2012-11-08 Fujifilm Corp Augmented reality providing device and superimposition method of virtual object
WO2020017261A1 (en) * 2018-07-20 2020-01-23 ソニー株式会社 Information processing device, information processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412826B1 (en) 2023-07-28 2024-01-15 株式会社計数技研 Video compositing device, video compositing method, and program

Also Published As

Publication number Publication date
CN116917951A (en) 2023-10-20
JP7044426B1 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
JP7068562B2 (en) Techniques for recording augmented reality data
US11010958B2 (en) Method and system for generating an image of a subject in a scene
JP6340017B2 (en) An imaging system that synthesizes a subject and a three-dimensional virtual space in real time
US7321682B2 (en) Image generation system, image generation method, program, and information storage medium
JP4917664B1 (en) Image display device, game program, and game control method
JP2012058968A (en) Program, information storage medium and image generation system
JP2005295004A (en) Stereoscopic image processing method and apparatus thereof
JP2018523326A (en) Full spherical capture method
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
JP2003107603A (en) Stereophonic image generating device, stereophonic image generation information and information storage medium
WO2018151038A1 (en) Image generation device and image generation method
JP2003284093A (en) Stereoscopic image processing method and apparatus therefor
JP7044426B1 (en) Image compositing device, image compositing method, and program
KR20190074911A (en) Method for providing realistic type image contents and server using the same
JP2002300611A (en) Image generating device, program, and information recording medium
JP2012106005A (en) Image display device, game program, and game control method
JP2003284095A (en) Stereoscopic image processing method and apparatus therefor
JP2016192029A (en) Image generation system and program
JP2012141820A (en) Program, information storage medium, image generation system and server system
JP7387286B2 (en) Information processing device, information processing method, and program
KR102453296B1 (en) Information processing apparatus, control method therefor and computer program
WO2022145414A1 (en) Image compositing device, image compositing method, and program
JP6959682B1 (en) Image synthesizer, image synthesizer, and program
JP4624588B2 (en) Image generating apparatus, program, and information storage medium
JP2012141826A (en) Program, information storage medium, image generation system and server system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211015

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220310

R150 Certificate of patent or registration of utility model

Ref document number: 7044426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150